Los factores de amenaza utilizan cada vez más las herramientas de IA generativas avanzadas, en particular el V0 de Vercel, para crear sitios de phishing muy engañosos diseñados para presentarse como páginas de inicio de sesión legítimas. Investigadores de la inteligencia de amenazas de Okta, Houssem Eddine Bordjiba y Paula de la Hoz, enfatizaron esta tendencia alarmante, que describen como una evolución importante en los métodos utilizados por los ciberdelincuentes. La posibilidad de V0 permite a los usuarios generar sitios web de phishing funcionales simplemente introduciendo indicaciones de texto básicas, por lo que es una herramienta accesible para actores de amenaza experimentados y iniciales.
VCEL’s V0 está diseñado como una plataforma impulsada por IA para hacer páginas de destino y aplicaciones de apilamiento completas, utilizando el procesamiento del lenguaje natural. En observaciones recientes, Okta ha informado que los atacantes usaron esta tecnología para simular diversos registros de marca, incluido el de un cliente del propio Okta. Después de recibir una divulgación responsable sobre los intentos de phishing, Vercel rápidamente tomó medidas, lo que bloqueó el acceso a los sitios fraudulentos. Los actores malignos no solo duplicaron logotipos de la empresa reconocibles, sino que también organizaron estos activos en la infraestructura de Vercel, utilizando el estado familiar de la plataforma para facilitar sus esquemas.
El aumento de herramientas como V0 y las contrapartes de código abierto disponibles en plataformas como GitHub, marca un punto de inflexión en el crimen cibernético. Los kits de phishing tradicionales a menudo requieren un conocimiento técnico avanzado y esfuerzos considerables para establecer. Tales herramientas generativas de IA, por otro lado, permiten a los atacantes producir páginas de phishing convincentes rápidamente y sin ninguna experiencia en codificación. Esta facilidad de uso reduce drásticamente el umbral de entrada para los posibles ciberdelincuentes, de modo que incluso las personas con habilidades mínimas pueden llevar a cabo operaciones de phishing a gran escala.
«Esta actividad ilustra cómo los actores actuales de amenaza no solo usan tácticas tradicionales, sino que también innovan integrando herramientas de IA generativas para mejorar sus posibilidades de phishing», dijeron los investigadores. La velocidad y la efectividad de plataformas como el V0.dev de Vercel, les da a estos delincuentes, por lo que la rápida creación de páginas de phishing de alta calidad puede facilitarse de que las víctimas desprevenidas pueden engañar.
Si bien esta tendencia se desarrolla, se conecta a un patrón más amplio en el que los ciberdelincuentes operan modelos de idiomas grandes (LLM) para promover sus actividades ilegales. Ciertas versiones no censuradas de LLM se usan especialmente para uso criminal, con un modelo, Whiterabbitneo, que se promueve como un «modelo de IA sin censura para los equipos (Dev) Secops». Investigadores como Jaeson Schultz de Cisco Talos enfatizan los peligros de estos modelos no censurados, que funcionan sin restricciones de seguridad y pueden generar contenido sensible o dañino a pedido.
La creciente dependencia de las herramientas de IA por los ciberdelincuentes conduce a un cambio transformador en las tácticas de phishing. Las estafas evolucionan de un engaño simple a sistemas extensos que están diseñados para la manipulación a gran escala, el uso de correos electrónicos falsos, voces clonadas e incluso videos de profundos para realizar ataques de ingeniería social. Este enfoque avanzado no solo permite a los atacantes escalar rápidamente sus actividades, sino que también mejora la efectividad de sus estafas, lo que hace que tanto individuos como organizaciones sean un riesgo considerable. A medida que el paisaje del crimen cibernético continúa evolucionando, la vigilancia y las medidas proactivas siguen siendo críticas para combatir estas amenazas emergentes.