La inteligencia artificial (IA) ha pasado de ser una mera curiosidad a convertirse en una herramienta tangible para los ciberdelincuentes experimentados. Google ha confirmado la intercepción del primer exploit de día cero desarrollado con inteligencia artificial, cuyo objetivo era comprometer la autenticación de dos pasos de una herramienta ampliamente utilizada.
Según informes del blog de seguridad de Google Cloud, el equipo de Google Threat Intelligence Group (GTIG) ha detectado la primera vulnerabilidad de día cero generada mediante modelos de lenguaje. Este exploit, un script en Python, estaba diseñado para sortear el sistema de autenticación de dos factores (2FA) de una herramienta de administración web de código abierto, lo que habría permitido a los atacantes acceder a cuentas protegidas incluso con contraseñas válidas.
Los investigadores de Google notaron la intervención de IA al identificar «alucinaciones» y otras características típicas de un modelo de lenguaje grande (LLM). Entre ellas se encontraban una puntuación de riesgo CVSS inventada y una estructura excesivamente académica y ordenada, con documentación detallada y menús de ayuda, que sugerían que el código provenía de material de entrenamiento para IA.
Aunque el código parece ser generado por IA, Google no ha encontrado evidencia de que se haya utilizado Gemini específicamente para esta tarea. La compañía logró colaborar con el proveedor afectado para detener la campaña antes de que se ejecutara una explotación masiva planeada por los hackers. El informe también destaca una falla en la lógica del sistema 2FA que la IA ayudó a identificar: una suposición de confianza que había pasado desapercibida para las herramientas de detección convencionales.
Los ciberdelincuentes utilizan IA para el desarrollo de nuevos ataques
El informe del GTIG señala que los atacantes llevan meses empleando modelos de lenguaje para tareas que antes requerían un considerable esfuerzo humano. La IA les permite generar detalladas jerarquías de empresas objetivo, identificar el hardware específico utilizado por individuos y crear señuelos de phishing personalizados para empleados con acceso a datos sensibles.
Además de la generación de exploits, la IA está facilitando una fase de reconocimiento exhaustiva de las empresas, lo que resulta en ataques más creíbles. Google informa que grupos de hackers vinculados a China y Corea del Norte están implementando frameworks agénticos como Hexstrike y Strix. Estos sistemas utilizan herramientas de reconocimiento y arquitecturas multiagente para automatizar fases completas de un ataque con una mínima supervisión humana.
Para lograr sus objetivos, los atacantes recurren a técnicas de «jailbreaking» mediante la creación de perfiles falsos. Los hackers evaden las medidas de seguridad solicitando a la IA que adopte el rol de un experto en seguridad. Algunos alimentan a estos modelos con vastos repositorios de datos sobre vulnerabilidades para mejorar la precisión de los «payloads» antes de lanzarlos contra objetivos reales.
El informe concluye que el uso de la IA en operaciones ofensivas está evolucionando de un enfoque experimental a uno sistemático. Si bien los investigadores lograron detener este exploit específico, el patrón observado sugiere que casos similares seguirán surgiendo.
