Tecnología

Una IA escribió un exploit de día cero y Google lo descubrió antes del ataque

Susan Hill

El exploit apuntaba a la autenticación en dos pasos, esa segunda capa de verificación que protege casi todas las cuentas que importan: correo, banca, almacenamiento en la nube, accesos laborales. La vulnerabilidad, un fallo de lógica semántica en el código Python de la herramienta, permitía a un atacante que ya disponía de credenciales robadas saltarse la comprobación 2FA activando una excepción codificada que los desarrolladores nunca pensaron exponer. Google detectó el problema, lo comunicó al fabricante para que publicara un parche y desbarató el ataque previsto antes de que comenzara. Lo inédito no es el fallo en sí, sino el modo en que fue encontrado.

Los analistas de Google sostienen que el código del exploit llevaba huellas inconfundibles de un gran modelo de lenguaje: comentarios estilo tutorial, formato muy estructurado y un estilo de redacción que ellos describen como altamente característico de los datos de entrenamiento de un LLM. El equipo concluyó con alta confianza que fue una IA, y no una persona trabajando sola, la que cargó con el grueso del trabajo de descubrimiento y desarrollo del exploit. La empresa afectada, la banda criminal y el nombre de la herramienta siguen sin divulgarse.

La distinción importa porque el tipo de fallo encontrado es justo el que se suponía que las máquinas no detectaban bien. Los escáneres clásicos buscan caídas y corrupciones de memoria. Este era una contradicción entre la lógica de aplicación del 2FA y una excepción codificada a mano — el género de bug que un auditor humano cuidadoso podría descubrir leyendo miles de líneas de código en busca de inconsistencias. Los modelos de lenguaje más capaces, advierte Google, son cada vez mejores en esa lectura contextual, a velocidades que ningún equipo de auditoría puede igualar.

El informe describe además un patrón más amplio que no tiene que ver con grupos criminales. Un grupo afín a China rastreado como UNC2814 ha empleado IA para acelerar la investigación de vulnerabilidades en dispositivos integrados. APT45, un grupo norcoreano, alimentó a un modelo con miles de prompts repetitivos para analizar de forma recursiva entradas del catálogo CVE y validar pruebas de concepto. Operadores distintos, misma técnica: convertir el modelo en un ayudante de investigación incansable.

El relato de Google tiene límites que conviene nombrar. La compañía no ha revelado la herramienta afectada, ni el actor de la amenaza, ni el calendario del parche, y pide creer la conclusión sobre las huellas de IA solo con base en su análisis interno. Ninguna de las confirmaciones de terceros publicadas esta semana añade un examen forense independiente del propio código del exploit. La afirmación de alta confianza es la palabra de GTIG contra el silencio del grupo criminal. También es cierto que el fallo de fondo — una excepción codificada a mano — es exactamente el tipo de despiste que los desarrolladores humanos han cometido durante décadas sin ayuda de ninguna IA. El modelo puede haber acelerado el hallazgo; la vulnerabilidad es más vieja que el sistema que la encontró.

Para la mayoría de los usuarios no hay una acción inmediata — el bug está en software que manejan equipos de TI, no en dispositivos personales —, pero la implicación de fondo es directa. El perímetro defensivo en el que confiamos, desde los gestores de contraseñas hasta los inicios de sesión únicos en empresas, se diseñó pensando en atacantes humanos trabajando a velocidad humana. Un atacante asistido por IA puede leer un código fuente como un ingeniero veterano lee un párrafo. Los defensores tendrán que aprender a hacer lo mismo.

Lo confirmado es que el proveedor afectado ha sido notificado y está parcheando. El análisis más amplio se publicó como parte de la serie de inteligencia de amenazas de Google Cloud que sigue el uso de IA en seguridad ofensiva el 11 de mayo de 2026. El analista jefe de amenazas de Google, John Hultquist, dijo a la prensa en los días siguientes que la carrera entre IA y defensores ya ha empezado y no está por empezar. Antes de que termine el segundo trimestre se espera un informe complementario sobre las herramientas habilitadas por IA.

Debate

Hay 0 comentarios.