Google ha documentado el primer caso conocido en el que un grupo criminal utilizó un modelo de inteligencia artificial para descubrir y desarrollar un exploit zero-day contra una herramienta real de administración de sistemas. Lo publica el Google Threat Intelligence Group (GTIG) este 11 de mayo de 2026, en un informe que añade evidencia concreta a lo que hasta hace poco era una amenaza teórica. El ataque fue interceptado antes de que se ejecutara a escala, pero el daño reputacional del precedente es real: la IA ya no es solo una herramienta defensiva en ciberseguridad.
John Hultquist, jefe analista del GTIG, resume lo que implica el hallazgo con una frase que no deja lugar a interpretaciones: «Ya está aquí. La era de la vulnerabilidad y explotación impulsada por IA ya está aquí.»
Qué ocurrió exactamente
Según el informe del GTIG, un grupo criminal prominente —cuya identidad Google no ha revelado— utilizó un modelo de lenguaje para analizar el código de una herramienta popular de administración de sistemas web de código abierto (también sin nombrar) y descubrió en ella una vulnerabilidad desconocida hasta ese momento: un fallo que permitía saltarse la autenticación de doble factor (2FA).
El grupo desarrolló el exploit en Python —lo que ya era conocido— y planeaba usarlo en un ataque de explotación masiva contra organizaciones que usaran esa herramienta. Antes de que pudieran ejecutarlo, Google lo detectó, alertó al proveedor del software afectado y coordinó con las fuerzas del orden para desarticular la operación.
Dos detalles técnicos del informe confirman que la IA participó activamente en el proceso: el exploit contenía inconsistencias en los metadatos y patrones de formato estructurado que son características habituales del código generado por modelos de lenguaje grandes. «Tenemos alta confianza en que el actor probablemente empleó un modelo de IA para apoyar el descubrimiento y la weaponización de esta vulnerabilidad», explica el informe.
Google ha precisado que el modelo empleado probablemente no era Gemini (los controles de abuso detectarían ese uso) ni Claude Mythos de Anthropic (el modelo de seguridad ofensiva/defensiva que Anthropic lanzó hace aproximadamente un mes).
Un contexto de amenazas mucho más amplio
El hallazgo del zero-day generado con IA es la pieza más llamativa de un informe que detalla una tendencia más sistemática.
Actores chinos vinculados al Estado han desplegado herramientas agenticas como Strix y Hexstrike en ataques contra una empresa japonesa de tecnología y una gran empresa de ciberseguridad del este asiático. El grupo UNC2814, especializado en telecomunicaciones y gobiernos, utilizó un «jailbreak orientado a personaje» —instruir a la IA para que se comporte como un auditor de seguridad sénior— para mejorar su investigación de vulnerabilidades en firmware embebido, incluyendo implementaciones OFTP en routers TP-Link.
Corea del Norte, a través del grupo APT45, ha enviado miles de prompts repetitivos para analizar CVEs recursivamente y validar exploits prueba de concepto. «Esto resulta en un arsenal de capacidades de explotación más robusto que sería impracticable gestionar sin asistencia de IA», señala el informe.
El dato más inquietante del M-Trends 2026 (el informe anual de Mandiant) es el tiempo medio de explotación: -7 días. Negativo. Significa que la explotación está ocurriendo de media siete días antes de que el parche siquiera exista. Un zero-day generado con IA encaja perfectamente en ese nuevo ciclo de ataque acelerado.
En el artículo de abril de 2026 sobre la IA como arma de doble filo en ciberseguridad, ya analizamos el caso del cibercriminal rusohablante que usó Claude y DeepSeek para comprometer más de 600 firewalls en 55 países. El zero-day de hoy es el escalón siguiente: pasar de automatizar técnicas conocidas a descubrir vulnerabilidades nuevas.
La respuesta defensiva de Google
El mismo informe que documenta la amenaza presenta los proyectos ofensivos defensivos de Google.
Big Sleep (Google DeepMind + Project Zero) es un agente de IA que busca vulnerabilidades de forma proactiva en software antes de que los atacantes las encuentren. Ya ha encontrado la primera vulnerabilidad real del mundo de esta forma, y fue precisamente un análisis de Big Sleep el que ayudó a identificar la actividad del grupo criminal antes de que el ataque se ejecutara.
CodeMender es un agente experimental basado en Gemini que no solo encuentra vulnerabilidades sino que genera automáticamente el parche correspondiente. Todavía es experimental, pero la dirección es clara: si los atacantes usan IA para acelerar el ciclo de ataque, la defensa tiene que usar IA para reducir el tiempo entre detección y mitigación.
La cobertura de la vulnerabilidad crítica en cPanel de mayo de 2026 mostró que los hackers ya estaban explotando zero-days dos meses antes de que el parche existiera. Hoy sabemos que parte de ese ciclo de descubrimiento anticipado puede estar siendo acelerado por IA.
En noviembre de 2025 cubrimos el informe del GTIG sobre cómo la IA está cambiando las reglas del cibercrimen, incluyendo las primeras familias de malware con LLMs integrados (PROMPTFLUX, PROMPTSTEAL). El zero-day de hoy es el paso siguiente en esa curva de maduración.
Mi valoración
Llevamos meses describiendo los riesgos de la IA aplicada al cibercrimen como una amenaza emergente. El informe del GTIG de hoy mueve la aguja de «emergente» a «presente». Y eso cambia cómo hay que responder.
Lo que más me convence del hallazgo es la precisión de los criterios de atribución que Google usa para afirmar que se usó IA. Los patrones de código, la estructura del exploit y los metadatos son evidencia técnica, no especulación. Google no dice «podría haber sido IA»: dice «alta confianza». Eso es lenguaje de inteligencia de amenazas serio.
Lo que más me preocupa es el tiempo medio de explotación de -7 días. Eso significa que los equipos de seguridad tienen que asumir que cualquier vulnerabilidad puede estar siendo explotada antes de que tengan un parche. En ese escenario, las métricas de tiempo de parcheo son insuficientes: lo que importa es la capacidad de detección y contención.
Lo más significativo es el precedente para la industria. Una vez que un grupo criminal demuestra que puede usar IA para descubrir zero-days, el conocimiento se difunde. El próximo grupo que lo intente no estará inventando el método: estará siguiendo un manual que acaba de ser validado.
Preguntas frecuentes
¿Qué es un zero-day exploit y por qué es especialmente peligroso cuando está generado por IA?
Un zero-day exploit es un código de ataque que aprovecha una vulnerabilidad desconocida para el desarrollador del software afectado. El término «zero-day» hace referencia a que los defensores han tenido cero días para preparar una defensa. Cuando una IA puede descubrir ese tipo de vulnerabilidades automáticamente analizando código a escala, el ritmo de descubrimiento de zero-days puede acelerarse de forma significativa, dando ventaja al atacante sobre los defensores.
¿Cómo detectó Google que el exploit había sido generado con IA?
Google identificó en el código del exploit marcadores técnicos asociados al output de modelos de lenguaje: inconsistencias en los metadatos del código y patrones de formato estructurado que son característicos del texto generado automáticamente. Esto, combinado con el contexto de las actividades del grupo criminal, llevó al GTIG a concluir con «alta confianza» que se había usado un LLM en el proceso de desarrollo.
¿Qué es el proyecto Big Sleep de Google y cómo funciona?
Big Sleep es un agente de IA desarrollado conjuntamente por Google DeepMind y Project Zero (el equipo de investigación de vulnerabilidades de Google) que analiza software de forma proactiva en busca de vulnerabilidades desconocidas. Funciona de forma similar a cómo un investigador de seguridad humano examinaría el código, pero a la velocidad y escala que permite la IA. Ya ha encontrado la primera vulnerabilidad real del mundo de forma autónoma.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí



