13 de mayo de 2026

El James Webb nos ha regalado el mapa cósmico más completo: 164.000 galaxias y 13.700 millones de años de historia cósmica al alcance de cualquiera

El James Webb nos ha regalado el mapa cósmico más completo: 164.000 galaxias y 13.700 millones de años de historia cósmica al alcance de cualquiera

El Telescopio Espacial James Webb ha hecho un mapa cósmico superdetallado, en el que se incluyen 13.700 millones de años de Universo. Ningún otro telescopio había sido capaz de llegar tan lejos con tanta precisión. El Hubble lo intentó, pero no logró tanto. Lo que para él fue invisible, ahora se muestra majestuoso ante nuestros ojos.

Más lejos y más preciso. Este nuevo mapa cósmico ha sido posible gracias al trabajo de un equipo de científicos de la Universidad de California, Riverside. Se han encargado de analizar un catálogo conocido como COSMOS-Web, en el que se incluye la compilación más extensa de datos de este telescopio hasta el momento. En un espacio del cielo equivalente a tres lunas llenas, han visto lo que hasta ahora era invisible.

Los superpoderes del James Webb. Sabemos que el Universo se expande, de modo que las galaxias se van alejando, como puntos pintados en un globo que se infla más y más. Como la luz es una onda, la onda emitida por estas galaxias también se estira. Eso supone longitudes de onda más largas que, en el espectro electromagnético, se corresponden con el infrarrojo. Esto se conoce como corrimiento al rojo. 

Cuanto más antigua y lejana es una galaxia, más de ese estiramiento habrá experimentado, por lo que habrá más corrimiento al rojo. Por eso, para poder detectar galaxias muy antiguas, es necesario usar instrumentos capaces de detectar muy bien esas radiaciones infrarrojas. Ahí entra en juego el James Webb, pues cuenta con un instrumento llamado NirCAM, cuya especialidad es precisamente esa. Además, gracias al tamaño de sus espejos, con un área 7 veces mayor que la de los espejos del Hubble, se puede captar mucha más luz y obtener imágenes más precisas.

Levantando el velo cósmico. El James Webb también tiene la capacidad de mirar a través de las nubes de gas y polvo que normalmente rodean a las estrellas y planetas más jóvenes. Es algo que el Hubble tampoco puede hacer, por lo que se revelan muchas más estructuras que eran invisibles para su antecesor. 

Lo que el Hubble no vio. Al contrario que el James Webb, el Hubble está especializado en detectar mayormente el espectro visible y ultravioleta de la luz. Por eso, las estructuras más antiguas del Universo le han pasado desapercibidas. Al comparar el mapa cósmico del James Webb con el más preciso realizado con el Hubble, se ha visto que lo que antes parecía una sola estructura en realidad son muchas. También ha aumentado la nitidez de ciertas estructuras que parecían muy difusas. En definitiva, ha aumentado la resolución. Se miden mejor las distancias y se distinguen mejor unas estructuras de otras.

Todos podemos verlo. El catálogo que se acaba de crear contiene 164.000 galaxias y un vídeo que muestra el movimiento que han experimentado durante 13.700 millones de años. Es el viaje más lejano que se ha realizado en el universo con uno de estos mapas. Y lo mejor es que toda esta información es de acceso abierto. Por eso, cualquiera puede acceder a ella. Los científicos que lo deseen podrán estudiarla, en busca de datos que hayan podido pasar desapercibidos a los investigadores de la Universidad de California. 

En definitiva, se busca trabajo en equipo. Igual que el James Webb trabaja en equipo con el Hubble y pronto lo hará también con el Roman, los científicos en la Tierra deberían hacer lo mismo. 

Imagen | Imagen tomada por el James Webb que no forma parte del mapa (NASA)

En Xataka | Llevamos años estudiando los planetas de TRAPPIST-1 con una gran esperanza. El James Webb acaba de tumbarla


-
La noticia El James Webb nos ha regalado el mapa cósmico más completo: 164.000 galaxias y 13.700 millones de años de historia cósmica al alcance de cualquiera fue publicada originalmente en Xataka por Azucena Martín .



☞ El artículo completo original de Azucena Martín lo puedes ver aquí

La propuesta del Internet Protocol Version 8 (IPv8) para tener compatibilidad con IPv4 e ignorar IPv6

Estamos en el proceso de migrar todo el tráfico IPv4 a IPv6 desde hace ya unos años, y la verdad es que poco a poco esto está creciendo, pero aún estamos lejos de llegar al objetivo de tener más tráfico IPv6 que tráfico IPv4 en las redes de todo el mundo. Sin embargo, existen algunas otras propuestas de cambios para IPv4 distintas a la de IPv6, y recientemente se ha publicado la propuesta hecha por James Thain de, en lugar de migrar a IPv6, hacerlo a IPv8, que es cuanto menos interesante.
La propuesta fue publicada hace menos de un mes, con una serie completa de documentos para definir los protocolos necesarios para pasar a IPv8, como serían los protocolos DHCP8, WHOIS8, y el conjunto mínimo de protocolos de gestión del enrutamiento de tráfico IPv8 en las redes de Internet de hoy en día.

El objetivo principal de esta propuesta, como bien se explica a lo largo de todo el documento, que la verdad, es bastante sencillo de leer, consiste en mantener la compatibilidad hacia atrás con todo lo construido hasta el momento, haciendo un cambio muy pequeño, que es cambiar la dirección IPv4 por la dirección IPv8.
La gran diferencia, como se puede ver en el paquete IPv8 es que se añaden las cabeceras ASN de 32 bits tanto a la dirección IP de origen, como a la dirección IP de destino, lo que permite a los protocolos de enrutamiento reenviar correctamente al ASN correspondiente el paquete correctamente.
Al añadir el Autonomous System Number (ASN), marcado como r.r.r.r, en los cuatro primeros bytes, una dirección IPv8 sería la suma de la parte de ASN r.r.r.r más la parte de IPv4 clásica, a la que se llama en el documento como n.n.n.n. 

Figura 5: Direcciones IPV8

Esto sería como tener 2 a la 32 veces el tamaño de direcciones IPv4 que tenemos hoy en día, y dejando la dirección 0.0.0.0.n.n.n.n como la red de IPv4 que tenemos en Internet funcionando ahora mismo.

Es decir, con un cambio sencillo en el envío de paquetes de red IPv4 se podría resolver el problema de que se acaben las direcciones IPv4 manteniendo todo el software construido sobre él funcionando. Y la propuesta es porque está costando ir más rápido a IPv6 de lo que se estaba esperando al inicio. Si miramos radar, podemos ver en Radar de Cloudflare que en los últimos doce meses el tráfico sobre IPv6 está estable en un 30% más o menos.

Claro, mantener la compatibilidad hacia atrás implica que sigan funcionando todos los ataque en redes de datos IPv4 que ya conocemos, además de todas sus medidas de seguridad. Es decir, se supone que el conocimiento que tenemos de estos protocolos debemos usarlos en hacerlos más seguros y no en migrarlos.

JL. Rambla, ampliado y revisado por Pablo González y Chema Alonso

Los cambios que sí que habría que hacer son los relativos a la interconexión de redes, por lo que todos los protocolos de enrutamiento de tráfico y gestión de redes deberían cambiar a IPv8, como serían BGP8, OSPF8, WHOIS8, SNMP8, etcétera, que están definidos en sus correspondientes documentos.


Y por supuesto, crear los tipos de redes especiales con direccionamientos reservados, al igual que tenemos en IPv4 e IPv6, que están descritos con detalle en el documento de Internet Protocol Version 8 (IPv8) del que estamos hablando.


El documento recoge también las direcciones especiales que deben existir en estas redes IPv8, donde los nodos de enrutamiento dentro de tráfico a través de los ASNs deben ser tenidos en cuenta de manera especial, así que en la definición de estándar están especificados.


En definitiva, me parece una propuesta súper bonita como trabajo técnico de arquitectura de redes. Me falta criterio tan pronto para decir si es una opción mejor que ir hacia IPv6 o no, pero desde luego mis felicitaciones a James Thain por este trabajo tan bonito que ha publicado. Así es la investigación y la innovación, proponer ideas concretas que puedan ser evaluadas y aprender de ellas. 

¡Saludos Malignos!

Autor: Chema Alonso (Contactar con Chema Alonso)  




☞ El artículo completo original de noreply@blogger.com (Chema Alonso) lo puedes ver aquí

La nueva guerra fría entre EEUU y China no se libra solo en el Pacífico: se está jugando en los cielos de Atacama y los Andes

La nueva guerra fría entre EEUU y China no se libra solo en el Pacífico: se está jugando en los cielos de Atacama y los Andes

La escena tuvo lugar en plena Guerra Fría, cuando varios astrónomos británicos detectaron desde un radiotelescopio una señal periódica tan extraña y precisa que llegaron a bautizarla internamente como “LGM-1”: Little Green Men, “hombrecillos verdes”. Durante semanas, algunos científicos llegaron a contemplar seriamente la posibilidad de que fuera un mensaje artificial procedente del espacio… hasta que descubrieron que acababan de encontrar el primer púlsar de la historia.

La nueva carrera espacial pasa por Sudamérica. La rivalidad entre Estados Unidos y China ya no se juega únicamente en Taiwán, el Pacífico o la industria de los chips. Contaba el fin de semana el New York Times que también se está desplazando hacia algunos de los cielos más despejados del planeta, en lugares como Atacama, los Andes argentinos o la Patagonia. 

Lo que durante décadas fueron simples proyectos astronómicos compartidos entre universidades se ha transformado en un terreno de competición estratégica. Washington sospecha que parte de la infraestructura espacial china en Sudamérica puede servir no solo para observar el espacio profundo, sino también para rastrear satélites, apoyar comunicaciones militares o ampliar la capacidad tecnológica de Pekín en el hemisferio occidental. La consecuencia es una suerte de nueva Guerra Fría donde antenas, radiotelescopios y estaciones espaciales empiezan a verse como activos geopolíticos de primer nivel.

El radiotelescopio que quedó congelado. El caso más evidente está en la provincia argentina de San Juan. Allí permanece paralizado un gigantesco radiotelescopio chino que iba a convertirse en el mayor de Sudamérica. Oficialmente, el proyecto tenía fines científicos: estudiar ondas de radio procedentes del espacio y colaborar con astrónomos argentinos. Pero Washington comenzó a presionar a Buenos Aires por miedo a que el sistema pudiera utilizarse para seguir satélites estadounidenses o reforzar capacidades espaciales chinas. 

El detalle importante es que esa presión comenzó bajo Biden y continuó con Trump, mostrando que la preocupación ya forma parte del consenso estratégico estadounidense. Hoy, la antena permanece desmontada y parte de sus componentes siguen bloqueados en aduanas argentinas.

W020210119555754788485

Atacama y el valor de los cielos limpios. La disputa tiene mucho que ver con la geografía. Chile y Argentina poseen algunos de los mejores cielos del planeta para observación espacial gracias a su altitud, sequedad y ausencia de contaminación lumínica. Por eso llevan décadas atrayendo telescopios europeos, estadounidenses y asiáticos. Sin embargo, la llegada de proyectos chinos cambió el equilibrio político alrededor de estos observatorios. 

En Chile, un complejo chino de cien telescopios en Atacama terminó bloqueado tras fuertes presiones diplomáticas de Washington. Oficialmente, el proyecto serviría para vigilar asteroides y fenómenos cósmicos, pero Estados Unidos temía que la infraestructura tuviera aplicaciones estratégicas mucho más amplias. La carretera construida hacia el observatorio sigue allí, aunque el complejo nunca llegó a levantarse.

El miedo al “doble uso”. El verdadero núcleo del problema es el concepto de “doble uso”. Muchas tecnologías espaciales civiles pueden adaptarse fácilmente a funciones militares o de inteligencia. Un radiotelescopio capaz de captar señales débiles desde galaxias lejanas también puede ayudar a monitorizar satélites o comunicaciones orbitales. 

Ese temor explica por qué Washington observa con creciente desconfianza cualquier infraestructura espacial china fuera de Asia. Pekín sostiene que sus proyectos son puramente científicos y acusa a Washington de intentar contener su expansión tecnológica. Pero para Estados Unidos, permitir que China gane posiciones estratégicas en América Latina supone aceptar una presencia tecnológica potencialmente permanente en una región históricamente considerada sensible para la seguridad estadounidense.

D

La sombra de la base china. Imposible obviarlo. La estación espacial china construida en Neuquén en 2015 sigue siendo el gran precedente que condiciona todo lo demás. La instalación opera sobre terrenos cedidos gratuitamente durante cincuenta años y está gestionada por organismos vinculados al programa espacial chino. 

Oficialmente es una base civil para exploración espacial, pero en Estados Unidos siempre ha existido la sospecha de posibles usos militares o de inteligencia. Esa enorme antena levantada en mitad de la Patagonia se convirtió para muchos sectores estadounidenses en el símbolo de cómo China comenzaba a consolidar una presencia estratégica en el hemisferio occidental mediante inversiones, infraestructuras y cooperación tecnológica.

Científicos atrapados en la geopolítica. Es la otra pata de la situación. Uno de los aspectos más llamativos es cómo esta rivalidad ha terminado afectando directamente a científicos y universidades. Astrónomos acostumbrados a colaborar internacionalmente se encontraron de repente atrapados en debates sobre seguridad nacional, espionaje y competencia estratégica. 

Algunos investigadores argentinos fueron incluso invitados por Estados Unidos a programas específicos sobre riesgos asociados a infraestructuras espaciales civiles. Para muchos, la sensación es que el espacio ha dejado de ser un terreno relativamente neutral y ha pasado a formar parte de la confrontación entre potencias.

Guerra Fría mirando al cielo. Si se quiere también, lo que está ocurriendo en Sudamérica refleja un cambio mucho más profundo en la competición global entre Estados Unidos y China. La rivalidad ya no depende solo de bases militares o portaaviones. También se juega en redes de datos, cables submarinos, inteligencia artificial, estaciones espaciales y observatorios astronómicos.

Así, bajo los cielos de Atacama o los Andes se libra una batalla silenciosa por el control tecnológico y el acceso estratégico al espacio. Y precisamente ahí está la paradoja: porque son telescopios diseñados para observar el universo que han terminado convertidos en piezas de una nueva Guerra Fría terrestre.

Imagen | X, Casa Rosada (Argentina Presidency of the Nation)

En Xataka | EEUU está haciendo todo para ahogar a China. China ya ha conseguido que el 35% de sus máquinas de chips ya sean propias

En Xataka | El problema de EEUU en la carrera de la IA y los humanoides no es China: es todo Asia y lleva mucha desventaja



-
La noticia La nueva guerra fría entre EEUU y China no se libra solo en el Pacífico: se está jugando en los cielos de Atacama y los Andes fue publicada originalmente en Xataka por Miguel Jorge .



☞ El artículo completo original de Miguel Jorge lo puedes ver aquí

El mundo está intentando desconectarse de la tecnología de EEUU. Hay un problema fundamental: estamos demasiado cómodos con ella

El mundo está intentando desconectarse de la tecnología de EEUU. Hay un problema fundamental: estamos demasiado cómodos con ella

El mundo entero lleva décadas enteresa supeditada al poderío tecnológico estadounidense. Sus empresas y servicios se han convertido en el estándar de facto en  la industria, pero en los últimos meses el panorama ha cambiado. Países de todo el mundo están dándose cuenta de que sus intereses y los de esas empresas no siempre están alineados. El cambio estructural parece ahora inetivable, y eso significa una cosa: abandonar la tecnología de EEUU. O más bien, intentarlo.

El caso UpScrolled. En apenas una semana la plataforma australiana UpScrolled ha superado el millón de usuarios. El crecimiento se ha producido tras las incógnitas que plantea la nueva situación de TikTok, que ahora operará en EEUU como parte de un consorcio liderado por Oracle. Ese éxito repentino, aunque modesto, demuestra que hay un mercado buscando alternativas, detallan en Rest of World.

Quiero tener mis datos seguros. El año pasado Donald Trump firmó una orden ejecutiva. Sancionaba al Tribunal Internacional Criminal y a su principal responsable, el abogado  británico Karim Khan, por haber emitido una orden de arresto contra Benjamin Netanyahu, primer ministro israelí. Todo apunta a que Microsoft canceló la cuenta de correo de Khan, y este reaccionó migrando su cuenta al proveedor suizo Proton Mail, que tiene más 100 millones de usuarios en todo el mundo. Si Microsoft puede "silenciar" a un alto cargo internacional, los gobiernos toman nota.

Francia lidera la carga. En la Unión Europea el gobierno francés ha prohibido a sus funcionarios públicos el uso de soluciones tecnológicas estadounidenses. La medida busca proteger la integridad de sus comunicaciones, y el país galo está impulsando opciones locales como  TomTom o Here para navegación y Visio para videollamadas. La UE quiere apoyar dichas soluciones a través de la DMA, pero aquí el objetivo no es solo económico, sino estratégico. Depender demasiado de Silicon  Valley está demostrando ser peligroso.

Made in India. A 6.500 km de distancia de París, en Nueva Delhi los gobernantes indios están moviendo ficha en esa misma dirección. Están respaldando activamente el uso de la suite ofimática Zoho como alternativa a Google Docs, y también tienen su propia plataforma de mensajería, Arattai, que compite con WhatsApp. En realidad India lleva años promoviendo su soberanía digital, y no es la única del continente asiático. En Japón tenemos ejemplos como  Line y en Corea del Sur triunfa KakaoTalk que ya son líderes absolutas y terrenos que las Big Tech estadounidenses no han logrado reconquistar.

Poderoso caballero es don dinero. Aunque las alternativas locales existen, hay un primer gran obstáculo: la financiación. La mayoría de startups tecnológicas dependen de forma notable del capital riesgo, y aquí las empresas de inversión de Silicon Valley dominan el panorama. Si los gobiernos quieren una soberanía tecnológica real, deben impulsar esos ecosistemas de inversión que también compitan con las firmas norteamericanas.

La IA como escapatoria. Hay una opción para esquivar esos obstáculos: la disponibilidad de modelos de IA de pesos abiertos como los que ofrece China. Estos LLM son capaces de  ayudar a desarrollar ecosistemas software propios   que compitan o al menos sean alternativas váildas para los gobienos que las aprovechen. La IA es otro campo de batalla en el que EEUU está invirtiendo a lo grande, sí, pero esos modelos abiertos que sobre todo llega de China son una vía a explorar.

Superapps regionales. Estamos viendo también como hay plataformas locales que logran hacer competencia a las que EEUU ha logrado convertir en verdaderos imperios. En el sudeste asiático hay casos como el de Grab (Singapur) y Gojek (Indonesia) han expulsado del negocio o han desplazado en gran medida a la todopoderosa Uber. Lo han hecho creando sus propios sistemas de mapas y pagos, pero sobre todo lo han conseguido entendiendo mejor las necesidades de sus mercados que competidores extranjeros. El periodista canadiense Paris Marx, habitualmente crítico con Silicon Valley, hacía un buen repaso de las alternativas europeas a diversas plataformas tecnológicas de EEUU.

El verdadero reto: la comodidad. Aunque las alternativas existen y en algunos casos son muy relevantes, todas ellas exigen un trabajo extra que la mayoría de la gente no está dispuesta a hacer. La resistencia al cambio desempeña aquí un papel protagonista, y la realidad es que los usuarios suelen estar cómodos con los productos y servicios que ya usan. Los argumentos geopolíticos que convencen en el ámbito gubernamental pueden no hacerlo tanto entre los usuarios finales. 

¿Infraestrucqué? Y luego está el otro problema: estos servicios y plataformas siguen estando casi absolutamente centradas en la nube, y para que algo funcione en la nube necesitas centros de datos que soporten dicha operativa. Europa, Asia y el mundo entero han celebrado una y otra vez que Microsot, Amazon o Google instalasen un centro de datos en sus países, pero lo que probablemente no intuían es que esos centros de datos estaban, en cierta forma, envenenados. Ahora es mucho más difícil reaccionar, y evitar esa dependencia llevará años y muchísimo dinero... si es que algún día eso ocurre.

En Xataka | Europa ya no se fía de Google. Por eso varias start-ups están diseñando un sistema de pagos independiente en Android

-
La noticia El mundo está intentando desconectarse de la tecnología de EEUU. Hay un problema fundamental: estamos demasiado cómodos con ella fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí

12 de mayo de 2026

Google confirma el primer exploit zero-day generado con IA en el mundo real: «La era de la explotación impulsada por IA ya está aquí»

Representación profesional de las amenazas de ciberseguridad en 2025

Google ha documentado el primer caso conocido en el que un grupo criminal utilizó un modelo de inteligencia artificial para descubrir y desarrollar un exploit zero-day contra una herramienta real de administración de sistemas. Lo publica el Google Threat Intelligence Group (GTIG) este 11 de mayo de 2026, en un informe que añade evidencia concreta a lo que hasta hace poco era una amenaza teórica. El ataque fue interceptado antes de que se ejecutara a escala, pero el daño reputacional del precedente es real: la IA ya no es solo una herramienta defensiva en ciberseguridad.

John Hultquist, jefe analista del GTIG, resume lo que implica el hallazgo con una frase que no deja lugar a interpretaciones: «Ya está aquí. La era de la vulnerabilidad y explotación impulsada por IA ya está aquí.»

Qué ocurrió exactamente

Según el informe del GTIG, un grupo criminal prominente —cuya identidad Google no ha revelado— utilizó un modelo de lenguaje para analizar el código de una herramienta popular de administración de sistemas web de código abierto (también sin nombrar) y descubrió en ella una vulnerabilidad desconocida hasta ese momento: un fallo que permitía saltarse la autenticación de doble factor (2FA).

El grupo desarrolló el exploit en Python —lo que ya era conocido— y planeaba usarlo en un ataque de explotación masiva contra organizaciones que usaran esa herramienta. Antes de que pudieran ejecutarlo, Google lo detectó, alertó al proveedor del software afectado y coordinó con las fuerzas del orden para desarticular la operación.

Dos detalles técnicos del informe confirman que la IA participó activamente en el proceso: el exploit contenía inconsistencias en los metadatos y patrones de formato estructurado que son características habituales del código generado por modelos de lenguaje grandes. «Tenemos alta confianza en que el actor probablemente empleó un modelo de IA para apoyar el descubrimiento y la weaponización de esta vulnerabilidad», explica el informe.

Google ha precisado que el modelo empleado probablemente no era Gemini (los controles de abuso detectarían ese uso) ni Claude Mythos de Anthropic (el modelo de seguridad ofensiva/defensiva que Anthropic lanzó hace aproximadamente un mes).

Un contexto de amenazas mucho más amplio

El hallazgo del zero-day generado con IA es la pieza más llamativa de un informe que detalla una tendencia más sistemática.

Actores chinos vinculados al Estado han desplegado herramientas agenticas como Strix y Hexstrike en ataques contra una empresa japonesa de tecnología y una gran empresa de ciberseguridad del este asiático. El grupo UNC2814, especializado en telecomunicaciones y gobiernos, utilizó un «jailbreak orientado a personaje» —instruir a la IA para que se comporte como un auditor de seguridad sénior— para mejorar su investigación de vulnerabilidades en firmware embebido, incluyendo implementaciones OFTP en routers TP-Link.

Corea del Norte, a través del grupo APT45, ha enviado miles de prompts repetitivos para analizar CVEs recursivamente y validar exploits prueba de concepto. «Esto resulta en un arsenal de capacidades de explotación más robusto que sería impracticable gestionar sin asistencia de IA», señala el informe.

El dato más inquietante del M-Trends 2026 (el informe anual de Mandiant) es el tiempo medio de explotación: -7 días. Negativo. Significa que la explotación está ocurriendo de media siete días antes de que el parche siquiera exista. Un zero-day generado con IA encaja perfectamente en ese nuevo ciclo de ataque acelerado.

En el artículo de abril de 2026 sobre la IA como arma de doble filo en ciberseguridad, ya analizamos el caso del cibercriminal rusohablante que usó Claude y DeepSeek para comprometer más de 600 firewalls en 55 países. El zero-day de hoy es el escalón siguiente: pasar de automatizar técnicas conocidas a descubrir vulnerabilidades nuevas.

La respuesta defensiva de Google

El mismo informe que documenta la amenaza presenta los proyectos ofensivos defensivos de Google.

Big Sleep (Google DeepMind + Project Zero) es un agente de IA que busca vulnerabilidades de forma proactiva en software antes de que los atacantes las encuentren. Ya ha encontrado la primera vulnerabilidad real del mundo de esta forma, y fue precisamente un análisis de Big Sleep el que ayudó a identificar la actividad del grupo criminal antes de que el ataque se ejecutara.

CodeMender es un agente experimental basado en Gemini que no solo encuentra vulnerabilidades sino que genera automáticamente el parche correspondiente. Todavía es experimental, pero la dirección es clara: si los atacantes usan IA para acelerar el ciclo de ataque, la defensa tiene que usar IA para reducir el tiempo entre detección y mitigación.

La cobertura de la vulnerabilidad crítica en cPanel de mayo de 2026 mostró que los hackers ya estaban explotando zero-days dos meses antes de que el parche existiera. Hoy sabemos que parte de ese ciclo de descubrimiento anticipado puede estar siendo acelerado por IA.

En noviembre de 2025 cubrimos el informe del GTIG sobre cómo la IA está cambiando las reglas del cibercrimen, incluyendo las primeras familias de malware con LLMs integrados (PROMPTFLUX, PROMPTSTEAL). El zero-day de hoy es el paso siguiente en esa curva de maduración.

Mi valoración

Llevamos meses describiendo los riesgos de la IA aplicada al cibercrimen como una amenaza emergente. El informe del GTIG de hoy mueve la aguja de «emergente» a «presente». Y eso cambia cómo hay que responder.

Lo que más me convence del hallazgo es la precisión de los criterios de atribución que Google usa para afirmar que se usó IA. Los patrones de código, la estructura del exploit y los metadatos son evidencia técnica, no especulación. Google no dice «podría haber sido IA»: dice «alta confianza». Eso es lenguaje de inteligencia de amenazas serio.

Lo que más me preocupa es el tiempo medio de explotación de -7 días. Eso significa que los equipos de seguridad tienen que asumir que cualquier vulnerabilidad puede estar siendo explotada antes de que tengan un parche. En ese escenario, las métricas de tiempo de parcheo son insuficientes: lo que importa es la capacidad de detección y contención.

Lo más significativo es el precedente para la industria. Una vez que un grupo criminal demuestra que puede usar IA para descubrir zero-days, el conocimiento se difunde. El próximo grupo que lo intente no estará inventando el método: estará siguiendo un manual que acaba de ser validado.

Preguntas frecuentes

¿Qué es un zero-day exploit y por qué es especialmente peligroso cuando está generado por IA?

Un zero-day exploit es un código de ataque que aprovecha una vulnerabilidad desconocida para el desarrollador del software afectado. El término «zero-day» hace referencia a que los defensores han tenido cero días para preparar una defensa. Cuando una IA puede descubrir ese tipo de vulnerabilidades automáticamente analizando código a escala, el ritmo de descubrimiento de zero-days puede acelerarse de forma significativa, dando ventaja al atacante sobre los defensores.

¿Cómo detectó Google que el exploit había sido generado con IA?

Google identificó en el código del exploit marcadores técnicos asociados al output de modelos de lenguaje: inconsistencias en los metadatos del código y patrones de formato estructurado que son característicos del texto generado automáticamente. Esto, combinado con el contexto de las actividades del grupo criminal, llevó al GTIG a concluir con «alta confianza» que se había usado un LLM en el proceso de desarrollo.

¿Qué es el proyecto Big Sleep de Google y cómo funciona?

Big Sleep es un agente de IA desarrollado conjuntamente por Google DeepMind y Project Zero (el equipo de investigación de vulnerabilidades de Google) que analiza software de forma proactiva en busca de vulnerabilidades desconocidas. Funciona de forma similar a cómo un investigador de seguridad humano examinaría el código, pero a la velocidad y escala que permite la IA. Ya ha encontrado la primera vulnerabilidad real del mundo de forma autónoma.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí