4 de abril de 2026

Google parchea un zero-day de Chrome en WebGPU (CVE-2026-5281) que ya se está explotando

Google ha publicado una actualización de Chrome para corregir el zero-day CVE-2026-5281, un fallo use-after-free en Dawn/WebGPU que está siendo explotado activamente. La recomendación es actualizar cuanto antes a Chrome 146.0.7680.177/178 (según el sistema) y, en entornos gestionados, priorizar el despliegue por su inclusión en el catálogo KEV de CISA.

Entry image

Google ha lanzado una actualización de seguridad para Google Chrome con el objetivo de corregir un zero-day identificado como CVE-2026-5281, que ya está siendo explotado ‘en la naturaleza’. El fallo afecta al componente Dawn, la implementación de WebGPU integrada en el navegador, y se clasifica como un use-after-free, un tipo de vulnerabilidad de gestión de memoria que puede permitir comportamientos no previstos cuando el software usa un objeto que ya ha sido liberado.

Según la información disponible, el problema podría permitir ejecución de código en determinadas condiciones tras comprometer el proceso renderer mediante contenido web malicioso, por ejemplo una página HTML manipulada. En términos prácticos, este tipo de vulnerabilidades suele encajar con escenarios en los que un usuario solo necesita visitar un sitio o abrir un contenido preparado para desencadenar el fallo, aunque los detalles concretos de cómo se está explotando no se han hecho públicos. Google no ha compartido por el momento información sobre los actores implicados, el vector exacto o el alcance de los ataques, algo habitual cuando la explotación está activa y se busca reducir el riesgo de replicación.

La actualización forma parte de un paquete de correcciones más amplio (se mencionan 21 vulnerabilidades en total), pero CVE-2026-5281 destaca por su uso real en ataques. El consejo para usuarios es actualizar Chrome a las versiones 146.0.7680.177/178 (dependiendo del sistema operativo). En entornos corporativos, conviene además verificar que el reinicio del navegador se complete, ya que muchas correcciones no quedan plenamente aplicadas hasta que se relanza el proceso.

En paralelo, CISA ha añadido CVE-2026-5281 a su catálogo Known Exploited Vulnerabilities (KEV), una señal clara de prioridad para equipos de seguridad y operaciones. Para agencias FCEB, se ha fijado una fecha límite de mitigación el 15 de abril de 2026, lo que suele arrastrar también a proveedores y organizaciones que alinean sus calendarios de parcheo con ese estándar.

Dado que el ecosistema Chromium comparte una base tecnológica, es razonable esperar que otros navegadores como Microsoft Edge, Brave, Opera o Vivaldi necesiten incorporar correcciones equivalentes en cuanto sus fabricantes publiquen las actualizaciones correspondientes. Mientras tanto, la medida más eficaz para reducir riesgo es mantener Chrome al día y acelerar el despliegue del parche en dispositivos expuestos a navegación web frecuente o con perfiles de alto riesgo.

Más información

La entrada Google parchea un zero-day de Chrome en WebGPU (CVE-2026-5281) que ya se está explotando se publicó primero en Una Al Día.



☞ El artículo completo original de Hispasec lo puedes ver aquí

Tu nevera tiene un compartimento diseñado para los huevos en la puerta. Es el peor lugar posible para guardarlos

Tu nevera tiene un compartimento diseñado para los huevos en la puerta. Es el peor lugar posible para guardarlos

Casi todos los frigoríficos del mercado, al comprarlos, vienen con un accesorio diseñado específicamente para este fin: una huevera que va en las baldas de la puerta del electrodoméstico. Este se ha convertido en el lugar que muchos miramos en un primer momento para coger los huevos, pero la verdad es que es el peor lugar de la nevera para guardar los huevos. 

La trampa térmica. La razón no radica en la fragilidad del alimento, sino en un enemigo microscópico que nos rodea y puede ser potencialmente peligroso: la Salmonella. Aquí el principal problema de la puerta del frigorífico es que es la zona más expuesta a los cambios térmicos, ya que cada vez que abrimos la nevera para coger leche, agua o simplemente para pensar qué comer, la temperatura en los estantes de la puerta fluctúa drásticamente.

Aquí los organismos regulatorios de Estados Unidos son bastante claros al apuntar que estas constantes subidas y bajadas de temperatura son el caldo de cultivo ideal para el crecimiento bacteriano. Además, como señalan desde el Ministerio de Alimentación de Corea del Sur, la puerta es propensa a generar condensación, creando un ambiente húmedo que facilita la proliferación de patógenos en la cáscara que acaban en la comida cuando rompemos los huevos en el mismo bol donde los batimos (algo también desaconsejado).

La temperatura ideal. Para mantener a raya a la salmonela, la temperatura debe ser estable e inferior a los 4 °C - 10 °C, ya que en estas condiciones, el crecimiento de la bacteria se suprime en más de un 99%. Pero esto en las baldas de la nevera es algo que no siempre se consigue. 

Lo que dicen los estudios. Aquí la ciencia es bastante clara con diferentes estudios que han apuntado a la supervivencia de cepas como Salmonella Typhimurium y la Salmonella Enteritidis en condiciones muy concretas. Un estudio de 2021 demostró que a temperatura ambiente la carga bacteriana aumenta de forma alarmante tanto en la clara como en la yema. Por el contrario, mantenerlos a 5 ºC limita su multiplicación y reduce la virulencia. 

Pero si nos venimos más al presente, un estudio lanzado en 2024 halló que, en condiciones de temperatura alterna, es decir, en ciclos de 25 ºC a 5 ºC, similares a sacar y meter alimentos de la nevera, la salmonela logra migrar a la yema en el 64% de los casos. 

 Cómo conservarlos. Teniendo todo esto en cuenta, la gran gran pregunta es: ¿qué debemos hacer al llegar del supermercado? En este caso, las autoridades sanitarias apuntan a dos estrategias, siendo la primera de ellas meterlos directamente en las baldas interiores, preferentemente en las inferiores o medias. De esta manera, la temperatura se mantiene estable por debajo de los 4 ºC, y sobre todo si está al fondo de la nevera.

No tirar el cartón. Aunque acostumbramos a sacar los huevos de su caja para ponerlos en hueveras de plástico por comodidad, la verdad es que es un error. Es por ello que la segunda estrategia de conservación pasa por conservarlos en el envase original, puesto que el cartón no solo los protege de posibles golpes, sino que actúa como una barrera crucial contra la pérdida de humedad, previene que la cáscara absorba los olores de otros alimentos y protege la barrera cuticular natural del huevo. 

Imágenes | Onur Burak Akın Katie Bernotsky 

En Xataka | Internet se ha obsesionado con beber agua caliente por la mañana. La ciencia tiene claro qué hace (y qué no)

-
La noticia Tu nevera tiene un compartimento diseñado para los huevos en la puerta. Es el peor lugar posible para guardarlos fue publicada originalmente en Xataka por José A. Lizana .



☞ El artículo completo original de José A. Lizana lo puedes ver aquí

El problema de capturar CO₂ en rocas era su desorbitado consumo de agua: Islandia lo ha solucionado en pleno desierto

El problema de capturar CO₂ en rocas era su desorbitado consumo de agua: Islandia lo ha solucionado en pleno desierto

Atrapar las emisiones de dióxido de carbono y convertirlas literalmente en piedra parece un invento sacado de Futurama, donde en el futuro todo se recicla. El problema es que este truco de alquimia subterránea escondía una letra pequeña aterradora: su desorbitada sed. Para conseguir que el carbono se mineralice bajo tierra, el sistema necesita tragar cantidades absurdas de líquido, concretamente entre 20 y 50 veces más agua que la masa de CO₂ que intentamos almacenar.

Sin embargo, un nuevo estudio a escala industrial publicado en la revista Nature acaba de reescribir las reglas del juego. Un equipo internacional, con investigadores de Islandia, Arabia Saudí e Italia, ha demostrado en el desierto occidental saudí que es posible petrificar el CO₂ sin malgastar una sola gota de agua dulce externa.

La salvación bajo las arenas de Arabia Saudí. Como detallan los autores de la investigación, esta zona es un verdadero reto: está llena de grandes instalaciones que emiten muchísimo CO₂, como refinerías y desaladoras, pero carece de los acuíferos salinos subterráneos o las trampas sedimentarias que se usan tradicionalmente para inyectar carbono.

La salvación estaba bajo sus pies. A unos 24 kilómetros del Complejo Económico y Refinería de Jizán, los geólogos aprovecharon un inmenso lecho de rocas volcánicas (basaltos) muy fracturadas que llevan allí entre 21 y 30 millones de años. Allí probaron un ingenioso sistema de recirculación de fluidos del subsuelo.

El truco de la "soda" gigantesca. Para llevar a cabo el experimento, los ingenieros utilizaron dos pozos principales, separados por apenas 130 metros: uno funciona como pozo de "producción" (extrae agua) y el otro como pozo de "inyección". El proceso es un circuito cerrado y aislado de la atmósfera para que no entre oxígeno ni se escape el gas. Extraen el agua que ya habita en las profundidades, la hacen circular por tuberías y, a 150 metros bajo tierra, le inyectan CO₂ puro en forma de burbujas hasta que se disuelve por completo.

Según los científicos del proyecto, disolver el gas en agua tiene dos ventajas químicas y mecánicas brutales:

  • Se vuelve pesada: El agua cargada de CO₂ es más densa que el agua normal sin gas, por lo que crea un fluido no flotante, lo que limita enormemente el riesgo de que el gas migre hacia la superficie y regrese a la atmósfera.
  • Se vuelve ácida: Este líquido es ácido y acelera enormemente la disolución de los minerales de silicato presentes en la roca basáltica. Al disolverse, la roca libera metales que proporcionan los cationes necesarios para formar minerales estables, como la calcita.
Proyecto

Una cuestión de supervivencia geopolítica. Los datos de este piloto son un éxito rotundo. El equipo inyectó 131 toneladas de CO₂ en el subsuelo. Tras monitorizar la zona con rastreadores, descubrieron que aproximadamente el 70% de todo ese carbono inyectado se había mineralizado en un plazo de diez meses. Las mediciones mostraron que la concentración de carbono inorgánico disuelto en el agua que volvía a subir se había reducido en un 90% respecto a lo que se inyectó inicialmente.

Reutilizar el agua del propio yacimiento ofrece ventajas sustanciales. No solo te olvidas de llevar agua externa, sino que además reduces el riesgo de que la presión de los fluidos bajo tierra aumente peligrosamente. Además, al inyectar un agua que tiene la misma composición que la reserva subterránea original, se reduce el riesgo de problemas de compatibilidad, como pérdidas de permeabilidad en el yacimiento.

La dimensión actual. Como analizábamos recientemente en Xataka a raíz de la escalada militar en la región, el verdadero talón de Aquiles de la Península Arábiga no es el petróleo, sino la sed. Países como Arabia Saudí dependen en un 70% de sus plantas desalinizadoras para sobrevivir. En un escenario donde el suministro de agua dulce es una vulnerabilidad estratégica y una cuestión de supervivencia biológica, destinar volúmenes mastodónticos de agua para enterrar emisiones era, sencillamente, inviable. Por eso, este avance abre la puerta a que Oriente Medio —donde además se concentra gran parte de la producción petrolera global— pueda usar sus rocas basálticas para almacenar carbono sin sacrificar un recurso vital.

Un accidente providencial. A veces, los contratiempos son la mejor de las pruebas. En septiembre de 2023, la bomba sumergible del pozo de extracción se averió. Cuando los técnicos la sacaron a la superficie, se encontraron su interior lleno de granos de roca cementados por hasta un 14% de calcita, así como otros minerales como la siderita y ankerita. Los análisis de isótopos lo dejaron claro: esos cementos sólidos se formaron a partir del CO₂ inyectado durante el proyecto piloto. El gas se había petrificado literalmente en las propias entrañas de la máquina.

Un "chollo energético". Por si fuera poco, hay que sumar el ahorro energético. Como detalla la investigación, inyectar el CO₂ con este método requiere una presión en superficie de apenas 12 a 14 bares. Eso es entre 8 y 16 veces menos presión de la que exigen las plantas de captura de carbono convencionales. Básicamente, el agua cargada de CO₂ se introduce en el sistema impulsada por la gravedad. En cuanto a su potencial futuro, los ingenieros calculan que los poros subterráneos de esta zona en particular (estimados entre 24.000 y 43.000 m³) tendrían espacio suficiente para albergar entre 22.000 y 40.000 toneladas de CO₂ mineralizado.

La geología dicta sentencia: el límite de la piedra. Toda tecnología geológica tiene sus propios límites físicos. Como explican los expertos en Nature, a medida que el agua, el CO₂ y el basalto interactúan, el volumen total de minerales sólidos aumenta. Esto significa que el espacio de los poros se reduce y puede acabar bloqueando las vías de flujo del agua a largo plazo. Para esquivar este problema, los investigadores proponen que quizá haya que recurrir a la fracturación de la roca (fracking), una opción todavía poco explorada en sistemas basálticos.

Lo que está claro es que esta innovación tecnológica se plantea como un gran complemento a los sistemas de captura convencionales, no como una alternativa excluyente, ya que al final son las condiciones geológicas las que mandan. Pero gracias a este experimento pionero, hay algo que podemos dar por sentado: la falta de ríos o acuíferos dulces ha dejado de ser una excusa para no devolver nuestras emisiones al subsuelo y convertirlas en piedra.

Imagen | Eric Gaba y Nature

Xataka | Ni el petróleo ni el gas: si estalla una guerra total entre EEUU e Irán, el arma definitiva serán las plantas desalinizadoras

-
La noticia El problema de capturar CO₂ en rocas era su desorbitado consumo de agua: Islandia lo ha solucionado en pleno desierto fue publicada originalmente en Xataka por Alba Otero .



☞ El artículo completo original de Alba Otero lo puedes ver aquí

Artemis II solo lleva dos días en el espacio y ya ha dejado la foto de la Tierra más espectacular: de noche y con auroras boreales

Artemis II solo lleva dos días en el espacio y ya ha dejado la foto de la Tierra más espectacular: de noche y con auroras boreales

La misión Artemis II partió el pasado 2 de abril (hora peninsular) después de varios retrasos y hoy día 4 de abril ya está más cerca de la Tierra que de la Luna, de acuerdo con el Artemis Real-time Orbit Website” (AROW), un rastreador que permite seguir la nave Orión en tiempo real. Y desde allí el equipo de astronautas puede hacer unas fotos fabulosas del universo con los iPhone que llevan a bordo o con las cámaras, un par de Nikon D5, como puede leerse en el inventario de la NASA.

Y vaya si las están haciendo. Bajo estas líneas vemos una imagen de la Tierra tomada por el astronauta de la NASA y comandante de la misión Artemis II, Reid Wiseman, desde una de las cuatro ventanas principales de Orión. La típica imagen que solemos hacer cuando nos vamos de vacaciones y tomamos una foto desde la ventana del avión o del tren, pero a otro nivel. A nivel interestelar.

Art002e000191 Orig Artemis II echando la vista atrás hacia la Tierra. NASA

Pero para ver la Tierra en todo su esplendor mejor echar un vistazo a lo último que ha compartido la NASA: bajo el título de "Hello, World", todo un clásico de la programación que en este escenario tiene todo el sentido del mundo, ayer 3 de abril la NASA difundía otra foto de Reid Wiseman, que según la agencia espacial tomó tras completar la maniobra de inyección translunar. Desde luego, a años luz de lo que la agencia estadounidense ha compartido previamente. Y eso que se aprecia el contorno de la ventanilla

La Tierra como nunca antes la habíamos visto

Captura De Pantalla 2026 04 04 A Las 15 04 29 Toca para ir a la publicación

Hemos visto muchas, muchísimas imágenes de la Tierra desde el espacio, pero esta es verdaderamente especial si la miras con atención. Uno de los detalles más impresionantes de la imagen está en que gracias al ángulo y la distancia se aprecian dos auroras al mismo tiempo, la boreal y la austral

Esas cintas verdes que bordean el perímetro de la Tierra (en la zona superior a la derecha y en la zona inferior a la izquierda, respectivamente) son nuestra atmósfera brillando mientras el escudo magnético desvía el viento solar. Justo encima de ambas hay una capa muy fina de color anaranjado: es la luminiscencia atmosférica o airglow y no está causada por el viento solar, sino por reacciones químicas en la alta atmósfera que liberan la energía acumulada durante el día.

Pero es que además abajo a la derecha se puede ver la luz zodiacal durante el "eclipse solar" de la Tierra, ese resplandor difuso, casi fantasmagórico y con una forma casi triangular que se extiende por el plano donde orbitan los planetas. Se trata de polvo cósmico que brilla al reflejar la luz del Sol y que puede verse gracias a que, desde la nave Orion, no hay atmósfera que disperse la luz ni oculte los detalles más sutiles del cosmos

Art002e000192 Orig La Tierra desde la perspectiva de Artemis II. NASA

Por otro lado, esta fotografía tiene otra particularidad: la mayoría de imágenes que vemos de la Tierra desde el espacio son del lado diurno de la Tierra, logrando así una fotografía brillante de nuestro planeta en la que las estrellas apenas se aprecian debido a los ajustes de la cámara (ISO bajo, velocidad de obturación alta y/o apertura cerrada), pero aquí el Sol está detrás de la Tierra

Esto significa que la tripulación de Orión contempla el lado nocturno de la Tierra. Para los amantes de la fotografía: la NASA facilita el EXIF  de la imagen, donde se aprecia un ISO de 51.200 y una exposición larga, necesarios para captar la luz de las ciudades y las auroras.

Estas son dos de las primeras fotografías enviadas por el equipo de Artemis II, pero la NASA tiene a disposición una sección de la web donde ver todas las que comparten.


En Xataka | La NASA ha publicado 96 pósters fantásticos del universo que puedes descargar gratis en HD

En Xataka | La NASA acaba de compartir unas impresionantes imágenes de la nebulosa de la Hélice como nunca la habíamos visto

Portada | NASA

-
La noticia Artemis II solo lleva dos días en el espacio y ya ha dejado la foto de la Tierra más espectacular: de noche y con auroras boreales fue publicada originalmente en Xataka por Eva R. de Luis .



☞ El artículo completo original de Eva R. de Luis lo puedes ver aquí

La IA se ha construido saqueando el contenido de Internet. Ahora hay gente que quiere cobrar por permitirlo

La IA se ha construido saqueando el contenido de Internet. Ahora hay gente que quiere cobrar por permitirlo

Es una queja recurrente: los modelos de IA devoran contenido de forma industrial. Para lograr el conjunto de datos con los que se entrena un modelo se necesitan bots rastreadores. Cada compañía tiene los suyos: OpenAI usa GPTBot, para Gemini se emplea Googlebot, mientras que Anthropic se apoya en ClaudeBot. Son succionadores de información y hacen lo que se denomina scraping. Recorren millones de página web. En cada una descargan el HTML, extraen el texto limpio y almacenan los enlaces para seguir su batida digital.

Una vez entrenados, los modelos llaman a herramientas de búsqueda web si no tienen suficiente información para resolver una consulta. Esto suele ocurrir con temas de actualidad o sobre los que han aparecido nuevos detalles desde que se entrenó el modelo. Cuando esto sucede, un nuevo bot extrae contenido de los sitios web que necesita para aderezar la respuesta que dará la IA.

Una dinámica que conlleva problemas. El más visible está relacionado con la propiedad intelectual y quedaba patente al ver las imágenes que generaba ChatGPT con estilo del Studio Ghibli o los vídeos hechos con Seedance 2.0, en los que aparece la imagen de actores reales en escenas generadas artificialmente. 

En los últimos tres años han proliferado los litigios por infracción del copyright. Es de sobra conocida la demanda del New York Times a Microsoft y OpenAI, acusándolos de utilizar millones de sus artículos para entrenar ChatGPT. Antes incluso de esta acusación, una agrupación de artistas demandó a generadores de imágenes como Stability AI y Midjourney.

Medios de comunicación y asociaciones de derechos de autor también han emprendido acciones legales contra Perplexity, al igual que contra Meta, aunque esta de momento ha salido bien parada. En 2025, OpenAI tenía tantos casos por violación de derechos de autor que logró agrupar una buena parte de ellos en un solo tribunal de Nueva York, para facilitar su defensa.

seedance

Ante una demanda colectiva de autores, la solución de Anthropic fue llegar a un acuerdo. Eso sí, oneroso: tuvo que desembolsar unos 1.500 millones de dólares. Era el equivalente a 3.000 dólares por cada uno de los 482.460 libros que admitió haber descargado ilícitamente para entrenar a su IA.

El ambiente ha llevado a las empresas desarrolladoras de IA a licenciar contenido. OpenAI llegó a un acuerdo con el grupo mediático News Corp para tener acceso a sus informaciones durante cinco años a cambio de 250 millones de dólares. También ha sellado alianzas con la agencia Associated Press o los grupos Condé Nast y Axel Springer. Meta firmó con la propia News Corp y también con la agencia Reuters. Mientras que Google y, de nuevo OpenAI, pagan a la plataforma Reddit por entrenar sus modelos.

Irónicamente, quizá la alianza más sonada ha sido la de OpenAI con Disney. Un acuerdo sellado a finales del pasado año que permitía al generador de vídeo Sora utilizar los personajes de la productora, incluidos los de franquicias como Marvel, Star Wars o Pixar. Aunque los términos han quedado en suspenso con el reciente cierre de la app.

Pero la violación de los derechos de autor no es la única sombra del rastreo indiscriminado de los bots. Los sitios web se quejan porque si su contenido se regurgita mediante una IA, el usuario no visita la página web, de manera que se pierde tráfico y se pierde negocio. 

seedance

La voracidad de los bots, además, puede provocar incidencias técnicas. El CEO de la web especializada en reparación iFixit afirmó que el bot de Anthropic visitó su sitio un millón de veces en un día. El caso de la plataforma Freelancer fue aún peor. En cuatro horas recibió casi cuatro millones de peticiones. Este aluvión de visitas supone más costes en cómputo a los portales web y puede saturar los servidores hasta degradar la experiencia de los usuarios humanos.

Con el fin de echarle el lazo a los bots de IA el pasado año se creó el RSL Collective. De esta organización nace el estándar abierto RSL (Really Simple Licensing), que pretende que cada sitio web pueda controlar el acceso de los bots a su contenido. Lo respaldan plataformas como Yahoo, Reddit, Medium o Quora y uno de sus principales objetivos es proporcionar una fórmula universal para que las páginas web puedan licenciar su contenido.

Un Spotify para el contenido de Internet

RSL permite a cada web definir cuáles de sus páginas están disponibles para los bots, qué páginas podrán usar solo con citar a la web como fuente y por cuáles tendrán que pagar. Todo se hace a través del archivo robots.txt, un documento que ofrece instrucciones simples a los bots para navegar en cada web. Con el nuevo estándar se pueden crear reglas más complejas.

“Somos la llave para abrir las puertas. Lo que hacemos es dar a las páginas la infraestructura, los estándares, para que puedan poner sus propios términos de uso”, resume Doug Leeds, antiguo CEO del buscador Ask.com y uno de los fundadores de la iniciativa. Su socio es Eckart Walther, que fuera cocreador del estándar RSS (Really Simple Syndication), de donde le viene el nombre a RSL, y también su filosofía de fondo.

Leeds puntualiza que su organización no se ocupa de bloquear bots. Si el propietario de una web decide hacerlo, solo tiene que especificarlo en las instrucciones de RSL y aquí entran en juego otros actores. Cloudflare, Akami o Fastly proporcionan este servicio. Aunque la idea es incentivar un pago justo por el contenido. 

Para entender el funcionamiento, Leeds ofrece un ejemplo práctico: “Si una compañía, pongamos que fuera OpenAI, licencia el corpus entero de nuestro repositorio tendría el derecho a usar toda esa información. Pagaría un precio fijo, una tarifa plana, y no pagará más si utiliza más información. Cuando el contenido se utilice en sus modelos, tomaremos el dinero que nos han dado y pagaremos al sitio cuyo contenido OpenAI ha utilizado. Cuanto más utilicen tu contenido más dinero recibirás”.

Spotify (Unsplash)

Leeds compara la fórmula con Spotify o Apple Music. La esencia es una tarifa plana que después se reparte entre las webs que han visitado los bots. Ya hay más de 1.500 compañías creadoras de contenido que apoyan la iniciativa. Aunque no es el único proyecto que busca retribuir a los creadores.

Cloudflare, proveedor de CDN y servicios de backend, tiene su propio sistema para prevenir el llamado ‘scraping’. Y dentro de este programa cuenta con una funcionalidad en beta privada que permite rentabilizar el acceso a los contenidos. Se denomina ‘Pay Per Crawl’ y el nombre no puede ser más explícito. “Sirve como puente entre los editores y los modelos de IA en base a una dinámica de mercado. Permite a los creadores controlar y monetizar el acceso de los rastreadores de IA al contenido”, cuenta Lara Cohen, vicepresidenta de Strategic Partnerships de Cloudflare.

Por qué OpenAI, Google, Anthropic querrían pagar por el contenido

Ante estas iniciativas la duda surge por sí sola. Las compañías que desarrollan modelos de IA han rastreado Internet a su antojo hasta ahora. ¿Por qué ahora estarían dispuestas a pagar por lo que han obtenido de manera gratuita?

Leeds tiene claro que OpenAI, Google, Anthropic y el resto de grandes desarrolladoras de IA preferirían “licenciar el contenido a robarlo”. Pero a día de hoy esto significaría tener que cerrar cientos de miles de acuerdos, una perspectiva inviable. Además, hay otro motivo.

“Estas compañías gastan enormes cantidades de potencia de cómputo y de procesamiento para tomar un contenido y mezclarlo con otros contenidos no originales. Y así creen que no tendrán muchos problemas legales, porque no tienen derechos para simplemente ofrecer el contenido original”, explica Leeds. “El resultado es que no entregan las mejores respuestas. Mientras que licenciar el contenido les permitiría ofrecer las mejores respuestas y, además, ahorrar grandes cantidades de dinero en computación”.

Esto quiere decir que cuando pides una receta a ChatGPT o a Gemini te genera una respuesta que es la mezcla de varias recetas de las que ha extraído información. Aparentemente funciona bien. Tiene coherencia, los ingredientes son los esperados. No es como para envenenarte si la sigues. “Pero no está usando una sola receta”, matiza Leeds. “Puede decirte que uses un ingrediente de un sitio y sacar el tiempo de cocción de otro. Y quizás el tiempo de cocción no es el apropiado para ese ingrediente, porque no era la misma receta. Así que descubrirás que no has cocinado la comida lo suficiente cuando ya sea tarde”.

El cofundador de RSL cree que los modelos de IA podrían ofrecer una sola receta o una serie de opciones. Algo que no parece muy diferente a lo que ya hace el buscador de Google. Pero Leeds sí cree que el modelo de IA, el LLM, ofrece un valor a la búsqueda. Tendría un papel contextual.

nyt (Unsplash)

“El LLM te puede decir que utilices una de las recetas si lo que quieres es hacerlo sencillo o que una lleva más tiempo y otra menos”, señala. “Creo que la IA es mejor producto que las búsquedas tradicionales. El problema es que comete fallos y tiene un alto coste. Y aparte de esto, lo cierto es que no es sostenible. Si las empresas siguen recopilando contenido sin pagar por él, más pronto que tarde no habrá contenido que recopilar”, concluye, aludiendo a la pérdida de ingresos que sufrirán los creadores si se les salta en la cadena de suministro de información.

Pagar por los contenidos supondría un desembolso para las compañías de IA, pero desde el RSL Collective creen que solo se movería dinero de un sitio a otro. “El coste de la licencia provendrá de la cantidad destinada al cómputo”, destaca Leeds. “Las compañías se gastan miles de millones de dólares en cómputo pero casi nada en información. Nuestra fórmula no tendría tanto impacto en sus márgenes de beneficio porque se ahorrarán mucho dinero en procesamiento y lo podrán destinar a licencias”.

A tenor del enrevesado panorama relativo a los derechos de autor y la IA, las empresas desarrolladoras tendrían otra ventaja. “También ahorrarán mucho dinero en defensa legal y litigación, porque no les volverán a demandar”, añade Leeds, quien admite que aún no han comenzado las conversaciones con las empresas de IA. En este momento trabajan en garantizarse los apoyos suficientes, en formular los términos de los acuerdos de licencia y su valor económico. El inicio de negociaciones podría empezar en unas semanas.

El plan B: bloquear el acceso al contenido

El enfoque de Cloudflare ante los bots rastreadores es más técnico. Su programa AI Crawl Control identifica a este tipo de herramientas cuando entran en una página web. Las califica como una clase distinta de tráfico en vez de visitantes humanos. Así lo cuenta Lara Cohen: “Proporciona visibilidad y control sobre el ‘scraping’ no autorizado a través de un directorio global, actualizado dinámicamente, de rastreadores de IA conocidos. Los propietarios de los sitios web pueden bloquear a estos agentes fácilmente en todo su dominio o en páginas específicas de alto valor”.

La idea plantea un Internet basado en permisos de acceso. Existen muchos bots útiles, necesarios para que una página web aparezca en los resultados de Google o para monitorizar el tiempo de actividad. Cloudflare mantiene un registro de bots verificados, que deben cumplir con ciertos estándares de transparencia, identidad y propósito declarados, para facilitar su control.

Pero el programa también tiene sus propios métodos para evaluar el tráfico que entra en una web. “Más allá de las simples verificaciones de identidad, nuestro sistema utiliza detección heurística avanzada y modelos de aprendizaje automático para identificar las huellas digitales únicas y los patrones de comportamiento de los ‘scrapers’ de IA”, destaca la vicepresidenta de Strategic Partnerships de Cloudflare. “Así garantizamos que incluso los bots que intentan disfrazar su identidad sean neutralizados antes de que puedan ingerir su contenido”.

Si los bots ignoran las políticas definidas por el sitio web, la compañía tiene otra arma. La denominan AI Labyrinth. “Se activa cuando un rastreador es identificado como no conforme o de alto riesgo”, expone Cohen. “Cloudflare inyecta enlaces invisibles de tipo ‘no-follow’ en el HTML de su sitio que son indetectables para los humanos pero son irresistibles para los ‘scrapers’. Estos enlaces conducen a un laberinto de páginas señuelo generadas por IA que desperdician los recursos del ‘scraper’ y contaminan los datos que intenta robar”.

Photo 1712002641088 1191ef635cf2 (Unsplash)

Las páginas de esta trampa las genera Cloudflare con un modelo de IA. “A medida que el bot rastrea más profundamente, encuentra más enlaces, quedando atrapado en un bucle infinito de datos sin sentido”, resalta Cohen, y explica que esto obliga al agente a desperdiciar sus propios ciclos de cómputo y ancho de banda en contenido inútil. De esta forma, el coste de rastrear ese sitio web será mucho mayor que el valor de los datos obtenidos.

Otros proveedores de servicios CDN también ofrecen programas de detección de bots para controlar su acceso a los sitios web. Es el caso de Akami Bot Manager o Fastly AI Bot Management. Sin embargo, por ahora el único estándar abierto que aspira a compaginar los intereses de los portales web de contenido con las compañías desarrolladoras de IA es la iniciativa RSL.

En todo caso, se trata de soluciones diseñadas para un Internet que cambia a pasos de gigante y donde los bots adquieren cada vez más presencia. En 2025 el tráfico de estos agentes alcanzó el 51% del total. Es la primera vez que superan al tráfico humano a nivel global, según el infome Imperva Bad Bot, que lleva años analizando el escenario. No es de extrañar que a la teoría del Internet muerto, que vaticina una Web donde el contenido lo crean los bots y no las personas, le salgan cada vez más adeptos.

Luchar contra esto es precisamente lo que busca Leeds. “Nuestra cultura, cualquiera que sea la que tengas, nuestros gobiernos, los sistemas democráticos, nuestras vidas necesitan información producida por humanos para funcionar. Se puede agregar, sintetizar, la puede servir una IA, pero si no tenemos información creada por humanos tenemos un problema”, manifiesta el cofundador de RSL.

Dice que él y su socio han rechazado mucho dinero de fondos de capital riesgo. ¿Mucho? “Sí, millones de dólares”, y añade: “Evidentemente, los inversores querrían que fuéramos una compañía que busca beneficios, para poder tener un retorno de su inversión. Y no me gusta la idea de que esto interfiera en nuestra misión. El dinero tiene que ir a los creadores y a los editores, no a los inversores”. Un idealismo destinado a chocar con la realidad. O a transformarla.

En Xataka | En pleno ascenso meteórico de Claude Code, su código ha sido filtrado. Es un caramelazo para sus competidores

En Xataka | Para crear una app, antes el problema era escribir código. Ahora es esperar a que la Apple te lo valide

En Xataka | China se ha convertido en la gran cantera mundial de ingenieros. Y eso le da una ventaja enorme sobre EEUU en la IA


-
La noticia La IA se ha construido saqueando el contenido de Internet. Ahora hay gente que quiere cobrar por permitirlo fue publicada originalmente en Xataka por Pablo G. Bejerano .



☞ El artículo completo original de Pablo G. Bejerano lo puedes ver aquí