El problema: muchas visitas de máquinas, pocas de humanos
Hace unos años, la relación entre los motores de búsqueda y los sitios web era razonablemente equilibrada. Google rastreaba una página seis veces, y al menos una de esas veces un humano hacía clic para visitarla. Ese clic podía convertirse en una visualización de anuncio, una suscripción o una compra. Era una simbiosis.
Pero con la aparición de chatbots basados en IA generativa, como ChatGPT o Claude de Anthropic, esa relación se ha vuelto cada vez más desigual. Las cifras que Prince compartió en un evento de Axios en Cannes son elocuentes:
- Google ahora rastrea 18 veces por cada visita humana.
- OpenAI lo hace 1.500 veces por cada clic real.
- Anthropic alcanza la asombrosa cifra de 60.000 rastreos por cada visitante humano.
Este desbalance ocurre porque los usuarios ya no necesitan visitar la fuente original: reciben una respuesta directa y resumida desde el mismo buscador o chatbot. Como cuando alguien te cuenta el final de una película y ya no sientes la necesidad de verla. El contenido está siendo «destilado» por sistemas automáticos que luego lo presentan como propio.
El efecto del «internet sin clics»
El fenómeno del «zero-click internet» es una tendencia en la que los usuarios obtienen toda la información que necesitan sin salir del buscador o del interfaz de un asistente de IA. Google defendió su sistema de «AI Overviews» asegurando que impulsan el tráfico hacia los sitios citados. Sin embargo, Prince afirma que muy pocos usuarios hacen clic en las referencias. La mayoría se queda con la respuesta del chatbot, confiando cada vez más en su precisión, a pesar de los riesgos conocidos de que la IA pueda inventar datos o interpretar mal los contenidos.
Esto pone en jaque la sostenibilidad de muchos medios y creadores que dependen de que los usuarios visiten sus webs. Si nadie entra a la tienda, por mucho que se expongan productos en la vidriera, no hay ventas.
Cloudflare contraataca con IA contra IA
Para defender a sus clientes de esta situación, Cloudflare ha desarrollado una herramienta ingeniosa: AI Labyrinth. La idea es usar la propia inteligencia artificial para despistar a los rastreadores automatizados. Cuando detecta un bot que ignora las instrucciones para no rastrear, el sistema lo conduce por un laberinto de enlaces generados por IA, completamente irrelevantes para un humano, pero suficientes para hacer perder tiempo y recursos a la máquina.
Este tipo de defensa es como colocar un campo minado de pistas falsas: las personas no caerán en ellas porque saben por dónde caminar, pero los bots se extravían.
¿Es viable enfrentarse a los gigantes?
La iniciativa puede parecer una gota de agua contra un incendio, considerando el tamaño de empresas como Google, Microsoft u OpenAI. Sin embargo, Prince se muestra optimista. Recuerda que Cloudflare ha logrado proteger a sus clientes incluso frente a ataques coordinados por gobiernos. La clave está en no ceder terreno, en marcar límites y en desarrollar estrategias que reduzcan el impacto del rastreo excesivo.
¿Qué se puede hacer desde los sitios web?
Hoy en día, los desarrolladores pueden incluir reglas en sus archivos robots.txt para intentar bloquear rastreadores de IA, pero muchos de estos bots simplemente ignoran dichas instrucciones. La realidad es que el marco normativo aún no está preparado para regular de forma eficaz este tipo de interacciones automatizadas.
En este contexto, se vuelve urgente buscar nuevas formas de proteger el contenido original, ya sea mediante herramientas técnicas, acuerdos de uso, o incluso modelos alternativos de monetización que no dependan exclusivamente del tráfico.
El valor del contenido sigue intacto
Aunque el tráfico directo a las webs esté en declive, lo que crean los medios, bloggers, analistas y educadores sigue siendo el combustible del conocimiento en la red. La IA no genera información desde cero; necesita fuentes. Y si esas fuentes desaparecen porque ya no son sostenibles, todo el ecosistema se debilita.
Como sociedad, debemos encontrar el equilibrio entre la eficiencia de la IA y el respeto al trabajo de quienes hacen posible que la información exista en primer lugar.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
No hay comentarios.:
Publicar un comentario