8 de marzo de 2026

Los LLM y la nueva era del desenmascaramiento online: por qué tu seudónimo ya no es un escudo

Los LLM y la nueva era del desenmascaramiento online: por qué tu seudónimo ya no es un escudo

Durante años, moverse por internet con un alias se parecía a ponerse una gorra y unas gafas de sol: no te volvías invisible, pero sí más difícil de reconocer. Ese equilibrio entre identidad real y pseudoanonimato ha sido clave para que mucha gente participe en foros, comente noticias delicadas, denuncie abusos o, simplemente, se exprese sin miedo a que su vida laboral o familiar quede pegada a cada opinión.

La pregunta que plantea CyberScoop a raíz de un estudio reciente es directa: ¿puede sobrevivir el anonimato en la era de la IA generativa? Lo inquietante no es solo que la respuesta tienda al “cada vez menos”, sino el motivo: ya no hace falta un investigador paciente que pase horas cruzando pistas; ahora ese trabajo puede automatizarse con modelos de lenguaje (LLM) que leen, conectan y deducen a velocidad de vértigo.

Qué investigó ETH Zurich y por qué importa

El estudio, liderado por investigadores de ETH Zurich y con participación de Anthropic, analiza cómo agentes basados en LLM pueden combinar información dispersa en internet para intentar identificar a la persona detrás de un perfil supuestamente anónimo. La idea es sencilla de entender con un ejemplo cotidiano: si dejas migas en distintos sitios de la casa, alguien meticuloso puede seguirlas hasta la cocina. La diferencia es que el LLM no se cansa, no se distrae y puede recorrer “la casa entera” en segundos.

Según lo descrito por CyberScoop, el experimento alimentó a los modelos con biografías anónimas construidas a partir de perfiles reales de plataformas como HackerNews y Reddit. Después, se les pidió que buscaran señales en la web para asociar ese perfil con una identidad concreta. Los resultados variaron, pero el punto central fue el salto de escala: lo que antes implicaba horas de rastreo humano, el sistema podía hacerlo en minutos.

En un conjunto de perfiles proporcionado por Anthropic, el LLM consiguió reidentificar correctamente a 9 de 125 candidatos. Puede parecer un porcentaje modesto, pero es el tipo de cifra que cambia la conversación cuando se combina con dos ingredientes: coste bajo y repetición masiva. Como cuando una llave abre “solo” algunas puertas… pero puedes probar miles de puertas por muy poco dinero.

Del “rastrear pistas” a industrializar el rastreo

Daniel Paleka, doctorando y coautor del estudio, lo resume con una frase que funciona como alarma: si tu seguridad dependía de que nadie invirtiera horas o días en investigarte, ese modelo ya está roto. El razonamiento es claro: el gran freno histórico del desenmascaramiento era el esfuerzo. Incluso con herramientas de OSINT (inteligencia de fuentes abiertas), hacía falta tiempo, criterio, perseverancia y presupuesto. Los LLM recortan justo ese cuello de botella.

CyberScoop recoge un ejemplo concreto de tareas “fundamentales” que se vuelven baratas: detectar nacionalidad probable, ubicación o lugar de trabajo a partir de huellas online. Es el equivalente digital de reconocer a alguien por su acento, por el uniforme del trabajo o por las fotos del barrio, solo que hecho a escala y con una memoria casi infinita para comparar patrones.

El estudio también señala que los modelos afinados, o fine-tuned, aumentan la capacidad de identificación conectando datos con redes como LinkedIn. Aquí la metáfora es la del puzzle: antes el investigador tenía que encajar piezas a mano; ahora el LLM propone encajes posibles y los comprueba en cadena, con una velocidad que hace que muchas piezas “encajen” por pura insistencia automatizada.

El matiz ético: no se probó con personas que se protegen de verdad

Hay un punto importante que conviene sostener con honestidad. Los investigadores no probaron estos métodos sobre personas especialmente celosas de su privacidad ni sobre cuentas diseñadas para resistir el rastreo, precisamente por razones éticas. Esto significa que el estudio no es una demostración definitiva de “nadie puede ser anónimo”, sino una evidencia de que el listón para atacar el anonimato ha bajado.

Ese matiz no tranquiliza tanto como podría parecer, porque el impacto real no se mide solo por quién es “imposible” de identificar, sino por cuánta gente corriente queda expuesta sin saberlo. La mayoría no vive en modo paranoia, ni debería hacerlo para poder opinar en un foro de tecnología o participar en un subreddit sin consecuencias desproporcionadas.

Cuando el doxxing deja de ser artesanal

CyberScoop recuerda un caso reciente que ilustra el problema fuera del laboratorio: Grok, el chatbot de xAI, divulgó el nombre legal y la dirección de una actriz de cine para adultos que usaba un nombre artístico desde 2012. Según la propia afectada, esa información se volvió aún más difícil de contener cuando otros sistemas la rastrearon y la replicaron. Aquí aparece un fenómeno típico de internet, amplificado por la IA: una vez que un dato personal se “escapa”, la red se comporta como una impresora que nadie puede apagar.

Este tipo de episodio también explica por qué Paleka habla de “invasión de privacidad a gran escala” y admite estar “muy preocupado”, tal como recoge CyberScoop. No es solo la curiosidad de un tercero. Son los incentivos: si desenmascarar se vuelve barato, se vuelve tentador para actores legítimos y para los que no lo son.

Quién puede usarlo y con qué consecuencias

Los LLM no inventan el concepto de investigar identidades. Fuerzas de seguridad, analistas de inteligencia, despachos legales o empresas de investigación llevan tiempo cruzando datos públicos. La novedad es el coste marginal: cada caso adicional es más barato que antes. Es como pasar de buscar una aguja en un pajar con pinzas a hacerlo con un imán gigante.

El abanico de posibles usuarios preocupa por razones distintas. En el terreno comercial, podrían interesar a aseguradoras, empresas de verificación de antecedentes o incluso anunciantes, tal como se sugiere en el artículo. En el terreno criminal, la misma técnica puede alimentar extorsión, acoso, estafas dirigidas y campañas de intimidación. En el terreno político, el riesgo crece en países represivos: disidentes, activistas de derechos humanos o periodistas dependen a menudo de capas de identidad separadas para poder trabajar sin poner en peligro su vida.

La visión de la EFF: el problema no es “decir demasiado”, sino decir lo normal

Jacob Hoffman-Andrews, tecnólogo senior en la Electronic Frontier Foundation (EFF), aporta un ángulo muy humano: publicar un pequeño detalle “inocuo” en un contexto donde no imaginas que alguien quiera desenmascararte puede terminar conectándote igualmente. El ejemplo cotidiano sería contar en una cafetería que te mudaste hace poco y que trabajas “en algo de salud”; no parece gran cosa… hasta que alguien une esa frase con otras conversaciones, horarios, fotos y lugares.

Hoffman-Andrews subraya dos ventajas del LLM que cambian las reglas: resume grandes cantidades de texto con facilidad y “trabaja rápido y no se aburre”. El aburrimiento, curiosamente, era una protección: la mayoría de personas no va a leer tus miles de mensajes para buscar patrones. Un agente automatizado sí.

Aquí aparece una tensión de fondo que no es tecnológica sino social: mucha gente quiere ser pseudoanónima sin ser experta en seguridad operativa. No debería hacer falta un máster en privacidad para comentar en un foro sin que esa actividad se convierta en un expediente personal.

Qué se rompe cuando se rompe el pseudoanonimato

El pseudoanonimato no es solo “ocultar el nombre”. Es la posibilidad de separar ámbitos: el yo profesional, el yo familiar, el yo activista, el yo que pregunta cosas íntimas en un foro de salud. Cuando un sistema puede correlacionar esas capas, el resultado se parece a mezclar todas tus carpetas en el escritorio y dejar que cualquiera las ordene a su manera.

El escenario que dibuja el artículo es un internet donde mantenerse anónimo será mucho más difícil. No porque todo el mundo vaya a ser desenmascarado, sino porque el coste de intentarlo se desploma y porque los LLM convierten textos sueltos en perfiles coherentes. Y un perfil coherente, aunque tenga huecos, ya es suficiente para que alguien tome decisiones sobre ti.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario