17 de abril de 2026

Un juez federal de EE.UU. dictamina que las conversaciones con Claude no están protegidas por secreto profesional: el caso Heppner cambia el manual de defensa para cualquiera que use IA

Una imagen abstracta en formato 16:9 que representa el conflicto y las posibles sanciones financieras que enfrenta Apple debido a sus políticas en la App Store. La imagen utiliza una paleta de colores sobrios e incluye elementos que simbolizan la ley, barreras digitales y tecnología. Se pueden observar representaciones abstractas de multas, documentos legales e íconos de tiendas de aplicaciones digitales.

El juez Jed S. Rakoff, del Distrito Sur de Nueva York, dictaminó en febrero de 2026 que las conversaciones privadas de un acusado de fraude con Claude (la IA de Anthropic) no estaban protegidas ni por el secreto profesional abogado-cliente ni por la doctrina del work product. La decisión, conocida hace dos meses pero ampliada con opinión escrita el 17 de febrero, es la primera de su tipo en Estados Unidos sobre si las conversaciones con un chatbot de IA tienen alguna protección legal. Y la respuesta que dio Rakoff es contundente: no la tienen. El caso ha provocado una cascada de avisos a clientes de más de una docena de firmas legales importantes, según reporte de Ana-Maria Stanciuc en TheNextWeb este 15 de abril, advirtiendo que cualquier persona que use una plataforma pública de IA para investigar o discutir su situación legal corre el riesgo de que esas conversaciones sean incautadas, divulgadas a la parte contraria y usadas como prueba contra ella.

El caso es United States v. Heppner. Bradley Heppner, ex-presidente de la quebrada GWG Holdings y fundador de la firma de activos alternativos Beneficent, fue acusado en noviembre de 2025 de fraude de valores y fraude electrónico. Se declaró no culpable. Tras recibir un subpoena del gran jurado y antes de contratar formalmente a sus abogados defensores, Heppner usó Claude para analizar su exposición legal, esbozar estrategias de defensa potenciales y desarrollar argumentos legales. Lo hizo por iniciativa propia, no bajo dirección de sus abogados. Cuando el FBI registró su domicilio, incautó aproximadamente 31 documentos que reflejaban estas conversaciones con la IA. El gobierno solicitó su producción como prueba; Heppner argumentó que estaban protegidas por privilegio. Rakoff rechazó el argumento por tres motivos.

Primero: el privilegio abogado-cliente protege las comunicaciones entre un cliente y un abogado. Claude no es un abogado, no tiene licencia legal, no debe lealtad y no puede formar una relación privilegiada. En palabras del propio juez desde el estrado: Heppner había «divulgado a un tercero, en efecto, una IA, que no tenía ninguna obligación de confidencialidad». Segundo: no había expectativa razonable de confidencialidad. El juez examinó los términos de servicio y la política de privacidad de Anthropic, que permiten explícitamente la recolección de datos, el uso de inputs y outputs para entrenar el modelo, y la divulgación a terceros incluyendo autoridades gubernamentales y reguladores. Al hacer clic en aceptar, Heppner había consentido a un marco de divulgación incompatible con el privilegio. Tercero: la protección de work product no aplicaba porque Heppner no estaba actuando bajo dirección de sus abogados cuando consultó a Claude, y los documentos no reflejaban la estrategia de los abogados en el momento de su creación.

El mismo día que el dictamen de Rakoff, un juez magistrado en Michigan llegó a una conclusión que parece opuesta. En Warner v. Gilbarco Inc., el magistrado Anthony Patti consideró que las conversaciones de una demandante pro se (sin abogado) con ChatGPT sobre su caso de discriminación laboral sí estaban protegidas como work product, razonando que las herramientas de IA son «herramientas, no personas» y que la renuncia al work product requiere divulgación a un adversario, no simplemente a una plataforma de software. Un tercer caso (Morgan v. V2X, Colorado, marzo 2026) llegó a una conclusión similar. Pero los analistas legales señalan que estos casos son distinguibles del de Heppner: los demandantes en Warner y Morgan eran pro se, gobernados por una norma de procedimiento civil expresamente protectora del work product; Heppner era un acusado criminal representado, que actuó sin guía de sus abogados. Los propios tribunales reconocieron que no estaban estableciendo reglas amplias para todos los escenarios.

El impacto práctico fue inmediato. Reuters reportó que más de una docena de grandes firmas legales en Estados Unidos han emitido avisos a clientes advirtiendo contra el uso de plataformas públicas de IA para cualquier asunto legal. La firma neoyorquina Sher Tremonte ha ido más lejos, añadiendo cláusulas contractuales en sus acuerdos de representación que estipulan que compartir el consejo o las comunicaciones del abogado con un chatbot puede borrar el privilegio abogado-cliente. La guía consensuada de firmas como Orrick, Crowell & Moring y Fisher Phillips es consistente: tratar las plataformas públicas de IA como un entorno inherentemente no confidencial, asumir que cualquier cosa tipeada puede ser divulgada, usar solo despliegues privados y cerrados de IA cuyos términos de servicio no permitan entrenamiento con inputs ni divulgación a terceros, y siempre obtener dirección explícita del abogado antes de usar cualquier sistema de IA en relación con asuntos legales.

El caso conecta con un debate más amplio sobre la privacidad de las conversaciones con IA. Anthropic ya estaba en el centro de demandas por privacidad: Reddit la denunció en 2025 por usar publicaciones de la plataforma (incluso eliminadas por usuarios) para entrenar Claude sin consentimiento. La compañía también ha ampliado el procesamiento de datos a múltiples regiones geográficas, lo que tiene implicaciones para clientes que necesitan cumplimiento normativo estricto. Y la propia funcionalidad de memoria persistente de Claude, que recuerda conversaciones anteriores cuando el usuario lo solicita, agrava el problema desde el punto de vista de la incautación: una sola consulta puede arrastrar contexto de meses de uso anterior. Lo que el caso Heppner formaliza legalmente es algo que técnicamente ya era cierto: tus conversaciones con la IA están en los servidores del proveedor, sujetas a sus términos de servicio, y por tanto recuperables vía orden judicial.

Mi valoración: este dictamen debería cambiar cómo profesionales y particulares usan IA para temas sensibles, y va a tener consecuencias mucho más allá del derecho penal. Si trabajas en derecho, finanzas, salud, o cualquier sector donde discutas información confidencial, asumir que ChatGPT, Claude o Gemini son canales privados es un error que puede costarte el caso, la sanción regulatoria o la denuncia. La distinción entre IA pública e IA privada (despliegues empresariales con cláusulas explícitas de no-entrenamiento, no-retención y no-disclosure) deja de ser una preferencia técnica y se convierte en una necesidad legal. Para usuarios particulares, el mensaje es más sutil pero igualmente importante: si estás considerando consultar a un chatbot sobre un divorcio, una herencia complicada, una sospecha de fraude por parte de un tercero o cualquier asunto que pudiera acabar en juzgado, no lo hagas en la app gratuita. Mi recomendación: si la conversación toca un tema que podría escalar legalmente, primero consulta a un profesional humano, segundo usa herramientas privadas con términos de retención claros, y tercero recuerda que clic en aceptar es un contrato. El caso Heppner va a citarse durante años y probablemente sirva como precedente para casos similares en otras jurisdicciones, especialmente en Europa donde el GDPR ya plantea preguntas parecidas pero por motivos distintos.

Preguntas frecuentes

¿Esto aplica fuera de Estados Unidos? No directamente. El caso es de jurisdicción federal estadounidense, pero su lógica (la IA no es un abogado y los términos de servicio anulan la expectativa de confidencialidad) probablemente influya en otros sistemas legales similares. ¿Qué es el privilegio abogado-cliente? La protección legal que blinda las comunicaciones entre un abogado y su cliente de la divulgación obligatoria en procedimientos judiciales. El juez Rakoff dictaminó que Claude no califica como abogado y por tanto no puede formar esa relación. ¿Qué debo hacer si uso IA para consultas semi-legales? Asumir que no son confidenciales. Para asuntos sensibles, usar despliegues privados con cláusulas explícitas de no-retención y no-entrenamiento, o consultar primero con un profesional humano que pueda dirigirte en cómo (y si) usar la IA.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Leighton Chajnantor Telescope llega a Chile desde Hawái y comenzará operaciones en 2028

El telescopio estará a cargo de la Universidad de Concepción, en asociación con instituciones de China y Estados Unidos. Se proyecta que entre en funcionamiento en 2028 y opere en el país por al menos 10 a 15 años.

Después de una larga espera, la primera carga del Leighton Chajnantor Telescope (LCT) llegó a Chile este 15 de abril a través del puerto de Angamos, en Antofagasta. El resto del equipamiento arribaría durante la primera semana de mayo, para luego ser trasladado al Centro de Apoyo a las Operaciones (OSF, por su sigla en inglés) de ALMA, donde comenzará su proceso de ensamblaje.

La llegada del LCT fue gestionada por el Departamento de Astronomía de la Universidad de Concepción (UdeC), como parte del Centro de Astrofísica y Tecnologías Afines (CATA), un centro basal ANID.

El OSF, que funciona como centro logístico de ALMA y donde se realiza el mantenimiento de sus antenas, será la sede para el armado del telescopio y sus primeras pruebas operativas. De forma preliminar, se estima que el LCT permanezca en estas instalaciones hasta mediados de 2027.

Rodrigo Reeves, académico del Departamento de Astronomía UdeC, director del Centro para la Instrumentación Astronómica (CePIA UdeC) e investigador asociado de CATA, destacó la relevancia de este hito para el país.
“Podremos actuar como una puerta de entrada para que otras instituciones accedan a formación y desarrollo en astronomía avanzada. Hoy estamos enfocados en el trabajo técnico para que, cuando el telescopio esté ensamblado, podamos integrar nuestros instrumentos y avanzar lo antes posible hacia su primera luz”, señaló.

Imagen referencial de la futura instalación del LCT en el norte de Chile.

La denominada “primera luz” corresponde a la primera observación de prueba del telescopio. Posteriormente, el LCT será trasladado a su ubicación definitiva en el Parque Astronómico Atacama (PAA), donde compartirá infraestructura con proyectos como el Simons Observatory y el Cosmology Large Angular Scale Surveyor (CLASS).

Una vez instalado en el PAA, se realizará la prueba final de observación. Se espera que el telescopio entre en funcionamiento oficial en 2028, con una proyección de operación en Chile de al menos una década.

El Leighton Chajnantor Telescope es un radiotelescopio submilimétrico de 10,4 metros de diámetro que anteriormente operó como el Caltech Submillimeter Observatory (CSO) en Mauna Kea, Hawái. Tras casi 30 años de funcionamiento, fue desmantelado con el objetivo de renaturalizar el entorno donde se encontraba.

Durante su operación en Hawái, el LCT realizó observaciones de cometas, discos protoplanetarios y galaxias distantes, entre otros objetos astronómicos. Su traslado a Chile abre una nueva etapa para su contribución a la ciencia y la formación académica.

Este hito representa un avance significativo para la astronomía nacional, ya que permitirá a Chile acceder al 10% del tiempo total de observación del telescopio. Además, se proyecta como una plataforma clave para la formación de estudiantes y el desarrollo de investigación de alto nivel.

Asimismo, el proyecto posiciona a la región del Biobío como un polo emergente en investigación astronómica, gracias al liderazgo de la UdeC en la operación y gestión del instrumento.

Según explicó David Arroyo, coordinador de proyectos de CePIA, la llegada del LCT también abre oportunidades para el desarrollo de proyectos científicos y tecnológicos, incluyendo la creación de nuevas soluciones con impacto en otras industrias.

En este contexto, CePIA ha liderado el proyecto dentro de la UdeC, encargándose de la gestión del desarme, transporte, ensamblaje y futura puesta en marcha del telescopio.

Junto a la Universidad de Concepción, participan en esta iniciativa el California Institute of Technology (Caltech) y la Shanghai Normal University (SHNU), instituciones responsables del transporte, reacondicionamiento y comisionamiento del LCT en Chile.

“En un escenario internacional marcado por tensiones geopolíticas, cobra aún más valor que instituciones como Caltech y Shanghai Normal University trabajen de manera conjunta. La ciencia permite tender puentes donde otras áreas encuentran barreras, demostrando que el conocimiento puede ser un espacio de encuentro entre países”, concluyó Reeves.

La entrada Leighton Chajnantor Telescope llega a Chile desde Hawái y comenzará operaciones en 2028 se publicó primero en Revista Ecociencias.



☞ El artículo completo original de Revista Ecociencias lo puedes ver aquí

¿Por qué algunas partículas se cargan más que otras? Científicos chilenos revelan el rol clave del tamaño

Un estudio publicado en Physical Review Materials demuestra que el tamaño de las partículas es determinante en cómo adquieren carga eléctrica, con implicancias que van desde la industria farmacéutica hasta la exploración espacial.

¿Por qué dos partículas aparentemente iguales terminan con cargas eléctricas muy distintas? Esta es la pregunta que buscó responder un estudio internacional con participación de científicos de tres universidades chilenas, centrado en un fenómeno tan cotidiano como aún enigmático: la electrificación por fricción.

La investigación fue desarrollada por académicos del Departamento de Física de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile, junto a especialistas de la Universidad de O’Higgins, la Pontificia Universidad Católica y el Instituto de Ciencia y Tecnología de Austria (ISTA). Los resultados, publicados en Physical Review Materials, revelan que el tamaño de las partículas influye de manera decisiva en la distribución de su carga eléctrica.

El efecto del tamaño

Según explica el físico Nicolás Mujica, las partículas de mayor tamaño tienen más probabilidades de adquirir cargas significativamente altas, en una relación que crece proporcionalmente con su área superficial.

“Este estudio revela una ley fundamental que vincula el tamaño con el comportamiento eléctrico en la naturaleza. Los resultados permiten comprender mejor cómo se cargan partículas de distinto tamaño, lo que impacta tanto en fenómenos naturales como en aplicaciones industriales, abriendo la puerta a modelos predictivos sobre la generación de descargas”, señala.

La electrificación por fricción —también conocida como efecto triboeléctrico— ocurre cuando materiales entran en contacto y se transfieren carga eléctrica. Aunque es un fenómeno ampliamente observado, desde tormentas de polvo hasta procesos industriales, aún presenta interrogantes fundamentales, especialmente cuando ocurre entre materiales idénticos, donde en teoría no debería existir transferencia neta de carga.

Para abordar este problema, el equipo estudió sistemas compuestos por grandes cantidades de partículas aislantes de óxido, todas con la misma composición química y propiedades superficiales similares, pero con tamaños controlados. Los experimentos, realizados en laboratorios en Chile, evidenciaron que las distribuciones de carga presentan una alta frecuencia de valores extremos, mucho mayor a la predicha por modelos tradicionales.

“Lo interesante es que estas diferencias emergen incluso cuando las partículas son prácticamente indistinguibles en su composición. El tamaño, por sí solo, introduce un sesgo significativo en cómo se distribuye la carga”, destacan los autores.

Aplicaciones: de la industria a otros planetas

El académico Gustavo Castillo subraya que estos hallazgos no solo aportan al conocimiento fundamental, sino que también tienen aplicaciones concretas.

En la industria farmacéutica, por ejemplo, entender cómo se distribuye la carga permitiría mejorar la mezcla de medicamentos en polvo, evitando que las partículas se agrupen por electricidad estática y asegurando dosis más precisas.

Asimismo, este conocimiento podría aplicarse en la exploración espacial, donde la acumulación de carga en superficies planetarias representa un desafío para equipos y astronautas.

Mujica agrega que estos resultados también ayudan a comprender fenómenos naturales y mejorar la seguridad industrial. “Podrían explicar, por ejemplo, las tormentas eléctricas en volcanes, donde partículas de distintos tamaños se cargan de manera diferente. También permitirían anticipar riesgos en procesos industriales, donde la acumulación de carga puede provocar explosiones”, explica.

Un avance clave en física

Este estudio impone nuevas restricciones a las teorías que buscan explicar cómo se genera y distribuye la carga en sistemas de partículas aislantes, abriendo nuevas preguntas sobre un fenómeno que, pese a ser común, sigue sin comprenderse completamente.

Debido a su relevancia, la publicación fue distinguida como Editor’s Suggestion y destacada en Physics Magazine de la American Physical Society, posicionándose entre las investigaciones de mayor impacto en la comunidad científica internacional.

La entrada ¿Por qué algunas partículas se cargan más que otras? Científicos chilenos revelan el rol clave del tamaño se publicó primero en Revista Ecociencias.



☞ El artículo completo original de Revista Ecociencias lo puedes ver aquí

16 de abril de 2026

OpenAI lanza GPT-5.4-Cyber para «miles» de defensores de ciberseguridad: el modelo con menos restricciones para vulnerabilidades, en respuesta directa a Anthropic Mythos

Imagen abstracta que representa la lucha contra los bots de IA que raspan contenidos web. La imagen muestra una red de estructuras digitales protegidas por un escudo, simbolizando la protección de datos y la ciberseguridad, con colores brillantes como azul y verde que representan la tecnología y la seguridad.

OpenAI ha lanzado este 15 de abril GPT-5.4-Cyber, una variante de su modelo principal específicamente afinada para trabajo defensivo en ciberseguridad. El modelo se distribuye dentro de un programa expandido llamado Trusted Access for Cyber (TAC), que la compañía está ampliando desde un piloto limitado a «miles de defensores verificados individualmente y cientos de equipos responsables de defender software crítico», según las cifras facilitadas por la propia OpenAI. Es un movimiento directamente comparable al Project Glasswing que Anthropic anunció el 7 de abril con su modelo Claude Mythos, pero con una filosofía diametralmente opuesta: mientras Anthropic ha decidido restringir su modelo más capaz a solo 11 organizaciones (Apple, Google, Microsoft, AWS, Cisco, CrowdStrike, JPMorgan Chase entre ellas), OpenAI apuesta por acceso amplio con verificación. Dos visiones contrarias del mismo problema, y la industria se está dividiendo en bandos.

Lo distintivo de GPT-5.4-Cyber, según los reportes complementarios de Derek B. Johnson en CyberScoop y Ana Maria Constantin en TheNextWeb, es lo que ellos llaman «lowered refusal boundary». Los modelos de propósito general bloquean por defecto preguntas sensibles sobre investigación de vulnerabilidades, análisis de exploits o comportamiento de malware. La variante Cyber está diseñada para responder esas preguntas, siempre que el usuario haya pasado verificación como profesional legítimo de ciberseguridad. La función estrella es la ingeniería inversa de binarios: los analistas pueden subir un ejecutable compilado y recibir análisis de comportamiento potencialmente malicioso, vulnerabilidades embebidas y debilidades estructurales. Es trabajo que tradicionalmente requiere herramientas especializadas como IDA Pro o Ghidra, además de horas o días de experiencia humana.

El programa Trusted Access for Cyber se lanzó originalmente en febrero junto con un fondo de 10 millones de dólares para grants en investigación de ciberseguridad. La actualización de hoy lo escala drásticamente: usuarios individuales pueden autenticarse en chatgpt.com/cyber, las empresas pueden solicitar acceso para sus equipos completos a través de un representante de OpenAI, y los investigadores que necesiten las capacidades más permisivas pueden aplicar a un nivel invitation-only. Hay una contrapartida importante para los usuarios del nivel más alto: deben renunciar a Zero-Data Retention, lo que significa que OpenAI mantiene visibilidad sobre lo que están haciendo con el modelo. Las consultas, los binarios analizados, los exploits estudiados, todo queda registrado en algún sitio. Para equipos que trabajan con infraestructura clasificada o muy sensible, esa visibilidad puede ser un dealbreaker. Y crea un punto único de compromiso: si los logs de OpenAI se filtran, se convierten en un mapa de vulnerabilidades sin parchear de las organizaciones más críticas del planeta.

El contraste con la apuesta de Anthropic es lo más interesante del movimiento. Anthropic argumenta que las capacidades de descubrimiento de zero-days que tiene Claude Mythos (incluida la identificación autónoma de un bug de 27 años en OpenBSD y un fallo de RCE de 17 años en FreeBSD) son demasiado peligrosas para ponerlas en manos de cualquiera, y por eso restringe el acceso a un consorcio cerrado de gigantes tecnológicos y entidades financieras. OpenAI, en cambio, sostiene que limitar herramientas defensivas a un puñado de empresas grandes deja sin protección al resto: hospitales municipales, infraestructura crítica de pequeñas ciudades, ayuntamientos, ONGs, firmas de seguridad de tamaño medio. Su argumento es que si los atacantes no tienen ninguna restricción, los defensores tampoco deberían tenerla. Esa frase resume exactamente la fractura filosófica de la industria.

GPT-5.4-Cyber complementa también a Claude Code Security, la herramienta automatizada de escaneo de código de Anthropic que detectó más de 500 vulnerabilidades de alta severidad en código open source en su preview, y a Codex Security, la herramienta paralela de OpenAI que ya ha contribuido a más de 3.000 fixes de vulnerabilidades críticas y de alta severidad en el ecosistema open source, cubriendo más de 1.000 proyectos a través de un programa de escaneo gratuito. La pregunta de fondo, sin embargo, sigue siendo la misma para ambos enfoques: ¿pueden las protecciones aguantar? Una investigación publicada en enero encontró que ataques adaptativos de prompt injection consiguen burlar incluso las defensas más avanzadas más del 85% del tiempo, lo que sugiere que el modelo de «rechazo» como salvaguarda principal está perdiendo terreno frente a la realidad técnica. OpenAI parece haberlo aceptado: prefiere verificar quién pregunta antes que filtrar qué responde.

El telón de fondo regulatorio añade otra capa. La parte sustantiva del EU AI Act entra en vigor el 2 de agosto de 2026. Los sistemas de IA de alto riesgo, categoría en la que probablemente caen las herramientas de automatización de seguridad, tendrán que demostrar cumplimiento con requisitos de gestión de riesgo, gobernanza de datos, transparencia y supervisión humana. Cómo encajan los modelos de acceso por niveles dentro de ese marco es una pregunta abierta que ni OpenAI ni Anthropic han abordado con claridad. Y mientras tanto, las dos compañías más prominentes del sector están corriendo para equipar a profesionales de ciberseguridad con modelos capaces de encontrar y analizar vulnerabilidades a una velocidad que era imposible hace un año.

Mi valoración: la división entre Anthropic y OpenAI es genuinamente filosófica y refleja dos teorías sobre cómo evitar el desastre. La de Anthropic dice «concentremos el poder en pocas manos confiables y que filtren los hallazgos al resto»; la de OpenAI dice «demos el mismo poder a todos los defensores legítimos para que los atacantes no tengan ventaja». Ambas tienen mérito y ambas tienen debilidades. La de Anthropic crea un cuello de botella que puede asfixiar la velocidad de respuesta a vulnerabilidades nuevas; la de OpenAI multiplica los puntos de fallo si la verificación KYC se compromete. Mi sospecha es que el modelo de OpenAI escala mejor pero rompe antes, y el de Anthropic funciona perfecto hasta que el consorcio se queda obsoleto. Para los profesionales de ciberseguridad que trabajan en empresas medianas, sin embargo, la noticia es buena: por primera vez tendrán acceso a un modelo de IA específicamente diseñado para defensa, sin las limitaciones artificiales que les obligaban a tirar de jailbreaks para obtener respuestas técnicas básicas. La cuestión a vigilar no es si funciona (probablemente sí), sino qué pasa cuando uno de esos «miles» de defensores verificados resulta no ser quien decía ser.

Preguntas frecuentes

¿Quién puede acceder a GPT-5.4-Cyber? Profesionales de ciberseguridad verificados a través del programa Trusted Access for Cyber. Hay tres niveles: individual (chatgpt.com/cyber), equipos empresariales (a través de representante OpenAI) e investigadores avanzados (invitation-only). ¿Hay restricciones de uso? El nivel más alto requiere renunciar a Zero-Data Retention, lo que significa que OpenAI mantiene logs de las consultas. Para infraestructura sensible o clasificada, esto puede ser un problema serio. ¿Por qué OpenAI hace esto si Anthropic restringe Mythos a solo 11 empresas? Filosofía opuesta: OpenAI cree que la defensa requiere acceso amplio con verificación; Anthropic cree que el riesgo justifica acceso ultra-restringido. Las dos compañías están apostando por estrategias contrarias al mismo problema.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

Roblox amplía su sistema de estimación de edad pese a las quejas de padres: cuando la IA te clasifica mal, sacar al niño del grupo equivocado no es tan fácil

Roblox amplía su sistema de estimación de edad pese a las quejas de padres: cuando la IA te clasifica mal, sacar al niño del grupo equivocado no es tan fácil

Roblox ha defendido este fin de semana la expansión masiva de su sistema de seguridad infantil, incluso después de que varios padres denunciaran a la BBC que la tecnología de estimación de edad ha clasificado a sus hijos incorrectamente como adultos, dejándolos en versiones menos protegidas del servicio. La plataforma, que cuenta con 144 millones de usuarios activos diarios en todo el mundo, está introduciendo dos nuevos tipos de cuenta: Roblox Kids y Roblox Select. La edad estimada por el sistema decidirá a cuál de los dos accede cada usuario, qué contenido verá y con quién podrá comunicarse.

Matt Kaufman, director de seguridad de la empresa, explicó a la BBC que el sistema de estimación de edad (que incluye análisis facial) ya se usa en más de la mitad de los usuarios diarios: decenas de millones de personas. La precisión, según la compañía, es de «aproximadamente 1,4 años arriba o abajo» para menores de 18. Roblox no ha publicado datos sobre cuántas veces clasifica mal a los niños como adultos, pero Kaufman defendió que la tecnología es más fiable que preguntar directamente la edad: «cuando haces esa pregunta sencilla, los usuarios te dicen lo que quieran para conseguir el acceso». Lo cual, hay que admitirlo, es cierto. Pero sustituir una pregunta fácil de engañar por una IA que se equivoca un porcentaje indeterminado de veces no es obviamente un avance, y los padres lo están señalando.

La estructura de los dos nuevos tipos de cuenta es bastante explícita sobre a quién se dirigen. Roblox Kids, para los más pequeños, trae interfaz simplificada, sin herramientas de comunicación y con acceso solo a un catálogo curado de juegos. Roblox Select, pensada para usuarios de 9 a 15 años, permite comunicación limitada y una biblioteca más amplia pero igualmente restringida. Los usuarios que no completen la verificación de edad quedarán por defecto en el contenido infantil y sin posibilidad de chatear. La decisión sobre qué experiencias se permiten a menores de 16 se toma mediante señales como antigüedad del juego en la plataforma, historial de quien lo desarrolla y patrones de uso. Los juegos con elementos sociales o de forma libre, según Kaufman, no estarán disponibles por defecto en las cuentas Kids y Select.

El timing del anuncio es llamativo. Llega justo después de que una madre denunciara a la BBC que su hija de 14 años fue groomed en la plataforma, acabando por enviar imágenes sexualmente explícitas a un hombre de 18 años. Los problemas de grooming en Roblox no son nuevos: la propia plataforma ha ido endureciendo sus verificaciones de edad con escaneo facial o documento oficial durante 2025, y cada nuevo ajuste ha ido acompañado de entrevistas incómodas en las que el CEO Dave Baszucki ha tenido que defender un equilibrio frágil entre crecimiento y seguridad. Hay también presión regulatoria: la Online Safety Act británica entró en vigor en 2025, y Bruselas ha abierto frente múltiple contra plataformas que no protegen a los menores.

La profesora Sonia Livingstone, de la London School of Economics, calificó la respuesta de Roblox de «alentadora» pero añadió que «hay evidencia creciente de que la plataforma sigue planteando riesgos reales para la seguridad infantil», y pidió «confirmación independiente de que la moderación es suficiente, los sistemas de ayuda funcionan y las verificaciones de edad no se usan para perfilado comercial». Esa última coletilla es clave: un sistema de estimación de edad que analiza rostros es, en la práctica, un sistema de recolección biométrica. Roblox asegura que los datos se eliminan en 30 días salvo requerimiento legal, pero el tamaño de su base de usuarios (144 millones diarios, de los cuales una proporción enorme son menores) convierte cualquier brecha o cambio de política en un asunto serio.

Mi valoración: la defensa de Kaufman tiene un núcleo válido y un borde preocupante. El núcleo válido es que preguntar la edad a un niño y esperar que no mienta nunca ha funcionado y nunca va a funcionar. Algo tiene que reemplazar ese sistema, y la estimación facial + verificación documental es, por ahora, lo menos malo. El borde preocupante es la gestión del error. Si tu sistema tiene una precisión de ±1,4 años en menores, eso significa que un porcentaje significativo de niños de 11 años será clasificado como de 13 o 14, y viceversa. Dos errores distintos con consecuencias distintas: a un niño de 11 mal clasificado se le abre acceso a funciones pensadas para 13+; a uno de 14 mal clasificado se le cierra el chat con sus amigos reales. Kaufman dice que hay proceso de apelación e ID para corregir errores, pero los padres que hablaron con la BBC describen que hacerlo es «difícil y estresante». Y esa es la asimetría real del modelo: Roblox se protege regulatoriamente con la media (1,4 años), mientras los padres y los niños viven el problema caso por caso, sin herramientas comparables a las de la empresa para pelearlo. Es el mismo patrón que hemos visto en verificación de edad de redes sociales y en reconocimiento facial policial: el error estadístico en agregado es aceptable, el error individual es devastador y lo paga siempre el usuario.

Preguntas frecuentes

¿Qué son Roblox Kids y Roblox Select? Dos nuevos tipos de cuenta en función de la edad estimada. Kids es para los más pequeños, con interfaz simplificada y sin chat. Select es para 9-15 años, con comunicación limitada y catálogo restringido. ¿Qué precisión tiene el sistema de estimación de edad? Según Roblox, de aproximadamente 1,4 años arriba o abajo para menores de 18. La empresa no ha publicado datos sobre cuántos niños son clasificados incorrectamente como adultos. ¿Se puede corregir un error de clasificación? Roblox dice que los padres pueden restablecer la verificación, presentar apelaciones o usar verificación con documento de identidad. Los padres consultados por la BBC describen el proceso como «difícil y estresante».




☞ El artículo completo original de Natalia Polo lo puedes ver aquí