
Durante años, la mayoría de webs y apps se conformaban con una pregunta casi simbólica: “¿Eres mayor de edad?”. Era como poner un cartel de “solo adultos” en la puerta de una tienda sin nadie que mirase. Esa etapa se está agotando. La verificación de edad se extiende por redes sociales, plataformas de vídeo, servicios de IA y videojuegos, impulsada por una mezcla de presión política, demandas sociales para reforzar la seguridad infantil online y el temor (muy real) a que los menores accedan a contenidos o funciones que no les corresponden.
El problema es que, cuando el “portero” pasa a existir, también aparecen preguntas incómodas: ¿qué datos hay que enseñar, quién los guarda, cuánto tiempo, para qué más podrían usarse y qué pasa si se filtran? La tensión entre protección y privacidad se ha convertido en el centro del debate.
El App Store como portero: Apple y la edad antes de descargar
Una de las novedades más significativas de 2026 es que el control de edad empieza a moverse “hacia arriba” en la cadena: no solo dentro de cada app, sino ya en la tienda que te permite instalarla. Apple ha presentado herramientas para que los desarrolladores cumplan con “obligaciones de aseguramiento de edad” que llegan por leyes nuevas o inminentes en distintos territorios.
En la práctica, Apple ya aplica un freno directo: en Australia, Brasil y Singapur, las personas no pueden descargar apps calificadas como 18+ si su edad no se ha confirmado con métodos considerados “razonables”, verificados de forma automática por el App Store. La compañía también remarca un matiz clave: aunque la tienda haga ese primer filtro, algunos desarrolladores podrían tener obligaciones adicionales y necesitar una comprobación propia según la normativa aplicable.
Aquí aparece un concepto que veremos repetirse: compartir “rangos” en lugar de fechas exactas. Apple empuja APIs como Declared Age Range para que, en ciertos casos, un desarrollador reciba una categoría de edad y no el dato completo, intentando equilibrar cumplimiento legal y minimización de información.
Discord y el choque con los usuarios: retraso, alternativas y transparencia
Discord se ha convertido en el ejemplo perfecto de lo delicado que es este despliegue. Tras anunciar un plan de verificación global, la reacción fue intensa: muchos usuarios entendieron que habría escaneo facial e ID para todo el mundo, y lo vivieron como una frontera nueva en una app que se percibía “informal” y privada. La compañía ha reconocido que comunicó mal la iniciativa y ha pospuesto el lanzamiento global a la segunda mitad de 2026.
El planteamiento de Discord combina dos ideas. Por un lado, un sistema de “estimación de edad” que intenta inferir si alguien es adulto con señales de cuenta y uso, sin analizar el contenido de mensajes, según ha explicado la empresa. Por otro, cuando esa inferencia no es suficiente, se activan mecanismos de verificación más explícitos, que pueden incluir vídeo-selfie o documentos.
La plataforma promete ampliar opciones (por ejemplo, verificación con tarjeta), documentar qué proveedores usa y publicar explicaciones técnicas sobre su sistema. También intenta suavizar la experiencia con alternativas como “canales spoiler” para ciertos temas, evitando que todo se convierta en una puerta con candado. Y, como telón de fondo, pesa el miedo a incidentes: se ha mencionado una filtración previa ligada a un proveedor externo que expuso identificaciones escaneadas de algunos usuarios, un recordatorio de que estos datos son un botín demasiado tentador.
Cuando la IA “calcula” tu edad: ChatGPT y Google
Si enseñar un documento suena invasivo, muchas compañías están apostando por un enfoque menos frontal: que un modelo “adivine” tu edad con patrones de uso y señales de cuenta. Es como el dependiente que, en vez de pedirte el DNI, te mira y decide si pareces mayor; solo que aquí el “ojo” es un sistema automatizado.
OpenAI ha incorporado predicción de edad en ChatGPT para reforzar protecciones cuando el sistema estima que un usuario podría ser menor de 18. El modelo se apoya en señales conductuales y de cuenta, como antigüedad, horarios típicos de actividad y patrones de uso, junto con la edad declarada si existe. Cuando se activan esas protecciones, se restringe el acceso a ciertos contenidos sensibles y se aplican medidas pensadas para un uso más seguro.
Google también ha comunicado el uso de estimación de edad con IA para detectar cuentas potencialmente de menores y aplicar restricciones, empezando de forma gradual. El atractivo para las plataformas es evidente: menos fricción que pedir documentos a todo el mundo. El riesgo también lo es: los falsos positivos existen y, si te equivocas, puedes bloquear a un adulto como si fuera menor… o dejar pasar a un menor con acceso de adulto.
Juegos, chats y selfies: Roblox y el dilema de la identidad
En el terreno de los videojuegos y las comunidades, el chat suele ser el punto caliente. Roblox ha desplegado requisitos de comprobación de edad para usar funciones de comunicación, apoyándose en estimación facial y, en ciertos casos, verificación con documento o controles parentales. La compañía describe el objetivo como una experiencia de chat más acorde a franjas de edad, con posibilidades de “conexiones de confianza” para hablar con menos filtros entre personas conocidas.
Aquí se ve una realidad práctica: el control de edad no se plantea solo como “ver contenido adulto o no”, sino como habilitar o limitar funciones, desde el tipo de chat hasta con quién puedes interactuar. En términos cotidianos, no es solo la puerta del local; son también las zonas del local a las que puedes acceder.
Leyes que empujan la ola y tribunales que frenan
Detrás del avance hay un mapa legal cada vez más fragmentado. En Estados Unidos, se discuten propuestas para que sean las tiendas de apps las que verifiquen edad, con proyectos que buscan trasladar esa responsabilidad a los app stores. Al mismo tiempo, los tribunales están marcando límites: un juez federal bloqueó temporalmente una ley de Texas (SB 2420) que habría exigido verificación de edad y consentimiento parental para menores en descargas y compras, al considerar probable un conflicto con la Primera Enmienda.
En paralelo, el Tribunal Supremo de EE. UU. permitió que siguiera vigente, mientras se litiga, una ley de Mississippi que exige verificación de edad en redes sociales y consentimiento parental para menores. Eso significa que el marco no avanza en línea recta: en un estado se frena, en otro se consolida.
Fuera de EE. UU., el Reino Unido es una referencia por su Online Safety Act. El regulador Ofcom estableció que, desde el 25 de julio de 2025, los servicios que permiten pornografía deben implementar comprobaciones de edad “fuertes” para impedir el acceso de menores. Plataformas y tiendas han buscado caminos distintos: Valve, por ejemplo, ha recurrido a la tarjeta de crédito como prueba para acceder a contenido “maduro” en Steam en el Reino Unido.
La presión regulatoria también llega por el flanco de la privacidad. En febrero de 2026, la autoridad británica ICO multó a Reddit por el tratamiento de datos de menores y por apoyarse durante años en declaraciones de edad insuficientes, un aviso de que “no verificar” también tiene costes.
Privacidad, seguridad y el “efecto escalofrío”
La parte incómoda de todo esto no es solo técnica, es humana. Pedir un documento para entrar a una web puede generar un “efecto escalofrío”: gente adulta evitando contenidos legales porque no quiere dejar rastro, igual que alguien que decide no comprar un libro si le piden registrarse con su DNI en la puerta. El riesgo se multiplica cuando intervienen proveedores externos, cuando no está claro cuánto se retiene o cuando el historial de filtraciones en la industria demuestra que ningún sistema es infalible.
También está la cuestión de la eficacia. Las soluciones basadas en selfie pueden ser burladas, se ha visto con demostraciones que engañan a verificadores faciales usando imágenes sintéticas o incluso escenas de videojuegos en pantalla, lo que expone una verdad incómoda: cuanto más “rápido y fácil” es el control, más fácil suele ser de esquivar. Si el control se vuelve más robusto, suele volverse más intrusivo. Y ahí volvemos al equilibrio inicial.
Cómo navegar este cambio sin regalar más datos de la cuenta
Para usuarios y familias, el giro práctico es que la verificación de edad ya no será un aviso ocasional, sino una parte recurrente del uso digital. Conviene tratarla como tratarías la seguridad en el mundo físico: si un sitio pide un dato sensible, merece una pausa para entender quién lo solicita, con qué método y qué alternativas ofrece. En muchos casos, una verificación con rango de edad o un método que no implique almacenar documentos puede ser menos arriesgado que subir un ID, siempre que cumpla la ley local y te dé control sobre lo que compartes.
Para plataformas, la confianza se gana con decisiones de diseño. Procesar datos en el dispositivo cuando sea posible, retener lo mínimo, explicar con claridad qué señales se usan para estimación de edad, publicar auditorías y dar vías de apelación cuando el sistema se equivoca ya no son “extras”; se están convirtiendo en requisitos tácitos para que este nuevo portero digital no se perciba como un vigilante.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
