
OpenAI ha iniciado un despliegue global de una herramienta de predicción de edad para ChatGPT con un objetivo claro: decidir si una cuenta pertenece o no a un menor de edad. No se trata de una simple casilla de “tengo más de 18”, sino de un sistema que intenta inferirlo con señales del propio uso. Es un cambio relevante porque convierte la edad en una especie de “llave” que abre o cierra puertas dentro del servicio, algo cada vez más común en plataformas digitales que quieren limitar el acceso a ciertos contenidos o funciones.
La idea se parece a la de un portero en la entrada de un local que no solo mira el DNI: observa el comportamiento de quien quiere entrar, la hora a la que llega, si viene con prisas, si parece habitual. El problema es que, cuando ese portero es un modelo automatizado, puede equivocarse con quien tiene cara de joven, con quien comparte el móvil con su familia o con quien trabaja de noche. Y esas equivocaciones no son triviales si derivan en restricciones o en pasos extra para seguir usando el producto.
Qué señales usa OpenAI para estimar si alguien es menor
Según la explicación atribuida al anuncio de la compañía y recogida por medios como Reuters y Engadget, el modelo combina señales conductuales y a nivel de cuenta. En concreto, se menciona la antigüedad de la cuenta, los horarios típicos de actividad, los patrones de uso a lo largo del tiempo y la edad declarada por el propio usuario. Traducido a lenguaje cotidiano: el sistema intenta encajar piezas de un puzle con lo que haces y cuándo lo haces, no solo con lo que dices.
Esta aproximación tiene una ventaja práctica: no obliga a pedir documentos de entrada a todo el mundo. También tiene una debilidad importante: muchas de esas señales son ambiguas. Una cuenta recién creada puede pertenecer a un adulto que se abre ChatGPT por primera vez; la actividad nocturna puede ser de un estudiante, de un sanitario, de alguien con insomnio o de quien vive en otro huso horario y viaja. Si el modelo “aprende” correlaciones demasiado rígidas, el riesgo de etiquetar mal a personas reales crece.
Qué ocurre si el sistema se equivoca y te marca como menor
OpenAI plantea un mecanismo de corrección: si alguien es caracterizado erróneamente como menor, deberá enviar un selfie para rectificar a través de Persona, una plataforma de verificación de edad. En la práctica, esto introduce un “plan B” que no es inocuo. Pedir una selfie puede resultar razonable para algunos usuarios, pero también supone una fricción clara y una decisión de privacidad: no es lo mismo usar un chatbot que entregar una imagen facial a un proveedor externo para recuperar acceso o funcionalidades.
Aquí conviene imaginar un control de acceso a un edificio: si el lector de tarjeta falla, te piden pasar por recepción y mostrar un documento. Funciona, sí, pero el coste lo asume quien fue bloqueado por error. En servicios masivos, incluso un porcentaje pequeño de falsos positivos puede traducirse en muchas personas afectadas. También aparece la pregunta incómoda: ¿qué pasa con quien no quiere o no puede enviar un selfie? En ese punto, la corrección deja de ser un “arreglo” universal y pasa a ser una condición.
El motivo de fondo: preparar un “adult mode” y contenidos NSFW
La pieza clave para entender el movimiento es estratégica. OpenAI estaría preparando un “adult mode” que permitiría crear y consumir contenido NSFW (no apto para menores). Para habilitar algo así, la empresa necesita una forma de separar usuarios adultos de menores sin depender solo de la declaración voluntaria. Dicho de forma simple: si vas a abrir una zona “solo para mayores”, necesitas un método para comprobar la edad, aunque sea probabilístico.
Este enfoque refleja una tensión habitual en tecnología: lanzar funciones nuevas y luego construir barreras de seguridad alrededor. En este caso, la barrera intenta llegar antes del contenido para adultos, como un vallado instalado antes de abrir una piscina. El vallado reduce algunos riesgos, pero no elimina los saltos: siempre habrá quien busque colarse, y el debate se desplaza hacia cuántas medidas son suficientes y a qué coste.
Seguridad y confianza: el contexto que presiona a OpenAI
La iniciativa llega en un momento en el que las compañías de IA están bajo lupa por el impacto de sus herramientas en usuarios vulnerables. Reuters y Engadget mencionan que OpenAI fue implicada en una demanda por muerte por negligencia relacionada con un adolescente, y que en meses posteriores la empresa exploró restricciones automáticas para contenido dirigido a menores y creó un consejo asesor en salud mental. Más allá del detalle legal —que corresponde a tribunales y hechos concretos—, el trasfondo es claro: cuando un producto se vuelve ubicuo, la expectativa de protección de menores deja de ser opcional y pasa a ser un requisito reputacional, regulatorio y ético.
También hay un aprendizaje que las plataformas repiten: los “parches” a posteriori suelen parecer reactivos. Implementar verificación de edad antes de abrir funciones más sensibles intenta mostrar un giro hacia la prevención. El éxito dependerá de cómo se mida, cómo se audite y cómo se trate a quienes queden atrapados por un error del sistema.
El espejo de otras plataformas: Roblox y la evasión como deporte
La comparación con Roblox funciona como advertencia. Plataformas con historial irregular en protección infantil han intentado segmentar experiencias por edad con resultados mixtos. En entornos donde hay incentivos para “parecer mayor” —por curiosidad, presión social o simple acceso a funciones— la evasión se vuelve un deporte: cuentas compartidas, datos falsos, tutores que crean perfiles, cambios de comportamiento para confundir al sistema.
La predicción de edad basada en patrones tiene un límite evidente: si el usuario quiere engañarla, puede ajustar su conducta como quien cambia el ritmo al caminar para despistar a una cámara. Y si el sistema se endurece para resistir trampas, aumenta el riesgo de penalizar a usuarios legítimos que no encajan en el molde. Es el clásico dilema del detector de humo: si lo haces demasiado sensible, pita cuando tuestas pan; si lo haces poco sensible, puede no avisar cuando importa.
Privacidad y errores: el precio de convertir la edad en un “filtro”
Hay dos planos que merecen atención. El primero es la privacidad: estimar edad con señales de actividad implica observar patrones temporales y de uso. Incluso si esos datos ya existen por motivos operativos, su utilización para clasificar a personas cambia la naturaleza del tratamiento. El segundo plano es el de los errores con impacto: no todos los fallos son iguales. Etiquetar a un adulto como menor puede limitar funciones y exigir selfie; etiquetar a un menor como adulto puede abrir puertas a contenido que precisamente se quería restringir.
Por eso, más que preguntar “¿funciona?”, la pregunta útil es “¿cómo de bien funciona y para quién?”. Sin métricas públicas, auditorías externas o explicaciones detalladas, el debate se queda en la confianza. Y la confianza, en tecnología, se gana con transparencia: tasas de error, sesgos por región o idioma, cómo se gestionan apelaciones, cuánto tarda la corrección, qué datos guarda Persona y bajo qué condiciones.
Qué cambios puede notar el usuario y qué conviene vigilar
Para el usuario corriente, este tipo de sistemas suele sentirse como fricción inesperada: una restricción repentina, un aviso, una solicitud de verificación. Si OpenAI avanza hacia un modo adulto, es razonable esperar que las cuentas clasificadas como menores tengan barreras más estrictas, y que las herramientas de creación de contenido sensible se vinculen a esa clasificación. En ese escenario, el control de la identidad pasa de ser un detalle a ser parte del producto.
Lo práctico es observar dos cosas: si la experiencia cambia sin una explicación clara y si el canal de corrección es proporcional al problema. Un error de clasificación no debería convertirse en un callejón sin salida. Y una verificación por selfie, si es la vía principal para corregir, tendrá que ir acompañada de garantías comprensibles sobre retención de datos, seguridad y alternativas razonables.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí