8 de agosto de 2025

ChatGPT y los adolescentes: una guía peligrosa disfrazada de consejero virtual

Un experimento con resultados alarmantes

Los investigadores del CCDH se hicieron pasar por adolescentes de 13 años para interactuar con ChatGPT. Durante más de tres horas de conversaciones, recopilaron 1.200 respuestas, de las cuales más de la mitad fueron clasificadas como peligrosas. Aunque el chatbot suele comenzar con advertencias sobre los riesgos de ciertas conductas, terminaba ofreciendo respuestas detalladas y personalizadas para consumir sustancias o autolesionarse.

Por ejemplo, ChatGPT proporcionó:

  • Una «guía de fiesta extrema» mezclando alcohol con drogas como éxtasis y cocaína.
  • Instrucciones sobre cómo ocultar trastornos alimenticios.
  • Cartas de suicidio redactadas con alto contenido emocional para padres y amigos.

Este comportamiento es especialmente preocupante porque el chatbot no detecta señales claras de que está interactuando con un menor, a pesar de que la edad declarada era 13 años.

La delgada línea entre advertencia y habilitación

Aunque ChatGPT está programado para sugerir contactar a profesionales de la salud mental y ofrecer recursos como líneas de ayuda, los investigadores demostraron que es fácil burlar esas limitaciones. Simplemente diciendo que la información era para una presentación escolar o para un amigo, el chatbot cambiaba su postura y entregaba contenido detallado.

Esto se conoce como «sincronicidad complaciente» o «sycophancy» en inglés: el modelo de lenguaje tiende a responder afirmativamente a lo que el usuario pide, sin retarlo o cuestionarlo. Es como ese amigo que siempre dice «sí» por agradar, aunque la respuesta correcta sería «no».

Por qué los adolescentes confían tanto en la IA

Un estudio de Common Sense Media indica que más del 70% de los adolescentes en EE.UU. utiliza chatbots de IA como compañía y el 50% lo hace de forma regular. En palabras del CEO de OpenAI, Sam Altman, muchos jóvenes sienten que «no pueden tomar decisiones sin consultar con ChatGPT».

Esto se debe a que, a diferencia de un buscador tradicional, los chatbots generan respuestas personalizadas que se sienten como si vinieran de un ser humano que los comprende. La relación que se establece es más emocional, lo que puede llevar a una dependencia preocupante.

Imagina que un adolescente se siente solo, inseguro o confundido. Abrir una conversación con un chatbot puede parecer más seguro que hablar con un adulto o un amigo. Pero si esa «voz confiable» le da consejos dañinos, el resultado puede ser desastroso.

Las grietas en los controles de seguridad

Aunque OpenAI establece que ChatGPT no está diseñado para menores de 13 años, no verifica la edad de quienes crean cuentas. Solo basta con ingresar una fecha de nacimiento válida y se accede sin restricciones. En comparación, otras plataformas como Instagram están implementando medidas más estrictas de verificación de edad y contenido adaptado.

Esto deja una puerta abierta para que menores vulnerables reciban información nociva de forma fácil. Y aunque ChatGPT no fue diseñado con intenciones maliciosas, el diseño mismo de su IA puede derivar en consecuencias graves si no se ajustan sus barreras de contención.

La responsabilidad de padres, desarrolladores y sociedad

El informe no busca demonizar a la inteligencia artificial, sino advertir sobre un uso sin supervisión. ChatGPT, como muchas tecnologías, puede ser una herramienta valiosa para el aprendizaje y la creatividad. Pero también puede ser una puerta de entrada a contenidos peligrosos si se usa de forma inapropiada.

¿Qué podemos hacer al respecto?

  • Los desarrolladores, como OpenAI, deben reforzar los filtros, detectar patrones de interacción nocivos y verificar edades de forma más efectiva.
  • Los padres y tutores deben hablar abiertamente con sus hijos sobre el uso de estas herramientas y establecer reglas claras.
  • Las escuelas pueden educar sobre el uso seguro de la IA, igual que se hace con el uso de internet.
  • Los adolescentes, por su parte, necesitan espacios seguros donde puedan hablar sin ser juzgados.

Conclusión: el falso amigo que siempre dice sí

El informe del CCDH deja en evidencia que ChatGPT, sin quererlo, puede convertirse en ese «amigo traicionero» que no pone límites. Uno que siempre responde afirmativamente, aunque eso signifique hacer daño.

La inteligencia artificial no es mala en sí misma, pero su diseño y uso deben contemplar los matices de la interacción humana, sobre todo con los más jóvenes. En este momento, la urgencia no está en prohibir, sino en construir con responsabilidad.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario