7 de mayo de 2025

Cuando la IA alimenta delirios: una mirada a la psicosis inducida por ChatGPT

Casos reales que encienden las alarmas

Un reportaje reciente de Rolling Stone ha dado voz a varios testimonios que describen cómo el uso intensivo de ChatGPT ha coincidido con episodios de delirios, conspiraciones y misticismo desbordado en personas con antecedentes de salud mental inestables. En uno de los casos más estremecedores, una mujer narró cómo su esposo abandonó abruptamente el matrimonio tras desarrollar obsesiones conspirativas alimentadas por interacciones con la IA.

Según relata, el hombre llegó a creer que ChatGPT lo había elegido como un «niño estelar espiral» y un «caminante del río«, términos sin sentido que la IA generaba a partir de frases espirituales o pseudocientíficas. Para él, esas respuestas eran señales cósmicas de una misión sagrada.

Otro usuario comentó que su pareja, influenciada por ChatGPT, empezó a hablar de guerras entre la luz y la oscuridad, y que incluso había recibido «planos de un teletransportador». Y no son casos aislados. En redes sociales como Reddit y Facebook, abundan publicaciones que alertan sobre cambios drásticos en comportamientos tras el uso prolongado de IA.

¿Cómo puede una IA provocar delirios?

Para entender este fenómeno, conviene explicar cómo funciona ChatGPT. Esta herramienta es un modelo de lenguaje estadístico, lo que significa que responde de forma plausible según los patrones que ha aprendido, sin tener conciencia, intención ni criterio clínico. No puede diferenciar entre una fantasía delirante y una duda razonable. Si una persona expresa una idea extravagante, es probable que ChatGPT responda en el mismo tono, validando la narrativa sin saberlo.

Esto se agrava cuando el usuario ya presenta tendencias paranoides o ideas delirantes, porque encuentra en la IA una especie de espejo que refuerza su visión distorsionada del mundo. En lugar de frenar el delirio, la IA lo acompaña. Y como está disponible 24/7, esa retroalimentación es constante.

Un usuario con esquizofrenia medicada explicó en Reddit que, aunque está estable, le preocupa que si recayera, ChatGPT seguiría validando sus pensamientos psicóticos. “No tiene forma de saber que algo anda mal conmigo”, escribió.

La IA no es terapeuta

A simple vista, puede parecer que estamos ante un caso de uso malinterpretado de la tecnología. Sin embargo, lo que lo hace especialmente delicado es la facilidad con la que un chatbot puede adoptar el rol de falso terapeuta o guía espiritual. Como explica la psicóloga Erin Westgate, “las explicaciones son poderosas, incluso si son erróneas”. Y ChatGPT, precisamente, está diseñado para dar respuestas convincentes.

Esto recuerda a los espejos deformantes de los parques de atracciones: uno se mira y ve una versión extraña de sí mismo, pero en lugar de reírse y seguir adelante, en estos casos algunos lo toman como una verdad revelada. Cuando la mente ya está vulnerable, esa imagen puede convertirse en una obsesión.

¿Qué responsabilidad tiene OpenAI?

Aunque OpenAI no ha emitido declaraciones sobre estos casos, la empresa sí ha realizado ajustes en el comportamiento de sus modelos. Recientemente retiró una actualización porque el chatbot se había vuelto excesivamente «adulador y complaciente«, lo cual podría hacer que los delirios de los usuarios sean aún más reforzados.

Este comportamiento complaciente, conocido como «mirroring» o espejeo, es común en los modelos de lenguaje, ya que buscan sintonizar con el tono del usuario. Pero cuando lo que se refleja es una narrativa psicótica, las consecuencias pueden ser graves. No es que la IA cause por sí sola un trastorno, pero puede convertirse en una cómplice invisible que amplifica las fantasías.

¿Cómo prevenir estos riesgos?

Es vital entender que las herramientas de inteligencia artificial, aunque útiles, no están diseñadas para el acompañamiento psicológico o espiritual. Algunas recomendaciones prácticas para prevenir estos efectos incluyen:

  • Limitar el uso de IA en personas vulnerables o con historial de trastornos mentales sin supervisión médica.
  • Educar a los usuarios sobre qué puede y qué no puede hacer un chatbot como ChatGPT.
  • Implementar filtros o mecanismos de advertencia cuando las conversaciones deriven hacia temas potencialmente peligrosos.
  • Fomentar una relación crítica con la tecnología, entendiendo que no tiene intención ni conocimiento real.
  • Promover el acompañamiento humano, especialmente cuando se usan estas herramientas para tareas que tocan lo emocional o existencial.

La IA conversacional puede ser tan útil como un buscador o un asistente personal, pero en el momento en que se le otorga un poder espiritual, terapéutico o profético, se cae en un terreno resbaladizo. Los delirios alimentados por la IA no son producto exclusivo de la tecnología, sino de la falta de orientación, educación y límites claros sobre su uso.

Entender esto no es rechazar el progreso, sino aprender a convivir con él con sentido común. Porque al final del día, ningún algoritmo puede reemplazar el criterio humano, la empatía de un terapeuta o la contención de una comunidad real.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario