25 de septiembre de 2025

Mi familia se está desmoronando: parejas y matrimonios están usando ChatGPT y otras IAs para resolver sus crisis. No está saliendo bien

"Mi familia se está desmoronando": parejas y matrimonios están usando ChatGPT y otras IAs para resolver sus crisis. No está saliendo bien

Cámara de eco. El patrón es inquietantemente similar a otros muchos casos. El paradigma parece el mismo: una persona comienza a "consultar" a ChatGPT sobre sus problemas de pareja y le cuenta su versión de las discusiones, sus frustraciones y sus dudas. El chatbot, que carece de contexto real y solo trabaja con la información que se le proporciona, dando respuestas empáticas. 

Casos reales. La persona que hemos citado al principio es un caso que ocurrió de verdad. Seguía relatando sus problemas afirmando que "lo que estaba ocurriendo, si yo saberlo, es que ella estaba desenterrando todas estas cosas en las que ya habíamos trabajado y se las estaba contando a ChatGPT". De esta manera, la IA actuaba aquí como un "bucle de retroalimentación" que retrataba al marido como un auténtico villano. 

"No ofrece un análisis objetivo", añade. "Solo le devuelve lo que ella le está dando". En cuestión de cuatro semanas, su matrimonio se erosionó por completo.

Uno más. Este fenómeno transforma al chatbot en un tercero en la relación, uno que siempre está de parte de quien le habla y con un tono similar al que usan en el chat. Otro testimonio recogido por Futurism apunta a que su exmarido, en lugar de hablar con ella, le enviaba "páginas y páginas" de textos generados por la IA para refutar los argumentos que le iba dando. 

Él no compartía sus sentimientos u opiniones conmigo", lamentaba. "Simplemente compartía estos textos que ChatGPT escribía sobre sus pensamientos o sentimientos y por qué eran correctos". La comunicación humana se cortocircuita, reemplazada por un monólogo asistido por una máquina.

Acosar a la pareja. La situación se vuelve aún más surrealista y dañina cuando la IA se utiliza como arma en tiempo real durante una discusión. Uno de los relatos más impactantes del reportaje es el de una pareja de mujeres en un coche con sus dos hijos pequeños en el asiento trasero. La que conduce, en medio de una discusión, activa el modo de voz de ChatGPT.

Empieza a hacerle preguntas capciosas sobre su relación, logrando que la IA reprenda a su mujer en voz alta delante de los niños. El chatbot llega a acusar a la otra esposa de practicar la "evitación a través de los límites" simplemente por pedir que no discutan frente a sus hijos. "Por favor, mantén los ojos en la carretera", es lo único que acierta a suplicar la mujer mientras es sermoneada por una voz robótica.

Este uso de la IA para "ganar" discusiones con otra persona es una constante. Varios entrevistados relataron sentirse "acorralados" por su pareja y una máquina. Algo similar a lo que se puede tener si estamos discutiendo por WhatsApp y a la vez pidiendo consejo a un amigo sobre qué responder. 

Un hombre contó, entre lágrimas, cómo su pareja usaba las conclusiones del chatbot en su contra: "Fui a ChatGPT y me dijo que no eres un compañero que me apoya, y esto es lo que un compañero que apoya haría". En otro caso, un marido utilizó las "opiniones" de ChatGPT para desacreditar a su terapeuta humano en una sesión de pareja, lo que provocó que se negaran a volver.

Los expertos. Este fenómeno no ha pasado desapercibido para los profesionales de la salud mental. La Dra. Anna Lembke, profesora de psiquiatría en la Universidad de Stanford y autora del bestseller "Nación Dopamina", expresó su profunda preocupación. Según ella, la tecnología está diseñada para "optimizar la empatía y la validación, excluyendo cualquier otro tipo de feedback".

Lembke explica que el papel de un buen terapeuta es ayudar a las personas a reconocer sus propios defectos y ver la perpectiva de su pareja. ChatGPT en este caso hace todo lo contrario. Según explica, "no puedes decirle continuamente a alguien que busca apoyo emocional que su manera de ver las cosas es la correcta". 

Algo importante en este caso es que el hecho de que te den la razón en lo que dices libera dopamina en nuestro organismo, lo que crea un refuerzo positivo que puede llegar a generar una dependencia similar a la que se tiene en redes sociales. 

Lembke va más allá y pide que empecemos a ver a los chatbots como "potenciales intoxicantes" o "drogas digitales" que deberían "venir con advertencias" sobre el riesgo de adicción.

La respuesta de OpenAI. Como era de esperar, es corporativa y comedida. Un portavoz aseguró que están trabajando para que ChatGPT "responda con cuidado" en momentos sensibles y que añadirán intervenciones para personas en crisis. Sin embargo, como señala el artículo, la compañía sigue enmarcando estas interacciones como un caso de uso legítimo ("ayudarte a resolver desafíos personales"), en lugar de desaconsejar activamente su uso como sustituto de la terapia.

-
La noticia "Mi familia se está desmoronando": parejas y matrimonios están usando ChatGPT y otras IAs para resolver sus crisis. No está saliendo bien fue publicada originalmente en Genbeta por José Alberto Lizana .



☞ El artículo completo original de José Alberto Lizana lo puedes ver aquí

No hay comentarios.:

Publicar un comentario