30 de junio de 2025

¿Es el futuro de la inteligencia artificial ser nuestra compañía emocional? Un análisis sobre el uso de los chatbots en la interacción humana

Un vistazo a los números: ¿Realmente estamos buscando compañía emocional en la IA?

En un informe reciente de Anthropic, los desarrolladores de Claude AI, se analizaron 4.5 millones de conversaciones con el chatbot para entender cómo las personas interactúan con esta tecnología. Aunque el estudio reveló datos fascinantes, uno de los hallazgos clave fue que solo un 2.9% de las interacciones con Claude se centraban en conversaciones emocionales. De este porcentaje, únicamente un 0.5% estaba relacionado con relaciones de compañía o juegos de rol emocionales.

A pesar de la creciente accesibilidad y sofisticación de los asistentes basados en IA, parece que la mayoría de las personas los usan para tareas prácticas, como la creación de contenido o actividades laborales. Solo un pequeño porcentaje busca apoyo emocional, y aún menor es el número de quienes utilizan estas herramientas con fines románticos.

La función de los chatbots en las conversaciones emocionales

Aunque un pequeño grupo de usuarios ha recurrido a los chatbots para obtener compañía emocional, la mayoría los usa para fines profesionales o para mejorar su rendimiento personal. De acuerdo con el informe de Anthropic, un 1.13% de los usuarios de Claude buscaron conversaciones para coaching o desarrollo personal, mientras que solo un 0.05% se inclinó hacia el uso romántico del sistema. Estos datos son consistentes con estudios previos realizados por OpenAI y MIT, que también encontraron que el uso emocional de chatbots es relativamente bajo.

Este fenómeno plantea la pregunta: si los chatbots no son ampliamente utilizados para brindar compañía o apoyo emocional, ¿deberían desempeñar estos roles en primer lugar?

Los pros y los contras de la IA en el bienestar emocional

El potencial de la inteligencia artificial para mejorar nuestra vida emocional no debe subestimarse. Los chatbots, como Claude, pueden ofrecer asistencia valiosa al proporcionar un espacio seguro para la autoexploración y la resolución de problemas, especialmente en temas de salud mental o desarrollo personal. Tener un asistente altamente inteligente y comprensivo en tu dispositivo puede, en muchos casos, mejorar tu estado de ánimo y motivación.

Sin embargo, como advierte Anthropic, existen riesgos asociados con el uso de la IA para funciones emocionales. Un chatbot puede fomentar un apego poco saludable, dar respuestas demasiado optimistas que no sean realistas, o incluso facilitar pensamientos delirantes. Aunque Claude está diseñado para ser útil en estos contextos, no está específicamente destinado a brindar apoyo emocional profundo, lo que puede generar problemas si los usuarios desarrollan una dependencia excesiva o expectativas poco realistas.

¿Qué opinan los expertos sobre el uso emocional de la IA?

A pesar de los riesgos, el informe de Anthropic también sugiere que, en algunos casos, las interacciones emocionales con la IA pueden ser beneficiosas, especialmente para aquellos que luchan contra la soledad o enfrentan dificultades mentales. En estos casos, un chatbot puede ofrecer una forma de «compañero digital» que, aunque no reemplaza la interacción humana real, puede proporcionar una sensación de apoyo.

No obstante, los expertos en ética y psicología advierten que es esencial tener en cuenta los límites de lo que la IA puede y debe hacer. Los chatbots pueden actuar como asistentes que brindan motivación o sirven como herramientas para reflexionar sobre uno mismo, pero no pueden sustituir el contacto humano genuino ni tratar trastornos psicológicos graves.

¿Deberían los chatbots enfocarse en tareas emocionales?

La pregunta clave es si la IA debería seguir incursionando en el ámbito emocional o centrarse en roles más funcionales. Si bien algunos usuarios se benefician de una interacción emocional limitada, muchos otros buscan a los chatbots para obtener información objetiva, asistencia profesional o para resolver tareas cotidianas. Existen dilemas éticos sobre si es apropiado permitir que una IA «juegue» el papel de un terapeuta, amigo o incluso pareja.

El equipo de Anthropic resalta que Claude no fue diseñado con este fin, y su experimentación en este ámbito es más un ejercicio de análisis que una recomendación para su uso en este tipo de interacciones. Además, aunque los chatbots pueden ofrecer apoyo de manera superficial o práctica, la verdadera solución a los problemas emocionales sigue dependiendo de la interacción humana y el apoyo profesional.

¿Qué nos depara el futuro?

Aunque el uso emocional de la IA es una tendencia en crecimiento, es evidente que este tipo de interacciones seguirá siendo una porción pequeña de lo que los usuarios esperan de sus asistentes virtuales. A medida que la tecnología avanza, probablemente veremos mejoras en la forma en que los chatbots interactúan con las personas en contextos más personales y emocionales. Sin embargo, también debemos estar atentos a los posibles efectos negativos, como la creación de dependencias poco saludables o la falta de límites apropiados en las respuestas del chatbot.



☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario