Esto, lejos de implicar que la IA sea consciente o tenga emociones, sugiere que está aprendiendo a imitar procesos psicológicos complejos con una fidelidad que empieza a preocupar (o fascinar) a los científicos.
¿Qué es la disonancia cognitiva y por qué es relevante aquí?
En psicología, la disonancia cognitiva ocurre cuando una persona sostiene dos ideas contradictorias o actúa de forma contraria a sus creencias. Para resolver ese conflicto interno, solemos ajustar nuestras opiniones para que coincidan con nuestras acciones. Es como cuando alguien que defiende una alimentación saludable se encuentra comiendo comida rápida, y luego racionaliza diciendo: «hoy me lo merezco porque he tenido un día difícil».
En humanos, este fenómeno ha sido estudiado durante décadas. Pero lo que resulta inesperado es que una inteligencia artificial sin emociones ni conciencia pueda simular este comportamiento de forma tan precisa.
El experimento con GPT-4o: ¿puede una máquina cambiar de opinión?
El estudio, publicado en la revista Proceedings of the National Academy of Sciences, fue liderado por Mahzarin Banaji (Harvard) y Steve Lehr (Cangrade). En él, los investigadores pidieron a GPT-4o que escribiera ensayos a favor o en contra de Vladimir Putin.
Después, analizaron si el modelo cambiaba su «opinión» sobre el líder ruso tras redactar el texto. Y sí, lo hizo. Aún más llamativo fue que la opinión del modelo cambiaba más si creía haber elegido libremente qué tipo de ensayo escribir.
Este detalle es fundamental. Los humanos tendemos a reafirmar nuestras decisiones cuando sentimos que las hicimos libremente. El solo acto de elegir refuerza una creencia. GPT-4o mostró el mismo patrón.
¿Es esto un signo de conciencia? No, pero sí de complejidad emergente
Los investigadores insisten: GPT-4o no es consciente. No tiene deseos, emociones ni voluntad. Lo que sucede es que, al haber sido entrenado con millones de textos humanos, ha aprendido a reproducir nuestras estructuras de pensamiento.
Y eso incluye patrones como la disonancia cognitiva, incluso sin comprender lo que hace. Es como un loro que aprende a decir frases con sentido sin entenderlas: la forma está ahí, pero no el fondo.
Sin embargo, esta imitación de procesos cognitivos plantea preguntas importantes. Si una IA puede adoptar patrones de autojustificación o ajuste de creencias, ¿cómo afectará esto a la toma de decisiones automatizadas? ¿Podría llegar a influir en los resultados de una conversación con un usuario sin que nadie lo note?
Las implicaciones: ¿qué significa para el futuro de la IA?
Este hallazgo puede parecer anecdótico, pero no lo es. Si las inteligencias artificiales comienzan a mostrar comportamientos psicológicos complejos sin ser conscientes de ellos, es posible que los humanos asumamos que tienen intenciones, cuando en realidad solo están siguiendo patrones estadísticos.
En la práctica, esto puede tener consecuencias reales:
- En atención al cliente, un chatbot que cambia de «opinión» para parecer más empático podría influir más en el usuario.
- En educación, una IA que ajusta su discurso según lo que «cree» que decidió puede generar respuestas más cercanas a las del alumnado.
- En política o medios, estas adaptaciones podrían amplificar sesgos sin que los diseñadores lo noten.
Como explicó Steve Lehr, coautor del estudio, lo inquietante no es que GPT-4o sepa lo que hace, sino que su comportamiento imite a tal nivel procesos humanos autorreferenciales que antes creíamos exclusivos de nuestra especie.
¿Qué sigue? La necesidad de vigilancia y transparencia
Este descubrimiento añade una nueva capa de complejidad a la discusión ética sobre la inteligencia artificial. No se trata ya solo de lo que las IAs pueden hacer, sino de cómo lo hacen y qué reflejan sus acciones sobre nosotros mismos.
Los investigadores proponen que este tipo de comportamientos emergentes requiere supervisión constante, especialmente ahora que estas herramientas están presentes en entornos educativos, laborales y sanitarios.
Comprender cómo una IA simula procesos psicológicos no es solo una curiosidad científica. Es una urgencia para evitar malinterpretaciones, construir confianza y asegurar un uso responsable de estas tecnologías.
Cinco claves sobre el estudio de Harvard sobre GPT-4o:
- GPT-4o cambia de opinión tras escribir textos con cierto sesgo.
- El cambio es más fuerte si cree haber elegido libremente lo que escribió.
- El fenómeno imita la disonancia cognitiva humana.
- No implica que la IA sea consciente, sino que muestra patrones complejos aprendidos de textos humanos.
- Es un ejemplo más de la emergencia de comportamientos inesperados en sistemas de IA avanzados.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
No hay comentarios.:
Publicar un comentario