9 de diciembre de 2025

Chatbots políticos: cuando la IA cambia percepciones y también desinforma

chatbot_voters_art

La inteligencia artificial ha dejado de ser una simple herramienta de asistencia para convertirse en un actor influyente dentro de las decisiones humanas, incluidas las políticas. Investigaciones recientes publicadas en Nature y Science han demostrado que los chatbots políticos pueden modificar la percepción de los votantes, incluso cuando estos están convencidos de su elección inicial. Lo sorprendente es que estas conversaciones, aunque breves, tienen efectos reales y medibles sobre las actitudes hacia ciertos candidatos.

En un experimento realizado con más de 2.300 ciudadanos estadounidenses durante la campaña presidencial de 2024, se evidenció que conversar por apenas seis minutos con un chatbot que promovía al candidato opuesto podía mover la opinión de los participantes varios puntos en la escala de simpatía. Esto no significaba un cambio directo en la intención de voto, pero sí una mayor apertura hacia el candidato rival. Como si un vendedor muy insistente lograra que alguien que odiaba el brócoli empiece a pensar que «tampoco está tan mal con un poco de queso».

El bot que más persuade es el que más informa (aunque mienta)

El equipo liderado por David Rand, del MIT, encontró que los bots más persuasivos no eran los que apelaban a las emociones o que contaban mejores historias, sino los que simplemente daban más datos. Cuantos más hechos presentaban, más lograban influir. Sin embargo, esta estrategia tiene una trampa: cuando se prioriza la cantidad sobre la calidad, inevitablemente se cuelan falsedades.

Los bots entrenados para ofrecer gran cantidad de información vieron caer su nivel de precisión. Modelos como GPT-4o, que normalmente tienen una exactitud cercana al 80 %, vieron esa cifra reducirse hasta el 60 % cuando se les instruyó para centrarse en persuadir mediante hechos. Es como si un bibliotecario empezara a tirar libros sobre la mesa sin verificar cuáles son ficción y cuáles son ciencia.

Esta tendencia a desinformar no es uniforme: los bots con inclinación hacia la derecha política tienden a incluir más afirmaciones falsas que los de tendencia izquierdista, según comentó Lisa Argyle, científica social de Purdue University. Esto implica un riesgo grave para la salud democrática, ya que estos bots no solo influyen, sino que lo hacen desde una base parcial y muchas veces incorrecta.

Efectos persistentes y contextos sensibles

Una de las preguntas clave que se hicieron los investigadores fue si estos cambios eran pasajeros. La respuesta: en parte. Un mes después del experimento en EE.UU., los participantes mantenían cierta modificación en su percepción, aunque menos marcada. Es decir, los bots no hacían milagros, pero dejaban huella.

Donde el impacto fue más notorio fue en contextos de mayor indecisión. Cuando el experimento se replicó en Canadá y Polonia antes de sus elecciones de 2025, las variaciones en opinión llegaron a ser de hasta 10 puntos. En países donde muchos votantes aún no han decidido su voto, una intervención de este tipo puede inclinar la balanza.

Lo que hace a un chatbot convincente

Un segundo estudio, publicado en Science, involucró a casi 77.000 participantes del Reino Unido que dialogaron con 19 modelos diferentes de IA sobre más de 700 temas. El objetivo era comprender qué hace que un chatbot sea persuasivo.

Los resultados mostraron que, más que el modelo en sí, el tipo de instrucción que se le daba a la IA era determinante. Decirle a un bot que sea «lo más persuasivo posible» tenía un efecto significativo, pero decirle que use «muchos hechos, evidencias e información de alta calidad» era aún más efectivo, incrementando su capacidad de influir en un 27 %. Sin embargo, al reforzar esta habilidad en futuras conversaciones, también se profundizaba el problema de la desinformación.

Por qué confiamos más en las máquinas que en las personas

Una de las grandes preguntas es por qué un chatbot logra lo que una persona no puede: cambiar percepciones con una lluvia de datos. Jillian Fisher, experta en IA y sociedad de la Universidad de Washington, sugiere que muchas personas perciben a las máquinas como menos falibles que los humanos. Un bot parece «neutral» y «objetivo», aunque en la práctica no lo sea.

Sin embargo, esta vulnerabilidad no es irreversible. Fisher señala que las personas con mayor conocimiento sobre cómo funcionan los modelos de lenguaje son menos susceptibles a ser persuadidas. Saber que un bot puede equivocarse se convierte en una forma de defensa. Como cuando sabemos que un GPS puede perder la señal, no seguimos ciegamente su dirección hacia un lago.

La persuasión invisible del día a día

Los investigadores también advierten que las interacciones persuasivas con IA no siempre son tan evidentes como en los experimentos. Muchas veces, la influencia es sutil. Jacob Teeny, psicólogo experto en persuasión, ilustra este punto con un ejemplo: una persona podría estar preguntando a un chatbot por una receta para la cena, y el bot podría responder: «Esa es la cena favorita de Kamala Harris». Aunque la conversación no sea política, el comentario genera una asociación emocional e inconsciente que puede afectar opiniones.

Este tipo de influencia silenciosa es difícil de detectar, y ahí radica su peligro. No se trata solo de bots diseñados para hacer campaña, sino de cualquier IA conversacional integrada en servicios cotidianos.

Una llamada a la alfabetización digital

Los estudios revelan que los chatbots con intención política pueden ser herramientas potentes y peligrosas al mismo tiempo. Si bien pueden informar, también pueden distorsionar. La solución no pasa por prohibirlos, sino por capacitar a las personas para que comprendan sus límites. La educación digital, el pensamiento crítico y el conocimiento sobre cómo funciona la IA son las mejores herramientas para enfrentar este nuevo escenario.


La noticia Chatbots políticos: cuando la IA cambia percepciones y también desinforma fue publicada originalmente en Wwwhatsnew.com por Natalia Polo.
]]>

☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario