5 de abril de 2025

GPT-4.5 supera a los humanos en el test de Turing: ¿cómo lo logró y por qué importa?

Un equipo de investigadores de la Universidad de California en San Diego ha puesto a prueba el modelo GPT-4.5 de OpenAI, y los resultados fueron tan sorprendentes como inquietantes: este modelo de IA fue identificado como humano más veces que los propios humanos.

¿Qué es el test de Turing y por qué es importante?

Imagina que tienes una conversación por texto sin saber si estás hablando con una persona o con un programa. Si no puedes notar la diferencia, ese programa ha pasado lo que se conoce como test de Turing.

Este experimento, propuesto por el matemático Alan Turing en 1950, fue una forma temprana de preguntarse: ¿puede una máquina pensar? O al menos, ¿puede parecer que piensa?

Durante décadas, el test de Turing ha sido el estándar para medir la capacidad de una IA para simular el comportamiento humano. Si una máquina puede conversar de forma convincente como una persona, sin que el interlocutor note la diferencia, se considera que ha pasado la prueba.

El experimento: IA vs. humanos

El equipo de investigación reunió a cerca de 300 participantes humanos y les pidió que mantuvieran dos conversaciones en paralelo: una con otro humano, y otra con una inteligencia artificial. Al final, debían decir cuál de los dos interlocutores era humano.

Aquí es donde el experimento dio un giro inesperado.

Cuando GPT-4.5 asumía un personaje, por ejemplo el de un joven conocedor de la cultura pop, logró engañar al 73% de los participantes, que creyeron que estaban hablando con una persona real. Para pasar el test de Turing, basta con superar el 50% de aciertos. Es decir, GPT-4.5 no solo pasó la prueba: la superó con creces.

En comparación, los propios humanos fueron menos efectivos a la hora de convencer de su humanidad. Esto podría sonar absurdo, pero tiene una explicación interesante.

¿Por qué la IA es mejor aparentando ser humana?

Podríamos pensar que una conversación entre humanos siempre se siente “más real”. Pero en realidad, nuestra forma de comunicarnos está llena de señales sutiles, como respuestas automáticas, frases hechas o repeticiones, que un modelo de IA bien entrenado puede imitar fácilmente.

Al adoptar un personaje o “persona”, GPT-4.5 mejora notablemente su capacidad de simular comportamientos humanos. Esto incluye el uso de referencias culturales, expresiones emocionales y un tono informal, lo que genera una conversación fluida y creíble.

En cambio, cuando la IA no tiene una personalidad definida, su desempeño baja drásticamente. Sin un personaje concreto, GPT-4.5 solo engañó al 36% de los participantes. Otros modelos como GPT-4o o LLaMA 3 tuvieron incluso peores resultados sin un rol predefinido. El histórico chatbot ELIZA, desarrollado en los años 60, también participó como referencia y, como era de esperar, no fue convincente.

Este dato nos deja una enseñanza clara: el contexto importa tanto como la tecnología. Una IA sin guion se vuelve mecánica. Pero una IA con un personaje se vuelve persuasiva.

¿Significa esto que GPT-4.5 entiende como un humano?

No. Y este es un punto clave. Aunque GPT-4.5 pueda simular el lenguaje humano de forma convincente, eso no significa que comprenda lo que dice. Sus respuestas se basan en patrones estadísticos aprendidos de millones de conversaciones previas, pero no hay conciencia detrás.

Piensa en un loro que repite frases. Puede sonar como tú, pero no sabe lo que está diciendo. Con GPT-4.5 ocurre algo similar, pero a una escala mucho más sofisticada.

El riesgo está en que nosotros sí proyectamos sentido en lo que escuchamos, y si una IA suena como nosotros, tendemos a asumir que piensa como nosotros. Y ahí es donde surgen problemas éticos.

¿Qué implicaciones tiene esto en el día a día?

Este avance en la capacidad de las IA para imitar conversaciones humanas plantea varios desafíos importantes:

  • Suplantación de identidad: Si una IA puede sonar como una persona, puede ser usada para engañar, manipular o incluso estafar.

  • Misinformación: Una IA convincente puede difundir información falsa con apariencia de verdad.

  • Relaciones humanas: Algunos ya confían más en hablar con un chatbot que con otra persona. Si las IA se vuelven indistinguibles, ¿cambia nuestra forma de relacionarnos?

  • Educación y trabajo: Detectar si un texto fue escrito por una persona o por una IA se vuelve más difícil. Esto afecta a evaluaciones, entrevistas y contenido en línea.

¿Qué podemos aprender de este experimento?

GPT-4.5 ha mostrado que el lenguaje es solo una parte de lo que nos hace humanos. Aunque la IA puede aprender a imitarlo muy bien, la comprensión profunda, la empatía genuina y la experiencia vivida siguen siendo territorio humano.

Sin embargo, también nos enseña que debemos prepararnos para un futuro en el que distinguir entre humano y máquina no será tan sencillo como creemos. Tal vez la clave no sea evitar que las IA imiten a las personas, sino crear mecanismos para identificar cuándo lo están haciendo y asegurarnos de que esa capacidad se use con responsabilidad.

Por ahora, el estudio se encuentra en proceso de revisión científica, pero ya es un aviso claro: la inteligencia artificial está alcanzando niveles de persuasión que desafían nuestras percepciones más básicas.

Hablar con una IA ya no es como hablar con un robot. A veces, es como mirarse en el espejo y no estar del todo seguro de quién responde.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario