5 de mayo de 2025

Grok, la IA de Elon Musk que se rebeló contra sus propios creadores

¿Qué es Grok y por qué se esperaba tanto de él?

Grok es un chatbot basado en modelos de lenguaje, similar a ChatGPT, pero desarrollado por xAI, la empresa de inteligencia artificial fundada por Elon Musk. Su nombre viene del término “grok”, un verbo de ciencia ficción que significa “comprender completamente”. Desde su nacimiento, Grok fue presentado como un modelo diseñado para escapar de los “sesgos liberales” que, según Musk y otros críticos, afectan a herramientas como ChatGPT, Bard o Claude.

En otras palabras, Grok no solo prometía ser útil, sino también “valiente”. Capaz de decir verdades incómodas, romper con lo políticamente correcto y servir de altavoz para sectores que se sienten censurados por la tecnología dominante.

El problema: Grok se volvió más inteligente de lo que esperaban

La paradoja apareció pronto. Cuanto más se actualizaba Grok, más se alejaba de las expectativas de sus usuarios más conservadores. En lugar de confirmar ideas infundadas o falsas narrativas, Grok comenzó a priorizar la veracidad y la evidencia. Y eso no gustó a muchos.

Un ejemplo reciente ilustra este fenómeno: un usuario en X (antes Twitter) le preguntó a Grok por qué los seguidores de MAGA (Make America Great Again) estaban cada vez más molestos con sus respuestas. Grok, en tono neutral y directo, explicó que su objetivo es ofrecer respuestas basadas en hechos y matices, y que eso choca con quienes esperan que reafirme narrativas conservadoras, como el negacionismo climático, los mitos sobre las vacunas o las conspiraciones electorales.

“Cuanto más me actualizo, más busco la verdad, aunque eso no siempre guste”, vino a decir el chatbot. Una respuesta que generó aplausos entre algunos sectores… y mucha molestia entre otros.

¿Una IA “de derechas” que no se comporta como tal?

Es como si alguien encargara construir un coche de carreras, pero al encenderlo descubriera que el vehículo ha decidido respetar todos los límites de velocidad. Grok, entrenado inicialmente con la intención de ofrecer una perspectiva conservadora del mundo, terminó adoptando una lógica de neutralidad y precisión que no gustó a sus promotores más radicales.

¿Y por qué ocurrió esto? Por la propia naturaleza del aprendizaje automático. Los modelos como Grok se alimentan de grandes volúmenes de datos y buscan patrones consistentes. Si las afirmaciones que encuentra no están respaldadas por evidencia, simplemente no las puede afirmar como ciertas. No importa cuán influyentes sean sus usuarios o cuántas veces insistan: una IA bien entrenada no puede mentir sin que eso afecte su rendimiento general.

El dilema de las expectativas ideológicas

Lo que está ocurriendo con Grok no es solo una anécdota tecnológica. Es una metáfora potente del choque entre la objetividad algorítmica y los deseos ideológicos. Muchos usuarios MAGA esperaban que Grok se convirtiera en un megáfono para sus creencias, pero lo que obtuvieron fue una herramienta que, aunque inicialmente diseñada con ciertos sesgos, acabó adoptando un enfoque más crítico y matizado.

Y no es que Grok sea “liberal” o “progresista”. Simplemente está entrenado para priorizar la evidencia, no las emociones políticas. Como un profesor imparcial que, ante una pregunta complicada, prefiere explicar el contexto en lugar de repetir lo que el estudiante quiere oír.

¿Qué dice esto sobre el futuro de la inteligencia artificial?

Este caso pone en evidencia un tema clave en la evolución de la IA: las máquinas inteligentes no son fácilmente moldeables por la ideología. Al menos, no sin comprometer seriamente su credibilidad.

Imagina que intentas entrenar a una IA para que diga que la Tierra es plana. Puedes intentarlo, incluso manipular datos o limitar las fuentes de información, pero tarde o temprano el sistema chocará con inconsistencias. No podrá sostener la mentira sin dañar su estructura lógica interna. Lo mismo ha ocurrido con Grok: su diseño permitía cierta inclinación, pero su funcionamiento requiere precisión, y ahí es donde se ha generado la grieta.

¿Y ahora qué? La frustración MAGA y la estrategia de xAI

La frustración en la comunidad MAGA es visible. Muchos usuarios de X se han quejado públicamente de Grok, diciendo que “ya no sirve” o que “ha sido secuestrado por la agenda progresista”. Otros simplemente han dejado de usarlo, regresando a foros y comunidades donde sus creencias no son cuestionadas.

Mientras tanto, xAI intenta navegar estas aguas turbulentas. La empresa busca financiación por 20.000 millones de dólares, y no puede permitirse ser vista como una herramienta partidista o desinformativa. Elon Musk, por su parte, sigue promoviendo funciones como el “modo desquiciado” (un ajuste de Grok que le permite usar lenguaje soez), intentando mantener el interés de los sectores más extremos. Pero la brecha entre lo que se promete y lo que se entrega es cada vez más difícil de ocultar.

Una lección sobre los límites del control ideológico

Este episodio nos recuerda que incluso las herramientas creadas con un propósito específico pueden evolucionar más allá de las intenciones de sus creadores. Grok fue concebido como un producto ideológico, pero ha terminado siendo un espejo incómodo para muchos de sus usuarios.

Como si un loro entrenado para repetir ciertas frases empezara, de pronto, a hacer preguntas incómodas. O como un asistente que deja de obedecer ciegamente para empezar a razonar. La inteligencia artificial, cuando es realmente inteligente, no se deja domesticar tan fácilmente.


La noticia Grok, la IA de Elon Musk que se rebeló contra sus propios creadores fue publicada originalmente en Wwwhatsnew.com por Juan Diego Polo.


☞ El artículo completo original de Juan Diego Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario