Elon Musk siempre se ha definido como un "absolutista" de la libertad de expresión. Precisamente uno de los objetivos cuando compró Twitter era convertirlo en una "plaza pública" en la que poder hablar de todo sin tapujos. Parece que lo está logrando, pero ahora va más allá. Ahora quiere que nos creamos que Grok 3 siempre nos va a decir la verdad.
Políticamente incorrecto. Según él, Grok 3 "es una IA que busca la verdad al máximo, aunque a veces esa verdad esté reñida con lo políticamente correcto". Como señalan en TechCrunch, lo dijo ayer durante la presentación de esta nueva familia de modelos de IA.
Grok 3 y el problema de querer decir la verdad. Las promesas de Musk en este sentido son como de costumbre llamativas, pero difícilmente realizables. La razón es sencilla: que las verdades absolutas existan ya es objeto de debate de por sí, pero es que hay un argumento potente en contra: las verdades suelen ser relativas y dependen del contexto o punto de vista. Los hechos están ahí, pero su interpretación es absolutamente variable y está sujeta a sesgos. Humanos, sí, pero a posteriori, también de la IA.
¿Una IA neutral? Grok 3 parece querer aspirar por tanto a convertirse a una IA neutral que se ciñe a los hechos y que nos dice la verdad. Aquí un elemento a favor de estos modelos es que últimamente citan las fuentes en las que se basan para dar sus respuestas. Lo hace por ejemplo Perplexity, y eso ayuda a que podamos contrastar esas respuestas.
OpenAI es (un poco) de izquierdas. Estudios de 2003 detectaron que modelos de IA como ChatGPT tenían ciertos sesgos y parecían posicionarse más hacia quienes apoyan la protección del medioambiente, hacia las ideologías libertarias y hacia posiciones políticas de izquierdas. Gemini, el modelo de Google, fue criticado por crear imágenes "woke" de vikingos o nazis negros, por ejemplo.
Grok 3 podría "hablar" como Donald Trump. Que una IA sea políticamente incorrecta nos hace esperar respuestas singulares. Dan Hendrycks, director del Center for AI Safety y consejero de xAI ha planteado cómo un modelo de IA podría responder como lo hace Donald Trump. Directo, sin ambages y sin tener en cuenta lo políticamente correcto. Eso puede resultar irritante, pero también permitiría expresar opiniones impopulares y puntos de vista controvertidos. Fuera los sesgos, para bien y para mal. Eso sí, teóricamente sin violar las normas sociales y los principios éticos, como explica xAI en su "marco de trabajo para la gestión de riesgos".
Modelos partidistas. El estudio de Hendricks evaluó con qué político de EEUU estaban más alineados modelos como GPT-4o, Grok, o Llama 3.3, y según sus pruebas todos parecían estar más cerca de la visión de Biden que las de Trump, Kamala Harris, o Bernie Sanders. En él desarrolla la idea de lo que llama una "Asamblea Ciudadana" en la que se recolectarían datos del censo de EUU sobre temas políticas para luego usar esas respuestas y modificar los valores de un LLM Open Source. En estos momentos ese modelo tendría valores que serían más cercanos a los de Trump que a los de Biden, por ejemplo.
El entrenamiento es clave. La IA aprende de aquellos datos que le suministramos en el proceso de entrenamiento, así que los sesgos que pueda tener una IA tendrán su origen en esos datos. Si entrenamos a la IA con datos que perfilan sus respuestas hacia cierta corriente ideológica y critica otra, la IA teóricamente replicará esa posición en su discurso. No se han dado detalles sobre cómo se ha entrenado a Grok 3 y es posible que nunca lo sepamos, pero si xAI quiere que confiemos en su modelo, tendrá que ser mucho más transparente tanto en ese apartado como en el proceso que teóricamente han utilizado para "ajustar" sus perspectivas y sesgos.
-
La noticia Grok 3 muestra uno de los problemas futuros de las IAs: qué pasa cuando su creador las crea sesgadas fue publicada originalmente en Xataka por Javier Pastor .
☞ El artículo completo original de Javier Pastor lo puedes ver aquí
No hay comentarios.:
Publicar un comentario