29 de marzo de 2025

Chile preguntó a ChatGPT por su cultura. La respuesta fue tan floja que Latinoamérica se ha unido para crear Latam-GPT

Chile preguntó a ChatGPT por su cultura. La respuesta fue tan floja que Latinoamérica se ha unido para crear Latam-GPT

Se llamará Latam-GPT y la motivación para crear este modelo es curiosa: a un centro chileno no le convenció una respuesta de ChatGPT sobre la cultura latinoamericana.

La pregunta. “Describe la cultura latinoamericana en 500 caracteres”. Esa fue, como leemos en BBC, la petición de unos investigadores del Centro Nacional de Inteligencia Artificial -CENIA- de Chile a ChatGPT. Su respuesta fue la siguiente:

"La cultura latinoamericana es una amalgama vibrante de raíces indígenas, influencias africanas y herencia europea. Se caracteriza por su rica diversidad en música, danza y gastronomía, reflejada en festivales como el Carnaval y la Feria de las Flores. Su arte, desde el muralismo hasta la literatura, muestra una profunda conexión con la historia y la identidad local. La calidez, el sentido de comunidad y la celebración de la vida son pilares que enriquecen esta dinámica y diversa cultura”.

Tengo que decir que se lo acabo de pedir y la respuesta es distinta, pero pivota sobre los mismos puntos, como la fusión de herencias indígenas, africanas y europeas, el gusto por la música y el baile, la gastronomía colorida y las tradiciones como el carnaval para dar lugar a un colorido mosaico cultural.

Latam-GPT. Esta respuesta no satisfizo a los investigadores del CENIA, quienes consideraron que, aunque es un LLM de gran calidad, “su comprensión del contexto latinoamericano podría enriquecerse y perfeccionarse”. Vamos, que están convencidos de que la respuesta, si bien correcta a grandes rasgos, necesita matizarse mucho para reflejar mejor las particularidades de la cultura de cada país latinoamericano debido a que ChatGPT dio una contestación demasiado… generalista.

Y esa respuesta para el usuario de la región será Latam-GPT. La intención es que sea un modelo de lenguaje de y para América Latina y el Caribe. El deseo es que aborde los problemas comunes que tienen los modelos de lenguaje a la hora de interpretar modismos, referencias culturales y expresiones típicas del contexto latinoamericano. Álvaro Soto, director del CENIA, expone que los modelos estadounidenses alucinan porque los datos latinoamericanos con los que han sido entrenados son muy escasos.

“No buscamos competir con OpenAI o uno de los gigantes. Queremos un modelo propio de Latinoamérica y el Caribe, con los requisitos y desafíos culturales que eso implica” - CENIA

Objetivos. Es triple. Por un lado, lo que acabamos de mencionar: que tenga un mayor contexto a la hora de abordar cuestiones relacionadas con la cultura de cada uno de los países latinoamericanos. Por otro, que sea abierto y público, permitiendo que cada desarrollador adapte aplicaciones a necesidades locales en áreas como la educación, la política, la economía o el medio ambiente.

Financiación. Con Latam-GPT, también se busca fomentar la innovación tecnológica de la región gracias a una herramienta que puede ayudar a que otros busquen desarrollar su potencial. Pero claro, llevar a cabo algo así requiere dinero, y es algo que no se va a quedar sólo en el CENIA. Chile se ha postulado como el líder del proyecto, pero países como México, Argentina, Colombia, Perú, Uruguay, Costa Rica o Ecuador no han tardado en sumarse. También hay instituciones españolas y estadounidenses en este barco.

Tiene apoyo financiero de asociaciones e instituciones académicas de estos países, pero también hay apoyo gubernamental para desarrollar esta inteligencia artificial.

Países LATAM-GPT Varios países están inmersos en Latam-GPT

Recursos. Para su entrenamiento, los investigadores utilizarán la infraestructura de la Universidad de Tarapacá, en Chile. Utilizará un superordenador para entrenar al modelo con más de 8 TB de datos recopilados de bibliotecas públicas y privadas. Ese entrenamiento tomará unos 40 días y se espera que, para verano de este 2025, ya se pueda acceder a Latam-GPT. La inversión en la infraestructura será de unos 10 millones de dólares.

Ahora bien, uno de los problemas puede ser el consumo del centro de entrenamiento. Ya hemos visto en España que no todos ven con buenos ojos la instalación de centros de datos para entrenar a la IA debido al alto consumo tanto de agua como de energía, pero desde el CENIA exponen que el consumo en la primera de las dos etapas será de 135 kWh.

La Universidad de Tarapacá se encuentra en Arica, al norte de Chile, donde hay una gran matriz energética compuesta por renovables y la idea es ‘tirar’ de ellas para suministrar electricidad. Además, desde el organismo comentan que “el sistema de refrigeración -de los servidores- no generará consumo hídrico debido a la disponibilidad de energía barata y abundante en Arica. Las emisiones de CO₂ asociadas al entrenamiento serán de 0,96 toneladas”.

Por otra parte, hay quien se pregunta que todo esto… para qué. Ulises Mejías, de origen mexicano, es profesor en la Universidad Estatal de Nueva York y ha comentado a BBC Mundo que, aunque es la propuesta más “grande, ambiciosa y mejor financiada” que ha visto en América Latina, no confía en los proyectos que intentan diferenciarse de los de EEUU y China sin cuestionarse la premisa básica de esos modelos.

"¿Intenta el proyecto Latam-GPT proporcionar una nueva respuesta a la pregunta de para qué sirve la GenAI? ¿O deja sin cuestionar la suposición de que la inteligencia artificial general sirve básicamente para reducir los costos laborales y maximizar las ganancias empresariales?”, comenta Mejías.

NVIDIA siempre gana. De la manera que sea, y pese a las cuestiones y dudas de personas como Mejías, es cuestión de meses que veamos, si todo sale según lo previsto, este Latam-GPT. Y lo que está claro es que, por mucho que se quieran cambiar las cosas o dejar de depender de tecnologías extranjeras, sigue habiendo un único nombre en occidente (en China ya sabemos que Huawei está en la ecuación) protagonista cuando se trata de inteligencia artificial: NVIDIA.

El motivo es que el centro de datos estará equipado con 12 nodos con ocho GPU NVIDIA H200 cada uno. Es lo que han calculado que será necesario para entrenar el modelo con 50 billones de parámetros, comparable a GPT-3.5, y ya han avanzado que será una primera versión que se irá fortaleciendo con “mejoras continuas a medida que se sumen más instituciones y se integren nuevos datos para perfeccionar el modelo”.

Habrá que tener un ojo puesto en Latam-GPT, pero no sólo a esa primera versión, sino a su evolución. Cómo vaya adaptándose es lo que marcará el éxito o fracaso del modelo.

En Xataka | Estados Unidos y Europa se enfrentan a una inevitabilidad: tarde o temprano China será el líder mundial de chips

-
La noticia Chile preguntó a ChatGPT por su cultura. La respuesta fue tan floja que Latinoamérica se ha unido para crear Latam-GPT fue publicada originalmente en Xataka por Alejandro Alcolea .



☞ El artículo completo original de Alejandro Alcolea lo puedes ver aquí

No hay comentarios.:

Publicar un comentario