
A medida que los modelos de lenguaje han ido evolucionando, su capacidad para realizar tareas complejas ha crecido de forma notable. Desde escribir textos coherentes hasta resolver problemas matemáticos, su progreso ha sido vertiginoso. Pero una nueva investigación del Instituto McGovern para la Investigación Cerebral del MIT revela algo todavía más llamativo: los modelos de inteligencia artificial de razonamiento están empezando a pensar de manera sorprendentemente similar a los humanos.
El estudio, liderado por la investigadora Evelina Fedorenko, descubrió que tanto humanos como máquinas muestran un patrón parecido cuando se enfrentan a tareas difíciles. Cuanto más complejo es el problema, más tiempo necesita la persona para resolverlo, y del mismo modo, más «esfuerzo computacional» le cuesta al modelo de IA. Esta similitud no fue diseñada intencionalmente, lo que hace que el hallazgo sea aún más fascinante.
Qué son los modelos de razonamiento y cómo piensan
A diferencia de sus antecesores, los nuevos modelos de razonamiento no se limitan a predecir la siguiente palabra en una frase. Están diseñados para descomponer un problema complejo en pasos más simples, avanzando progresivamente hacia una solución. Lo hacen gracias a técnicas como el aprendizaje por refuerzo, en el que se premian las respuestas correctas y se penalizan las erróneas, lo que les permite afinar su capacidad de razonamiento paso a paso.
Un ejemplo cotidiano sería intentar resolver un cubo Rubik. Una persona no suele dar con la solución en un solo movimiento, sino que prueba distintas combinaciones hasta encontrar el camino correcto. Algo similar ocurre con estos modelos: no improvisan, sino que generan una secuencia interna de pasos, como si «pensaran en voz alta» para sí mismos.
Andrea Gregor de Varda, investigador postdoctoral y coautor del estudio, explica que el salto cualitativo vino cuando se permitió a los modelos más espacio y tiempo para realizar los cálculos. Ya no se trataba de obtener respuestas rápidas, sino respuestas acertadas, aunque eso implicara más procesamiento. El resultado fue una mejora drástica en tareas como resolver problemas de lógica, hacer cálculos numéricos o incluso escribir código.
Medir el esfuerzo: tiempo humano vs. tokens digitales
Para demostrar la similitud entre el pensamiento humano y el artificial, los investigadores diseñaron un experimento con un mismo conjunto de siete tipos de problemas para ambos participantes: personas y modelos de IA. Analizaron dos variables: en humanos, el tiempo que tardaban en responder; en modelos, la cantidad de tokens generados internamente durante el razonamiento.
Un «token» puede entenderse como una unidad mínima de procesamiento, como una palabra o parte de una palabra. Cuando un modelo genera muchos tokens antes de dar una respuesta, está «pensando más». Este paralelismo resultó asombroso: los problemas que más esfuerzo requerían a los humanos eran los mismos que generaban más tokens en los modelos.
Por ejemplo, resolver sumas básicas requería poco esfuerzo en ambos casos. En cambio, los problemas del tipo ARC Challenge (una tarea visual que implica detectar patrones entre pares de cuadrículas de colores) resultaron ser los más exigentes tanto para las personas como para los modelos de razonamiento. La coincidencia sugiere que ambos, aunque funcionen de forma distinta, se enfrentan a los retos cognitivos con una carga de trabajo comparable.
¿Piensan las máquinas como nosotros?
Este hallazgo no implica que la inteligencia artificial haya alcanzado la conciencia o la inteligencia humana. Pero sí indica que, al menos en términos de estrategia para resolver problemas complejos, los modelos de IA están convergiendo con ciertos procesos del pensamiento humano.
No se trata solo de los resultados, sino del camino para llegar a ellos. Aunque los modelos generen textos internos como si hablaran consigo mismos, esto no quiere decir que usen lenguaje de la misma manera que lo hacen las personas. De hecho, esos «monólogos» internos muchas veces contienen errores o incoherencias, lo que sugiere que el razonamiento ocurre en una especie de espacio abstracto, no lingüístico. Algo similar sucede en el cerebro humano, donde muchas decisiones se toman de manera no verbal.
La gran incógnita es si estos modelos representan la información de manera parecida a cómo lo hace el cerebro. ¿Organizan el conocimiento con una estructura análoga? ¿Transforman esa información siguiendo principios similares? Estas preguntas siguen abiertas y son clave para entender hasta qué punto estamos acercándonos a una IA verdaderamente cognitiva.
Un paso más hacia una comprensión compartida
Este estudio también plantea una reflexión práctica: si tanto personas como máquinas necesitan tiempo para pensar, ¿por qué insistimos en exigir inmediatez? La cultura de lo instantáneo puede estar en tensión con la naturaleza misma del razonamiento, que requiere pausa, análisis y espacio mental, ya sea humano o digital.
El descubrimiento de esta convergencia no significa que estemos replicando la mente humana, pero sí demuestra que ciertas estrategias eficaces emergen de forma natural, tanto en cerebros como en algoritmos. Lo más interesante es que este parecido no fue intencional. Los ingenieros que entrenan estos modelos no buscan imitar a los humanos, sino lograr sistemas que funcionen bien. Y, sin embargo, terminan encontrando caminos similares.
Este fenómeno se parece a cuando dos personas de culturas diferentes descubren una solución idéntica a un mismo problema doméstico: nadie se copió del otro, simplemente encontraron la forma más eficiente de resolverlo. En el caso de la IA, es como si el camino más eficaz para resolver ciertos problemas fuera también el más «humano».
☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:
Publicar un comentario