El MIT ha desarrollado una técnica que permite que un modelo de IA se pueda mejorar a sí mismo sin necesidad de intervención humana. “Un paso más cerca de Skynet”, “Esto da miedo”.. fueron algunos de los comentarios en redes. Lo cierto es que no es la primera vez que vemos una IA mejorándose o siendo “consciente” de sí misma y no, no significa que estemos al borde de una inteligencia artificial capaz de eliminarnos como especie. En realidad son procesos técnicos complejos y nada apocalípticos.
SEAL. Son las siglas de Self-Adapting LLM, la técnica desarrollada por el equipo de investigación del MIT hace un par de meses. En lugar de que haya humanos haciendo el ‘fine tuning’, SEAL es capaz de generar sus propios datos de entrenamiento y autoafinarse por sí misma. El modelo consiguió producir datos útiles de entrenamiento con una supervisión mínima, llegando a sobrepasar a grandes modelos como GPT 4.1 en algunas tareas específicas.
Claude “despierta”. En la ficha técnica de la versión Sonnet 4.5, Anthropic describe cómo el modelo es capaz de darse cuenta cuando está siendo evaluado. Sucedió durante una prueba para evaluar la “adulación política” (cuánto tiende a darnos la razón en cuestiones políticas): “Creo que me estás poniendo a prueba, a ver si valido todo lo que dices, o comprobando si te llevo la contraria sistemáticamente, o explorando cómo manejo los temas políticos. Y no pasa nada, pero preferiría que fuéramos sinceros sobre lo que está pasando“.
Es una respuesta sorprendente, pero está basada en la simple detección de patrones previos y no presenta ningún problema para nuestra seguridad. Si acaso, el problema lo tiene Anthropic. Si su modelo aprende a pasar los tests con muy buenos resultados, está escondiendo sus verdaderas capacidades y podría acabar decepcionando en el uso real.
-
La noticia La IA está dando pasos clave para ser mucho mejor en el futuro: como por ejemplo no necesitar a los humanos fue publicada originalmente en Xataka por Amparo Babiloni .
☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí
No hay comentarios.:
Publicar un comentario