19 de junio de 2025

Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos

Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos

En el juego del "teléfono escacharrado" (o roto, o descompuesto) un grupo de personas transmite un mensaje de uno en uno en secreto. Lo que suele suceder es que el mensaje original no tiene mucho que ver con lo que recibe el último destinatario. Y el problema que estamos viendo es que algo similar puede ocurrir con los prometedores agentes de IA.

Los humanos tampoco nos salvamos. Pero cuidado, porque algo muy parecido pasa con el rendimiento humano en tareas prolongadas. En el estudio de Orb se señalaba cómo la tasa de éxito empírica va bajando de forma notable: tras 15 minutos ya es de aproximadamente el 75%, tras hora y media es del 50% y tras 16 horas de apenas el 20%. Todos podemos cometer errores al realizar ciertas tareas encadenadas, y si en una de ellas cometemos un error, en la siguiente tarea de la cadena ese error condena todo el desarrollo posterior aún más.

LeCun ya avisó. Yann LeCun, que dirige los esfuerzos de investigación de IA en Meta, lleva mucho tiempo avisando de los problemas con los LLM. En junio de 2023 indicó cómo los LLM autoregresivos no pueden ser factuales y evitar respuestas tóxicas. Explicó que hay una alta probabilidad de que el token que genera un modelo nos lleve fuera del grupo de respuestas correctas, y cuanto más larga es la respuesta, más difícil es que sea correcta.

Más que agentes, multiagentes. En Anthropic demostraron recientemente cómo hay una forma de mitigar aún más esos errores (y los posteriores errores acumulados): usar sistemas multiagénticos. Esto es: que múltiples agentes de IA trabajen en paralelo para luego confrontar sus resultados y determinar el camino o solución óptima.

Tasa Error La gráfica muestra la longitud de las tareas que los agentes de IA pueden completar de forma autónoma a lo largo de los últimos años. El estudio revela que cada siete meses se dobla el tiempo que puede funcionar un agente de IA para completar tareas con una tasa de éxito del 50%. O lo que es lo mismo: los agentes están mejorando de forma sostenida (y notable) con el tiempo.

En Xataka | Las alucinaciones siguen siendo el talón de Aquiles de la IA: los últimos modelos de OpenAI inventan más de la cuenta

-
La noticia Todo empieza pidiéndole una cosa a una IA. Cuando la IA se lo pide a otras IA comienza el caos fue publicada originalmente en Xataka por Javier Pastor .



☞ El artículo completo original de Javier Pastor lo puedes ver aquí

No hay comentarios.:

Publicar un comentario