¿De qué se trata el «Último examen de la humanidad»?
El «Último examen de la humanidad» es una prueba en la que se invita a científicos y expertos de diversas disciplinas a proponer las preguntas más complejas que puedan desafiar a los modelos de IA más avanzados. Organizado por el Center for AI Safety (CAIS) y la empresa de etiquetado de datos Scale AI, este proyecto busca llevar a la IA a su límite y averiguar si estas máquinas pueden superar desafíos que ni siquiera los humanos más capacitados podrían resolver fácilmente.
La idea detrás de esta prueba es clara: si las IA logran superar este examen, estarían a punto de alcanzar un nivel de razonamiento abstracto y comprensión general que podría ponerlas a la par de los seres humanos en muchos aspectos.
Un desafío global para las mentes más brillantes
El «Último examen de la humanidad» está abierto a la colaboración de expertos en campos tan diversos como la filosofía y la ingeniería aeroespacial. El objetivo es que estas preguntas sean lo suficientemente difíciles como para que solo los expertos en cada campo puedan responderlas, lo que convierte este desafío en una prueba definitiva de las capacidades de las IA. Los organizadores, en un esfuerzo por evitar que los modelos de IA accedan a las respuestas, han decidido mantener las preguntas en secreto, asegurando que no se utilicen para entrenar a futuros modelos.
Lo interesante es que los participantes que logren crear las preguntas más desafiantes no solo tendrán la satisfacción de haber vencido a una IA, sino que también podrán obtener coautoría en un estudio y premios de hasta $5,000, patrocinados por Scale AI. El plazo para enviar las preguntas es el 1 de noviembre, y se espera que esta prueba sea un referente para futuras investigaciones en IA.
¿Por qué este examen es tan importante?
El avance de la IA ha sido tan rápido que muchos de los modelos actuales, como el recientemente lanzado OpenAI o1, han superado las pruebas de razonamiento más populares. De hecho, el director ejecutivo del CAIS, Dan Hendrycks, mencionó que o1 «destruyó» los estándares anteriores. Esto plantea la cuestión de hasta dónde podemos llevar a estos sistemas.
Ya en 2021, Hendrycks había propuesto pruebas que evaluaban si las IA podían superar a estudiantes universitarios en disciplinas como matemáticas y ciencias sociales. Aunque en aquel entonces los modelos de IA no ofrecían respuestas coherentes, hoy en día han «aplastado» esos exámenes. Ahora, la inclusión de razonamiento abstracto en el «Último examen de la humanidad» es un intento de crear una barrera más alta para que la IA supere.
Un límite ético: nada de armas
Aunque el examen cubre una amplia gama de temas, hay un límite claro: las armas no formarán parte del cuestionario. Los organizadores consideran que permitir a las IA aprender o razonar sobre armas sería demasiado peligroso, por lo que han decidido excluir cualquier pregunta relacionada con este tema. Esto muestra una preocupación creciente sobre los riesgos que la IA podría representar si se utiliza de manera inadecuada.
¿Qué podemos esperar del futuro?
El «Último examen de la humanidad» no solo es un desafío para la IA, sino también una llamada a la comunidad científica para que reflexione sobre los límites de lo que las máquinas pueden y deben hacer. Si bien estos modelos de IA avanzada están demostrando habilidades sorprendentes, el examen pretende mostrar si las máquinas son capaces de superar el tipo de razonamiento abstracto y especializado que hasta ahora ha sido dominio exclusivo de los humanos.
☞ El artículo completo original de Juan Diego Polo lo puedes ver aquí
No hay comentarios.:
Publicar un comentario