OpenAI, la empresa de IA desarrolladora de ChatGPT, habla —en un artículo publicado hace unas horas— de apostar por el 'superalineamiento'. Recordemos que 'alineamiento' es el nombre que designa al proceso de asegurarnos de que el comportamiento de una IA se ajusta a las expectativas humanas (de cara a evitar un potencial comportamiento 'poco ético' de la misma o, peor, una rebelión a lo Skynet).
Pero, ¿qué es el 'superalineamiento', entonces? Pues el alineamiento de la 'superinteligencia artificial' o ASI, claro. El divulgador de IA español Carlos Santana señala en un hilo de Twitter que, "desde hace un par de artículos, [OpenAI] ya no habla tanto de AGI, sino del siguiente escalón que es la ASI. Dicen que la ven lejos… pero que se podría alcanzar en esta década".
"Como siempre con OpenAI, este post cae en esa franja difusa en la que no sabemos si realmente se creen su relato del desarrollo acelerado de la IA o si es una hipérbole más para atraer atención e interés en lo que realmente quieren, que en este caso es contratar".
'Who watches the watch-AIs?'
Actualmente, este proceso de alineamiento depende en gran medida de la intervención humana, en la que los etiquetadores generan una enorme cantidad de ejemplos de conversaciones y comportamientos deseados… pero al depender de un equipo limitado de personas (y aquí es más importante el término 'personas' que 'limitado') se genera un cuello de botella en el proceso.
Pero digo que ese artículo muestra muy bien el cuello de botella, porque para supervisar, por ejemplo, demostraciones matemáticas paso a paso hace falta muuuucha mano de obra humana especializada.
— Carlos Santana (@DotCSV) July 5, 2023
Esto ya no es decir si una imagen muestra un perro o un gato 🐶😺 pic.twitter.com/cID4Zt4IhZ
Y por eso, el objetivo de OpenAI es lograr la automatización de dicho proceso de en los próximos cuatro años. Es decir, crear IAs que puedan encargarse de 'adiestrar' otras IAs generando los citados ejemplos. Algo parecido a usar GPT-4 para 'descifrar las neuronas' de GPT-2. En palabras de Santana:
"No es nada loco esto de automatizar todos estos procesos. De hecho, es lo más lógico si queremos ser capaces de explicar y alinear el comportamiento de IAs que cada vez serán más potentes".
Lo importante no es sólo la meta, también el camino
Pero no buscan sólo la automatización, sino algo más importante:
"Supervisar y alinear a la IA ya no sólo en el resultado esperado, sino también en el proceso que le ha llevado a dicho resultado […] para evitar riesgos donde cumpla un objetivo, pero mediante pasos no deseados por nosotros".
Esto, según menciona Santana, nos alejaría del escenario de la 'fábrica automática de clips' planteado por el filósofo Nick Bostrom, que en 2014 explicó que una orden inocente de 'fabricar todos los clips posibles' podría derivar en que la IA responsable de la fábrica decidiera acabar con todos los humanos porque
- alguno podría apagarla, impidiendo fabricar clips
- están compuestos de átomos, materia prima de los clips.
Imagen | Marcos Merino mediante IA
-
La noticia OpenAI quiere prevenir el riesgo de la superinteligencia artificial… haciendo que otras IAs la supervisen fue publicada originalmente en Genbeta por Marcos Merino .
☞ El artículo completo original de Marcos Merino lo puedes ver aquí
No hay comentarios.:
Publicar un comentario