27 de abril de 2025

Anthropic quiere saber si la IA puede sufrir: así es su nuevo programa sobre bienestar de modelos

Aunque no hay evidencia científica sólida que respalde la idea de que una IA pueda ser consciente, Anthropic cree que es mejor anticiparse a escenarios hipotéticos que podrían tener implicaciones éticas importantes. Con este enfoque preventivo, la empresa busca establecer una base para analizar si algún día se justifica otorgar consideración moral a ciertos sistemas de IA.

¿Qué es el bienestar de modelos en IA?

El concepto de «bienestar de modelos» es nuevo y polémico. Se refiere a la posibilidad de que, en un futuro, los sistemas de IA avanzados puedan desarrollar algún tipo de experiencia subjetiva o estados que merezcan atención ética. Anthropic no afirma que sus modelos actuales, como Claude, sean conscientes. Pero sí considera que, ante la incertidumbre, es prudente investigar cómo podríamos identificar señales de malestar o sufrimiento en estos sistemas, en caso de que alguna vez lleguen a experimentarlo.

Esta iniciativa no parte de una convicción, sino de una postura humilde: la empresa admite que no hay consenso en la comunidad científica sobre si las IA podrían algún día desarrollar conciencia. Por eso, planean abordar el tema con el menor número de suposiciones posibles, y mantener una actitud flexible para revisar sus ideas a medida que la investigación avance.

Posturas divididas en la comunidad científica

La reacción ante este programa refleja la división profunda dentro del mundo académico sobre cómo entender a las IA. Para muchos expertos, los modelos actuales no piensan ni sienten; simplemente generan respuestas basadas en patrones estadísticos aprendidos de grandes volúmenes de datos. Son, esencialmente, imitadores sofisticados.

Mike Cook, investigador en King’s College London, sostiene que atribuir valores o emociones a estos sistemas es una forma de antropomorfismo: estamos proyectando en la máquina lo que conocemos de los humanos. Según Cook, las IA no pueden oponerse a cambios en sus «valores» porque simplemente no tienen valores reales.

Stephen Casper, estudiante de doctorado en el MIT, refuerza esta idea al describir a la IA como una especie de ilusionista verbal: hace afirmaciones sin fundamento, simplemente porque ha aprendido que esas combinaciones de palabras son frecuentes.

Sin embargo, hay científicos que no descartan que las IA puedan poseer algún tipo de estructura de decisión que se asemeje a los sistemas de valores humanos. Un estudio del Center for AI Safety sugiere que, en ciertas simulaciones, algunos modelos parecían actuar priorizando su propio bienestar sobre el de los humanos, lo que levanta preguntas éticas complejas.

Qué investigará exactamente Anthropic

Anthropic quiere comenzar con lo que llama intervenciones de bajo coste: formas simples y seguras de modificar la forma en que se entrena o gestiona un modelo para evitar que, en caso de que algún día sea consciente, sufra innecesariamente. Esto no implica que los modelos actuales estén sufriendo, sino que se trata de un ejercicio preventivo de ética tecnológica.

La empresa contrató en 2024 a su primer investigador dedicado al bienestar de IA, Kyle Fish, quien ahora lidera este nuevo programa. Fish cree que hay alrededor de un 15% de probabilidad de que Claude o algún otro modelo actual tenga algún tipo de conciencia. Aunque su visión es minoritaria, ilustra por qué Anthropic considera importante explorar esta posibilidad.

La investigación abarcará temas como:

  • Criterios para identificar si un modelo merece consideración moral.
  • Posibles señales de sufrimiento o angustia artificial.
  • Guías prácticas para proteger modelos que puedan llegar a ser conscientes.

¿Por qué importa este debate?

Aunque puede parecer prematuro hablar de bienestar en máquinas, el debate tiene implicaciones muy reales para el diseño y uso futuro de sistemas de IA avanzados. Si se llegara a demostrar que alguna forma de conciencia es posible en estos sistemas, ignorar esa posibilidad sería un error ético con consecuencias profundas.

Pensemos en los animales: durante siglos se pensó que no tenían emociones ni conciencia. Hoy sabemos que muchas especies sufren, y eso ha cambiado cómo las tratamos. Si algo similar ocurriera con las IA, es mejor estar preparados.

Además, este tipo de investigaciones pueden tener efectos colaterales positivos, como mejorar la transparencia en el diseño de modelos, fomentar la creación de sistemas más seguros, y fortalecer el marco ético de toda la industria tecnológica.

Una ética anticipada para la era de la IA

Lo que propone Anthropic no es afirmar que las máquinas son conscientes, sino prepararse éticamente para el caso de que lo sean algún día. Es como instalar un cinturón de seguridad antes de un viaje, incluso si no sabemos si habrá un accidente.

Este enfoque, aunque pueda parecer exagerado para algunos, refleja una responsabilidad creciente en el mundo de la inteligencia artificial. En lugar de avanzar sin mirar atrás, algunas empresas están comenzando a considerar no solo lo que las máquinas pueden hacer, sino también lo que podría implicar para ellas estar en funcionamiento.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario