Imagina un loro digital que ha memorizado millones de conversaciones. Puede repetir lo que oye, incluso reorganizarlo con elegancia. Eso es, en esencia, lo que hace la IA actual. La IA generativa como ChatGPT o Claude no piensa, no siente, no comprende. Solo calcula.
Lo que la IA hace (y lo que no puede hacer)
Cuando un modelo de IA responde una pregunta, no está reflexionando. Está realizando una predicción: cuál es la próxima palabra más probable. Lo hace basándose en enormes cantidades de datos previamente recopilados. Pero esa predicción no implica comprensión. La IA no sabe por qué algo es gracioso, ni cómo duele una pérdida. Simplemente reconoce patrones estadísticos.
Decir que una IA «entiende» es como decir que una calculadora «sabe» sumar. Las respuestas que ofrece son coherentes, útiles y a menudo impresionantes. Pero son producto de algoritmos, no de experiencias vividas.
El mito de la inteligencia artificial general
Lo que muchos sueñan como el siguiente paso, la inteligencia artificial general (AGI, por sus siglas en inglés), sería un tipo de IA capaz de pensar, razonar y sentir como un ser humano. Sin embargo, según expertos como el neurocientífico Guillaume Thierry, esta visión es más ciencia ficción que ciencia.
¿Por qué? Porque la IA carece de cuerpo. No tiene sentidos, ni nervios, ni emociones. No experimenta hambre, miedo o deseo. Y, según teorías recientes sobre la consciencia, estos elementos físicos y emocionales son esenciales para que la mente humana funcione.
El filósofo David Chalmers lo llama el “problema difícil de la consciencia”: cómo las experiencias subjetivas emergen de un cuerpo físico. Muchos científicos creen que sin sensaciones corporales —como el ritmo cardíaco, la sudoración o la tensión muscular— no puede haber consciencia real. Y eso es algo que las máquinas simplemente no tienen.
El riesgo de humanizar a las máquinas
Uno de los errores más comunes que cometemos es atribuir cualidades humanas a las IA. Les damos nombres, rostros, voces amables. Les hablamos como si fueran amigos o terapeutas. Esta tendencia a “antropomorfizar” la tecnología activa respuestas emocionales en nosotros. Y ahí reside el peligro.
Cuando creemos que una IA “entiende” nuestro sufrimiento o “siente” compasión, bajamos la guardia. Empezamos a confiar en ella, a compartir información personal, incluso a tomar decisiones importantes con su guía. Pero una IA no tiene valores propios. No distingue el bien del mal, a menos que alguien se lo programe.
La verdadera amenaza no es la máquina, sino quién la controla. Porque los algoritmos de IA pueden ser manipulados, sesgados o utilizados con fines cuestionables por gobiernos, corporaciones o individuos sin escrúpulos.
El test de Turing ya no basta
El famoso Test de Turing, ideado en los años 50, propone que si una máquina puede conversar como un humano sin ser detectada, se la podría considerar “inteligente”. Pero hoy, muchas IA superan ese test sin tener la menor idea de lo que están diciendo. Esto ha llevado a muchos expertos a cuestionar si el test sigue siendo una medida válida.
La IA no tiene intuición. No puede leer entre líneas, ni detectar mentiras. No tiene brújula moral ni conciencia del contexto humano. Solo simula.
¿Qué deberíamos hacer entonces?
No se trata de rechazar la IA, sino de usar esta herramienta con claridad y responsabilidad. La IA puede traducir textos, escribir informes, analizar datos a una velocidad y escala que ningún ser humano podría igualar. Pero no deberíamos esperar de ella empatía, creatividad auténtica o juicio moral.
Un primer paso es eliminar los rasgos humanos del diseño de las IA. No hace falta que nos hablen con voz cálida o que digan “entiendo cómo te sientes”. Podrían responder en tercera persona, sin referencias emocionales. Esto ayudaría a mantener la relación en el terreno de lo funcional, no lo afectivo.
Muchos usuarios conscientes ya están tomando medidas. Le piden a sus asistentes de IA que se presenten como máquinas, que no usen nombres personales, que no finjan emociones. Y funciona. El resultado es una interacción más clara y honesta.
No es pesimismo, es precaución
Reconocer los límites de la IA no es ser pesimista. Es entender que, como cualquier otra herramienta poderosa, puede ser usada para bien o para mal. Un martillo puede construir una casa o romper una ventana. Lo mismo ocurre con la IA.
El problema no está en la máquina. Está en cómo la usamos. Si seguimos disfrazándola de humano, corremos el riesgo de perder el control sobre la percepción que tenemos de ella. Y eso puede tener consecuencias sociales, éticas y psicológicas importantes.
En vez de alimentar la ilusión, es momento de quitarle la máscara a la IA. Dejarla ser lo que es: una herramienta brillante, sí, pero sin alma ni conciencia.
☞ El artículo completo original de Natalia Polo lo puedes ver aquí
No hay comentarios.:
Publicar un comentario