27 de febrero de 2026

Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono: ha elegido lo más arriesgado

Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono: ha elegido lo más arriesgado

17:01 de este viernes 27 de febrero. Esa fue la fecha límite que Estados Unidos dio a Anthropic para que concediera plenos poderes al Pentágono sobre el uso de su IA. Es su softwate el que está plenamente integrado con Palantir y los sistemas del Departamento de Defensa, pero EEUU cree que tiene un problema: Anthropic ha atado a su IA a unas reglas morales que no deberían existir. Así que esta semana Defensa les envió un mensaje: o les dan una IA sin cortapisas o habrá consecuencias.

Y Anthropic ha respondido con un rotundo "no".

Roce monumental. Aquí no estamos ante un conflicto entre empresas: es una empresa contra su Gobierno. Anthropic ofreció su IA al Pentágono para que éste la integrara en sus sistemas. Lo hizo a un precio simbólico: un dólar. El Pentágono aceptó y la respuesta fue un contrato de 200 millones de dólares. El Departamento de Defensa empezó a integrar la IA de Anthropic en sus sistemas, con todo lo que ello conlleva: acceso total a documentos a los que nadie fuera del Pentágono puede acceder.

EEUU también quiere que sea una herramienta de campo, pero hay un problema: esa IA está ‘programada’ para que no pueda usarse para la vigilancia masiva de ciudadanos estadounidenses, para el desarrollo de armas o para el uso de armamento autónomo. Es, precisamente, lo que quiere hacer el Pentágono. El Secretario de Defensa mandó un mensaje a Anthropic: o les dan una IA sin límites o les hacen un Huawei.

Estos son mis principios. Dario Amodei, CEO de la compañía, ha respondido hoy en el blog de Anthropic. Su frase inicial es potente: “creo profundamente en la importancia existencial de usar la IA para defender Estados Unidos y a otras democracias para derrotar a nuestros adversarios autocráticos”. Buen inicio para lo que parece ser una declaración en la que da su brazo a torcer, pero… no.

Tras un repaso de lo que han “cedido” para que su IA esté en los sistemas del Departamento de Defensa y criticar que EEUU saque la carta de la Ley de Producción de Defensa de 1950 para aterrorizar a una Anthropic que este año saldrá a bolsa, la resolución es firme: “no podemos acceder en buena conciencia a la petición”. La compañía tiene claro que su IA puede ser de mucha ayuda al Gobierno, pero sigue oponiéndose, principalmente, a dos usos concretos:

  • El espionaje masivo contra ciudadanos de EEUU, porque la IA puede armar bases de datos completas de la vida de cualquier persona.
  • El uso de armas letales autónomas en las que no se puede confiar para la toma de decisiones, ya que no tienen el juicio que sí tiene un soldado profesional. Una IA no cuestiona, no tiene remordimientos, no se pregunta si está bien o mal o si el objetivo es un falso positivo. Una IA… ejecuta.

Hemos dado el pecho por vosotros. En el comunicado, Amodei lanza casi una suplica, un “con todo lo que te he dado”, afirmando que ese compromiso con el liderazgo de Estados Unidos ha sido contra los intereses de la propia compañía. Apuntan que han renunciado a “varios cientos de millones de dólares para impedir que Claude se use en empresas vinculadas al Partido Comunista Chino” y que eso costó algunos ataques por parte de China, con algunas de sus empresas intentando abusar de Claude.

Y es una carta abierta, una declaración de intenciones que ha sido respaldada por empleados de la competencia. Por 219 de Google y por otros 65 de OpenAI. Muchos han dado sus nombres, otros muchos han firmado bajo el anonimato, pero todos con el mismo objetivo: rechazar las demandas del Departamento de Defensa para usar sus modelos para la vigilancia masiva y “matar de forma autónoma a personas sin supervisión humana”.

"En cualquier caso, estas amenazas no cambian nuestra posición: no podemos acceder en buena conciencia a su petición"

No hay término medio. Por muy bonita y romántica que suene la declaración de los empleados de Google y OpenAI, la realidad es otra. Están echando un pulso al Gobierno, un Gobierno que continuamente está demostrando que se ejecuta lo que ellos quieren (ICE, los movimientos climáticos, la salida de la OMS, los aranceles o las amenazas a socios y aliados). Y el problema es que Anthropic tiene mucho que perder, mucho más de esos 200 millones de dólares que es calderilla en el contexto de las inversiones en IA.

Si ceden, supondría dar un paso atrás en un aspecto casi fundacional de la empresa. Si no ceden, se convierten en la “marca de prestigio” de la IA. Demuestran que tienen el modelo que necesita el ejército más tecnológicamente avanzado de la actualidad y que son intocables, al menos mientras una Estados Unidos que ya busca alternativas como Google, X y OpenAI encuentre una alternativa. Pero corren el riesgo de que, EEUU la meta en la lista negra.

El veto. El Gobierno ha amenazado con condenar a Anthropic a ser una empresa que supone un “riesgo en la cadena de suministro”. Como Amodei apunta en el comunicado, es una etiqueta reservada a los adversarios del país y nunca se ha aplicado a una empresa estadounidense. Sería meter Anthropic en el mismo saco que Huawei y otras empresas chinas e impediría que el resto de socios estadounidenses hiciera tratos con ellos. 

Aunque no cedan, EEUU puede adueñarse de la IA por la fuerza con la carta de la Ley de Producción de Defensa. Mediante este decretazo, si consideran que esa herramienta es necesaria e imprescindible para la seguridad nacional, da igual lo que diga Amodei.

En el tejado del Pentágono. Es donde está la pelota en estos momentos, y el tiempo se acaba. Como decíamos antes, no es una operación entre empresas, no es una pela entre políticos: es una empresa que está siendo amenazada por su propio país. Una amenaza que es un “danos esto por las buenas o te lo quitamos por las malas”.

En cualquier caso, hay que esperar a ver cómo se desarrolla el día. Anthropic apunta que, si al final el Departamento de Defensa elije a otra empresa, trabajarán para una transición sin fisuras. La pregunta es si habrá una solución tan pacífica teniendo en cuenta que la IA de Anthropic ya está muy integrada en los sistemas del Pentágono… y no suena factible que den un volantazo para desandar lo andado.

Imágenes | La Casa Blanca, Fortute Brainstorm Tech

En Xataka | A un granjero de 86 años le ofrecieron 15 millones de dólares para construir un centro de datos. Dijo que no

-
La noticia Anthropic tenía hasta hoy para decidir si se mantenía fiel a sus principios o cedía al Pentágono: ha elegido lo más arriesgado fue publicada originalmente en Xataka por Alejandro Alcolea .



☞ El artículo completo original de Alejandro Alcolea lo puedes ver aquí

No hay comentarios.:

Publicar un comentario