El culebrón entre Anthropic y el Pentágono tiene un nuevo capítulo (y ya van...). Después deln tira y afloja de las últimas semanas, Anthropic se plantó y eso acabó provocando que EEUU metiera a la empresa en la lista negra. A Anthropic no le ha hecho ninguna gracia.
Qué ha pasado. Anthropic ha demandado al Departamento de Defensa (o de guerra) de EEUU, calificando la decisión de meterlos en la lista negra "sin precedentes e ilegal" y argumentando que causarán un daño irreparable a la empresa. . En declaraciones a Fortune, un portavoz de Anthropic ha asegurado que siguen comprometidos en proteger la seguridad nacional y quieren buscar una solución, pero que "es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios". La administración no ha hecho declaraciones sobre esta demanda.
Mucha pasta en juego. Al meter a Anthropic en la lista negra, el gobierno impide que los contratistas y proveedores de defensa usen Claude en sus actividades relacionadas con el Pentágono. Además, Trump ordenó que todo el gobierno deje de usar la IA de Anthropic. La empresa afirma que ya se están cancelando contratos con el gobierno y otros contratos privados están en peligro. El director comercial de Anthropic, Paul Smith, ha asegurado que hay un cliente que ya ha cambiado Claude por otra IA generativa. Sólo este contrato les hará perder al menos 100 millones de dólares.
Dudas sobre la legalidad. Anthropic dice que la jugada del gobierno no es legal ¿tienen razón? Según los expertos jurídicos de Lawfare, la etiqueta de "riesgo para la cadena de suministro" no resistirá el escrutinio judicial. El motivo principal es que esta designación está pensada para adversarios extranjeros, como sucedió con Huawei. La definición que hace la ley es "el riesgo de que un adversario pueda sabotear o subvertir un sistema cubierto", no dice nada de usarlo como castigo a una empresa nacional por un desacuerdo. Según Lawfare, las declaraciones de Trump y el secretario de defensa "enmarcan la acción como un castigo ideológico a un enemigo político".
El desacuerdo. El origen de esta escalada está en las líneas rojas que puso Anthropic Básicamente, la empresa se negó a que se pudiera usar su modelo para la vigilancia masiva de ciudadanos y especialmente el desarrollo de armas letales sin supervisión humana. La preocupación es fundamentada: un soldado puede negarse a cumplir una orden ilegal, una IA no.
Al Pentágono no le gustan las líneas rojas (de otros, claro) y exigían poder usar su tecnología sin límites. En palabras de Trump en un post de Truth Social: "Nosotros decidiremos el destino de nuestro país, NO una empresa de inteligencia artificial radical de izquierda fuera de control dirigida por personas que no tienen ni idea de cómo es el mundo real".
Mientras tanto OpenAI... Poco después de que Anthropic fuera incluida en esa lista negra, el gobierno encontraba una nueva candidata para llevar a cabo sus planes: OpenAI. Según la empresa de Sam Altman, su desarrollo tiene más salvaguardas y eh, tranquis, no es para tanto. Lo que le ha seguido es una crisis de imagen para ChatGPT, con dimisiones y desinstalaciones masivas de usuarios que se han pasado a Claude. Pero no nos engañemos, aunque Anthropic haya ganado la batalla de la opinión pública, si EEUU mantiene el pulso, el futuro pinta bastante negro para los de Amodei.
Imagen | Anthropic (editada)
-
La noticia El Pentágono etiquetó a Anthropic como un riesgo para la seguridad nacional. Así que Anthropic ha demandado al Pentágono fue publicada originalmente en Xataka por Amparo Babiloni .
☞ El artículo completo original de Amparo Babiloni lo puedes ver aquí
