25 de febrero de 2026

El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora

El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora

La amenaza de Pete Hegseth a Dario Amodei tiene un subtexto que va mucho más allá del contrato de 200 millones de dólares que el Pentágono puede cancelar: si el ejército de Estado Unidos despliega armas autónomas controladas por IA sin las salvaguardas que Anthropic exige, habrá eliminado el único cortafuegos que históricamente ha impedido que una orden ilegal se ejecute.

Por qué es importante. Todo el sistema legal y ético de las fuerzas armadas estadounidenses descansa sobre un principio que parece obvio pero que tiene consecuencias importantes: un soldado puede y debe desobedecer una orden manifiestamente ilegal.

Es el mecanismo que, en teoría, impide los crímenes de guerra. Un drone autónomo controlado por IA no tiene ese mecanismo. No puede negarse. No puede dudar. No puede ser juzgado en un consejo de guerra.

Entre líneas. Amodei habla de "armas autónomas que disparan sin intervención humana" para señalar un vacío jurídico. Si una IA toma la decisión de matar, ¿quién responde penalmente? ¿El programador? ¿El general que activó el sistema? ¿El presidente que firmó la orden?

El derecho internacional humanitario (Convenios de Ginebra incluidos) fue redactado pensando en seres humanos que toman decisiones. Y ahora la IA disuelve esa cadena de responsabilidad.

El telón de fondo. El argumento de la vigilancia masiva también es un trago amargo. La Cuarta Enmienda de la Constitución estadounidense protege a los ciudadanos de búsquedas e intervenciones sin orden judicial. Funciona, entre otras razones, porque el Estado nunca ha tenido la capacidad física de procesar todo lo que ocurre en el espacio público.

Y de la misma forma, con la IA ese límite operativo desaparece: pasamos a millones de conversaciones grabadas en tiempo real, transcritas, clasificadas y conectadas en apenas segundos. Lo que antes era imposible por falta de recursos humanos se vuelve rutinario con un LLM. La protección constitucional hasta ahora ha dependido, en parte, de la ineficiencia del Estado, de sus limitaciones.

Sí, pero. El Pentágono tiene un argumento que no es descartable: otras democracias también están desarrollando estas capacidades, y China o Rusia no van a esperar a que Estados Unidos resuelva sus dilemas éticos.

La pregunta práctica es si tener esas capacidades sin restricciones te hace más seguro o simplemente más peligroso para tus propios ciudadanos.

La gran pregunta. OpenAI y Google han aceptado las condiciones del Pentágono, "todos los usos legales" sin excepciones específicas, y xAI acaba de recibir autorización para operar en sistemas clasificados. Anthropic se ha quedado sola en su posición.

Y lo que está en juego ahora no es si Claude sobrevive como proveedor militar o no, es si la industria de la IA va a fijar algún límite a lo que vende al Estado, o si ese debate lo zanjará directamente el Congreso, los tribunales o, en el peor de los casos, el primer incidente grave que nadie haya podido prever. Parece cuestión de tiempo.

En Xataka | La IA ya es un campo de batalla: Anthropic acaba de acusar a DeepSeek y a otras empresas chinas de “destilar” Claude

Imagen destacada | Xataka

-
La noticia El derecho internacional fue escrito pensando en humanos que deciden. La IA acaba de romper esa cadena y nadie sabe quién responde ahora fue publicada originalmente en Xataka por Javier Lacort .



☞ El artículo completo original de Javier Lacort lo puedes ver aquí

No hay comentarios.:

Publicar un comentario