En 1139 el Papa Inocencio II prohibió el uso de la ballesta. La calificó entonces como "un arma detestable para Dios e indigna para los cristianos", aunque sí la consideró válida para luchar contra los infieles. La medida no se tuvo en cuenta, y la ballesta se siguió utilizando en los siglos posteriores. La historia del armamento siempre ha estado ligada a estas prohibiciones, y ahora hay una especialmente delicada: la que afecta a los llamados "robots asesinos".
Armas prohibidas. Aquel ejemplo de las ballestas acabó siendo tan solo uno de los muchos que han rodeado a la evolución del armamento militar y su aplicación a conflictos bélicos. En 1970 entró en vigor el Tratado de No Proliferación Nuclear para evitar el uso de armas nucleares, pero el derecho internacional también prohíbe el uso de armas químicas, biológicas o de minas antipersona. Esos acuerdos no suelen están ratificados por todos los países del mundo, pero sí por la inmensa mayoría.
Cuidado con las armas autónomas. Como indican en Reuters, La Organización de las Naciones Unidas ha convocado una reunión para regular el segmento de las armas autónomas controladas por inteligencia artificial. Este tipo de armamento es cada vez más utilizado en conflictos bélicos modernos, y los expertos avisan: es el momento de poner límites al uso de esta tecnología letal.
Fecha límite. El secretario general de Naciones Unidas, Antonio Guterres, ha establecido que 2026 es la fecha límite para que todos los países establezcan reglas claras en el uso de armas con inteligencia artificial. Sus palabras son claras: estos sistemas de armamento autónomo son "políticamente inaceptables, moralmente repugnantes" y deberían ser prohibidos".
No hay consenso. Lo que falta es el citado consenso: Alexander Kmentt, responsable de control del armamento en el ministerio de exteriores austríaco, lo explicaba: "el tiempo apremia para poner coto a las pesadillas que advierten algunos de los expertos más prestigiosos", apuntó. Algunas grandes personalidades del mundo tecnológico como Elon Musk o Demis Hassabis ya alertaron en 2018 del problema y pidieron a la ONU prohibir las armas autónomas.
Los militares se resisten. Los esfuerzos diplomáticos se enfrentan a los mandos militares, que según Reuters se resisten a la regulación porque eso podrían difuminar las ventajas que plantean estas tecnologías en el campo de batalla. Esta última reunión de la Convención sobre Armas Convencionales (CCW, por sus siglas en inglés) es la última edición de unos encuentros que se celebran desde 2014. Los participantes ven necesario "un tratado jurídicamente vinculante" para los países de la ONU.
Pero algunos países prefieren ir a su ritmo. Muchos países apoyan ese acuerdo general, pero EEUU, Rusia, China e India prefieren tener regulaciones nacionales o que se apliquen leyes internacionales existentes, según Amnistía Internacional. Un portavoz del Pentágono de EEUU indicó en Reuters que "no estamos convencidos de que las leyes existentes sean insuficientes" y destacó que las armas autónomas podrían plantear un riesgo menor para los civiles que las armas convencionales.
Mucho dinero en juego. Pero como siempre, uno de los factores de esta industria es que hay muchísimo dinero en juego, y más cuando hay una renovada fiebre por aumentar los presupuestos de Defensa. Laura Nolan, de la organización activista Stop Killer Robots, dejó claro que no hay ninguna garantía de que las empresas tecnológicas serán responsables a la hora de desarrollar estos sistemas: "Por lo general, no confiamos en que las industrias se autorregulen ... No hay ninguna razón por la que las empresas de defensa o tecnología deban ser más dignas de confianza".
En Xataka | Así ve la guerra del futuro el profesor que defiende los robots soldados
-
La noticia Existe un pacto de no proliferación de armas nucleares. En 2025 lo que necesitamos es uno que evite los robots asesinos fue publicada originalmente en Xataka por Javier Pastor .
☞ El artículo completo original de Javier Pastor lo puedes ver aquí

No hay comentarios.:
Publicar un comentario