Un artículo publicado en el periódico alemán Frankfurter Allgemeigne Zeitung (FAZ) el pasado 22 de agosto, relata el intento de asesinato del científico nuclear iraní Mohsen Fakrizadeh, en noviembre de 2020, probablemente usando una arma automática controlada por Inteligencia Artificial (IA).
Anno Hellenbroich, desde Wiesbaden*
La posibilidad ya se había mencionada por el New York Times en octubre de 2021. El tema es crucial, frente a la creciente presión política ejercida sobre la industria y los militares, en el contexto de la guerra ruso-ucraniana, para la utilización de armas de IA a gran escala, incluyendo la expansión de ataques ucranianos en territorio ruso.
Los autores, el profesor Dr. Thomas Klindt y el Dr. Lennart Laude, abogados de Munich, dan un indicativo de cuan controvertido es el tema. El artículo se basa en una conferencia que dieron en el Colegio del Comando y Estado Mayor de las Fuerzas Armadas alemanas, en un seminario sobre IA promovido por la Marina (Kriegsmarine).
Anotan: Sistemas de armas con funciones autónomas se usan en Ucrania y en la Franja de Gaza. Además, el desarrollo de sistemas autónomos de armas han aumentado y la IA desempeñará un decisivo papel. El Derecho no está preparado para este desarrollo.
Los autores examinan la cuestión del uso de armas letales totalmente autónomas (conocidas por la siglas LAWS, de sistemas de armas autónomas letales en inglés) para eliminar personas sin el control de humanos. El asunto no está cubierto por el Derecho Internacional, y a mí ver, es incompatible con el tan alardeado sistema occidental de valores”.
Klindt y Laudte van al grano:
“¿Está legalmente permitido colocar la decisión sobre la vida y la muerte de un ser humano en manos de una máquina?”
Se refieren a la única regulación de la IA existente en el mundo hasta el momento, la de la Unión Europea, que omite deliberadamente los sistemas militares de IA. Los autores enfatizan que esta exclusión fue altamente controvertida en términos de política legal e industrial.
Entre otros ejemplos, discuten el actual conflicto en la Franja de Gaza, donde Israel ha usado un software de reconocimiento facial en ataques, pero se aceptan las bajas civiles, pues semejantes sistemas de actuación autónoma no logran distinguir combatientes de civiles. Esto se refiere, en particular, a sistemas que operan sin ninguna influencia humana (human-out-of-the-loop).
Los autores llegan a la conclusión de que el uso ofensivo de sistemas del género como medios de ataque es incompatible con el Derecho Internacional humanitario. Igualmente, apuntan hacia el asesinato de seres humanos por máquinas controladas por algoritmos, algo prohibido por el Derecho Internacional y por el Derecho humanitario en general, y que contradice totalmente nuestro sistema de valores acerca de la dignidad humana.

Queda claro el riesgo cuando se trata de integrar la IA en armas nucleares, enfatizan los autores.
Y esto es todavía más significativo porque, en vista de la confrontación global entre las grandes potencias –EUA, Rusia y China-, está en curso un debate cada vez más acalorado en varias publicaciones internacionales en torno al creciente riesgo del uso de armas nucleares. Veamos, por ejemplo, el periódico norteamericano Boston Globe del pasado 26 de julio, en una artículo comentando el libro publicado recientemente por la periodista investigadora Anne Jacobs, Nuclear War: A Scenario (Guerra nuclear: un escenario, o el artículo de David E. Sanger en el New York Times del último 24 de agosto, “La estrategia nuclear secreta de Biden”).
Es verdad que los autores limitan la actual amenaza de un peligro global de armas nucleares controladas con IA, citando las decisiones tomadas por los Estados Unidos en 2022 sobre el uso de armas nucleares, que siempre deben ser tomadas por el “humano en el circuito”. (La reciente revisión de la doctrina nuclear estadounidense hecha por el gobierno de Biden, conforme lo relatado por el NYT no revela nada sustancial). Los autores enfatizan que el Reino Unido adoptó una política semejante en 2022, pero observan que “Rusia y China…no lo hicieron”.
Sin embargo, surge la cuestión de que, ¿si no hubiera comunicación o disposición para que las superpotencias se entendieran sobre una nueva arquitectura de seguridad global, ¿ que podría impedir una confrontación nuclear?
Los autores enfatizan: “Para el Ejército Federal, la implantación ofensiva de sistemas de armas completamente autónomos…muy probablemente, sería descartada bajo el Derecho Internacional… ¿(Pero, y) si otros estados desarrollaran semejantes sistemas de armas, y el Ejército Federal fuera, así, confrontado con una desventaja militar?”
¡Una pesadilla!
*MSIA Informa

