EE. UU. y otras 30 naciones acuerdan establecer límites para la IA militar

EE. UU. y otras 30 naciones llegan a un acuerdo para establecer límites en el uso de la Inteligencia Artificial en la guerra

Cuando políticos, ejecutivos de tecnología e investigadores se reunieron en el Reino Unido la semana pasada para discutir los riesgos de la inteligencia artificial, una preocupación prominente fue que los algoritmos podrían algún día volverse en contra de sus dueños humanos. De manera más silenciosa, el grupo avanzó en el control del uso de la IA con fines militares.

El 1 de noviembre, en la embajada de Estados Unidos en Londres, la vicepresidenta de Estados Unidos, Kamala Harris, anunció una serie de iniciativas de IA, y sus advertencias sobre la amenaza que la IA representa para los derechos humanos y los valores democráticos llamaron la atención de la gente. Pero también reveló una declaración firmada por 31 naciones para establecer límites en el uso militar de la IA. Los firmantes se comprometen a utilizar revisiones legales y capacitación para garantizar que la IA militar cumpla con las leyes internacionales, desarrollar la tecnología de manera cautelosa y transparente, evitar sesgos no deseados en los sistemas que utilizan IA y continuar discutiendo cómo se puede desarrollar y desplegar la tecnología de manera responsable.

“Un enfoque basado en principios para el uso militar de la IA debe incluir una consideración cuidadosa de los riesgos y beneficios, y también debe minimizar los sesgos no deseados y los accidentes”, dice la declaración. También dice que los estados deben incorporar salvaguardias en los sistemas de IA militares, como la capacidad de desactivar o desactivar cuando un sistema demuestre un “comportamiento no deseado”.

La declaración no tiene fuerza legal, pero es el primer acuerdo importante entre naciones para imponer límites voluntarios a la IA militar. El mismo día, la ONU anunció una nueva resolución de su Asamblea General que solicita un estudio en profundidad sobre armas autónomas letales y podría establecer los términos para restricciones sobre dichas armas.

Lauren Kahn, analista de investigación senior del Center for Security and Emerging Technology (CSET) en la Universidad de Georgetown, califica la declaración liderada por Estados Unidos como “increíblemente significativa”. Ella dice que podría ofrecer un camino práctico hacia un acuerdo internacional vinculante sobre las normas en torno a cómo las naciones desarrollan, prueban y despliegan la IA en sistemas militares, brindando mayores salvaguardias y transparencia en aplicaciones que involucran sistemas de armas. “Realmente creo que estos son acuerdos de sentido común con los que todos estarían de acuerdo”, dice Kahn.

La declaración no vinculante fue redactada por primera vez por Estados Unidos después de una conferencia a la que asistieron representantes de diferentes naciones que se centraron en el uso militar de la IA y se celebró en La Haya en febrero. Estados Unidos también ha pedido a otras naciones que acuerden que los humanos se mantengan en control de las armas nucleares. La nueva declaración establece que las naciones que la respaldan se reunirán a principios de 2024 para continuar las discusiones.

La vicepresidenta Harris anunció durante su discurso en Londres que la declaración ha sido firmada por naciones alineadas con Estados Unidos como el Reino Unido, Canadá, Australia, Alemania y Francia. Los 31 firmantes no incluyen a China ni a Rusia, que junto con Estados Unidos son considerados líderes en el desarrollo de sistemas de armas autónomas. China se unió a Estados Unidos en la firma de una declaración sobre los riesgos que plantea la IA como parte de la Cumbre sobre Seguridad de la IA coordinada por el gobierno británico.

Hablar de IA militar a menudo evoca la idea de armas impulsadas por IA capaces de decidir por sí mismas cuándo y cómo utilizar la fuerza letal. Estados Unidos y varias naciones más se han resistido a la prohibición total de tales armas, pero la política del Pentágono es que los sistemas autónomos deben permitir “que los comandantes y operadores ejerzan niveles adecuados de juicio humano sobre el uso de la fuerza”. Las discusiones en torno a este tema como parte de la Convención sobre Ciertas Armas Convencionales de la ONU, establecida en 1980 para crear reglas internacionales sobre el uso de armas consideradas excesivas o indiscriminadas en su naturaleza, se han estancado en gran medida.

La declaración liderada por Estados Unidos anunciada la semana pasada no va tan lejos como para buscar una prohibición de un uso específico de la IA en el campo de batalla. En cambio, se centra en garantizar que la IA se utilice de manera que garantice la transparencia y confiabilidad. Eso es importante, dice Kahn, porque los militares están buscando aprovechar la IA de múltiples maneras. Incluso si se restringe y se supervisa de cerca, la tecnología aún podría tener efectos desestabilizadores o peligrosos.

Una preocupación es que un sistema de IA defectuoso pueda hacer algo que desencadene una escalada de hostilidades. “El enfoque en las armas autónomas letales es importante”, dice Kahn. “Al mismo tiempo, el proceso se ha enredado en estos debates, que se centran exclusivamente en un tipo de sistema que aún no existe”.

Algunas personas todavía están trabajando en tratar de prohibir armas autónomas letales. El mismo día en que Harris anunció la nueva declaración sobre IA militar, el Comité Primero de la Asamblea General de la ONU, un grupo de naciones que trabaja en el desarme y la proliferación de armas, aprobó una nueva resolución sobre armas autónomas letales.

La resolución solicita un informe sobre los desafíos “humanitarios, legales, de seguridad, tecnológicos y éticos” planteados por las armas autónomas letales y la participación de organizaciones internacionales y regionales, el Comité Internacional de la Cruz Roja, la sociedad civil, la comunidad científica y la industria. Una declaración emitida por la ONU citó al representante de Egipto diciendo que “un algoritmo no debe tener el control total de decisiones que implican matar o dañar a los seres humanos”, después de la votación.

“Es un momento emocionante y trascendental”, dice Anna Hehir, gerente de programa de sistemas de armas autónomas en el Future of Life Institute, una organización sin fines de lucro que aboga por una prohibición total de sistemas autónomos letales que apuntan a los seres humanos. “Es un gran paso para llegar a un instrumento legalmente vinculante, como lo ha pedido el Secretario General de la ONU que suceda para 2026”.

Los militares de todo el mundo han estado interesados en la IA durante mucho tiempo, pero la rápida implementación de nuevas tecnologías en el campo de batalla en Ucrania ha suscitado un renovado interés por parte de Estados Unidos y otros países. El Pentágono está experimentando con la incorporación de la IA en sistemas más pequeños y más baratos como una forma de aumentar su capacidad para detectar amenazas y reaccionar rápidamente.

“Los sistemas que estamos empezando a ver en Ucrania son sin precedentes, es una tecnología que no habíamos visto antes”, dice Hehir sobre el uso generalizado de drones en el conflicto, incluidos algunos con IA para identificar objetivos. “Definitivamente es un campo de pruebas para probar diferentes tecnologías”.

Por el momento, ChatGPT parece no haber sido reclutado para el servicio militar, pero el reciente florecimiento de la tecnología de chatbots parece haber promovido un debate renovado y más serio sobre los riesgos de la IA militar. “La declaración política y la votación de la ONU representan un cambio bastante significativo en el debate sobre armas autónomas de los últimos años”, dice Paul Scharre, experto en armas autónomas y director de estudios en el Center for New American Security (CNAS), un grupo de expertos en Washington, DC.

Algunas armas autónomas ya existen, incluidos sistemas defensivos a bordo de buques de guerra que pueden disparar automáticamente contra misiles entrantes. Pero solo se han informado un par de casos de posibles usos de sistemas letales que incorporan IA moderna en la guerra. Según un informe de la ONU de 2021, un dron desplegado durante la guerra civil en Libia en 2020 por fuerzas respaldadas por el gobierno en Trípoli podría haber utilizado la fuerza letal contra soldados sin control humano. También hay informes sobre el desarrollo de drones autónomos letales para las fuerzas ucranianas que intentan repeler la renovada invasión de Rusia. Rusia está entre las naciones que se opusieron a la nueva resolución de la ONU, argumentando que el acuerdo socavaría el trabajo existente sobre la autonomía en virtud de la Convención sobre Ciertas Armas Convencionales.