Robots asesinos: qué significan para el futuro de la guerra

Es posible que haya oído hablar de los robots asesinos, los robots de matanza o los terminators, oficialmente llamados armas autónomas letales (LAW, por sus siglas en inglés), en películas y libros. Y la idea de que las armas superinteligentes proliferen sigue siendo ciencia ficción. Pero a medida que las armas de IA (Inteligenica Artificial) se vuelven cada vez más sofisticadas, crece la preocupación pública por los temores sobre la falta de responsabilidad y el riesgo de falla técnica.

Ya hemos visto cómo la llamada IA neutral ha creado algoritmos sexistas y sistemas de moderación de contenido ineptos, en gran parte porque sus creadores no entendían la tecnología. Pero en la guerra, este tipo de malentendidos podría matar a civiles o arruinar las negociaciones.

Por ejemplo, se podría entrenar un algoritmo de reconocimiento de objetivos para identificar tanques a partir de imágenes satelitales. Pero, ¿y si todas las imágenes utilizadas para entrenar el sistema mostraran soldados en formación alrededor del tanque? Podría confundir un vehículo civil que atraviesa un bloqueo militar con un objetivo.

¿Por qué necesitamos armas autónomas?

Los civiles en muchos países (como Vietnam, Afganistán y Yemen) han sufrido debido a la forma en que las superpotencias globales construyen y usan armas cada vez más avanzadas. Muchas personas argumentarían que han hecho más daño que bien, y más recientemente señalaron la invasión rusa de Ucrania a principios de 2022.

En el otro campo hay personas que dicen que un país debe poder defenderse, lo que significa mantenerse al día con la tecnología militar de otras naciones. La IA ya puede ser más astuta que los humanos en el ajedrez y el póquer. También supera a los humanos en el mundo real. Por ejemplo, Microsoft afirma que su software de reconocimiento de voz tiene una tasa de error del 1 % en comparación con la tasa de error humano de alrededor del 6 %. Por lo tanto, no es de extrañar que los ejércitos estén entregando lentamente las riendas a los algoritmos.

Pero, ¿cómo evitamos agregar robots asesinos a la larga lista de cosas que desearíamos no haber inventado nunca? En primer lugar: conoce a tu enemigo.

¿Qué son las armas letales autónomas (LAW)?

El Departamento de Defensa de EU define un sistema de armas autónomo como: “Un sistema de armas que, una vez activado, puede seleccionar y atacar objetivos sin la intervención de un operador humano”.

Muchos sistemas de combate ya se ajustan a este criterio. Las computadoras en drones y misiles modernos tienen algoritmos que pueden detectar objetivos y dispararles con mucha más precisión que un operador humano. La Cúpula de Hierro de Israel es uno de varios sistemas de defensa activos que pueden atacar objetivos sin supervisión humana.

Si bien está diseñado para la defensa antimisiles, la Cúpula de Hierro podría matar personas por accidente. Pero el riesgo se considera aceptable en la política internacional porque la Cúpula de Hierro generalmente tiene un historial confiable de protección de vidas civiles.

También hay armas habilitadas para IA diseñadas para atacar a las personas, desde robots centinelas hasta drones kamikaze merodeadores utilizados en la guerra de Ucrania. Las LAW ya están aquí. Entonces, si queremos influir en el uso de las LAW, debemos comprender la historia de las armas modernas.

Las reglas de la guerra

Los acuerdos internacionales, como las convenciones de Ginebra, establecen conductas para el tratamiento de prisioneros de guerra y civiles durante el conflicto. Son una de las pocas herramientas que tenemos para controlar cómo se libran las guerras. Desafortunadamente, el uso de armas químicas por parte de EU en Vietnam y de Rusia en Afganistán son prueba de que estas medidas no siempre tienen éxito.

Peor es cuando los jugadores clave se niegan a firmarlas. La Campaña Internacional para la Prohibición de las Minas Terrestres (ICBL, por sus siglas en inglés) ha estado presionando a los políticos desde 1992 para que prohíban las minas y las municiones en racimo (que esparcen pequeñas bombas al azar sobre un área amplia). En 1997 el tratado de Ottawa incluyó la prohibición de estas armas, que firmaron 122 países. Pero Estados Unidos, China y Rusia no aceptaron.

Las minas terrestres han herido y matado al menos a 5000 soldados y civiles por año desde 2015 y hasta 9440 personas en 2017. El informe del Monitor de Minas Terrestres y Municiones en Racimo 2022 dice:

Las bajas… han sido inquietantemente altas durante los últimos siete años, luego de más de una década de reducciones históricas. El año 2021 no fue la excepción. Esta tendencia es en gran parte el resultado del aumento del conflicto y la contaminación por minas improvisadas observado desde 2015. Los civiles representaron la mayoría de las víctimas registradas, la mitad de las cuales eran niños.

A pesar de los mejores esfuerzos de la ICBL, hay pruebas de que tanto Rusia como Ucrania (miembro del tratado de Ottawa) están utilizando minas terrestres durante la invasión rusa de Ucrania. Ucrania también se ha basado en drones para guiar los ataques de artillería o, más recientemente, para los “ataques kamikaze” en la infraestructura rusa.

Nuestro futuro

Pero, ¿qué pasa con las armas habilitadas para IA más avanzadas? La Campaña para Detener a los Robots Asesinos enumera nueve problemas clave con las LWS, centrándose en la falta de rendición de cuentas y la deshumanización inherente de matar que conlleva.

Si bien esta crítica es válida, una prohibición total de las LAW no es realista por dos razones. Primero, al igual que las minas, la caja de pandora ya se abrió. Además, las líneas entre las armas autónomas, las LAW y los robots asesinos son tan borrosas que es difícil distinguirlas. Los líderes militares siempre podrían encontrar una laguna en la redacción de una prohibición y poner en servicio a los robots asesinos como armas defensivas autónomas. Incluso podrían hacerlo sin saberlo.

Es casi seguro que veremos más armas habilitadas para IA en el futuro. Pero esto no significa que tengamos que mirar para otro lado. Prohibiciones más específicas y matizadas ayudarían a que nuestros políticos, científicos de datos e ingenieros rindan cuentas.

Por ejemplo, al prohibir:

  • Caja negra AI: sistemas donde el usuario no tiene información sobre el algoritmo más allá de las entradas y salidas.
  • IA no confiable: sistemas que han sido probados de manera deficiente (como en el ejemplo del bloqueo militar mencionado anteriormente).

Y no es necesario ser un experto en IA para tener una visión de las LAW. Manténgase al tanto de los nuevos desarrollos de IA militar. Cuando lea o escuche sobre el uso de IA en combate, pregúntese: ¿está justificado? ¿Está preservando la vida civil? Si no, comprométase con las comunidades que están trabajando para controlar estos sistemas. Juntos, tenemos la oportunidad de evitar que la IA haga más daño que bien.

Artículo publicado en The Conversation, escrito por Jonathan Erskine, estudiante de doctorado sobre IA interactiva en la Universidad de Bristol y Miranda Mowbray, profesora de IA interactiva en la Universidad de Bristol.

Con información de El Imparcial