Por The New York Times | Adam Satariano, Nick Cumming-Bruce y Rick Gladstone

Tal vez haya parecido un oscuro cónclave de las Naciones Unidas, pero esta semana expertos en inteligencia artificial, estrategia militar, desarme y derecho humanitario siguieron atentamente una reunión celebrada en Ginebra.

¿La razón detrás del interés? Los robots asesinos —drones, armas y bombas que deciden por su cuenta, con cerebros artificiales, si van a atacar y matar— y lo que se debe hacer, si se llega a hacer algo, para regularlos o prohibirlos.

Aunque en algún momento solo formaban parte de películas de ciencia ficción como la serie de “Terminator” y “Robocop”, los robots asesinos, en términos más técnicos conocidos como Sistemas de Armas Autónomas Letales, se han inventado y probado a un paso acelerado y con poca supervisión. Además, se han usado algunos prototipos en conflictos reales.

La evolución de estas máquinas es considerada un evento trascendental para los conflictos armados, similar a la invención de la pólvora y las bombas nucleares.

Este año, por primera vez, una mayoría de las 125 naciones que pertenecen a un acuerdo llamado Convención sobre Ciertas Armas Convencionales (CCW, por su sigla en inglés) señaló que quería restricciones para los robots asesinos. Sin embargo, se les opusieron los miembros que están desarrollando estas armas, en particular Estados Unidos y Rusia.

La convención del grupo terminó el viernes tan solo con una vaga declaración respecto a considerar posibles medidas que todos puedan aceptar. La Campaña para Detener a los Robots Asesinos, un grupo de desarme, comentó que el resultado “no estuvo a la altura del rigor de la situación”.

¿Qué es la Convención sobre Ciertas Armas Convencionales?

A veces conocida como la Convención sobre Armas Inhumanas, es un esquema de reglas que prohíben o restringen las armas que se considera que provocan un daño innecesario, injustificable e indiscriminado, como los explosivos incendiarios, los láseres enceguecedores y las bombas trampa que no distinguen entre combatientes y civiles. La convención no tiene ninguna disposición para los robots asesinos.

¿Qué son exactamente los robots asesinos?

Difieren las opiniones sobre una definición exacta, pero en general son consideradas armas que toman decisiones con poca, o ninguna, participación de seres humanos. Las rápidas mejorías en la robótica, la inteligencia artificial y el reconocimiento de imágenes están posibilitando ese tipo de armamento.

Los drones que Estados Unidos ha usado ampliamente en Afganistán, Irak y otras partes no son considerados robots porque los operan personas, quienes eligen los blancos y deciden si deben disparar.

¿Por qué se les considera atractivos?

Para los responsables de planear las guerras, las armas prometen mantener a los soldados fuera de peligro y tomar decisiones más rápido que los humanos, al darles más responsabilidades en el campo de batalla a los sistemas autónomos como los drones sin piloto y los tanques autónomos que deciden de manera independiente cuándo atacar.

¿Cuáles son las objeciones?

Sus críticos arguyen que en términos morales es repugnante encargarles la toma de decisiones letales a máquinas, sin importar la sofisticación tecnológica. ¿Cómo una máquina puede diferenciar entre un adulto y un niño, un combatiente con una bazuca y un civil con una escoba, un combatiente hostil y un soldado herido o que se está rindiendo?

“En esencia, a nivel ético, a la sociedad le preocupa que los sistemas de armas autónomas sustituyan a los humanos al momento de tomar decisiones de vida o muerte con sensores, software y procesos mecanizados”, dijo en la convención de Ginebra, Peter Maurer, presidente del Comité Internacional de la Cruz Roja y un adversario manifiesto de los robots asesinos. ¿Por qué la conferencia de Ginebra fue importante?

En general, para los expertos en desarme, la conferencia era considerada como la mejor oportunidad hasta el momento para idear mecanismos que regularan, o prohibieran, el uso de los robots asesinos conforme la convención.

Fue la culminación de años de debate de un grupo de expertos a los que se les pidió que identificaran los desafíos y las posibles estrategias para reducir las amenazas de los robots asesinos. Sin embargo, los expertos ni siquiera pudieron llegar a un acuerdo en cuestiones básicas.

¿Qué dicen los opositores de un nuevo tratado?

Algunos, como Rusia, insisten en que todas las decisiones sobre los límites deben ser unánimes, lo cual veta de inmediato a quienes se oponen.

Estados Unidos arguye que las leyes internacionales actuales bastan y que prohibir la tecnología de las armas autónomas sería prematuro. El principal delegado de Estados Unidos en la convención, Joshua Dorosin, propuso un “código de conducta” no vinculante para el uso de los robots asesinos, una idea que los defensores del desarme desestimaron al considerarla una táctica dilatoria. Franz-Stefan Gady, investigador del Instituto Internacional de Estudios Estratégicos, comentó que la “carrera armamentista de los sistemas de armas autónomas ya está en progreso y no se suspenderá pronto”.

¿Hay algún conflicto en las instituciones tradicionales de defensa sobre los robots asesinos?

Sí. Aunque la tecnología se vuelve cada vez más avanzada, ha habido reticencia a usar las armas autónomas en combate por temor a los errores, comentó Gady.

“¿Los comandantes militares confían en el juicio de los sistemas de armas autónomas? En este momento, la respuesta sin duda es ‘no’ y seguirá siéndolo en el futuro próximo”, agregó.

El debate sobre las armas autónomas llegó hasta Silicon Valley. En 2018, Google señaló que no iba a renovar un contrato con el Pentágono después de que miles de sus empleados firmaron una carta en la que protestaron en contra de la participación de la empresa en un programa que usaba inteligencia artificial para interpretar imágenes que podían ser usadas para la elección de los blancos de los drones. La empresa también creó nuevos lineamientos éticos que prohíben el uso de su tecnología para armas y vigilancia.

Otras personas creen que Estados Unidos no está haciendo lo suficiente para competir con sus rivales.

En octubre, el exdirector de software de la Fuerza Aérea, Nicolas Chaillan, le comentó a The Financial Times que había renunciado porque consideraba débil el progreso tecnológico dentro del ejército estadounidense, en particular el uso de la inteligencia artificial. Chaillan señaló que los cuestionamientos éticos detienen a los responsables de la toma de decisiones políticas, mientras que países como China perseveran.

¿Dónde se han usado las armas autónomas?

No hay muchos ejemplos verificados en el campo de batalla, pero los críticos apuntan hacia unos pocos incidentes que muestran el potencial de la tecnología.

En marzo, investigadores de la ONU señalaron que en Libia, fuerzas con respaldo del gobierno libio habían usado un “sistema de armas autónomas letales” en contra de milicianos. Un dron llamado Kargu-2, fabricado por un contratista de defensa turco, rastreó y atacó a los combatientes mientras huían de un ataque con misiles, según el informe, el cual no aclaró si los drones habían estado bajo el control de algún ser humano.

En 2020, en la guerra en el Alto Karabaj, Azerbaiyán combatió contra Armenia con drones de ataque y misiles que merodeaban en el aire hasta que detectaban la señal de un blanco asignado.

¿Qué sucederá ahora?

Muchos partidarios del desarme comentaron que el resultado de la convención había endurecido la que describieron como una resolución para presionar por un nuevo tratado los próximos años, como los que prohíben las minas terrestres y las bombas de racimo.

Daan Kayser, experto en armas autónomas en PAX, un grupo defensor de la paz con sede en los Países Bajos, comentó que la ausencia de acuerdos en la convención tan siquiera para negociar sobre los robots asesinos fue “una señal muy clara de que la CCW no está a la altura de la tarea”.

Noel Sharkey, experto en inteligencia artificial y presidente del Comité Internacional para el Control de las Armas Robóticas, señaló que la reunión había demostrado que era preferible un nuevo tratado a más debates en convenciones.

“Había un sentido de urgencia en el lugar de que, si no se avanzaba un poco, no estábamos preparados para seguir por este camino” comentó Sharkey.