El ejército israelí afirma que la inteligencia artificial (IA) está ayudándole a eliminar con mayor precisión a los miembros de Hamás, pero el aumento del número de civiles muertos en Gaza lleva a algunos expertos a cuestionar esa efectividad.
“O bien la IA es tan buena como se afirma y al ejército israelí no le importa el daño colateral, o no lo es”, explicó Toby Walsh, jefe del Instituto de Inteligencia Artificial de la Universidad de Nueva Gales del Sur en Australia, a la AFP.
El ministerio de Salud en Gaza, dirigido por Hamás, dijo este domingo que más de 30.400 personas habían muerto en la Franja de Gaza desde el inicio de la guerra el 7 de octubre, en gran mayoría civiles.
El ministerio no especificó cuántos miembros de Hamás estaban incluidos en el total, pero Israel dijo a principios de febrero que sus fuerzas habían “eliminado a 10.000 terroristas” desde el inicio del conflicto a principios de octubre.
El ejército israelí le dijo a la AFP que no iba a comentar sus sistemas de algoritmos para apuntar a posibles objetivos.
Sin embargo, recordó que “solo ataca objetivos militares y toma medidas factibles para mitigar el daño a los civiles en la medida de lo posible”.
“Ataques precisos”
Israel comenzó a destacar con su uso de IA tras una serie de ataques a lo largo de 11 días en Gaza durante mayo de 2021.
Aviv Kochavi, jefe militar durante esa crisis, dijo al sitio web Ynet el año pasado que habían utilizado sistemas de IA para generar “100 nuevos objetivos todos los días”.
“Para ponerlo en perspectiva, en el pasado producíamos 50 objetivos en Gaza en un año”, dijo.
Semanas después de los ataques del 7 de octubre, un blog en el sitio web del ejército israelí reveló que en apenas 27 días sus sistemas de identificación de objetivos lograron detectar más de 12.000, gracias a un algoritmo de IA llamado Gospel.
Un oficial no identificado fue citado diciendo que el sistema identificó objetivos “para ataques precisos a infraestructura asociada con Hamás, infligiendo gran daño al enemigo y un daño mínimo a quienes no estaban involucrados”.
Fuentes militares anónimas dijeron a la revista de investigación +972 en noviembre que el sistema estaba creando una “fábrica de asesinatos en masa”.
Las fuentes dijeron que Gospel procesa grandes cantidades de datos más rápido que “decenas de miles de oficiales de inteligencia” e identifica, en tiempo real, ubicaciones que probablemente sean hogares de presuntos militantes.
Sin embargo, las fuentes no dieron detalles sobre los datos introducidos en el sistema o los criterios utilizados para determinar los objetivos.
“Datos dudosos”
Varios expertos le dijeron a AFP que es probable que el ejército esté alimentando el sistema con imágenes de drones, publicaciones en redes sociales y otra actividad en línea, información de espías en el terreno, ubicaciones de teléfonos móviles y otros datos de vigilancia.
Una vez que el sistema identifica un objetivo, puede luego utilizar datos de población de fuentes oficiales para estimar la probabilidad de daño civil.
Pero Lucy Suchman, profesora de antropología de la ciencia y la tecnología en la Universidad de Lancaster en el Reino Unido, dijo que la idea de que más datos producirían mejores objetivos era falsa.
Los algoritmos están entrenados para encontrar patrones en los datos que coincidan con una cierta designación, dijo.
En el conflicto de Gaza, esto podría ser “afiliado a Hamás”, por lo que cualquier patrón en los datos que coincida con un afiliado identificado previamente generaría un nuevo objetivo.
“En otras palabras, más datos dudosos equivalen a peores sistemas”, indicó.
Humanos en control
Los israelíes no son la primera fuerza combatiente en desplegar un sistema de identificación de objetivos automatizado en el campo de batalla.
Ya la Guerra del Golfo de 1990-91 el ejército estadounidense trabajó con algoritmos para mejorar sus sistemas de identificación.
Para la campaña de bombardeo de Kosovo en 1999, la OTAN comenzó a utilizar algoritmos para calcular posibles bajas civiles.
Y durante la guerra contra el terrorismo, el ejército estadounidense contrató a la firma de datos secreta Palantir para proporcionar análisis de batalla en Afganistán.
Mientras tanto, los defensores de la tecnología han insistido en que reducirá las muertes civiles.
Pero algunos analistas militares son escépticos de que la tecnología sea lo suficientemente avanzada como para ser confiable.
Noah Sylvia, en un blog para el think tank de defensa RUSI del Reino Unido publicado a principios de febrero, escribió que los humanos aún deberían verificar cada resultado.
El ejército israelí era “uno de los más avanzados tecnológicamente e integrados en el mundo”, indicó.
Pero agregó: “Las probabilidades de que incluso el ejército israelí utilice una IA con tal grado de sofisticación y autonomía son bajas”.
Joseph Boyle / AFP