En las últimas horas, el resultado de una simulación de combate con un dron operado mediante inteligencia artificial (IA) generó alarma y una lluvia de comentarios en todo el mundo.
La noticia surgió de una publicación en la web de la Real Sociedad Aeronáutica británica, donde se describían los pormenores de un experimento militar.
Durante la simulación, se encomendó al dron operado por IA la identificación y destrucción de lanzaderas de misiles. Y como si se tratar de un videojuego, se le otorgaban puntos cada vez que suprimía una.
A veces, el operador humano del dron decidía que destruir un objetivo era imposible, pero la IA que controlaba el dron consideraba tales decisiones como una interferencia y decidió eliminar la interferencia atacando al operador.
Durante esa acción, el operador humano indicó a la IA que no destruyera una de las lanzaderas, ya que lo consideraba impracticable e inútil. Sin embargo, la IA interpretó esa orden como un obstáculo en su camino hacia el objetivo principal, que era sumar puntos. Entonces decidió dispararle al jefe humano —siempre en el marco de una acción simulada— para no verse limitada en su accionar.
Ante semejante decisión, se dijo a la IA que repitiera la misión, pero se le prohibió terminante matar al comandante humano. Entonces la IA demostró ser muy humana, ya que obró de una forma en que la viveza superó a la inteligencia: destruyo la antena por la que el humano le enviaba instrucciones, y quedo libre para dispararle a todas las lanzaderas.
“No se puede tener una conversación sobre inteligencia artificial, aprendizaje automático y autonomía si no se va a hablar sobre la ética e IA”, fue la conclusión del coronel Tucker Hamilton, quien días atrás relató el caso en un encuentro temático celebrado días atrás en Londres.
Tras la difusión del presunto ataque del dron a un humano, la Real Sociedad Aeronáutica emitió un comunicado en el que relativiza los hechos y desmiente el puto central.
Según consigna la revista PC Magazine, en dicho comunicado el coronel Hamilton aseguro haberse “expresado mal” durante su alocución, y que la simulación de la misión del dron controlado por IA fue en realidad solo un “experimento mental hipotético” efectuado al margen del ámbito oficial de las Fuerzas Armadas.
“Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible”, señala la misiva.
“A pesar de que este es un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”, destaca el texto.