Robots que difunden información errónea a través de un chat, aplicaciones que producen videos pornográficos y voces clonadas que defraudan a millones de empresas: ante el auge de ultrafalsedades creadas por inteligencia artificial, los gobiernos del mundo comienzan a organizar su respuesta.

La inteligencia artificial (IA) está redefiniendo el dicho “ver para creer”, con una avalancha de imágenes creadas de la nada y personas que aparecen diciendo palabras que nunca pronunciaron en ultrafalsedades con un realismo desconcertante, también llamadas deepfakes, que socavan la confianza en internet.

China adoptó recientemente normas para regular las manipulaciones digitales, pero la mayoría de los países parecen estar luchando para mantenerse al día con tecnología de rápida evolución en medio de preocupaciones de que la regulación podría obstaculizar la innovación o ser mal utilizada para restringir la libertad de expresión.

Expertos advierten que las herramientas para detectar este tipo de contenidos son superadas por sus creadores, que operan de forma anónima gracias a técnicas de inteligencia artificial que antes requerían cierta especialización pero que ahora son accesibles y a bajo costo.

Meta, propietaria de Facebook, anunció el año pasado que había eliminado un video ultrafalso del presidente ucraniano Volodímir Zelenski llamando a los ciudadanos a deponer las armas y rendirse a las tropas rusas.

Kate Isaacs, una británica que hace campaña para que toda pornografía que se haga sin consentimiento se elimine del sitio Pornhub, le dijo en octubre pasado a la BBC que se sentía “devastada” por la publicación en la red Twitter de un video porno falsificado con su rostro.

“Armas de disrupción masiva”

La amplia posibilidad de crear de manera automatizada contenido de texto, audio y video, y su uso potencialmente malicioso, con fines de fraude financiero o robo de identidad, genera serias preocupaciones en todo el mundo.

Estas tecnologías fueron bautizadas como “armas de disrupción masiva” por la firma de análisis de riesgos Eurasia Group.

La semana pasada, la startup británica Eleven Labs, que está desarrollando una herramienta de clonación de voz utilizando inteligencia artificial, admitió que había constatado un “creciente número de usos indebidos” de su software luego de que usuarios publicaran un audio falso que pretendía ser de la actriz Emma Watson leyendo el libro de Adolf Hitler Mi lucha.

La misma herramienta generó estupor con otro ejemplo: la manipulación del video de Leonardo DiCaprio ante la Asamblea de la ONU en 2014. El actor, en su papel de Mensajero de la Paz de las Naciones Unidas para el cambio climático, advirtió aquel día de los peligros de la contaminación, pidió tomar conciencia de la crisis que ya es presente y abogó por acabar con los subsidios a las empresas dedicadas a los combustibles fósiles, entre otras cuestiones, según publica el periódico ABC.

Ese discurso tuvo un fuerte impacto social, no solo por lo que dijo, sino por quién lo dijo. ¿Habría resultado igual si lo hubieran dicho, por ejemplo, Steve Jobs o Bill Gates? ¿Y otro actor como Robert Downey Jr.? ¿Y alguien de un ámbito mucho más farandulero como Kim Kardashian? La respuesta es el video que compartió la propia compañía Eleven Labs.

La herramienta consigue que, sin modificar la entonación, las pausas para respirar o las subidas y bajadas en su discurso. Directamente encajan las voces de los famosos citados en las palabras de DiCaprio, con un resultado muy logrado. Tanto que, si se cierran los ojos, no es el protagonista de Titanic quien habla, sino Iron Man o el inventor del iPhone.

El aumento de deepfakes podría llevar a un “apocalipsis de la información”, un escenario en el que muchas personas no pueden distinguir la realidad de la ficción y saber cuáles son las fuentes de información confiables, advirtió la agencia policial europea Europol.

Una muestra de este fenómeno se vio días atrás, cuando en un video a sus fans, el jugador de fútbol americano Damar Hamlin agradeció al equipo médico que lo atendió tras su paro cardíaco durante un partido. Pero muchos seguidores de las teorías conspirativas, convencidos de que el malestar de Hamlin se debía en realidad a la vacuna contra el covid-19, consideraron deepfake su video.

“Superpropagador”

China, a la cabeza en la regulación de las nuevas tecnologías, anunció en enero nuevas normas para las manipulaciones digitales, que exigen a las empresas chinas que ofrecen este tipo de herramientas obtener la identidad real de sus usuarios. También obligan a colocar una nota sobre los deepfakes para evitar “cualquier confusión” para el público.

Las ultrafalsificaciones presentan un “peligro para la seguridad nacional y la estabilidad social” si no se supervisan, estimó el mes pasado el Gobierno chino.

En Estados Unidos, legisladores presionan para que se forme un grupo de trabajo especializado en el monitoreo de deepfakes. Pero defensores de los derechos digitales advierten contra la extralimitación legislativa, que podría acabar con los avances tecnológicos o apuntar contra contenido legítimo.

En Europa, el Gobierno del Reino Unido dijo en noviembre que volvería ilegal compartir videos pornográficos ultrafalsos hechos sin aprobación de las víctimas.

Mientras tanto, la Unión Europea está inmersa en acaloradas discusiones sobre una propuesta ley de inteligencia artificial, supuestamente con el fin de fomentar la innovación y evitar abusos, que prevé aprobar antes de fin de año.

El texto requeriría que los usuarios aclararan que están publicando algo ultrafalso, pero algunos temen que esto no sea suficiente.

“¿Cómo restauramos la confianza digital con transparencia? Esa es la verdadera pregunta en este momento”, dijo a la AFP Jason Davis, profesor de la Universidad de Syracuse.

“Las herramientas [de detección de contenido deepfake] están llegando y bastante rápido. Pero la tecnología probablemente esté avanzando aún más rápido. Al igual que con la ciberseguridad, nunca resolveremos este problema, solo podemos esperar mantener el ritmo”, añadió.

A muchos ya les cuesta entender nuevas herramientas como el robot conversacional ChatGPT, creado por la empresa californiana OpenAI, un chatbot que puede generar textos sorprendentemente convincentes sobre casi cualquier tema, a demanda y en pocos segundos.

NewsGuard, que califica las fuentes de noticias según su confiabilidad, lo describió como un “nuevo superpropagador de desinformación”, porque ChatGPT dio respuestas “falsas y engañosas” a preguntas sobre el covid-19 o tiroteos en escuelas.

“Los resultados confirman los temores […] sobre cómo la herramienta puede convertirse en un arma en las manos equivocadas”, puntualizó.

Con información de AFP