La enorme cantidad de imágenes de abuso sexual infantil creadas con inteligencia artificial (IA) amenaza con desbordar la capacidad policial en algunos Estados y dificulta los esfuerzos para identificar a las víctimas, alerta la principal experta de Naciones Unidas en cibercriminalidad.
“El problema no es solo la cantidad de material generado, sino también la dificultad que representa para las investigaciones”, explica a EFE en una entrevista Nayelly Loya Marin, jefa del Programa Global contra el Ciberdelito de la Oficina de la ONU contra la Droga y el Delito (ONUDD).
Identificar y perseguir
“Es mucho más complicado identificar qué imágenes son reales y cuáles han sido alteradas o creadas con inteligencia artificial, lo que obstaculiza la identificación tanto de las víctimas como de los perpetradores”, agrega la experta mexicana.
La IA no solo incrementa de forma exponencial el volumen de contenido ilegal, sino que también perpetúa el daño a las víctimas, subraya Loya Marin.
Las imágenes de menores que han sufrido abusos pueden ser utilizadas para generar nuevo material, lo que implica una constante “revictimización”.
“Esto perpetúa el sufrimiento de las víctimas, quienes ven su imagen utilizada repetidamente en contextos abusivos”, resume la experta.
El perfil de los criminales involucrados en la creación y distribución de imágenes de abuso sexual infantil es muy variado, aunque en su inmensa mayoría son hombres.
Existen redes criminales que producen este contenido de manera sistemática y que, según Loya Marin, suelen estar vinculadas a la trata de personas y la explotación sexual, grabando y distribuyendo material como una extensión de los delitos que ya cometen en el mundo físico.
Pero ahora el problema se multiplica por la capacidad casi infinita de la IA para crear nuevo material a partir de imágenes ya existentes.
“Esto va a tener un fuerte impacto en la capacidad de investigación de las fuerzas policiales”, sostiene Loya Marin, subrayando que ya de por sí la investigación de este tipo de delitos es una de las áreas más complicadas para las fuerzas de seguridad.
Desde la pandemia de la Covid el material de abuso sexual infantil ha crecido de manera alarmante, y la inteligencia artificial permite ahora generar contenido de forma sencilla.
El uso de IA permite, por ejemplo, manipular imágenes de menores, desnudándolos o alterándolas para crear contenido sexualizado, lo que amplía la cantidad de material en circulación.
“Hemos visto casos de jóvenes que, utilizando versiones gratuitas de estas herramientas, crean nuevo contenido manipulando fotos que originalmente no tenían connotación sexual, convirtiéndose en ofensores sin saber que era un delito”, indica Loya Marin.
En este contexto, las grandes plataformas tecnológicas juegan un papel crucial y deben actuar de forma ética y responsable, destaca la responsable de la ONU.
La aplicación de tecnologías como el encriptado del material que se comparte en grupos cerrados de redes sociales supone un enorme problema para las fuerzas de seguridad y dificulta la detección de contenido ilegal.
“El encriptado impide que las autoridades accedan al contenido en ciertos grupos privados, lo que hace más complicado identificar y detener el intercambio de este tipo de material”, advierte.
Un ciberdelito sin fronteras
Además de los desafíos tecnológicos, Loya Marin destaca también la importancia de la cooperación internacional y, en este aspecto, el papel que jugará la nueva Convención contra la ciberdelincuencia de la ONU.
“El crimen en el ciberespacio no conoce fronteras, y muchas veces las víctimas están en un país, el perpetrador en otro, y el contenido en un servidor en un tercer país”, subraya la experta.
Esa Convención, que en diciembre puede ser aprobada por la Asamblea General de la ONU, debe ser ratificada por 40 Estados para que entre en vigor, lo que llevará un tiempo.
El borrador del documento aborda de forma específica el tema del “material de explotación y abuso infantil”, una definición que, según Loya Marin, refleja mejor la naturaleza del delito que el término de “pornografía infantil”.
Para la experta ese término puede generar confusión porque podría dar a entender algún tipo de consentimiento, algo que no es posible en un menor.
La Onudd, a través de su Programa Global contra el Ciberdelito, apoya a los Estados proporcionando asistencia técnica, capacitación, facilitando equipos y promoviendo la cooperación internacional tanto en la prevención como en la investigación, destaca la experta.
En el caso de América Latina, Loya Marin señala que existen problemas en el acceso a tecnología avanzada y software especializado, cuyo costo es elevado.
Loya Marin destaca también que la IA puede ser una herramienta poderosa para luchar contra el crimen.
Esta tecnología puede analizar grandes volúmenes de datos y ayudar a las fuerzas de seguridad a identificar patrones y acelerar las investigaciones.
“La clave está en cómo se entrena y diseña esta tecnología”, concluye.
EFE / Luis Lidón
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]