Por The New York Times | Tiffany Hsu
Los caimanes de TikTok no son lo que parecen.
Aparecen en publicaciones dispersas en el servicio de video, con fotografías en casas inundadas por huracanes, mezclados en híbridos de guepardo y pitbull o esperando un combate de lucha libre con un avatar de Tom Cruise diseñado digitalmente.
Y son inofensivos, como gran parte de las fotografías y videos manipulados en TikTok, los cuales garantizan unas cuantas risas y me gusta antes de volver a caer en un flujo incesante de contenidos. Sin embargo, su existencia preocupa a quienes estudian la desinformación, porque las mismas técnicas se están aplicando a publicaciones que siembran la división política, promueven teorías conspirativas y amenazan los principios básicos de la democracia antes de las elecciones de medio mandato.
“Ese tipo de manipulación está cada vez más extendida”, afirmó Henry Ajder, experto en fotografías y videos manipulados y sintéticos. “Cuando se puede crear este volumen de contenido con tanta rapidez y a tal escala, cambia completamente el panorama”.
El material editado o sintetizado también aparece en otras plataformas en línea, como Facebook, que cuenta con casi 3000 millones de usuarios activos mensuales. Pero los expertos dicen que es especialmente difícil de detectar en TikTok, que anima a sus casi 1600 millones de usuarios activos a poner su propio sello en el contenido de otra persona y donde la realidad, la sátira y el engaño descarado se mezclan a veces en la rápida transmisión de videos en vivo.
Es difícil cuantificar la difusión de material manipulado posiblemente dañino, pero los investigadores afirman que están viendo surgir más ejemplos a medida que las tecnologías que los permiten se vuelven más accesibles. Con el tiempo, según los expertos, temen que las manipulaciones se vuelvan más comunes y difíciles de detectar.
En las últimas semanas, los usuarios de TikTok han compartido una captura de pantalla falsa de una noticia inexistente de CNN con la que se afirma que el cambio climático es estacional. Se editó un video para dar a entender que la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, ignoró una pregunta del periodista de Fox News Peter Doocy. Otro video, de 2021, resurgió este otoño con el audio alterado para que la vicepresidenta Kamala Harris pareciera decir que prácticamente todas las personas hospitalizadas con COVID-19 estaban vacunadas. (Había dicho “no vacunadas”).
Los usuarios de TikTok han aceptado incluso las publicaciones alteradas más absurdas, como las que el mes pasado mostraban al presidente Joe Biden cantando “Baby Shark” en lugar del himno nacional o que sugerían que un niño de la Casa Blanca lanzaba un improperio a la primera dama Jill Biden.
Pero más que cualquier publicación individual, el peligro del contenido manipulado reside en el modo en que se arriesga a dañar aún más la capacidad de muchos usuarios de las redes sociales de depender de conceptos como la verdad y la prueba. La existencia de “deepfakes”, o ultrafalsos, que suelen crearse injertando un rostro digital en el cuerpo de otra persona, está siendo utilizada como acusación y excusa por quienes esperan desacreditar la realidad y eludir la responsabilidad, un fenómeno conocido como el dividendo del mentiroso.
Los teóricos de la conspiración han publicado en TikTok videos oficiales de la Casa Blanca del presidente y han ofrecido teorías desacreditadas de que es un ultrafalso. El consultor político Roger Stone afirmó en Telegram en septiembre que las imágenes que lo mostraban llamando a la violencia de cara a las elecciones de 2020, que la CNN emitió, eran “videos fraudulentos ultrafalsos”. Los abogados de al menos una persona acusada por los disturbios del 6 de enero en el Capitolio de Estados Unidos en 2021 han tratado de poner en duda las pruebas de video de ese día citando una tecnología de creación de ultrafalsos “ampliamente disponible e insidiosa”.
“Cuando entramos en ese tipo de mundo, en el que las cosas se manipulan o pueden manipularse, podemos simplemente descartar los hechos incómodos”, señaló Hany Farid, profesor de Informática en la Universidad de California, campus Berkeley, que forma parte del consejo asesor de contenidos de TikTok.
Las empresas tecnológicas llevan años probando nuevas herramientas para detectar manipulaciones como los ultrafalsos. Durante la temporada electoral de 2020, TikTok, Facebook, Twitter y YouTube se comprometieron a eliminar o etiquetar el contenido manipulado perjudicial.
Una ley de California de 2019 hizo ilegal crear o compartir ultrafalsos engañosos de políticos dentro de los 60 días de una elección, inspirada en parte por los videos de ese año que fueron distorsionados para hacer que la presidenta de la Cámara de Representantes, Nancy Pelosi, pareciera estar borracha.
TikTok afirmó mediante un comunicado que había eliminado algunos videos, que encontró The New York Times, los cuales infringían sus políticas, que prohíben las falsificaciones digitales “que engañan a los usuarios distorsionando la verdad de los acontecimientos y causan un daño significativo al protagonista del video, a otras personas o a la sociedad”.
“TikTok es un lugar para el contenido auténtico y entretenido, por lo que prohibimos y eliminamos la desinformación perjudicial, incluyendo las fotografías o videos sintéticos o manipulados, que están diseñados para engañar a nuestra comunidad”, explicó Ben Rathe, portavoz de TikTok.
No obstante, los expertos en desinformación aseguraron que los ejemplos individuales eran difíciles de moderar y casi no tienen importancia. La exposición prolongada a contenido manipulado puede intensificar la polarización y reducir la capacidad y la voluntad de los espectadores de distinguir la verdad de la ficción.
La desinformación se ha convertido en un problema en la plataforma antes de las elecciones de medio mandato. En los últimos días, investigadores de SumOfUs, un grupo de defensa de la responsabilidad corporativa, puso a prueba el algoritmo de TikTok creando una cuenta y buscando y viendo veinte videos muy vistos que sembraban dudas sobre el sistema electoral. En una hora, el algoritmo había pasado de ofrecer contenido neutral a promover más desinformación electoral, contenido polarizador, extremismo de extrema derecha, teorías conspirativas de QAnon y falsas narrativas de COVID-19, según descubrieron los investigadores.
TikTok señaló que había eliminado el contenido, citado por el informe, que violaba sus directrices, y reveló que actualizaría su sistema para identificar los términos de búsqueda utilizados con el fin de encontrar los videos.
“Plataformas como TikTok, en particular, pero en realidad todas esas redes sociales, están diseñadas para hacer que el material sea rápido y ser una manguera de contenido; eso es una receta para eliminar los matices”, opinó Halsey Burgund, un tecnólogo creativo residente en el MIT Open Documentary Lab. “Los vestigios de esas reacciones emocionales rápidas, inmediatas y repentinas simplemente se asientan dentro de nuestros cerebros y se acumulan y es algo aterrador”.
En 2019, Burgund trabajó en un proyecto documental con la artista de multimedios y periodista Francesca Panetta que diseñó un ultrafalso de Richard Nixon en el que anunciaba el fracaso de la misión Apolo 11 de 1969. (En la expedición real, se llevó a cabo el primer alunizaje). El proyecto, “In Event of Moon Disaster”, ganó un Emmy el año pasado. La mayoría de los ejemplos de contenido manipulado que se encuentran actualmente en las redes sociales son de mala calidad y fabricados de manera evidente. Pero las tecnologías que pueden alterar y sintetizar con mucha más delicadeza son cada vez más accesibles y, a menudo, fáciles de aprender, según los expertos.
“En las manos adecuadas, es bastante creativo y tiene mucho potencial”, concluyó Burgund. “En las manos equivocadas, todo es malo”.