Contenido creado por Sin autor
Internacionales

Por The New York Times

Conoce al próximo verificador de hechos, desacreditador y moderador: el usuario cotidiano

Mark Zuckerberg anunció que Meta dejará las tareas de comprobar información a los consumidores, de la misma forma que lo hace X.

08.01.2025 16:40

Lectura: 7'

2025-01-08T16:40:00-03:00
Compartir en

Por The New York Times | Stuart A. Thompson and Kate Conger

A Meta le gustaría presentar a su próximo verificador de hechos, el que se encargará de detectar falsedades, escribir correcciones convincentes y advertirles a otros sobre contenidos engañosos.

Eres tú.

Mark Zuckerberg, director ejecutivo de Meta, anunció el martes que planea ponerle fin a gran parte de las actividades de moderación de la empresa, como la comprobación de hechos por parte de terceros y las restricciones de contenido. Explicó que, en lo sucesivo, la empresa les dejará las tareas de comprobación de hechos a los usuarios cotidianos, según un modelo denominado Community Notes (Notas de la Comunidad), que popularizó X y les permite a los usuarios dejar una comprobación de hechos o una corrección en una publicación de las redes sociales.

El anuncio marca el fin de una era en la moderación de contenidos y la adopción de directrices más laxas que incluso Zuckerberg reconoció que provocarán un aumento en la cantidad de contenidos falsos y engañosos en la mayor red social del mundo.

“Creo que va a ser un fracaso espectacular”, opinó Alex Mahadevan, director de un programa de alfabetización mediática del Instituto Poynter llamado MediaWise, que ha estudiado Community Notes en X. “La plataforma ahora en realidad no tiene ninguna responsabilidad por nada de lo que se diga. Pueden dejarles la responsabilidad a los propios usuarios”.

Un giro así habría sido inimaginable tras las elecciones presidenciales de 2016 o incluso de 2020, cuando las propias empresas de redes sociales se consideraban guerreros reticentes en la primera línea de una guerra de desinformación. Las falsedades propagadas durante las elecciones presidenciales de 2016 desencadenaron una reacción pública y un debate interno en las empresas de redes sociales sobre su papel en la difusión de las llamadas noticias falsas.

La respuesta de las empresas fue invertir millones en la moderación de contenidos, pagarles a terceros por verificar los hechos, crear algoritmos complejos para restringir los contenidos tóxicos y publicar una oleada de etiquetas de advertencia a fin de frenar la difusión de falsedades, medidas consideradas necesarias para recuperar la confianza del público.

Esas acciones fueron efectivas, hasta cierto punto: los investigadores descubrieron que las etiquetas de comprobación de hechos lograron que se creyera menos en falsedades, aunque con menor eficacia entre los estadounidenses conservadores. Por desgracia, esas acciones también convirtieron a las plataformas —y a Zuckerberg en particular— en blancos políticos del presidente electo Donald Trump y de sus aliados, quienes sostuvieron que la moderación de contenidos era casi censura.

Ahora, el entorno político ha cambiado. Con Trump a punto de asumir el control de la Casa Blanca y de los organismos reguladores que supervisan Meta, Zuckerberg se ha concentrado en reparar su relación: asistió a una cena en Mar-a-Lago, incorporó a un aliado de Trump al consejo de administración de Meta y donó 1 millón de dólares al fondo de investidura de Trump.

“Las recientes elecciones también parecen un punto de inflexión cultural en el que se le volverá a dar prioridad a la libertad de expresión”, comentó Zuckerberg en un video en el que anunció los cambios en la moderación.

La apuesta de Zuckerberg de utilizar Community Notes en vez de verificadores de hechos profesionales se inspiró en un experimento similar en X que le permitió a Elon Musk, su propietario multimillonario, externalizar la verificación de hechos de la empresa a los usuarios.

X les pide ahora a los usuarios cotidianos que detecten falsedades y escriban correcciones o añadan información adicional a las publicaciones de las redes sociales. Se desconocen los detalles exactos del programa de Meta, pero en X, al principio solo los usuarios que se registran en el programa Community Notes ven las notas. Una vez que una nota recibe suficientes votos que la consideran valiosa, se añade con visibilidad total a la publicación en las redes sociales.

“El sueño de una plataforma de redes sociales es una moderación totalmente automatizada de la que, en primer lugar, no tenga que responsabilizarse y, en segundo lugar, por la que no tenga que pagarle a nadie”, señaló Mahadevan. “Así que Community Notes es el sueño absoluto de esta gente: básicamente, intentaron diseñar un sistema capaz de automatizar la comprobación de hechos”.

Musk, otro aliado de Trump, fue uno de los primeros defensores de Community Notes. En poco tiempo amplió el uso del programa, tras despedir a la mayor parte del equipo de confianza y seguridad de la empresa.

Varios estudios han demostrado que Community Notes logra disipar algunas falsedades virales. Los investigadores descubrieron que este método funciona mejor con temas sobre los que existe un amplio consenso, como la desinformación sobre las vacunas contra la COVID.

En ese caso, las notas “resultaron una solución innovadora, pues contraatacaron con información sanitaria precisa y creíble”, indicó John W. Ayers, vicedirector de innovación de la división de enfermedades infecciosas y salud pública mundial de la Facultad de Medicina de la Universidad de California en San Diego, quien escribió un informe sobre el tema en abril.

Pero los usuarios con puntos de vista políticos diferentes tienen que llegar a un acuerdo sobre la comprobación de los hechos antes de que se adjunte a una publicación visible para el público en general, lo que significa que las publicaciones engañosas sobre temas políticos divisivos a menudo no se comprueban. MediaWise descubrió que menos del 10 por ciento de las Notas de la Comunidad redactadas por los usuarios en relación con publicaciones ofensivas se publicaron a fin de cuentas. Las cifras son aún más bajas en temas delicados como la inmigración y el aborto.

Algunos investigadores revelaron que la mayoría de las publicaciones en X reciben la mayor parte de su tráfico en las primeras horas, pero una Nota de la Comunidad puede tardar varios días en ser aprobada para que todo el mundo la vea.

Desde su debut en 2021, el programa ha despertado el interés de otras plataformas. YouTube anunció el año pasado planes de arrancar un proyecto piloto que les permitiría a los usuarios enviar notas para incluirlas debajo de videos engañosos. YouTube aclaró en una entrada de blog que todavía hay terceros que evalúan la utilidad de estas comprobaciones de hechos.

Aunque el diluvio de falsedades y contenidos engañosos pareció sobrepasar las herramientas de moderación de contenidos existentes en Meta, los investigadores consideran que las intervenciones fueron bastante eficaces. Un estudio publicado el año pasado en la revista Nature Human Behavior demostró que las etiquetas de advertencia, como las que utiliza Facebook para advertirles a los usuarios sobre información falsa, redujeron un 28 por ciento las falsedades creídas y un 25 por ciento la frecuencia con que se compartió el contenido. Los investigadores descubrieron que los usuarios de derecha desconfiaban mucho más de las comprobaciones de hechos, pero de cualquier manera las intervenciones lograron que creyeran menos en contenidos falsos.

“Todas las investigaciones demuestran que cuantos más obstáculos haya en una plataforma, es decir, cuanta más fricción se encuentre, menor será la difusión de información de baja calidad”, afirmó Claire Wardle, profesora asociada de Comunicación en la Universidad de Cornell.

Los investigadores creen que la comprobación de hechos por parte de la comunidad es eficaz cuando se combina con acciones internas de moderación de contenidos. Pero el enfoque “sin intervención” de Meta podría resultar arriesgado.

“El enfoque basado en la comunidad es una pieza del rompecabezas”, explicó Valerie Wirtschafter, integrante de la Institución Brookings que ha estudiado Community Notes. “Pero no puede ser lo único y, desde luego, no puede ponerse en operación sin más como una solución integral sin adaptaciones”.