Los esfuerzos de la red social Facebook por eliminar contenido antivacunas de su plataforma durante los peores meses de la pandemia de la covid-19 no sirvieron para reducir la exposición de sus usuarios a este tipo de publicaciones, según un estudio publicado este viernes en la revista Science Advances.
Investigadores de la Universidad George Washington, en Washington D.C., descargaron datos públicos de la plataforma de diferentes fechas (antes de que comenzara la política de eliminación de información falsa sobre las vacunas, en diciembre 2020, y después), y vieron que el nivel de interacción de los usuarios con este tipo de publicaciones no solo no se redujo, sino que en algunos casos aumentó.
Removing vaccine misinformation from Facebook during the #COVID19 pandemic did not decrease overall engagement with anti-vaccine content on the platform, new research finds. https://t.co/Yf8AtrxLGJ pic.twitter.com/MhkU9MCL5x
— Science Advances (@ScienceAdvances) September 15, 2023
En un comunicado, una de las investigadoras, Lorien Abroms, explicó que sus resultados demuestran lo difícil que es eliminar la desinformación sobre temas de salud de los espacios públicos.
Su principal hipótesis es que fue la propia arquitectura de Facebook, y en concreto sus sistemas diseñados para impulsar la creación de grupos y compartir información, lo que provocó ese aumento de las interacciones con contenido antivacunas, pese a los esfuerzos de la plataforma por eliminarlo.
“Los individuos que tienen una alta motivación para encontrar y compartir contenido antivacunas simplemente están utilizando el sistema de la forma en que está diseñado”, dijo en el comunicado David Broniatowski, el autor principal del estudio.
Su conclusión es que eliminar contenido o cambiar los algoritmos no sirve si no se modifica el objetivo principal de las plataformas, que es la conexión de diferentes personas que comparten intereses comunes, en este caso, el miedo a las vacunas.
Los investigadores enfatizaron que se trata del primer estudio científico que se fija en la eficacia de los esfuerzos de Facebook para eliminar desinformación de su plataforma.
Según la universidad, los hallazgos sugieren que las empresas de redes sociales pueden mitigar estos efectos dañinos colaborando unas con otras para crear “códigos de construcción” de sus aplicaciones, informados por la ciencia, de la misma forma que los arquitectos tienen que asegurar la seguridad de sus edificios incorporando ventilación, salidas de emergencia y otras medidas.
EFE
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]