Por The New York Times | Adam Satariano y Mike Isaac
En 2019, Julie Sweet, la recién designada directora ejecutiva de la consultoría global Accenture, sostuvo una reunión con los altos directivos de la compañía. Tenía una pregunta: ¿Accenture debía renunciar a parte del trabajo que estaba haciendo para su principal cliente, Facebook?
Durante años, habían aumentado las tensiones al interior de Accenture por una tarea que la empresa realizaba para la red social. En turnos de ocho horas, miles de sus empleados de tiempo completo y contratistas revisaban las publicaciones más nocivas de Facebook, entre ellas imágenes, videos y mensajes sobre suicidios, decapitaciones y actos sexuales, para evitar que se propagaran en línea.
Algunos de esos trabajadores de Accenture, quienes revisaban cientos de publicaciones de Facebook por turno, comentaron que habían comenzado a experimentar depresión, ansiedad y paranoia. En Estados Unidos, un trabajador se había sumado a una demanda colectiva para protestar por las condiciones laborales. La cobertura de los medios informativos vinculó a Accenture con el trabajo macabro. Por lo tanto, Sweet había ordenado una revisión para debatir sobre los crecientes riesgos éticos, legales y para la reputación de la firma.
En la reunión celebrada en la oficina de Accenture en Washington, Sweet y Ellyn Shook, directora de recursos humanos, revelaron las inquietudes en torno a la factura psicológica del trabajo para Facebook y el daño para la reputación de la firma, mencionaron personas que estuvieron presentes. Algunos ejecutivos que supervisaron la cuenta de Facebook arguyeron que los problemas eran manejables. Señalaron que la red social era un cliente demasiado lucrativo como para perderlo.
La reunión terminó sin una resolución.
Facebook y Accenture casi no han hablado sobre su arreglo ni siquiera han reconocido que trabajan juntos. Sin embargo, su relación secreta se encuentra en el centro de un esfuerzo de la empresa de redes sociales más grande del mundo para distanciarse de la parte más tóxica de su negocio.
Durante años, Facebook ha estado bajo el escrutinio por el contenido violento y de odio que fluye en todo su sitio. Su director ejecutivo, Mark Zuckerberg, ha prometido en repetidas ocasiones que limpiará la plataforma. Zuckerberg ha promovido el uso de la inteligencia artificial para extirpar las publicaciones tóxicas y promocionado sus esfuerzos para contratar a miles de trabajadores a fin de que eliminen los mensajes que la inteligencia artificial no descarta.
Sin embargo, tras bambalinas, Facebook les ha pagado de manera discreta a terceros para que se echen encima la responsabilidad. Desde 2012, la empresa ha contratado al menos a diez consultorías y firmas de personal a nivel global para escudriñar sus publicaciones, junto con una red más amplia de subcontratistas, según entrevistas y registros públicos.
Ninguna empresa ha sido más crucial para ese esfuerzo que Accenture. La firma de la lista Fortune 500, mejor conocida por proveer servicios de tecnología de punta, contabilidad y consultoría a empresas multinacionales y gobiernos, se ha vuelto el socio más importante de Facebook en la moderación de contenido, de acuerdo con un análisis realizado por The New York Times.
Accenture ha aceptado el trabajo —y le ha dado una fachada de respetabilidad— porque Facebook ha firmado contratos de moderaciones de contenido y otros servicios con un valor de al menos 500 millones de dólares al año, según la examinación del Times. Accenture emplea a más de una tercera parte de las 15.000 personas a quienes supuestamente Facebook ha contratado para inspeccionar sus publicaciones. Además, aunque los acuerdos representan tan solo una pequeña fracción del ingreso total de Accenture, le ofrecen una importante línea vital hacia Silicon Valley. Dentro de Accenture, Facebook es conocida como un “cliente diamante”.
Sus contratos, sobre los cuales no se había informado antes, han redefinido los límites tradicionales de una relación de subcontratación. Accenture ha absorbido las peores facetas de la moderación del contenido y ha hecho suyos los problemas de contenido de Facebook. Como un costo de hacer negocios, Accenture se ha enfrentado con problemas de salud mental entre los trabajadores a causa de la revisión de las publicaciones. Ha luchado contra el activismo laboral cuando esos trabajadores presionan por mejores sueldos y beneficios. Y ha soportado el escrutinio público en silencio cuando los empleados han hablado en contra del trabajo.
Esos problemas se han agravado debido a las demandantes metas de contratación y objetivos de rendimiento de Facebook y a tantos cambios en sus políticas sobre el contenido que Accenture ha tenido dificultades para seguirle el paso, según quince empleados y exempleados. Además, cuando los moderadores la demandaron por el trabajo, Accenture permaneció callada mientras Facebook argüía que no era responsable porque los trabajadores les pertenecían a Accenture y otras empresas.
“Facebook no sería lo que es hoy sin Accenture”, comentó Cori Crider, cofundadora de Foxglove, un despacho jurídico que representa a los moderadores de contenido. “Por unos pagos impresionantes, los facilitadores como Accenture han dejado que Facebook mantenga a distancia el problema humano central de su negocio”.
El Times entrevistó a más de 40 empleados y exempleados de Accenture y Facebook, abogados laborales y otras personas sobre la relación de las empresas, la cual también incluye trabajos de contabilidad y publicidad. La mayoría habló de manera anónima debido a acuerdos de confidencialidad y temor a represalias. El Times también revisó documentos, registros legales, así como documentos regulatorios de Facebook y Accenture.
Facebook y Accenture se rehusaron a que sus ejecutivos estuvieran disponibles para realizar comentarios. Drew Pusateri, vocero de Facebook, mencionó que la empresa estaba al tanto de que la moderación de contenido “puede ser una tarea difícil, por eso trabajamos de cerca con nuestros socios para evaluar de manera constante cómo apoyar del mejor modo a estos equipos”.
Stacey Jones, vocera de Accenture, señaló que el trabajo era un servicio público “esencial para proteger a nuestra sociedad manteniendo seguro el internet”.
Ninguna de las dos empresas mencionó a la otra por nombre.
Publicaciones pornográficas
Buena parte del trabajo de Facebook con Accenture se remonta a un problema de desnudez.
En 2007, cada mes, se unían millones de usuarios a la red social… y muchos publicaban fotos de desnudos. Un acuerdo al que Facebook llegó ese año con Andrew Cuomo, quien era el fiscal general de Nueva York, le exigió a la empresa que debía bajar en 24 horas las publicaciones pornográficas que los usuarios denunciaran.
Los empleados de Facebook que vigilaban el contenido pronto fueron rebasados por el volumen de trabajo, según los miembros del equipo. Sheryl Sandberg, directora de operaciones de la empresa, y otros ejecutivos presionaron al equipo para que encontrara soluciones automatizadas para examinar el contenido, mencionaron tres de ellos.
Facebook también comenzó a buscar opciones de subcontratación, comentaron. Contratar a un tercero era más barato que emplear a personas y brindaba beneficios tributarios y regulatorios, junto con la flexibilidad de crecer o reducirse con rapidez en regiones donde la empresa no tenía oficinas ni experiencia en el idioma. Sandberg ayudó a defender la idea de la subcontratación, mencionaron las personas, y la gerencia de nivel medio resolvió los detalles. En 2010, Accenture consiguió un contrato de contabilidad con Facebook. Para 2012, este se había expandido hasta incluir un convenio para moderar contenido, en particular fuera de Estados Unidos.
Ese año, Facebook envió a empleados a Manila, Filipinas, y Varsovia, Polonia, para capacitar a los trabajadores de Accenture a fin de que examinaran las publicaciones, según dos exempleados de Facebook involucrados en el viaje. A los trabajadores de Accenture les enseñaron a usar el sistema de software de Facebook y los lineamientos de la plataforma para dejar contenido publicado, eliminarlo o escalarlo para revisión.
‘Ratel’
Lo que inició como unas pocas decenas de moderadores de Accenture creció con rapidez.
Para 2015, la oficina de Accenture en el área de la bahía de San Francisco había creado un equipo, con el nombre clave Ratel, tan solo para satisfacer las necesidades de Facebook, según exempleados. Accenture pasó de aportar 300 trabajadores en 2015 a 3000 en 2016. Son una mezcla de empleados de tiempo completo y contratistas, dependiendo del lugar y la tarea. Facebook también repartió el trabajo del contenido a otras firmas como Cognizant y TaskUs. Facebook ahora representa la tercera parte de la actividad comercial de TaskUs, equivalente a 150 millones de dólares al año, según documentos regulatorios.
El trabajo era desafiante. Aunque la inteligencia artificial elimina más del 90 por ciento del material inaceptable que pasa por Facebook e Instagram, los trabajadores subcontratados deben decidir si dejar las publicaciones que la inteligencia artificial no detecta.
Reciben una calificación de rendimiento con base en la revisión correcta de las publicaciones según las políticas de Facebook. Si cometen errores más de un cinco por ciento de las veces, pueden ser despedidos, de acuerdo con empleados de Accenture. Costos psicológicos
Dentro de Accenture, los trabajadores comenzaron a cuestionar los efectos de ver tantas publicaciones de odio. En Dublín, en 2018, un moderador de Accenture que examinaba contenido de Facebook dejó una nota suicida en su escritorio, comentó un especialista en salud mental que estuvo involucrado en el episodio. El trabajador fue encontrado a salvo.
Joshua Sklar, un moderador radicado en Austin que renunció en abril, comentó que revisaba de 500 a 700 publicaciones por turno, entre ellas personas muertas después de accidentes automovilísticos y videos de animales torturados.
“En un video que vi, había un tipo que se estaba grabando mientras violaba a una niñita”, comentó Sklar, quien describió su experiencia en una publicación interna que luego se volvió pública. “Fue simplemente espantoso”.
Si los trabajadores se pasaban por alto la cadena de mando de Accenture y se comunicaban directamente con Facebook sobre asuntos de contenido, se arriesgaban a ser reprendidos, agregó Sklar. Esto provocó que Facebook se tardara más en saber sobre los problemas y cómo reaccionar frente a ellos, señaló Sklar.
Facebook señaló que nadie que filtrara contenido podía escalar sus inquietudes.
En una audiencia legal celebrada en junio, otro exmoderador de Austin, Spencer Darr, mencionó que el trabajo le había exigido tomar decisiones inimaginables, como determinar si borrar el video de un perro que era desollado vivo o solo marcarlo como perturbador. “El trabajo de los moderadores de contenido es imposible”, comentó.
En 2018, Accenture introdujo WeCare, políticas que, según los especialistas en salud mental, limitaban su capacidad para tratar a los trabajadores. Sus títulos cambiaron a “monitores de bienestar” y se les indicó que no dieran evaluaciones ni diagnósticos psicológicos, sino que brindaran “apoyo a corto plazo” como salir a caminar o escuchar música tranquilizadora. Según la guía de Accenture de 2018, el objetivo era enseñarles a los moderadores “cómo responder frente a situaciones y contenido difíciles”.
Jones de Accenture señaló que la empresa estaba “comprometida a ayudar a la gente que hace este importante trabajo a tener éxito profesional y personal”. Los trabajadores pueden ver psicólogos externos.
Para 2019, el escrutinio de la industria estaba creciendo. Ese año, Cognizant señaló que iba a dejar de brindar el servicio de moderación de contenido después de que el sitio tecnológico The Verge describió los bajos salarios y los efectos en la salud mental de los trabajadores en una oficina de Arizona. Cognizant mencionó que la decisión le iba a costar al menos 240 millones de dólares en ingresos e iba a terminar con 6000 puestos de trabajo.
Debate interno Por Sweet, el debate en torno a los contratos de Facebook se extendió durante varias reuniones, según exejecutivos. Posteriormente, Sweet realizó varios cambios.
En diciembre de 2019, Accenture creó una divulgación legal de dos páginas para informar a los moderadores sobre los riesgos del puesto. El trabajo tenía “el potencial de impactar de manera negativa en su salud mental o emocional”, decía el documento.
En octubre pasado, Accenture fue más allá. En su reporte anual, por primera vez registró la moderación de contenido como un factor de riesgo, pues podía dejar a la firma vulnerable al escrutinio mediático y a problemas legales. Accenture también restringió a los nuevos clientes de moderación, según dos personas con conocimiento sobre el cambio de política. Cualquier nuevo contrato exigía la aprobación de la alta gerencia.
No obstante, Sweet también dejó algunas cosas inalteradas, según las personas.
Entre ellas: los contratos con Facebook. A final de cuentas, el cliente era demasiado valioso como para dejarlo.
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]