La compañía tecnológica es consciente de que el uso de su algoritmo de aprendizaje automático puede tener un impacto en "cientos de millones de tuits al día", y que el propio diseño del sistema "puede ayudar a iniciar un comportamiento diferente" del que se pretendía que tuviera.
Por ello, informó en su blog de su plan para " evaluar los daños no intencionales posteriores o actuales en los algoritmos" que se usan en la red social para poder priorizar los problemas que en la compañía abordarán en primer lugar.
Un equipo de trabajo interdisciplinar, el equipo 'Ética, transparencia y responsabilidad del aprendizaje automático' (Meta, por sus siglas en inglés) se encargará de los análisis, que en un primer momento adoptará tres líneas de estudio: el sesgo racial y de género en el recorte de imágenes (prominencia), las recomendaciones de la línea de tiempo de inicio en todos los subgrupos raciales y las recomendaciones de contenido para diferentes ideologías políticas en siete países.
Según destacó la compañía, "las soluciones técnicas por sí solas no resuelven los posibles efectos dañinos de las decisiones algorítmicas". Por ello, Meta estudiará cómo los sistemas de la plataforma y utilizará sus hallazgos "para mejorar la experiencia que la gente tiene en Twitter".
Con información de Europa Press