La compañía tecnológica es consciente de que el uso de su algoritmo de aprendizaje automático puede tener un impacto en "cientos de millones de tuits al día", y que el propio diseño del sistema "puede ayudar a iniciar un comportamiento diferente" del que se pretendía que tuviera.
Por ello, informó en su blog de su plan para " evaluar los daños no intencionales posteriores o actuales en los algoritmos" que se usan en la red social para poder priorizar los problemas que en la compañía abordarán en primer lugar.
Un equipo de trabajo interdisciplinar, el equipo 'Ética, transparencia y responsabilidad del aprendizaje automático' (Meta, por sus siglas en inglés) se encargará de los análisis, que en un primer momento adoptará tres líneas de estudio: el sesgo racial y de género en el recorte de imágenes (prominencia), las recomendaciones de la línea de tiempo de inicio en todos los subgrupos raciales y las recomendaciones de contenido para diferentes ideologías políticas en siete países.
Según destacó la compañía, "las soluciones técnicas por sí solas no resuelven los posibles efectos dañinos de las decisiones algorítmicas". Por ello, Meta estudiará cómo los sistemas de la plataforma y utilizará sus hallazgos "para mejorar la experiencia que la gente tiene en Twitter".
Con información de Europa Press
Acerca de los comentarios
Hemos reformulado nuestra manera de mostrar comentarios, agregando tecnología de forma de que cada lector pueda decidir qué comentarios se le mostrarán en base a la valoración que tengan estos por parte de la comunidad. AMPLIAREsto es para poder mejorar el intercambio entre los usuarios y que sea un lugar que respete las normas de convivencia.
A su vez, habilitamos la casilla [email protected], para que los lectores puedan reportar comentarios que consideren fuera de lugar y que rompan las normas de convivencia.
Si querés leerlo hacé clic aquí[+]