La red social TikTok bloqueará los filtros de belleza que alteren rasgos faciales a las cuentas de menores de 18 años, en respuesta a las crecientes preocupaciones sobre el impacto de estas herramientas en la salud mental y la autoestima de los adolescentes.

Las restricciones, que según The Guardian serán aplicadas en las primeras semanas de diciembre, afectarán a filtros como “Bold Glamour”, que suaviza la piel, aumenta los labios y cambia la forma de los ojos, efectos que a menudo son difíciles de distinguir de la realidad. Sin embargo, los filtros diseñados con fines cómicos, como los que añaden orejas de animales o características faciales exageradas, seguirán siendo accesibles para los adolescentes.

Estos cambios surgieron tras un informe de Internet Matters, una organización sin fines de lucro enfocada en la seguridad en línea de los niños, que concluyó que estos filtros contribuyen a una “visión distorsionada del mundo” al normalizar imágenes perfeccionadas. Muchos adolescentes, especialmente chicas, reportaron sentir presión para ajustarse a estas apariencias alteradas, y algunas llegaron a considerar su rostro sin filtros como “feo” después de usar estas herramientas durante un tiempo prolongado.

La Doctora Nikki Soo, líder de Políticas Públicas de Seguridad y Bienestar de TikTok en Europa, confirmó la implementación de las nuevas restricciones y afirmó que la plataforma busca “reducir la presión social sobre los usuarios jóvenes” y fomentar hábitos más saludables en línea.

La efectividad de estas restricciones dependerá de la precisión en la verificación de la edad. TikTok planea introducir sistemas automatizados basados en aprendizaje automático para detectar a los usuarios que mientan sobre su edad, como parte de un esfuerzo más amplio para eliminar a los usuarios menores de la edad mínima permitida. Actualmente, la plataforma elimina aproximadamente 20 millones de cuentas cada trimestre por violar su política de edad.

Chloe Setter, directora de políticas públicas de seguridad infantil en TikTok, reconoció los desafíos, pero aseguró que la empresa adoptará un “enfoque centrado en la seguridad”, incluso si esto lleva a bloquear erróneamente a algunos usuarios. Las personas afectadas podrán apelar si consideran que su bloqueo fue injusto.

Otras plataformas están tomando medidas similares. Roblox restringió recientemente a los usuarios más jóvenes el acceso a contenido violento o explícito, e Instagram, propiedad de Meta, introdujo “cuentas para adolescentes” que permiten a los padres supervisar y controlar la actividad de sus hijos en la aplicación.

A medida que se acerca el fin del año, los esfuerzos globales de TikTok para garantizar experiencias apropiadas para la edad marcan un cambio más amplio en las redes sociales hacia la priorización de la seguridad de los usuarios, una tendencia que se espera acelere con la entrada en vigor de nuevas regulaciones en 2025.