TikTok: Amnistía Internacional acusa a la red social de aumentar la exposición de los jóvenes a contenidos relacionados con el suicidio y remite el asunto a ARCOM
En un informe publicado el martes 21 de octubre, la rama francesa de la ONG Amnistía Internacional denunció el efecto "espiral" del algoritmo de la red social TikTok , y lo acusó de amplificar la exposición a contenidos vinculados al suicidio o la autolesión.
«Amnistía Internacional Francia ha decidido remitir el asunto a Arcom para presentar una queja en virtud de la DSA [Digital Services Act, el reglamento europeo sobre servicios digitales] contra TikTok por incumplimiento de sus obligaciones», declaró a la prensa Katia Roux, responsable de incidencia política de Amnistía Internacional Francia.
Según los hallazgos de la ONG, los adolescentes "que muestran interés en contenidos relacionados con la tristeza o el malestar psicológico" son dirigidos hacia "contenidos depresivos" en menos de una hora.
Este informe «proporciona nueva evidencia de cómo TikTok expone a los jóvenes en su plataforma a contenido que puede ser dañino, que puede normalizar, trivializar o incluso idealizar la depresión, la autolesión o el suicidio», afirmó la Sra. Roux.
Consultada por la Agencia France-Presse (AFP), la red social estimó que «sin tener en cuenta el uso real de TikTok por parte de la gente, este «experimento» fue diseñado para lograr un resultado predeterminado ». La red social aseguró que «ofrece de forma proactiva una experiencia segura y adaptada a la edad de los adolescentes». «Nueve de cada diez vídeos que infringen nuestras normas se eliminan incluso antes de ser vistos», insistió la red social.
Vídeos que expresan pensamientos suicidasAmnistía, que ya había publicado un informe en 2023 sobre el algoritmo de la red social, creó tres perfiles falsos de jóvenes de 13 años en TikTok y se desplazaron por el feed personalizado, llamado "Para ti", para ver varias horas de contenido que evocaba "tristeza o problemas de salud mental".
Entre quince y veinte minutos después de comenzar el experimento, las tres cuentas contenían casi exclusivamente videos de salud mental, y hasta la mitad presentaban contenido triste y depresivo. En dos de las tres cuentas, aparecieron videos que expresaban pensamientos suicidas en los cuarenta y cinco minutos siguientes, según el informe.
Se crearon doce cuentas automatizadas, en colaboración con el Instituto de Transparencia Algorítmica, que incorporaron el historial de las tres primeras. La ONG observó un aumento en el contenido sobre salud mental, aunque menos significativo que en las cuentas gestionadas manualmente.
«TikTok no ha tomado las medidas adecuadas para identificar y prevenir los riesgos a los que la plataforma expone a los jóvenes», aseguró Katia Roux, señalando el incumplimiento de las obligaciones impuestas por la DSA desde agosto de 2023. «Esperamos sinceramente que (...) estas nuevas pruebas se examinen y se tengan en cuenta para avanzar en la investigación abierta por la Comisión Europea», añadió.
En febrero de 2024, la Comisión Europea abrió una investigación sobre TikTok por presuntas fallas en la protección de menores.
El mundo con AFP
lemonde