Infancia

Amnistía Internacional alerta de que TikTok supone un peligro para la salud mental de los niños

MADRID
SERVIMEDIA

Amnistía Internacional (AI) denunció este martes que el sistema de recomendación de contenidos de TikTok y sus “prácticas invasivas de recolección de datos” representan un “peligro” para los jóvenes y menores de edad que utilizan esta red social al “amplificar contenidos depresivos y suicidas que podrían empeorar problemas de salud mental preexistentes”.

Así consta en dos informes que esta ONG ha elaborado para analizar los problemas que sufren los menores y jóvenes que usan TikTok y la manera en que su sistema de recomendación y su modelo de negocio estimulan estos abusos.

Estos trabajos ponen de manifiesto que los chavales que ven contenidos relacionados con la salud mental en la página ‘Para ti’ de TikTok “se ven rápidamente abocados a una espiral de contenidos potencialmente nocivos, incluidos vídeos que idealizan y fomentan el pensamiento depresivo, las autolesiones y el suicidio”.

En ese sentido, Lisa Dittmer, investigadora de AI, puso de manifiesto que “las prácticas de diseño adictivo y manipulador” de TikTok tienen como objetivo “retener” a los usuarios para que “interactúen el mayor tiempo posible” y expuso que el sistema algorítmico de recomendación de contenidos de la plataforma “expone a niños, niñas y jóvenes con problemas de salud mental preexistentes a graves riesgos de sufrir daños”.

“Los resultados exponen las prácticas de diseño adictivo y manipulador de TikTok, cuyo propósito es retener a las personas usuarias para que interactúen el mayor tiempo posible. También muestran que el sistema algorítmico de recomendación de contenidos de la plataforma, al que se atribuye su rápido auge global, expone a niños, niñas y jóvenes con problemas de salud mental preexistentes a graves riesgos de sufrir daños”, declaró Lisa Dittmer, investigadora de Amnistía Internacional.

VÍDEOS POTENCIALMENTE NOCIVOS

‘Para ti’ de TikTok es una página “altamente personalizada que puede desplazarse sin fin, que muestra contenidos recomendados algorítmicamente, seleccionados para reflejar lo que el sistema deduce que puede interesar a la persona usuaria”.

La investigación técnica puso de manifiesto que uno de cada dos vídeos de la plataforma está relacionado con la salud mental y es “potencialmente nocivo”, una cifra que multiplicaba aproximadamente por diez el volumen presentado por diez el volumen presentado a cuentas sin interés por la salud mental.

AI observó un “efecto espiral aún más rápido” cuando los investigadores volvieron a ver manualmente los vídeos relacionados con la salud mental sugeridos a las cuentas que imitaban a personas usuarias de 13 años en Kenia, Filipinas y Estados Unidos.

Pasados entre tres y 20 minutos de investigación manual, más de la mitad de los vídeos de la página ‘Para ti’ estaban relacionados con problemas de salud mental y muchos de los vídeos recomendados en una sola hora idealizaban, normalizaban o animaban al suicidio.

GRAVES RIESGOS

“TikTok puede exponer a niños, niñas y jóvenes a graves riesgos para la salud si persiste en su actual modelo de negocio, más orientado a mantener los ojos fijos en la plataforma que a respetar el derecho a la salud de los usuarios”, testimonió Lisa Dittmer.

Por su parte, la investigación de AI concluye que el modelo de negocio de TikTok es “intrínsecamente abusivo y privilegia la interacción para retener a las personas usuarias en la plataforma, con el fin de recolectar cada vez más datos sobre ellas”.

A continuación, la plataforma usa estos datos para crear perfiles de los usuarios y generar “inferencias” sobre ellas, lo que, a juicio de AI, “le permite segmentarlas en grupos y dirigirse a ellas mediante contenidos y anuncios altamente personalizados para conseguir que sigan interactuando”.

“Estos grupos y categorías se ponen también a disposición de los anunciantes para que puedan ofrecer anuncios personalizados a los usuarios”, espetó, para agregar que, en su respuesta, TikTok remitió a sus Normas de la comunidad, según las cuales no está permitido “mostrar, promover o proporcionar instrucciones de suicidio y autolesiones, o cualquier desafío, reto, juego o pacto relacionado”, así como tampoco “mostrar o promover las bromas sobre el suicidio y las autolesiones” ni “compartir planes de suicidio y autolesiones”.

Asimismo, la red social le avanzó que prevé “elaborar un proceso de diligencia debida en materia de derechos humanos” para toda la empresa que incluirá la realización “periódica” de evaluaciones de “impacto” en ese ámbito.

“La empresa no proporcionó detalles sobre los riesgos específicos que ha identificado para los derechos humanos de niños y jóvenes”, abundó, para advertir de que el hecho de que TikTok no cuente con un proceso de diligencia debida en materia de derechos humanos a nivel de empresa “es un claro incumplimiento de la responsabilidad empresarial de respetar los derechos humanos”.

(SERVIMEDIA)
07 Nov 2023
MST/MJR/clc