líderes en noticias de marketing, publicidad y marcas

TikTok masacra la salud mental de los adolescentes, según un estudio

El algoritmo de TikTok atrapa a los adolescentes en un torbellino de autolesiones y trastornos alimenticios

Esther Lastra

Escrito por Esther Lastra

TikTok confronta a los adolescentes con contenido directamente emparentado con las autolesiones y los trastornos alimenticios apenas unos minutos después de dar cuenta de su interés por estos temas.

TikTok, sobre quien volvía a cernirse hace poco la sombra de una eventual prohibición en Estados Unidos, vuelve a estar en el ojo del huracán a cuenta de un estudio que echa en cara a su algoritmo de recomendación que confronte a los adolescentes con contenido directamente emparentado con las autolesiones y los trastornos alimenticios apenas unos minutos después de dar cuenta de su interés por estos temas.

La investigación, rubricada por Center for Countering Digital Hate (CCDH), concluye que TikTok promueve contenido sobre las dietas peligrosas, las autolesiones y la idealización del suicidio entre los usuarios que han mostrado previamente predilección por este tipo de temas aun cuando sean menores de 18 años.

Para llevar a cabo el informe CCDH abrió cuentas de TikTok en Estados Unidos, Reino Unido, Canadá y Australia y las registró a nombre de usuarios de 13 años, la edad mínima para unirse a la red social oriunda de China. Entre los perfiles creados por CCDH había cuentas estándar y cuentas vulnerables, que incluían por ejemplo, palabras como «loseweight» en sus nombres de usuario.

Las cuentas que tomaron parte en la investigación se detuvieron brevemente en la contemplación de vídeos sobre la imagen corporal, los desórdenes alimenticios y la salud mental y dedicaron asimismo «likes» a tales clips. En la contemplación de este tipo de vídeos las cuentas invirtieron más de 30 minutos tras su lanzamiento con el último objetivo de dar pistas al algoritmo de TikTok sobres sus preferencias.

En las cuentas estándar el algoritmo de la red social comenzó a mostrar vídeos sobre el suicidio en un lapso de apenas 3 minutos. En el caso de los vídeos directamente relacionados con los desórdenes alimenticios el lapso de tiempo fue algo mayor, de 8 minutos, tal y como recoge The Guardian.

«Los resultados son una pesadilla para cualquier padre», explica Imran Ahmed, chief executive de CCDH. «Los ‘feeds’ de los más jóvenes son bombardeados con contenido nocivo y angustioso que puede tener un notable impacto en la comprensión del mundo que les rodea, y en su salud física y mental», añade.

En TikTok las cuentas vulnerables son confrontadas con contenidos más extremos

CCDH asegura que la mayor parte de vídeos sobre salud mental mostrados a las cuentas estándar en la pestaña «Para ti» pivota temáticamente en torno a ansiedades e inseguridades.

El contenido relacionado con la imagen corporal que llega a los ojos de los jóvenes de 13 años en TikTok es particularmente nocivo e incluye publicidad de bebidas para perder peso y cirugías de reducción de estómago.

De acuerdo con el estudio de CCDH, en TikTok los menores son confrontados con contenidos sobre autolesiones y desórdenes alimenticios cada 206 segundos.

Los vídeos sobre la imagen corporal, la salud mental y los desórdenes alimenticios son mostrados a las cuentas calificadas por CCDH como «vulnerables» tres veces más que a las cuentas estándar. Y no solo eso. Las cuentas vulnerables reciben 12 veces más recomendaciones sobre las autolesiones y el suicidio que las cuentas estándar.

El contenido recomendado es además de naturaleza más extrema en el caso de las cuentas vulnerables e incluye métodos para infligirse daño a uno mismo y vídeos de jóvenes detallando sus planes para quitarse la vida.

Según CCDH, los vídeos sobre salud mental o imagen corporal se muestran en TikTok cada 27 segundos, aunque el contenido está dominado mayoritariamente por clips sobre salud mental que inciden en ansiedades, inseguridades y problemas psicológicos y psiquiátricos (excluyendo los desórdenes alimenticios, las autolesiones y el suicidio).

CCDH subraya que el algoritmo de TikTok no diferencia entre el contenido de naturaleza positiva (vídeos sobre la recuperación de la anorexia, por ejemplo) y el contenido marcadamente negativo.

TikTok asegura, por su parte, que la investigación de CCDH no refleja adecuadamente la experiencia de uso y los hábitos de visionado de los usuarios reales de su aplicación.

«Realizamos consultas de manera regular a expertos en salud, eliminamos el contenido que quebranta nuestras políticas y proporcionamos acceso a recursos de apoyo a quienes los necesitan», enfatiza un portavoz de TikTok.

Las políticas de la red social vetan aquellos contenidos que promueven comportamientos que pudieran derivar en el suicidio o las autolesiones y también los vídeos que colocan bajo los focos hábitos alimenticios poco saludables.

 

El gasto publicitario a nivel mundial echará el freno en 2023 con la inversión en digital a la cabezaAnteriorSigueinteLas claves del éxito de Hello Monday, la agencia de Influencer & Marketing líder en Sevilla

Contenido patrocinado