TikTok: algoritmo de la app promueve contenido sexual, de drogas y alcohol a niños de 13 años, revela investigación

La compañía de redes sociales expresó que, por ahora, el algoritmo no diferencia entre los videos para adultos y niños.

177

Fayerwayer-Guy Acurero

TikTok llegó en un momento necesario para las personas que necesitaban distraerse ante el confinamiento por la pandemia del coronavirus COVID-19 y sus variantes. Muchos padres permitieron que sus hijos se unieran a la red social, para ayudarlos a entretenerse, pero nunca imaginaron que sus pequeños podían tener acceso a contenidos sexuales, de drogas y alcohol.

Una investigación del Wall Street Journal (WSJ), citada en Daily Mail, reveló que el algoritmo de la red social para decidir qué videos verán los usuarios promueve contenidos sexuales, de estupefacientes y de bebidas alcohólicas, a los que tienen acceso niños de hasta 13 años.

El WSJ utilizó una serie de bots como usuarios de niños 13 años y buscaron “Only Fans”, lo que les arrojó varios videos, incluyendo dos de venta de pornografía en la aplicación china.

Todas las cuentas automatizadas se establecieron para tener entre 13 y 15 años para determinar si los espectadores más jóvenes obtienen un feed diferente al de los usuarios mayores de TikTok. 

En la investigación, encontraron que los feeds se enfocaban más y profundizaban en contenido cada vez más inapropiado, impulsado por el algoritmo de la app impulsado por inteligencia artificial.

En la sección Para Ti, la versión del feed de Twitter en TikTok, los usuarios adolescentes pueden ver videos sobre orientación sexual. El contenido de Para Ti se establece en función de búsquedas anteriores y en el tipo de contenido que ve con más frecuencia un internauta.

WSJ determinó que, cuanto más se demoraba el usuario viendo el contenido sexual, más publicaciones de ese tipo se mostraban en Para Ti.

La postura de TikTok

TikTok explicó al medio de comunicación que actualmente el algoritmo no diferencia entre los videos que se muestran en cuentas de adultos y niños, pero que estaban trabajando en una nueva herramienta de filtro para cuentas más jóvenes. 

Los reporteros del WSJ enviaron a la compañía de redes sociales casi 1.000 videos que mostraban contenidos de drogas, pornografía y otros relacionados con adultos, como sex shops, trastornos alimentarios, consumo de alcohol, que se habían mostrado en sus cuentas de bots de 13 a 15 años. 

En una de las cuentas, que afirmaba pertenecer a un niño de 13 años, se le mostraron 569 videos sobre el uso de drogas que incluían referencias a la adicción a la cocaína y la metanfetamina.

De esos 1.000 videos, 255 fueron eliminados poco después de ser enviados a la compañía china. Un portavoz de TikTok le dijo al Journal que la empresa eliminó algunos de los videos reportados y restringió la distribución de otros para evitar que se recomienden a otros usuarios jóvenes en el futuro.

Según los términos y condiciones de TikTok, los usuarios de la red social deben tener al menos 13 años, y si efectivamente son menores de 18, necesitan permiso de sus padres y que ellos administren el tiempo en el que sus hijos utilicen la aplicación, además de la configuración de privacidad.

Un portavoz de la compañía le dijo al Daily Mail que la experiencia de un bot de ninguna manera representa el comportamiento y experiencia de una persona real: “Trabajamos continuamente para mejorar nuestros sistemas y estamos revisando cómo ayudar a evitar que incluso los hábitos de visualización muy inusuales creen ciclos negativos, particularmente para nuestros usuarios más jóvenes”.