TikTok es la plataforma online de entretenimiento, creatividad y comunidad de más crecimiento en los últimos años. Creada en China en 2016, hoy cuenta con más de 1000 millones de usuarios en todo el mundo (16,2 millones en Argentina), muchos de ellos niños y adolescentes de entre 13 y 17 años.
Presentada como una app para todo público en la que los contenidos explícitos para adultos no están permitidos, TikTok esconde un modelo de negocio que absorbe información de cada usuario, incluso sin permiso y se ha convertido en un espacio tóxico y adictivo para niños, niñas y jóvenes, al punto que puede influir en la percepción de su imagen, su salud mental y su bienestar, y donde, además, corren el peligro de caer en espirales de contenidos desencadenantes de depresión y autolesiones.
Leer más: Viral: Un tiktoker estadounidense recreó “un día en la vida de un argentino”
Estas conclusiones son parte del informe Domar el algoritmo: Desafíos para la salud mental y privacidad en el uso de TikTok Argentina, elaborado y presentado por Amnistía Internacional.
Uno de los hallazgos del informe fue la distinción que hacen casi todos los usuarios de TikTok entre el llamado “lado malo”, como antítesis de lo que denominan “lado bueno”, que comprende los contenidos tóxicos y perjudiciales: “El lado malo de TikTok es una forma a la que los propios usuarios de TikTok se refieren a ciertos contenidos de la plataforma que califican como tóxicos”, explicó Martín Becerra, coordinador del trabajo de investigación del informe de Amnistía Internacional.
El principal desafío con el que se encuentran hoy los jóvenes es no caer en ese lado oscuro o feo de la red social: “Hay toda una preocupación muy generalizada para salir del lado malo. Y se convierte un esfuerzo grande por parte de los usuarios: encontrar estrategias y tácticas para domesticar un algoritmo que se presenta opaco”, sostuvo Becerra.
Encontrar la salida de ese lado tóxico es visto como una obligación por la mayoría de los usuarios de TikTok. Mucho más que una opción, si se quiere mantener una relación buena o saludable dentro de la app. Dominar al algoritmo implica no solo entrenarlo a través de los “me gusta”, sino que los usuarios descubrieron que con pulsar darle un “no me interesa” a un video o seguir scrolleando al siguiente hará que dejen de aparecer los contenidos que no quieren ver.
Becerra destacó que el informe también reveló algunas de las tácticas que ponen en práctica los usuarios para evitar ver cosas que les hacen mal: “Muchos les piden a amigos que suban videos para poder comentarlos y así generar interacciones con contenidos de temáticas saludables para ellos. De esa manera, el algoritmo de TikTok aprende que no tiene que mostrar más de aquel viejo contenido tóxico que consideran parte del lado malo”
Otra técnica que usa una gran cantidad de tiktokers, es la de crearse cuentas alternativas desde las cuales se permiten ver algunos contenidos “malos” o “tóxicos”. Así, su perfil principal no se ve afectado ni infectado y su algoritmo curado se mantiene en el lado bueno. Además, como la aplicación avisa cuando alguien visita el perfil de otra persona, esto sirve para otro comportamiento tóxico: stalkear, o vigilar, sin ser vistos, sin que la aplicación los delate.
Privacidad y salud mental, los dos ejes del informe
Los hallazgos de la investigación se centran en dos ejes principales: privacidad y salud mental. “Las redes sociales deberían combinar entretenimiento, comunicación y servir además como fuente de información, y de hecho han dado muestras de lo beneficiosas que pueden ser para socializar, difundir noticias y conectar. Sin embargo, nuestro estudio enciende algunas alarmas que preocupan no solo a mamás y papás, sino a los propios usuarios de TikTok”, alertó Mariela Belski, directora ejecutiva de Amnistía Internacional Argentina.
Estas alertas incluyen la espiral tóxica que puede ser TikTok, las estrategias de hiperpersonalización del algoritmo, la conflictiva gestión del tiempo que provoca su uso, y los miedos y la exposición a la violencia.
Privacidad en TikTok: el algoritmo que “escucha”
El informe de Amnistía confirmó que el algoritmo de la app es percibido por los usuarios como una entidad con vida propia que predice, casi de manera mágica, los gustos, preferencias y hasta los pensamientos de los usuarios. Sin explicaciones y sin aclaraciones sobre su funcionamiento, TikTok extrae información con y sin consentimiento de sus usuarios y obtiene datos de intereses, gustos y motivaciones, género y rango etario; información técnica sobre el dispositivo móvil, dirección IP, proxy, operador de telecomunicaciones, zona horaria, tipo de red, identificadores del dispositivo, nombres y tipos de aplicaciones y archivos, patrones o ritmos de pulsación de teclas, estado de la batería, configuración de audio y dispositivos de audio conectados. Terrorífico, ¿no?
Te puede interesar: Redes: Jujeño de 9 años recibirá reconocimiento de YouTube por haber superado los 100 mil seguidores
Sin embargo, lo más temible es que, a diferencia de otras aplicaciones, la extracción de datos no puede desactivarse. Su política de privacidad es poco respetuosa de los datos personales y de la información generada por sus usuarios.
Así, TikTok utiliza estos datos para crear perfiles que se ponen a disposición de los anunciantes para que se dirijan a ellos con contenidos y anuncios altamente personalizados.
Riesgos de TikTok: miedos y salud mental
El informe de Amnistía reveló que, además de los esfuerzos por no caer en el “lado malo” de TikTok, los usuarios experimentan diferentes miedos dentro de la plataforma, como, por ejemplo, temores como el volverse viral por un contenido.
En TikTok el peso de la viralidad recae más sobre el tema del video, que sobre la persona que lo sube, y sobre su geolocalización y otras variables que la empresa china no reveló.
Por otra parte, el estudio destaca el carácter absorbente de la aplicación. Tener a disposición de un scroll con el pulgar una cantidad infinita de videos genera un comportamiento que ninguna otra red social tiene. Esto resulta en la sensación de estar perdiendo el tiempo, descontrol, e incluso de abducción.
En principio, las búsquedas de autorregulación o control parental no parecerían suficientes para frenar la sensación de adicción. Incluso las alertas que la misma app promociona para limitar su consumo no son eficaces. Ni tampoco las advertencias sobre contenido sensible parecen ser una respuesta adecuada. Por el momento, la única manera de “salir de TikTok, es por propia voluntad.
Por último, el autodiagnóstico emerge como una práctica frecuente y peligrosa entre los usuarios de la app. El acceso directo a consejos de influencers u otras cuentas de personas que se publicitan como expertos, contenidos con recetas mágicas para mejorar el aspecto físico o recetas vinculadas con el bienestar emocional pueden poner en riesgo la integridad física o el equilibrio mental de las personas, sin que la programación algorítmica de la plataforma detecte o emita alertas en estos casos.
Con información de Amnistía Internacional y TN