19 CONDIVISIONI
TikTok

TikTok vuole smettere di bombardare chi ha problemi alimentari con video pericolosi

Diete estreme, disordini alimentari, isolamento: oggi chi segue questi argomenti su TikTok rischia di finire in un tunnel di contenuti monotematici.
A cura di Lorenzo Longhitano
19 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Chi utilizza assiduamente TikTok sa che l'algoritmo della piattaforma a volte rischia di proiettare gli utenti all'interno di tunnel di contenuti molto specifici basati sulle passioni dei singoli individuate a partire dai video da loro apprezzati in precedenza. Questo sistema è uno degli elementi dietro al successo dell'app, ma a partire dai prossimi mesi sarà riprogrammato per rendere sempre più difficile per gli utenti finire sopraffatti da contenuti della stessa tipologia e legati a tematiche sensibili come disordini alimentari e solitudine.

Le ragioni dietro alla novità

La notizia arriva direttamente da TikTok, che ha anticipato di avere già avviato dei test per modificare il funzionamento del suo algoritmo con uno scopo preciso: evitare che la piattaforma proponga in continuazione video di contenuto troppo simile, soprattutto se i temi riguardano argomenti critici come diete estreme, rotture romantiche, tristezza o solitudine. Per capire le ragioni dietro la decisione basta rivolgere l'attenzione all'ultimo reportage del The Wall Street Journal uscito proprio a ridosso della notizia, e nel quale alcuni giornalisti si sono serviti di profili finti gestiti da bot, iscrivendoli alla piattaforma come fossero ragazzi di 13 anni; i bot sono stati istruiti a lasciare una manciata di like a video legati a perdita di peso, consumo di alcool e gioco d'azzardo, raccogliendo una reazione preoccupante da parte della piattaforma. In pochi minuti TikTok ha infatti raccolto le preferenze espresse e ha reagito iniziando a proporre sempre più spesso video sulla stessa lunghezza d'onda.

Un problema noto da anni

Non è la prima volta che gli algoritmi di raccomandazione dei social finiscono sotto accusa in questo modo. Questi sistemi del resto sono progettati esattamente per fornire agli utenti ciò che più desiderano, e mantenerli in questo modo incollati allo smartphone. Lo scopo finale è vendere questa attenzione agli inserzionisti che possono così proporre la loro pubblicità a pagamento all'interno delle app, ma gli effetti collaterali di questo meccanismo sono sempre più sotto gli occhi di tutti: in particolare – è la denuncia del WSJ – ragazzi e ragazze possono dimostrarsi interessati a problematiche critiche e solo per questo finire bombardati da contenuti monotematici proposti da questi algoritmi. Il numero delle clip offerte e la frequenza con la quale appaiono possono poi influenzare il modo di pensare di giovani individui facilmente impressionabili, spingendoli verso diete estreme, isolamento o peggio.

Instagram ha dovuto affrontare il problema già tempo fa, e ora sembra essere il momento di TikTok: la piattaforma cinese ha affermato di essere al lavoro su metodi per intervenire quando l'algoritmo inizia a consigliare video pericolosi, che in sé non violano le regole della piattaforma ma che "se costituiscono la maggioranza di quanto viene visualizzato possono avere un effetto negativo sugli spettatori". Il tutto mentre il sistema della raccomandazione automatizzata dei contenuti arricchisce di miliardi le piattaforme ogni anno.

19 CONDIVISIONI
320 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views