38 CONDIVISIONI
video suggerito
video suggerito
TikTok

TikTok ha cancellato dei video su richiesta delle autorità italiane: quali sono i contenuti eliminati

Sono quasi 13 milioni i contenuti eliminati dal social di ByteDance, oltre metà sono stati segnalati automaticamente dall’algoritmo. Nel report sulla trasparenza della moderazione la piattaforma online rivela quante volte le autorità nazionali sono intervenute per i contenuti considerati problematici.
A cura di Velia Alvich
38 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

TikTok ha fatto i compiti, come chiesto dall'Unione Europea (Ue). Così ha pubblicato il secondo rapporto di trasparenza sulla moderazione dei contenuti, dove spiega nel dettaglio quanti video sono passati attraverso i processi ibridi macchina-uomo per controllare i contenuti che violano le linee guida della piattaforma, ma anche quelli che sono considerati illegali nei 27 Paesi dell'Unione.

A richiederlo è il Digital Service Act (DSA), la legge europea che dallo scorso agosto regola il funzionamento delle piattaforme online nel territorio dell'Unione. Fra numeri ed etichette, il report rivela anche alcuni dati interessanti su cosa succede in Italia, dove il numero dei moderatori non è cambiato ma quello degli utenti è in costante aumento. E, al tempo stesso, mostra quale tipo di contenuti sono stati rimossi dalla piattaforma su richiesta delle stesse autorità italiane.

Quali contenuti sono stati rimossi dietro richiesta delle autorità italiane

Il primo dato che salta all'occhio è la crescita del numero di utenti in Italia: sono 20,7 milioni quelli che si sono iscritti e sono attivi. L'ultimo dato pubblicato dalla stessa TikTok lo scorso settembre parlava di 19,7 utenti attivi. Un milione, quindi, si è aggiunto in appena tre mesi di attività. In compenso, però, il numero di chi controlla i contenuti non è cambiato: sono in 439 i moderatori di lingua italiana.

Su quali siano i tipi di contenuti italiani che vengono rimossi dalla piattaforma non ci sono informazioni specifiche. I dettagli che si possono ricavare per Paese, invece, sono quelli sui video che sono stati rimossi perché un'autorità nazionale lo ha chiesto. Con l'attuazione del DSA, TikTok ha aperto due canali rivolti specificatamente alle autorità dei Paesi dell'Unione per chiedere la rimozione di contenuti.

In Italia, nei tre mesi presi in considerazione dal report (cioè da ottobre a dicembre 2023) sono stati bannati sei video dietro esplicita richiesta delle autorità italiane: uno è stato rimosso per incitamento all'odio, uno per condivisione non consensuale di immagini intime (quello che è comunemente noto come revenge porn) e altri quattro per contenuti "dannosi", senza però che sia specificata l'esatta natura.

Il ban diretto dei video non è l'unica cosa che può essere ordinata da un'autorità. In alcuni casi (che, come per la rimozione, vengono valutati caso per caso) può anche essere richiesto di rivelare informazioni su chi ha pubblicato un contenuto considerato problematico. Ed è qui che i numeri salgono. Sono 57 le richieste accolte da TikTok dalle autorità italiane. Di queste, 11 per molestie o per bullismo, 11 per diffamazione, ma anche 7 per incitamento all'odio, 5 per criminalità organizzata e 2 per abusi sui minori.

Quanti sono i video bannati in Europa dagli algoritmi di TikTok

Sono quasi 13 milioni i video che sono stati bannati dal social in Europa perché violavano le linee guida, e quasi metà non hanno superato neppure i controlli automatici dell'algoritmo di TikTok. Nello specifico, sono 6.338.072 quelli rimossi automaticamente. Non solo: oltre 60 milioni sono quelli su cui sono state applicate delle restrizioni (cioè, per esempio, sono stati oscurati oppure la loro diffusione è stata limitata). La macchina della moderazione non si ferma neanche per gli account bannati: dei 3 milioni di profili cancellati, per 614.000 il ban è arrivato per mano di un robot.

Numeri, dati, informazioni e nel mezzo c'è anche spazio per la polemica nei confronti dell'Ue. In particolare, sul ruolo dei "segnalatori di fiducia", cioè degli enti che sono nominati dall'Unione Europea per individuare e segnalare i contenuti potenzialmente illegali sulle piattaforme online. Nel report si legge che "non abbiamo ricevuto alcuna segnalazione di contenuti illegali da parte di segnalatori di fiducia durante il periodo di riferimento, dato che al momento non ce n'erano di designati ai sensi della DSA". Un modo, forse, per ricordare all'Ue di fare a sua volta i compiti.

38 CONDIVISIONI
331 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views