543 CONDIVISIONI
video suggerito
video suggerito

La confessione di una moderatrice di TikTok: “Non avete idea di cosa ho visto, il mondo è marcio”

Stupri, abusi, suicidi, i moderatori rimangono per ore seduti davanti al computer, guardano ed eliminano tutti i filmati per ripulire i social. Abbiamo parlato con Sara per capire come funziona il lavoro invisibile di chi filtra i nostri feed.
A cura di Elisabetta Rosso
543 CONDIVISIONI
Immagine

"Per due anni ho guardato in casa delle persone, so cosa vedono, cosa cercano, cosa scrivono. Ora non ho più un filtro che separa me dagli altri". Sara ci risponde in videochiamata, ha 28 anni ed è una moderatrice per TikTok Italia. Vuole nascondere la sua identità, il nome è di fantasia. Il suo lavoro consiste nel guadare otto ore al giorno i video che nessun altro vorrebbe vedere. Stupri, abusi su minori, suicidi, autolesionismo. "Ho visto filmati di bambini violentati da animali, o la clip di un padre che girava per strada con in mano la testa mozzata di sua figlia". Sara guarda, tagga ed elimina i video. Ripulisce dall'orrore la piattaforma, in questo modo sui nostri feed non compaiono immagini o filmati violenti. I moderatori filtrano tutti i contenuti pericolosi. "Non è un lavoro semplice, da quando ho iniziato la mia insonnia è diventata più acuta, ho sperimentato le paralisi del sonno, e tanto stress", racconta Sara a Fanpage.it.

Nel 2016, Mark Zuckerberg durante le elezioni statunitensi comincia a ricevere le prime pressioni. Gli algoritmi non bastano, servono persone che su Facebook riconoscano ed eliminino i contenuti pericolosi, offensivi o violenti. Nasce la figura del moderatore. Ora ogni social ha bisogno dei lavoratori invisibili. Secondo MarketWatch, filiale di Dow Jones & Company, il settore della moderazione dei contenuti digitali crescerà fino a 13,60 miliardi di dollari entro il 2027.

Il carico di lavoro e lo stipendio varia da mercato a mercato, i dipendenti kenioti che filtrano l'intelligenza artificiale di ChatGPT guadagnano meno di due dollari l'ora, Sara prende 1.200 al mese "non è abbastanza per un lavoro del genere". Grazie al Digital Service Act (DSA) abbiamo scoperto che il numero dei moderatori che lavorano per i contenuti italiani su TikTok è 430. Gli utenti unici in Italia sono 20 milioni. In proporzione TikTok è la piattaforma che ha più moderatori.

Quando hai iniziato a lavorare?

Due anni fa.

Perché hai scelto di diventare una moderatrice?

È un lavoro che ho cercato in realtà, perché ero interessata all’ambito comportamentale, mi interessa capire come è strutturata la società, mi piace la sociologia, l’antropologia. Quando ho scoperto questo ruolo ho pensato fosse un’occasione.

Come l’hai scoperto?

Me ne hanno parlato dei miei amici, facevano lo stesso lavoro ma per altre aziende, così ho cominciato a cercare.

E cosa hai trovato?

Degli annunci su internet per TikTok Italia, mi sono proposta e poi ho fatto dei colloqui, un test di inglese, di informatica, e anche prove attitudinali, per vedere se fossi idonea a livello psicologico per fare questo lavoro.

Spiegati meglio. 

Sono dei test a crocette dove devi rispondere a delle domande sui fattori di stress, sui trigger.

Come sei stata formata per questo lavoro? Ti hanno dato una guida o hai fatto dei corsi?

Tutto viene fatto in smart working, non si lavora in sede. Fai dei corsi per imparare le policy dell’azienda, hai anche una prima fase di affiancamento dove vieni seguito, in altre parole moderi contenuti che sono stati già moderati, così capiscono qual è il tuo metodo di lavoro e se riesci ad applicare le regole.

Regole, per esempio?

Beh per quanto riguarda la violenza grafica tu sai che se vedi del sangue devi taggarlo con una policy, se vedi un suicidio o un contenuto autolesionistico con un'altra. Ogni dettaglio che può costituire un fattore trigger lo devi catalogare.

E una volta taggato il contenuto cosa succede?

Dipende alcuni vengono oscurati, altri vengono bannati.

Mi spieghi la differenza?

Oscurati c’è l’effetto sfocato e il simbolo dell’occhio che avverte l’utente, gli spiega che sta per guardare un contenuto sensibile, bannati invece eliminati.

Mi descrivi la tua giornata?

Funziona come per il lavoro d’ufficio. Tu ti colleghi alla tua ora, e ci si alterna con i turni, bisogna coprire h24 la piattaforma, e ogni ora vengono assegnate delle code di lavoro, ti arrivano i video e tu hai un tot di tempo per guardarli e taggare quello che non va. Così per tutto il turno.

Quanto dura?

Otto ore. Puoi lavorare il mattino, il pomeriggio o la sera. Io ho sempre preferito la sera, che può essere 11-24 o 22-7. Sono piuttosto flessibili e puoi esprimere preferenze, ci sono anche diverse pause stabilite per staccare. Soprattutto se durante il turno vedi qualcosa che ti fa stare male.

Al primo colloquio come ti hanno raccontato questo lavoro?

Mi hanno spiegato a grandi linee come funzionava. Ti chiedono subito se sei disposto a visionare contenuti sensibili. Ma io ero già preparata, sapevo a cosa andavo incontro. Comunque gli amministratori sono giovani, quindi non è che infiocchettano il lavoro più di tanto.

Quanto pagano?

Non abbastanza. Io prendo sui 1.200 euro al mese.

Qual è il profilo di un moderatore, chi sono i tuoi colleghi? 

La caratteristica principale è essere bilingue, devi sapere bene l'inglese. Poi questo è un lavoro transitorio, quindi incontri persone con le storie più disparate, c’è chi lo fa per curiosità, chi lo fa mentre cerca altro, chi ha in mente un progetto più ampio e vuole mettere da parte dei soldi. La fascia di età è ampia, dai 20 ai 50, siamo sia uomini che donne.

Prima hai citato i contenuti sensibili. Il video che ti ha turbato di più?

I contenuti inerenti alla pedofilia, per esempio i video dei bambini stuprati da animali.

Terribile. 

Ma sai cosa? Uno non se lo aspetta da una piattaforma come TikTok perché l’algoritmo essendo personalizzato ti mostra quello che vuoi vedere. Togli l’algoritmo ed entri nel deep web. Vedi cose atroci. Un altro video mostrava un padre che girava per la città con in mano la testa mozzata della figlia. E poi gente che si suicida online. Era diventata anche abbastanza famosa la storia di un influencer russo che aveva chiuso la moglie incinta sul balcone ed era morta assiderata. Lui aveva filmato tutto trasmettendo i video nelle live.

Questo lavoro, questi video, ti hanno mai portato ad affrontare stati psicologici complessi?

Sì. E io sono una persona che riesce abbastanza a dividere i due piani. Soprattutto nell’ultimo periodo con il conflitto tra Palestina e Hamas, sono aumentati i video sulla guerra e passavo la giornata a vedere immagini di bambini morti, e sono stata male.

Come si manifesta questo malessere?

Io per esempio soffro di insonnia già di mio, è diventata più acuta, ho sperimentato delle paralisi del sonno. Tanto stress. Poi per bilanciare ho sempre cercato di compensare con attività extra lavoro.

Tipo?

Esco, faccio gite, suono, dipende. Nel mio privato ho cominciato a guardare cose più allegre e divertenti.

Avete un supporto psicologico? 

Sì, se no un lavoro così non lo puoi fare. C’è un canale dove propongono attività durante il turno, delle specie di giochi, per esempio indovinare il titolo di un film guardando un’immagine. Ci sono anche attività di gruppo e poi lo psicologo è attivo h24. Una volta al mese fai il check up obbligatorio e poi puoi fissare delle visite con gli specialisti.

È vero che le regole su cosa bloccare e cosa no cambiano spesso?

Sì. Non solo, molte regole non hanno senso.

Per esempio?

Quando chiedono di bannare in base alle inquadrature o alla durata di una sigaretta in un video.

Le regole cambiano da Paese a Paese? 

Sì, ci sono delle regole generiche, in nessuna parte del mondo puoi scrivere “Che bello l’11 settembre”. Poi ci sono i contenuti regionali da bloccare.

In Italia? Quali sono i ban regionali?

Beh per esempio l’aquila nera fascista sulle bandiere. Non hai idea di quanti contenuti pro nazimo e fascismo ci sono sulla piattaforma. Una volta avevo fatto un calcolo, circa il 30% di quello che guardavo. Dalle immagini celebrative di Hitler o Mussolini, ai video con faccetta nera.

Il limite tra moderazione e censura è sottile. Ti è mai capitato di bannare un contenuto che secondo te era sbagliato eliminare?

Sì, in diversi casi è limitata la libertà di espressione. Tante volte non sono stata d’accordo. Per esempio, i contenuti sul sex working, bisogna fare un po’ di formazione, ma se non fai parlare le ragazze che lo fanno come fai a informare…

Ti sei mai rifiutata di taggare qualcosa?

Io posso anche non bannare un contenuto che viola le policy, ma tanto se lo lascio passare lo fa qualcun altro.

A proposito di censura. Quando è scoppiato il conflitto tra Israele e Hamas i social, anche TikTok, sono stati accusati di eliminare in modo selettivo i contenuti sulla guerra.

Diciamo che lo scopo della piattaforma è limitare le fonti d’odio, quindi in un contesto come quello chi si schierava troppo, per esempio a supporto di Israele, rischiava di essere filtrato. Quindi certe cose non si potevano dire. Però ecco, se scrivevi Palestina merda o Israele merda vieni bannato in entrambi i casi.

Moderate anche le ricerche e i commenti giusto?

Sì. Tu non vedi chi, ma se qualcuno nella barra cerca bambina di 12 anni nuda noi lo blocchiamo. E poi si eliminano i commenti. Alcuni sono tremendi.

I peggiori che hai letto?

Per esempio il caso della ragazza che è stata violentata a Palermo, le hanno detto qualsiasi cosa sotto nei commenti. Qualsiasi cosa. Poi ci sono gli auguri di morte, o i sessantenni che scrivono frasi inopportune sotto i video delle ragazzine.

Ora quali sono i tuoi progetti?

Ora basta, voglio andarmene. Se non trovo opzioni migliori nell’immediato rimango lì, ma sarà per poco. Sono in una fase transitoria, non ho nulla di definito.

Cosa ti lascerà questa esperienza?

Ho più consapevolezza del mondo in cui viviamo. Siamo immersi nei social e pensiamo di conoscere tutto ma in realtà non è così. Quando tu vedi il dietro le quinte è come se cadesse il velo di Maya, non hai più il filtro che separa te e gli altri. Per due anni ho visto in casa delle persone, ho visto cosa vedevano, cosa cercavano, cosa scrivevano. Viviamo in un mondo marcio. Un po’ di amarezza c’è.

543 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views