video suggerito
video suggerito
TikTok

Siamo entrati nella rete dei pedofili sui social: dove portano le strade nascoste nei commenti

Codici, reti di link, livelli di pagamenti. Siamo stati dentro a una rete di video TikTok in cui adulti si scambiano materiale pornografico che ha un unico protagonista: i minori.
A cura di Chiara Garbin
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Prima bisognava scavare nel dark web. Ora per arrivare a forum pieni di contenuti pedopornografici può bastare un commento su TikTok. Sotto video apparentemente innocui come una pizza o il volto di un bambino generato dall’intelligenza artificiale compaiono migliaia di messaggi che rinviano a piattaforme esterne dove viene ripetuta la stessa sigla: CP. È l’acronimo di Child Pornography.

Queste due lettere vengono riconosciute subito da chi cerca questi contenuti. Anche le piattaforme sono consapevoli: tanto che, nella maggior parte dei social, digitare questa coppia di caratteri non restituisce alcun risultato, ma un avviso: “Questo termine può essere associato a contenuti sessualizzati di minori”.

I trucchi per superare i blocchi dei social

Per aggirare i filtri gli utenti hanno sviluppato un linguaggio parallelo di immagini, storpiature, parole in codice. Una simbologia che permette a loro di riconoscersi anche sotto a video che apparentemente nulla hanno di illegale, trasformandoli in punti di smistamento verso piattaforme esterne.

Il fulcro di questi messaggi in codice sono per l'appunto tutte le combinazioni di parole che richiamano, l’acronimo CP: Cheesy pizza, Caldo de pollo (con le sue varianti caldito de pollo, caldo de poio), Camiones pesados, Cafè y pan, Club Penguin, Cepe, Ceepee, per citarne alcuni (ognuno dei quali con diverse storpiature).

Ma il meccanismo coinvolge anche video di bambini realizzati con l’intelligenza artificiale. Così, sotto ad alcuni commenti che apparentemente nulla avrebbero a che vedere con i contenuti CSAM (Child sexual abuse material) si creano vere e proprie catene di commenti, i cosiddetti CP Ring. Un fenomeno possibile perché gli aggressori sfruttano i limiti strutturali dell’ecosistema digitale: la velocità, la quantità, l’impossibilità di analizzare tutto in tempo reale.

Dove portano i link

I link contenuti nei commenti non sono tutti uguali e, tendenzialmente, rinviano a tre tipologie di destinazioni: siti web, chat telegram server di Discord. TikTok non permette di accedere direttamente a un link, ma non è un grosso ostacolo. Basta copiare e incollare. Partiamo dai siti web. Anche se graficamente diversi, i diversi siti web a cui si può approdare sono di fatto tutti assimilabili. Ciascuno presenta un'interfaccia simile e un meccanismo di login banale: per accedere è sufficiente un username, una password e la risoluzione di un semplice captcha.

Una volta entrati nel sito, si viene reindirizzati a un ventaglio di brevi video espliciti: un esempio dei contenuti della libreria totale. Parliamo di un catalogo apparentemente vastissimo, organizzato in tier, ossia in scaglioni di pagamento, suddivisi a seconda del contenuto offerto. Si parte dalla categoria father and daughter (padre e figlia) del basic plan, passando ai video di soggetti dagli 0 ai 16 anni nel tier 4, per arrivare poi ai video di tortura e stupro. Per passare da ogni gradino al successivo, le alternative possibili sono due: invitare altri utenti, tendenzialmente trenta per ogni step, oppure pagare un prezzo, che solitamente è di 50 dollari superiore per ogni scalino.

Come funzionano i pagamenti

Ogni sito offre varie alternative per i pagamenti: gift card, voucher, cripto-valute, Cash App, PayPal. Ma non sono soltanto i metodi di pagamento ad essere identici tra le diverse pagine: ricercando i vari domini si può scoprire che anche alcuni luoghi di registrazione ricorrono con una certa frequenza. Tra questi, ritornano spesso San Jose in California, Las Vegas in Nevada, Sheridan in Wyoming. Ulteriori informazioni sono però difficili da reperire: la maggioranza di questi siti di appoggia a società che offrono servizi di anonimato sul web come la statunitense Privacy Protect di Burlington o l’islandese Withheld for Privacy di Reykjavik.

Questa coincidenza di fattori potrebbe indurre a pensare che potesse trattarsi di siti scam. In realtà, a fronte del pagamento, avviene realmente una somministrazione di contenuti pedopornografici, come ci hanno confermato Maria Pia Izzo e l’avvocata Eva Balzarotti, che assieme guidano uno studio di informatica forense.

I contenuti nascosti nelle chat Telegram

Nei canali Telegram tipicamente ci si interfaccia con dei bot che propongono contenuti a pagamento oppure che rilanciano, giornalmente, nuovi link verso pagine esterne. Spesso affiancando anche link a canali di riserva, così da garantire la continuità della rete anche quando uno dei nodi viene chiuso. È un sistema che si rigenera di continuo, espandendosi come una ragnatela che ogni giorno ricostruisce ed espande i suoi fili.

Cosa abbiamo visto nei server di Discord

Discord è una piattaforma di messaggistica in cui è possibile interagire con comunicazioni di testo, chiamate vocali, videochiamate e condivisione di file. Le interazioni avvengono nei server, delle spazi pensati per le comunità virtuali che vengono suddivise in canali tematici.
Le community possono arrivare a decine di migliaia di componenti: tramite il link di un commento Tiktok siamo approdati in una chat da più di 70.000 membri.

Ed è proprio tramite Discord che si trova il percorso diretto per arrivare ai contenuti pedopornografici: alcuni canali, tramite un semplice rimando a cartelle archiviate su Mega – un servizio di archiviazione e condivisione online – o a gruppi Signal, permettono di avere liberamente accesso a migliaia di video, e gratis. La logica è semplice: si sfruttano piattaforme con crittografia end-to-end, che garantiscono che i contenuti siano visibili soltanto al mittente e al destinatario.

Questi strumenti, originariamente pensati per proteggere la privacy degli utenti, in questo contesto finiscono per rendere più difficile l’individuazione e la rimozione dei materiali illegali. Una volta entrati, i file possono diventare accessibili senza ulteriori barriere, facilitandone la circolazione.

E, se su Mega si ha accesso a un ventaglio di contenuti liberamente visionabili e scaricabili come "spettatori", nei gruppi dell'app di messaggistica Signal si creano invece dei gruppi di mutuo scambio, dove ciascun membro può liberamente condividere i contenuti a sua disposizione o avanzare richieste puntuali. Fasce di età specifiche, zoofilia, necrofilia, telecamere nascoste e abusi sono alcune delle pretese che si possono leggere ogni giorno.

Anche condividere un link è un reato: cosa si rischia

Giuseppe Croari è un avvocato esperto di diritto legato al mondo digitale. È lui che ci spiega che anche condividere un link è contro il codice penale. Non serve essere proprietari di quel forum: «È irrilevante che l’utente non detenga i file: è sufficiente la cosiddetta “messa a disposizione”». In altri termini, anche la semplice condivisione di un link configura il reato di "pornografia minorile".

Il problema della moderazione

Abbiamo chiesto qual è l’origine di questo problema a Maria Pia Izzo, che insieme all’avvocata Eva Balzarotti guida uno studio di informatica forense: «Ogni minuto, vengono caricati milioni di file. Anche con algoritmi avanzati, nessun sistema può garantire un controllo istantaneo e perfetto. C’è poi un aspetto spesso dimenticato: la moderazione è sempre una corsa a due velocità. Chi produce contenuti illegali cambia continuamente strategia: le piattaforme, invece, devono bilanciare tutela, privacy degli utenti, risorse economiche e limiti legali».

A questo fattore, si aggiunge il regime a responsabilità limitata tipico dei social. Spiega l’avvocato Croari: «Le piattaforme non devono controllare tutto in anticipo ma diventano responsabili se, dopo una segnalazione, non rimuovono rapidamente il contenuto illegale. La giurisprudenza però sta iniziando a qualificare alcune di loro come hosting provider “attivo”, riconoscendo una loro responsabilità nel caso in cui non si dotino di strumenti automatici per prevenire illeciti».

E se la responsabilità è già ridotta quando i contenuti sono effettivamente caricati su TikTok, lo è ancor di più in questo caso, in cui la piattaforma funge solo da snodo verso siti esterni.

La risposta di TikTok: i video rimossi dopo le nostre segnalazioni

Abbiamo segnalato questi contenuti alla piattaforma, che ha eliminato e rimosso quelli in violazione delle loro linee guida. Il portavoce di TikTok sul punto ha voluto precisare: «Non tolleriamo contenuti che ritraggono o diffondono materiale pedopornografico, anche tramite link esterni a TikTok, e strutturiamo la nostra piattaforma in modo da renderla inospitale per questo tipo di contenuti. Continuiamo a rafforzare i nostri sistemi per individuare, rimuovere e segnalare in modo proattivo contenuti e account e rimuoviamo il 99% dei contenuti che violano queste regole prima ancora che ci vengano segnalati».

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views