158 CONDIVISIONI
video suggerito
video suggerito
Opinioni

“I fatti non contano, le elezioni si vincono grazie alla paura”: cos’è il caso CA e perché riguarda tutti

L’inchiesta è un vero e proprio terremoto, oltre che per il dibattito sulla sicurezza dei dati online, anche per le discussioni sul funzionamento degli apparati democratici e sugli strumenti attraverso i quali è possibile manipolare l’opinione pubblica e influenzare l’esito delle elezioni.
158 CONDIVISIONI
Immagine

Il 17 marzo The Guardian ha pubblicato il primo di una serie di pezzi che ruotano intorno alle operazioni condotte negli anni dalla società Cambridge Analytica, che avrebbe avuto un ruolo attivo nell’elezione del Presidente degli Stati Uniti Donald Trump, nella campagna elettorale per le Presidenziali francesi del 2017 e nella Brexit. Il giorno successivo anche The New York Times ha prodotto una serie di pezzi che si focalizzavano su aspetti specifici della vicenda, sul ruolo di Facebook e sulle conseguenze politiche dell’inchiesta pubblicata dal giornale britannico. Un lavoro reso possibile soprattutto grazie a Christopher Wylie, un “whistleblower”, una gola profonda che ha lavorato per anni nella società fondata nel 2013 dal miliardario statunitense Robert Mercer e a lungo guidata da Steve Bannon, uno dei registi dell'elezione di Trump alla Casa Bianca. Infine, il 19 marzo, Channel 4 ha pubblicato una video inchiesta che si concentra anche sull'attuale numero uno di Cambridge Analytica, Alexander Nix, realizzata grazie a un infiltrato che si è finto un potenziale cliente dallo Sri Lanka, interessato a ottenere un importante successo elettorale. Nix, tra le altre cose, fa capire che tra i servizi che la società è in grado di offrire vi sono dossieraggi, "trappole", la creazione di scandali per colpire alcuni politici, l'utilizzo di escort e via discorrendo. Ma la cosa, paradossalmente, ci interessa poco.

Cambridge Analytica è una società specializzata nella raccolta e nell’elaborazione dei dati personali. In particolare, la società riesce a mappare le interazioni di milioni di profili sui social network, raccogliendo ad esempio informazioni sui comportamenti online degli utenti: dai mi piace ai commenti, dalle preferenze in materia di acquisti al tempo trascorso online e via discorrendo. Il materiale raccolto viene elaborato attraverso algoritmi che utilizzano un approccio “psicometrico”, che mira cioè a rilevare le differenze nel comportamento degli individui in base alle caratteristiche della loro personalità. In poche parole, il tentativo è quello di costruire un modello predittivo dei comportamenti individuali grazie a dati che consentono la misurazione e la comparazione di conoscenze, capacità, “atteggiamenti” e attitudini. Cambridge Analytica non è l'unica società a lavorare in questo campo e non ha mai "nascosto" quali fossero gli obiettivi e il campo in cui opera: anche online vi sono molti video di interventi pubblici in cui dirigenti di CA spiegano nel dettaglio le modalità con cui si possono influenzare le scelte individuali, sia che si tratti di acquisti che di consultazioni elettorali.

La raccolta dei dati da parte di Cambridge Analytica e il ruolo di Facebook

Prima di interessarci al modo in cui CA ha utilizzato i dati, andrebbe però chiarito come è stata in grado di raccoglierli. Stiamo parlando di decine di milioni di utenti profilati solo grazie a Facebook, di miliardi di interazioni registrate, di migliaia di contenuti analizzati e inglobati nella rete di CA. The Guardian ha spiegato il meccanismo utilizzato per raccogliere gran parte dei dati online. La figura centrale è quella di Aleksandr Kogan, matematico e ricercatore a Cambridge, che opera attraverso la società Global Science Research. Una prima tranche di dati arriva a CA grazie a un “questionario” su Amazon, bloccato poco dopo dal sito perché violava le condizioni di utilizzo. Poi Kogan decide di “attaccare” Facebook, utilizzando uno strumento piuttosto semplice, una app, che sfrutta le API messe a disposizione dal social network. È il 2015 e l’app, che si chiama “thisisyourdigitallife” diventa virale: si tratta di una specie di test che grazie a una serie di domande su gusti, preferenze, scelte e attività online, restituisce agli utenti una sorta di profilo psicologico, con alcune “previsioni sul proprio comportamento futuro”. Lo scopo dell’app è duplice: da un lato tracciare un profilo psicologico degli utenti, dall’altro accedere alle informazioni contenute nei profili Facebook. Quest’ultimo punto è particolarmente interessante, perché bisogna considerare che nel 2015 Facebook permetteva l’accesso anche ad altri dati: con il Fb Login, infatti, l’utente metteva a disposizione anche altre informazioni personali, fra cui la lista di amici e alcune loro interazioni. Dunque, GSR aveva a disposizione non solo i profili dei 270mila iscritti all’app, ma una rete di dati che riguardavano circa 50 milioni di contatti, su cui tarare il proprio algoritmo.

È questo il passaggio che “inguaia” Facebook e che ha portato al crollo in borsa, con una perdita di miliardi di euro per Zuckerberg. Il whistlebowler del Guardian, Wylie, sostiene che le attività di GSR fossero note a Facebook da anni, senza che il colosso statunitense prendesse mai provvedimenti. La questione è essenziale: se è vero che non c’è mai stato un “furto” di dati da parte di CA, allo stesso tempo appare evidente come la società si sia appropriata di dati terzi, senza il consenso informato da parte degli utenti (per esempio: se un nostro amico Fb avesse utilizzato l’app, sarebbero finiti nel database di GSR anche alcuni nostri dati, rilevanti o meno, ma comunque a nostra totale insaputa).

Facebook, che ha limitato recentemente la possibilità per le app di accedere ai dati personali, avrebbe “fatto pressione” al Guardian per non utilizzare la parola “falla”, spiegando che non c’è mai stato alcun furto di informazioni private. Allo stesso tempo, Cambridge Analytica sostiene di aver distrutto i dati una volta capito che Fb riteneva illegittima la pratica di GSR. La violazione delle condizioni di utilizzo di Fb sarebbe avvenuta quando Kogan ha travasato i dati da GSR a CA, in pratica.

L'algoritmo, il ruolo di Steve Bannon e il tentativo di "manipolare" il consenso elettorale

L’inchiesta di Channel 4 è particolarmente interessante da questo punto di vista. Due giornalisti si fingono intermediari interessati a influenzare l’esito delle elezioni in Sri Lanka e incontrano i boss di Cambridge Analytica. Nella parte iniziale del colloquio, viene spiegata la ratio del metodo CA: “Raccogliere dati e profilare le persone ci consente di utilizzare delle informazioni per segmentare la popolazione, in modo da mettere a punto dei messaggi specifici su questioni a loro care, con un linguaggio e delle immagini con cui possano interagire facilmente. Lo abbiamo fatto in USA, in Africa, in Messico, in Malesia e ora stiamo provando a farlo in Brasile, Australia e Cina”.

Fin qui però non sembra esserci nulla di così eclatante: CA ha sempre spiegato di aver sviluppato una serie di algoritmi per generare “microtargeting comportamentale”, ovvero contenuti mirati in base alle preferenze degli utenti, ricavate appunto dai dati forniti online. Una attività che, in maniera diversa, fanno anche altre aziende, anche in politica. Proprio CA ha asserito che, ad esempio, per la campagna elettorale del 2008 Obama abbia fatto largo uso del microtargeting, anche in questo caso basato su dei data-set. Nel caso specifico, una prima differenza è basata sul fatto che i dati utilizzati erano tutti stati rilasciati in modo consensuale da parte degli utenti, che rispondevano a dei semplici questionari. Sia come sia, il microtargeting non è una novità, come non lo è la profilazione dei dati e non lo sono le agenzie che curano le campagne elettorali, con metodi più o meno ortodossi, anche sui social network.

Qual è il problema con Cambridge Analytica, oltre al "modo" in cui sono stati ottenuti i dati?

È l’approccio olistico adottato dalla società, la capacità di inserire i singoli tasselli in un mosaico più complesso, che pare rispondere a una vera e propria missione. CA è fondata da Robert Mercer, miliardario statunitense proprietario di un fondo d’investimento che, tra le altre cose, utilizza sofisticatissimi algoritmi per prevedere le oscillazioni dei mercati finanziari. Mercer è “sostenitore” (un eufemismo) della cosiddetta alt – right statunitense, diciamo pure un movimento di destra di cui è animatore Steve Bannon, ex vicepresidente di CA e personaggio legatissimo a Donald Trump, attuale presidente degli Stati Uniti. È Wylie che spiega al The Guardian la filosofia di Bannon: “Tutto si basa sulla dottrina di Andrew Breitbart, per cui la politica è condizionata dal sistema culturale (è a valle). Dunque per cambiare la politica bisogna agire sulla cultura. Funziona un po’ come per i trend della moda, che sono un utile indicatore. Trump è come un paio di Crocs, alla fine. Come si passa dal fatto che tutti dicano “sono orribili” al fatto che tutti le indossino. Ecco, questo è il punto centrale dell’intera sua ricerca”.

Michael Kosinski, un ricercatore che ha lavorato a una prima versione del test psicografico poi tradotto in app da Kogan, in un paper del 2013 aveva già intuito le potenzialità dell’analisi delle interazioni sui social network per individuare gli orientamenti individuali e intervenire.

Alcuni mi piace, apparentemente casuali, potrebbero costituire la base per valutazioni complesse sulle caratteristiche degli individui […] La prevedibilità delle caratteristiche personali in base alle registrazioni digitali dei comportamenti può avere delle gravi conseguenze negative, perché può facilmente essere applicata a un gran numero di persone senza il loro consenso individuale e senza che esse se ne accorgano […] Aziende commerciali, istituzioni governative o persino i tuoi amici di Facebook potrebbero utilizzare il software per dedurre attributi come l'intelligenza, l'orientamento sessuale o le opinioni politiche che un individuo potrebbe non avere intenzione di condividere

È esattamente questo l’orizzonte in cui si muovono Bannon e Mercer. Non si tratta di solo microtargeting, ovvero di far arrivare il giusto contenuto al momento giusto alla persona giusta. Non si tratta cioè di diffondere una immagine che incentivi l’uso delle armi per la difesa personale a un utente iscritto al gruppo “la difesa è sempre legittima” in prossimità di una consultazione elettorale. Bisogna costruire un contesto, delle bolle, degli ambienti “orientati” volti a far penetrare il messaggio sulla legittimità dell’uso delle armi in maniera indiretta. Si vuole cambiare l’approccio culturale alla questione, per poi trarne solo successivamente i vantaggi dal punto di vista politico – elettorale. Una delle cose importanti, spiega l'alto dirigente di CA registrato di nascosto da Channel 4 è "che nessuno capisca che si tratti di propaganda", perché nel momento in cui l'utente si rende conto di essere di fronte a un contenuto di propaganda "la domanda successiva sarà ‘chi l'ha messa lì'" e ci si porrà direttamente il "problema del consenso".

Trump deve diventare "cool", indirettamente.

Cambridge Analytica non ha mai nascosto di aver "aiutato" Trump per la campagne delle Presidenziali del 2016. Anzi, fonti interne hanno spiegato come i loro consigli siano stati fondamentali anche per la scelta delle location, delle tappe del tour elettorale, degli slogan e via discorrendo. The Guardian, in un pezzo pubblicato il 20 marzo, ha evidenziato il ruolo della macchina di Bannon, Nix e Mercer negli "swing states", quegli Stati in bilico, in cui la vittoria di Trump è avvenuta per poche migliaia di voti. La campagna contro Hillary Clinton in questi stati è stata pervasiva ma non estremamente aggressiva, come ha spiegato Nix, lasciando intendere l'utilizzo (che il Guardian sostiene di aver provato) di ads "non attribuibili e non tracciabili": "Abbiamo semplicemente immesso le informazioni nel flusso sanguigno di Internet e le abbiamo viste crescere, dandogli una piccola spinta ogni tanto nel tempo per far prendere la forma che volevamo noi". Va detto che non ci sono evidenze scientifiche sul "risultato" ottenuto da CA, né sul fatto che la vittoria di Trump sia stata in qualche modo favorita dall'attività social programmata e studiata da Bannon&Co. Ma alla luce delle rivelazioni delle inchieste di questi giorni, assumono un valore nuovo anche altre questioni, sollevate proprio dal Guardian solo qualche mese fa:

Nelle ultime fasi delle elezioni di novembre, Schweickert (capo dell’area digital di CA, ndr) ha dichiarato che la società aveva acquisito dati sugli elettori che avevano votato in anticipo – dati raccolti da contee e stati locali – e ha collegato le informazioni ai singoli profili Facebook. Ciò ha aiutato Cambridge Analytica a determinare se le persone esposte a determinati annunci politici avessero consegnato i loro voti in anticipo, se cioè quegli annunci le avessero aiutate a prevedere l'esito delle elezioni.

I dubbi sulla legittimità di un tale operato restano, anche se bisognerebbe capire qual è la portata reale e quali sono i risultati concreti dell'attività di Cambridge Analytica. Resta la strategia di CA e l'approccio a una questione essenziale: come manipolare l'opinione pubblica, come sfruttare la destrutturazione culturale degli individui per ottenere il consenso elettorale, come minare la solidità dei meccanismi di partecipazione democratica, il tutto a partire dall'utilizzo dei dati personali raccolti più o meno lecitamente. Una questione enorme, di elevatissima complessità. La linea d'azione di CA però è chiara e la conversazione ripresa da Channel 4 in tal senso ci aiuta a capire meglio. Spiega Turnbull, il direttore operativo della società:

“I due fondamentali vettori quando è il momento di recepire informazioni sono speranza e paura, molte volte ciò avviene in modo inconsapevole. Non sai di cosa hai paura finché non vedi qualcosa che semplicemente provoca quella reazione in te. Il nostro lavoro è calare il secchio nel pozzo più in basso di chiunque altro, per capire quali sono quelle paure profonde. È un errore combattere una campagna elettorale sui fatti, perché al momento tutto ruota intorno alle emozioni”.

Capire quali sono le paure della gente e attivarle. Generare una paura e creare un ambiente in cui prolifera e solo poi fornire una risposta. In questo contesto si inserisce il tema delle "fake news". “Non siamo nel business delle fake news”, spiega Turnbull inizialmente, chiarendo come il senso dell’intera operazione vada al di là della produzione di contenuti falsi. Sarà il boss di Cambridge Analytica, Alexander Nix, a spiegare come e perché si può scegliere di ricorrere alle cosiddette fake news: “Sembra una cosa terribile da dire ma non è necessario che una cosa sia vera, fintanto che qualcuno ci crede”. Queste operazioni possono essere completamente nascoste all’opinione pubblica e società come Cambridge Analytica possono lavorare come veri e propri fantasmi, anche perché spesso utilizzano dei sub – contractors.

158 CONDIVISIONI
Immagine
A Fanpage.it fin dagli inizi, sono condirettore e caporedattore dell'area politica. Attualmente nella redazione napoletana del giornale. Racconto storie, discuto di cose noiose e scrivo di politica e comunicazione. Senza pregiudizi.
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views