46 CONDIVISIONI
video suggerito
video suggerito
Opinioni

La tecnologia non è sopra la legge: perché il blocco di ChatGPT tutela i nostri diritti

Dall’opacità degli algoritmi ai rischi di discriminazione, dalla mancata informativa sui dati al provvedimento del Garante della privacy contro OpenAI: il ricorso all’intelligenza artificiale deve tener conto della garanzie per la persona.
A cura di Roberta Covelli
46 CONDIVISIONI
Immagine

Leggendo del blocco di ChatGpt da parte del Garante della privacy, molte persone potrebbero pensarla come Matteo Renzi: "Non si ferma l’innovazione per decreto", ha twittato il leader di Italia Viva, invitando a "costruire il futuro" invece di "fare battaglie ideologiche con la testa rivolta al passato". L’intelligenza artificiale, però, non è il futuro, ma è già un profilo del presente, e se le potenzialità d’uso sono molte, non tenerne in considerazione anche i rischi significa rinunciare ai propri diritti: vediamo perché.

Algoritmi, machine learning, intelligenza artificiale: l’opacità del sistema

Esistono dei sistemi automatici in grado di addestrarsi da soli? Gli algoritmi sostituiranno mai l’intelligenza umana? Questi interrogativi non sono argomento di fantascienza, ma temi su cui da anni si interrogano innovatori, informatici, umanisti, giuristi, studiosi e scienziati di vari argomenti. ChatGpt, ad esempio, di cui il Garante della privacy ha annunciato il blocco, rientra tra i modelli GPT-3 (Generative Pre-trained Transformer 3) ed è un sistema di intelligenza artificiale basato sul machine learning non supervisionato: semplificando, processa delle informazioni, ma non si limita a compiere le azioni per le quali è stato programmato, ma si addestra da solo, attraverso l’analisi di un’enorme mole di dati, e impara nuove funzionalità autonomamente.

Questo progresso scientifico presenta però una opacità intrinseca: nemmeno i programmatori sono in grado di comprendere appieno in che modo un sistema automatizzato di machine learning funziona e decide.

Il luddismo non c’entra: da sempre cerchiamo di ridurre il lavoro umano

Di fronte a questa opacità, chi si ponga qualche dubbio è spesso accusato di luddismo, ossia di opporsi aprioristicamente al progresso, magari anche per paura che questo comporti perdita di posti di lavoro e di ricchezza.

In realtà, la storia dell’umanità dimostra come il progresso tecnologico abbia sempre tentato di ridurre la fatica umana, rendendo anacronistici impieghi che fino a qualche tempo prima erano parte integrante del sistema economico: dal motore a scoppio al telegrafo, dalla locomotiva a vapore al computer, ogni conquista della tecnica ha migliorato il benessere generale, anche eliminando compiti insalubri e gravosi.

Il problema politico, casomai, è la redistribuzione della ricchezza prodotta: nonostante il progresso, infatti, l’operaio di fine Ottocento non era molto più ricco del contadino del Settecento. È proprio per l’emancipazione di chi non ha potere e denaro (o per ridurre la brama di chi ne ha) che sono stati elaborati diritti: dal limite all’orario di lavoro alla pensione, dagli indennizzi in caso di malattia o infortunio alla maternità, dai minimi salariali ai sussidi in caso di disoccupazione o inabilità.

Oggi allora i timori verso l’intelligenza artificiale non derivano dal desiderio di restare nel passato, ma casomai dalla paura che nel futuro i diritti siano ancora calpestati e dalla consapevolezza di dover prestare attenzione perché questo non avvenga.

Generalizzazione e neutralità: i rischi strutturali di discriminazione

Le macchine, prima, e l’intelligenza artificiale, oggi, hanno infatti un’efficienza tecnica che spesso viene intesa come automatica giustizia. Non è sempre così. Un esempio è quello della riforma dell’istruzione del governo Renzi: la legge 107/2015 (Buona scuola) prevedeva un sistema di assegnazione delle cattedre tramite un sistema automatico, con un algoritmo secretato, che, oltre a portare alla condanna del Ministero dell’Istruzione da parte della giustizia amministrativa per la mancata trasparenza della procedura automatizzata, mandò insegnanti precari in scuole anche molto lontane dalla propria provincia d’origine. Disagi simili si sono verificati con il "Cervellone", un altro algoritmo ministeriale che avrebbe dovuto risolvere i problemi della scuola: il fatto che il sistema sia di intelligenza artificiale non implica insomma che il risultato sia poi effettivamente intelligente.

Il rischio è anzi di legittimare, attraverso l’aura di neutralità, risultati che non sono né neutri, né giusti. I sistemi automatizzati, infatti, sono programmati da esseri umani, e si addestrano immersi in una società in cui disuguaglianze e discriminazioni esistono: questo significa che le convinzioni, i bias, possono essere replicati, e perfino intensificati, dall’intelligenza artificiale. Algoritmi predittivi usati in alcuni tribunali degli Stati Uniti giudicavano in maniera più severa, rispetto al rischio di recidiva, imputati neri, il software sviluppato da Amazon per assumere dipendenti consigliava solo uomini, il sistema di riconoscimento facciale su Facebook sbaglia, fino ad arrivare al razzismo, quando analizza volti non bianchi, e per i neri è più difficile persino prenotare un appartamento su AirBnb. Perfino le immagini di Midjourney, che riproducono una Napoli in festa per lo scudetto, a ben guardare presentano solo e soltanto persone bianche (anche nel mostrare la squadra, senza nessuno che somigli neanche lontanamente a Osimhen).

Dati e informazione, potere e democrazia

Oltre alle questioni sui risultati, sugli output, che possono come si è visto essere insoddisfacenti quando non addirittura discriminatori, esiste però un problema relativo anche agli input, ossia ai dati che forniamo ai sistemi automatizzati. Ed è proprio su questo che si concentra il provvedimento del Garante della privacy rispetto a OpenAI e ChatGPT.

Il garante, infatti, rileva "la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l'assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma".

Quando qualcuno raccoglie i nostri dati, che sia il supermercato per la tessera fedeltà o la rivista in abbonamento che arriva nella nostra casella di posta, deve sempre garantirci informazioni sulle finalità del trattamento dei nostri dati: è il nostro consenso che ne legittima il trattamento, ed è sempre revocabile. Anche se spesso abbiamo l’impressione che si tratti di scartoffie incomprensibili, l’informativa sul trattamento dati è un importante strumento di tutela della nostra riservatezza: in un’epoca storica in cui i dati personali sono diventati oggetto di commercializzazione, al punto da poter parlare di "capitalismo della sorveglianza", è necessario avere strumenti di difesa, che si basano sulla reperibilità dei responsabili del trattamento dei nostri dati e sulla trasparenza sulle finalità del trattamento stesso.

Nel caso di OpenAI, nessuno sa quali e quanti dati siano stati raccolti, come e con che finalità, se siano stati venduti a colossi dell’e-commerce o ceduti a governi più o meno autoritari. Occorre essere consapevoli dei rischi di un uso fideistico delle nuove tecnologie, pretendendo l'attuazione dei diritti anche quando a decidere è un algoritmo: tutelare i dati personali, garantire l’informazione sulla loro sorte, è infatti un atto democratico, oltre che una forma di intelligenza.

46 CONDIVISIONI
Immagine
Nata nel 1992 in provincia di Milano. Si è laureata in giurisprudenza con una tesi su Danilo Dolci e il diritto al lavoro, grazie alla quale ha vinto il premio Angiolino Acquisti Cultura della Pace e il premio Matteotti. Ora è assegnista di ricerca in diritto del lavoro. È autrice dei libri Potere forte. Attualità della nonviolenza (effequ, 2019) e Argomentare è diabolico. Retorica e fallacie nella comunicazione (effequ, 2022).
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views