38 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

Al G7 inizia il Processo Hiroshima all’intelligenza artificiale: “Ora dobbiamo mettere dei confini”

Per la prima volta l’intelligenza artificiale entra di diritto nell’agenda internazionale. I leader dei sette Paesi hanno parlato dei rischi e delle prospettive di questa tecnologia, chiedendo una regolamentazione che rispetti i principi democratici.
A cura di Elisabetta Rosso
38 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Al tavolo del G7 non c’è mai stata davvero la sicurezza informatica, non si è sempre discusso di innovazioni tecnologiche. Si doveva parlare di geopolitica, economia, accordi internazionali: cose più importanti. Poi arriva l’intelligenza artificiale.  In mezzo ad argomenti familiari per il G7 (si è parlato della controffensiva contro gli invasori russi, e di come rallentare la spirale discendente delle relazioni con la Cina) i Capi di Stato hanno dovuto anche affrontare la nuova tecnologia che ora promette di rivoluzionare il mondo, nel bene e nel male. In qualche mese con tanto di scossoni, blocchi, annunci entusiastici e profezie funeree si è guadagnata un posto al tavolo. E così i leader hanno aperto il “Processo Hiroshima” per regolare l’intelligenza artificiale generativa.

Una spinta globale per frenare l'IA

I leader del Regno Unito, Francia, Germania, Italia, Giappone, Stati Uniti, Canada e la presidente della Commissione europea Ursula von der Leyen, sono tutti d’accordo: è necessario regolamentare l’IA. D’altronde solo qualche giorno fa, Sam Altman, Ceo di OpenAi, e padre di ChatGPT, l’IA che ha aperto le tormentate danze del progresso, di fronte a una giuria di senatori ha messo sul banco tutte le sue paure. Il suo è stato un grido d’aiuto, per chiedere alle istituzioni di mettere un freno alla sua creatura. 

Prima ancora c’è stata la lettera firmata dai giganti della tecnologia, Elon Musk, o Steve Wonziak, per chiedere di bloccare l’IA e dare il tempo agli uomini di stare al passo delle macchine. Anche la Casa Bianca ha aperto le porte ai Ceo delle Big Tech che hanno investito sull’IA, si sono seduti intorno un tavolo e hanno deciso di investire 140 milioni di dollari nei centri di ricerca sull’intelligenza artificiale, e di pubblicare le linee guida per regolamentare la tecnologia. Quindi è chiaro che questa volta la sfera tech non poteva rimanere fuori dalle stanze del G7.

Come regolamentare l'intelligenza artificiale

Guard rails è la parola d’ordine, l’hanno ripetuta tutti. L’idea è proprio quella di mettere dei binari per guidare qualcosa che sfreccia ad altissima velocità. "I potenziali benefici dell'intelligenza artificiale per i cittadini e l'economia sono grandi", ha detto von der Leyen durante la sessione di apertura dei colloqui tra i leader del G7 a Hiroshima venerdì, "allo stesso tempo, dobbiamo accettare i guard rail per sviluppare l'IA nell'UE, che rifletta i nostri valori democratici. Vogliamo che i sistemi di intelligenza artificiale siano accurati, affidabili, sicuri e non discriminatori, indipendentemente dalla loro origine". Tra i tanti problemi dell"intelligenza artificiale che sono stati elencati c'è: la disinformazione, una crisi nel mercato del lavoro, i diritti d'autore violati e i dati degli utenti che potrebbero non essere al sicuro.

Rishi Sunak ha spiegato che l'intelligenza artificiale può offrire grandi vantaggi per la crescita economica e per trasformare i servizi pubblici ma deve essere applicata "in modo sicuro e protetto e con guard rail per guidarla. Abbiamo adottato un approccio deliberatamente interattivo perché la tecnologia si sta evolvendo rapidamente e vogliamo assicurarci che anche la nostra regolamentazione possa evolversi". Sunak ha anche aggiunto che il governo britannico lavorerà con gli alleati per coordinare una regolamentazione solida.

Il parere dei ministri dei diversi Stati

Già ad aprile i ministri dell’Innovazione appartenenti agli Stati del G7 si sono incontrati in Giappone per discutere di intelligenza artificiale. Piccola chiosa: l'Italia non ha un ministero dedicato alla Trasformazione Digitale, quando Giorgia Meloni ha presentato la lista dei ministri mancava un nome. Il vuoto è stato coperto in corso d'opera mettendo Alessio Butti sottosegretario della Presidenza del Consiglio, alla guida delle politiche digitali. 

"Le politiche e le normative sull'IA dovrebbero essere incentrate sull'uomo e basate su nove valori democratici, tra cui la protezione dei diritti umani e delle libertà fondamentali e la protezione della privacy e dei dati personali", avevano spiegato i ministri in un comunicato. "Ribadiamo inoltre che le politiche e le normative sull'IA dovrebbero essere lungimiranti per preservare un ambiente aperto e abilitante per lo sviluppo e l'implementazione dell'IA che massimizzi i vantaggi della tecnologia per le persone e il pianeta mitigando i rischi".

"Abbiamo in programma di convocare future discussioni del G7 sull'IA generativa che potrebbero includere argomenti come la governance, come salvaguardare i diritti di proprietà intellettuale compreso il diritto d'autore, promuovere la trasparenza, affrontare la disinformazione", compresa la manipolazione delle informazioni da parte di forze straniere.

38 CONDIVISIONI
371 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views