90 CONDIVISIONI
video suggerito
video suggerito
Intelligenza artificiale (IA)

Cos’è il Progetto Q*, l’intelligenza artificiale segreta di OpenAI che “può minacciare l’umanità”

Il team di OpenAI ha comunicato al consiglio di amministrazione i timori sulla nuova IA che stanno sviluppando, secondo i ricercatori non è pronta per essere messa in commercio. Cosa sono e come funzionano i nuovi sistemi AGI.
Intervista a Luca Iocchi
Professore Ordinario di Ingegneria Informatica, Automatica e Gestionale all'Università La Sapienza di Roma. 
A cura di Elisabetta Rosso
90 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Dentro i laboratori di OpenAI, gli stessi che hanno creato ChatGPT, c'è una nuova intelligenza artificiale che "potrebbe minacciare l'umanità". Così scrivono i ricercatori dell'azienda in una lettera al consiglio di amministrazione. Il team da tempo lavora al progetto Q*, il suo obiettivo è comprendere le applicazioni di Agi (Artificial General Intelligence) al ragionamento logico e matematico. Il problema è che non è pronto per essere commercializzato perché è "coperto da un velo di ignoranza". Non solo, sembra che dietro al temporaneo licenziamento del Ceo Sam Altman ci sia proprio il caso Q*.

Non si sa altro di questo nuovo programma, nemmeno perché dovrebbe fare così tanta paura. D'altronde la ricerca sull'intelligenza artificiale (IA) è in mano a poche aziende private che rilasciano più slogan allarmisti che dati. Per capire meglio abbiamo parlato con Luca Iocchi professore Ordinario di Ingegneria Informatica, Automatica e Gestionale all'Università La Sapienza di Roma.

Cosa sappiamo del Progetto Q*?

Pochissimo, perché non era stato annunciato né alla comunità scientifica né al pubblico, e l’impressione, leggendo la notizia, è che si tratti di una comunicazione commerciale piuttosto che scientifica.

Si spieghi meglio. 

Ci sono stati problemi di gestione interna del personale di OpenAI. Quindi la notizia che è stata data ha poco a che fare con gli aspetti tecnici e scientifici.

Però i ricercatori hanno scritto nella lettera che le scoperte del progetto Q* potrebbero “minacciare l’umanità”. 

Sì, ma in questo caso è difficile capire in che modo perché noi non sappiamo nulla di questo progetto, possiamo però fare un ragionamento più ampio su AGI, (Artificial General Intelligence), che è un’estensione di alcuni sistemi di IA in grado di svolgere diversi problemi. Sono multitask IA, in contrapposizione con l’IA che riesce a risolvere un solo problema. Di Q* sappiamo solo che genericamente ha capacità di ragionamento e calcolo matematico pari a quelle di uno studente delle elementari.

E questo potrebbe essere un problema?

Il rischio in generale è sempre l'impatto sociale di una tecnologia come quella sviluppata dal team di Q*. Tutte le nuove tecnologie possono essere pericolose se non governate bene. L'AGI potrebbe impattare in modo negativo sulla qualità della vita o sul lavoro delle persone. Il problema principale non sono tanto le capacità di una nuova tecnologia, ma la velocità con la quale si diffonde. L'intelligenza artificiale evolve in modo più rapido rispetto alle tecnologie del passato che sono state assorbite dalla società nell’arco di anni.

Potrebbe essere un problema per il mercato del lavoro?

Sì, l'IA avrà un impatto sui posti di lavoro, eliminerà posizioni, ne creerà altre, il problema come dicevamo è proprio il tempo. L’IA produce nuovi strumenti molto velocemente e rischia di avere un impatto maggiore, le persone potrebbero non avere il tempo di aggiornarsi. Quindi sicuramente può essere un problema dal punto di vista sociale. Non dovremmo però essere preoccupati della tecnologia in sé, ma della mancanza di conoscenza su questa tecnologia.

Infatti nella lettera i ricercatori avvertono che AGI, non è pronto per essere commercializzato, perché è "coperto da un velo di ignoranza".

È come mettere in mano a un bambino elementi chimici che possono esplodere o prendere fuoco. Questo è un caso estremo, però ogni tecnologia porta sempre a dei cambiamenti nelle abilità umane. E questo sta già succedendo con l’IA.

In che modo?

Faccio un esempio. Quando dovevo fare delle ricerche all’università andavo in biblioteca, poi si è cominciato a usare internet, e ora i ragazzi si rivolgono direttamente a ChatGPT. In biblioteca consulti direttamente le fonti, su internet puoi verificarle, con i chatbot no, è un sistema meno trasparente. Ora, se uno studente lo usa per le ricerche e poi un professore corregge quel compito usando ChatGPT c’è il rischio che ci sia un'informazione falsa e che nessuno lo sappia.

Sembra che ad allarmare il team di OpenAI sia stato un calcolo ben riuscito. È un problema se AGI riesce a risolvere problemi matematici?

A me non fa allarmare il sistema di per sé, mi spaventa però non sapere come funziona, non sapere cosa fa. Già negli anni 60’, si cercavano di costruire programmi in grado di ragionare o risolvere problemi complessi, perché dovremmo averne paura adesso nel 2023 quando non lo faceva negli anni ‘60?

Forse perché ora sembra qualcosa di meno fantascientifico. 

Sì, ma a maggior ragione dovremmo sfruttarla a vantaggio delle persone, non dovremmo chiederci se fa paura o è spaventosa, non è l’approccio giusto ma dovremmo investire nell'acquisizione di maggiore conoscenza e nella ricerca.

E anche nella trasparenza. 

Assolutamente. Infatti con l’intelligenza artificiale abbiamo un problema inedito. Mentre prima la ricerca era in mano alle università e quindi era pubblica, tutta la comunità poteva leggere cosa si stava facendo. Ora alcune ricerche sull'IA sono condotte da aziende private che hanno un vantaggio competitivo ma non pubblicano le ricerche e lanciano solo questi messaggi allarmanti.

A proposito di messaggi allarmanti. La singolarità, il superamento dell'intelligenza artificiale rispetto a quella umana, è forse l’aspetto che più spaventa di questi sistemi. Al momento è un'ipotesi possibile?

Matematicamente sì, ma che lo sia realisticamente è molto improbabile o comunque molto lontano nel futuro.

Perché?

L’intelligenza artificiale ha come obiettivo quella di avere molti task, per essere al pari dell’uomo però devono essere infiniti. Anche se Q* fosse all'altezza di un ragazzino di quinta elementare, avrà comunque delle limitazioni. E poi non basta saper svolgere tanti compiti, bisogna anche farli bene.

E l’intelligenza artificiale fatica ancora. 

Sì, non è in grado di svolgere bene tutti i compiti che le vengono richiesti. Ma al di là delle capacità, la singolarità si può verificare se noi ci approcciamo male a questa tecnologia, se la lasciamo andare senza saperla governare, senza capirla, o se la lasciamo in mano a pochi.

90 CONDIVISIONI
377 contenuti su questa storia
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views