24 CONDIVISIONI
video suggerito
video suggerito

“Causerà l’estinzione dell’umanità”: la lettera delle Big Tech contro l’intelligenza artificiale

Hanno firmato un testo breve ma allarmante tutti i protagonisti della Silicon Valley che stanno guardando da vicino l’ascesa dell’IA. Per loro deve essere trattata come una pandemia o un’arma nucleare.
A cura di Elisabetta Rosso
24 CONDIVISIONI
Immagine

"L'intelligenza artificiale potrebbe portare all'estinzione dell'umanità", l'ultima lettera delle Big Tech solletica ogni terrore distopico. In 22 parole hanno concentrato l'apocalisse, la guerra nucleare e le pandemia. Non è il primo allarme, era già apparsa uno scritto, firmato anche da Elon Musk, per chiedere di frenare l'IA. Sam Altman, amministratore delegato di OpenAI e creatore di ChatGPT aveva già lanciato un appello chiedendo al governo di regolamentare la tecnologia, il problema è entrato anche nella Casa Bianca, e arrivato sul tavolo del G7. E ora i creatori si trovano nella strana posizione di dover puntare il dito contro la loro stessa creatura.

"Mitigare il rischio di estinzione dell'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare", si legge nello scritto firmato da Sam Altman, Demis Hassabis, amministratore delegato di Google DeepMind, Dario Amodei di Anthropic e anche Geoffrey Hinton e Yoshua Bengio, vincitori del Premio Turing 2018 e battezzati padrini dell'intelligenza artificiale. La dichiarazione è stata pubblicata sulla pagina web del Center for AI Safety.

Non sono tutti d'accordo sui rischi

La dichiarazione paragona l'IA a una guerra nucleare, e in realtà questa analogia era già apparsa in un post sul blog OpenAI: "Probabilmente alla fine avremo bisogno di qualcosa come un'AIEA [Agenzia internazionale per l'energia atomica] per gli sforzi della superintelligenza", ha scritto l'azienda. Anche Hinton durante un'intervista al New York Times aveva spiegato che"in questo momento, il rischio è che GPT-4 e strumenti simili, eclissino una persona nella conoscenza generale. E dato il ritmo dei progressi, ci aspettiamo che le cose migliorino abbastanza velocemente. Quindi dobbiamo preoccuparcene."

Il professore Yann LeCun, informatico e ricercatore presso Meta, ha affermato che questi avvertimenti apocalittici sono esagerati. E non è l'unico. Anche Arvind Narayanan, informatico dell'Università di Princeton, aveva dichiarato alla BBC che gli scenari fantascientifico non sono realistici: "L'attuale intelligenza artificiale non è neanche lontanamente capace di far materializzare questi rischi. Di conseguenza, distrae l'attenzione dal danni a breve termine dell'IA". I danni a breve termine dell'IA sono comunque urgenti. Tra questi la disinformazione, i chatbot spesso producono fake news o commenti e testi pieni di pregiudizi, ma anche il tema del lavoro. Ci sono già le prime aziende che stanno licenziando i dipendenti per assumere i chatbot, il Ceo di IBM Arvind Krishna ha spiegato che nei prossimi cinque anni il 30% delle posizioni di back-office verranno sostituite dall’intelligenza artificiale.

La prima lettera contro l'intelligenza artificiale

Già a marzo 2023 era apparsa una lettera che elencava tutti i rischi della nuova tecnologia. È stata pubblicata sul portale del Future of Life Institute ed stata è firmata, fra gli altri, anche da Elon Musk. Ma ci sono anche altri padri fondatori della Silicon Valley, come Steve Wozniak, l’uomo che insieme a Steve Jobs ha creato Apple. O ancora lo scrittore Yuval Noah Harari e il fondatore di Skype Jaan Tallinn. Hanno chiesto a voce alta uno stop per le macchine che corrono più veloci degli uomini.

“Invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi lo sviluppo di sistemi di intelligenza artificiale più potenti di GPT-4”. Nel testo infatti si evoca l’intervento dei governi per creare nuove regole sull’intelligenza artificiale: “Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria”. Lo stesso Sam Altman il 16 maggio di fronte a una giuria di senatori ha messo sul banco tutte le sue paure. "I miei peggiori timori sono che causiamo danni significativi, noi, il campo, l'industria tecnologica, causiamo danni significativi al mondo", ha detto. "Pensa che se questa tecnologia va storta, può andare completamente storta e vogliamo essere espliciti al riguardo. Vogliamo lavorare con il governo per evitare che ciò accada".

24 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views