video suggerito
video suggerito

I rischi nascosti dell’IA, la previsione degli esperti: “Ora è più facile creare un’arma biologica mortale”

Alcune intelligenze artificiali più sviluppate hanno ormai raggiunto capacità anche superiori a quelle di un virologo esperto: secondo questo studio qualora queste finiscano in mano di gruppi terroristici potrebbero essere utilizzate come strumento per creare nuove arme biologiche capaci di innescare nuove epidemie.
3 CONDIVISIONI
Immagine

Sembrano due argomenti completamente scollegati, eppure lo sviluppo e la diffusione universale dell'intelligenza artificiale (IA) potrebbe aumentare in modo allarmante il rischio di una nuova epidemia generata dall'uomo che potrebbe uccidere più di 100.000 persone. È quanto ha evidenziato un nuovo studio condotto dal Forecasting Research Institute, un ente di ricerca specializzato in previsioni su base scientifiche per migliorare le decisioni che riguardano la collettività e il bene comune.

Questa volta, i "forecaster", ovvero gli esperti di previsioni, hanno voluto esaminare i rischi di biosicurezza che si nascondono dietro ai nuovi Large Language Model (LLM), ovvero i modelli linguistici di grandi dimensioni, come ChatGPT di OpenAI, Gemini di Google o Grok di xAI (la start up di Elon Musk specializzata in intelligenza artificiale), dopo che, soprattutto negli ultimi mesi, proprio le principali società attive in questo settore hanno espresso preoccupazioni crescenti sul rischio che l'IA possa finire nelle mani di malintezionati e aiutarli a creare un'arma biologica capace di innescare nuove epidemie.

Lo studio

Per capire quanto questa scenario sia realistico – spiega il Time, che per primo ha condiviso lo studio – sono stati intervistati 46 esperti di biosicurezza e biologia e 22 esperti di previsioni (superforecaster). È stata poi realizzata una media delle risposte: secondo i ricercatori, considerato lo stato attuale delle cose, il rischio di una nuova epidemia causata dall'uomo è dello 0,3%. Tuttavia, poi è stata posta loro una seconda domanda, ovvero come cambierebbe la percentuale di rischio se l'IA raggiungesse capacità pari a quelle di un team di esperti nella risoluzione di un difficile test di virologia: dato questo ipotetico scenario il rischio annuale di un'epidemia causata dall'uomo da oltre 100.000 morti aumenterebbe dallo 0,3% all'1,5%. Un aumento di cinque volte.

I rischi di biosicurezza dell'IA

Tuttavia i ricercatori intervistati hanno sottostimato le capacità dell'IA, sostenendo che questo scenario non sarebbe stato raggiunto dai LLM prima del 2030. Invece è già successo: secondo una nuova ricerca dello stesso istituto, condotta in collaborazione con SecureBio, alcune IA più all'avanguardia sono già dotate di alcune capacità anche superiori di quelle che potrebbe avere un team di virologi esperti. In sostanza l'IA ha già raggiunto quegli standard che qualora finiscano in mani sbagliate potrebbero aumentare di cinque volte il rischio di una nuova epidemia generata dall'uomo.

Il nuovo sviluppo dell'IA rappresenta quindi un nuovo importante fattore di rischio che deve essere messo in conto nelle strategie di prevenzione: prima i limiti dell'IA in questo campo offrivano una protezione importante contro eventuali gruppi terroristici intenzionate a creare un'arma biologica in laboratorio, ma ora, grazie all'IA, l'esperienza necessaria per causare intenzionalmente una nuova epidemia "potrebbe – spiega Seth Donoughe, coautore dello studio – diventare accessibile a molte, molte più persone".

3 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views