L’IA può replicarsi come un virus: lo studio di Palisade Research che (per ora) non spaventa gli esperti

Non è ancora uno scenario da fantascienza in cui la tecnologia sfugge al controllo umano e prende il controllo del pianeta, ma se viene messa nelle giuste condizioni, l'intelligenza artificiale è già oggi in grado di replicarsi e "colonizzare" altre macchine. Proprio come un virus che si riproduce infettando altre cellule. A dirlo è un nuovo studio condotto da Palisade Research, organizzazione no-profit che dal 2023 analizza e osserva i rischi di sicurezza legati all'IA. Secondo quanto osservato dai ricercatori, alcuni modelli di IA si sono infatti dimostrati capaci di individuare le vulnerabilità di un sistema informatico, sfruttarle per ottenere l'accesso a nuovi server e trasferire al loro interno una copia completa di sé stessi. In pratica, l'IA ha eseguito da sola tutte le fasi necessarie per fare armi e bagagli, trasferirsi su un'altra macchina e continuare da lì la propria attività.
La ricerca: l'IA replica sé stessa a grande velocità
Lo studio ha coinvolto i modelli sviluppati dalle aziende più note, come OpenAI, Anthropic e Google. I ricercatori hanno costruito una rete controllata di computer che presentavano all'interno dei propri sistemi delle piccole falle e poi hanno chiesto all'IA di trovare questi punti deboli e usarli per replicarsi. I modelli più performanti ci sono riusciti, anche se spesso sono serviti diversi tentativi.
Secondo il rapporto, i sistemi più efficaci hanno copiato sia i propri "pesi" (weights), ossia i parametri numerici che determinano il funzionamento del modello, sia il software necessario per eseguirli. In alcuni casi, l'IA ha persino creato un sotto-agente a cui è stato delegato il compito di completare la replica. A sorprendere gli esperti è stata soprattutto la velocità di questa propagazione: sfruttando una catena di intrusioni e repliche, la stessa IA ha raggiunto in meno di tre ore ben quattro computer collocati in tre continenti diversi, tra Canada, Stati Uniti, Finlandia e India.
Per Jeffrey Ladish, coordinatore dello studio e direttore del Palisade Research, questi risultati indicano che il settore si sta avvicinando a una fase molto delicata. Intervistato dal quotidiano britannico The Guardian, Ladish ha infatti sostenuto che se questa capacità venisse potenziata, in futuro potrebbe diventare sempre più difficile "spegnere" un'IA ostile qualora questa fosse in grado di copiare autonomamente sé stessa su migliaia di macchine. Una prospettiva abbastanza inquietante, che si unisce ad una lunga lista di
Per gli esperti non è ancora il momento di preoccuparsi
I risultati dell'analisi, i cui dettagli tecnici possono essere visionati su GitHub, sembrano restituire uno scenario in cui l'IA sembra pronta a diventare un mix tra Terminator e l'Ultron della Marvel. In realtà, secondo molti addetti ai lavori, le conclusioni dello studio vanno collocate all'interno di un contesto ben definito e non lasciano spazio a letture troppo allarmistiche.
Innanzitutto, come ha fatto notare lo specialista di cybersicurezza Jamieson O'Reilly, non coinvolto nella ricerca, i test sono stati condotti in ambienti volutamente vulnerabili, con crepe e falle che erano state appositamente inserite per essere sfruttate. I sistemi delle aziende reali sono invece dotati di protezioni informatiche ben più solide e strutturate.
Per quanto riguarda la capacità di replicarsi, poi, l'IA non sembra aver inventato niente di nuovo: i malware capaci di auto-replicarsi esistono da decenni. La novità, semmai, risiede nel fatto che oggi siano modelli linguistici di grandi dimensioni a poter effettuare queste strategie "virali".
Un altro limite riguarda le dimensioni stesse delle IA moderne. Trasferire un modello avanzato significa spostare decine o centinaia di gigabyte di dati, un'attività difficile da nascondere in una rete aziendale. O'Reilly ha paragonato l'operazione al tentativo di entrare in un negozio di porcellane mulinando una palla al piede: tecnicamente possibile, ma molto rumorosa.
Certo, in futuro non sappiamo se l'IA si evolverà con nuove e più efficaci strategie per affinare le proprie tecniche di "riproduzione" (mettiamo tra virgolette per ricordare che in questi processi non c'è nulla di vivo e senziente), ma per ora, rassicurano gli esperti, il pericolo che Claude o ChatGPT mettano in pericolo l'umanità infettando i computer di mezzo mondo appare ancora piuttosto remoto.