I confini dell’IA: perché ora Anthropic è disposta a bloccare ogni accordo con il Pentagono

Dario Amodei è il fondatore di Anthropic. Classe 1983, oltre al nome ha anche origini italiane. Insieme a un gruppo di ricercatori fuoriusciti da OpenAI ha lavorato a Claude, uno dei large language model più apprezzati dagli sviluppatori che si occupano di coding. Nelle ultime ore Amodei è finito al centro di uno scontro con il Pentagono, dopo che il Dipartimento della Guerra degli Stati Uniti gli ha chiesto di estendere l’utilizzo di Claude per nuovi compiti.
In un comunicato pubblicato sulle piattaforme di Anthropic, Amodei ha scritto che è disposto a rinunciare a qualsiasi accordo con il Pentagono nel caso il Dipartimento della Guerra volesse costringere l’azienda a lavorare su due nuovi progetti: la sorveglianza interna di massa e le armi completamente autonome. La motivazione è chiara: “In un ristretto numero di casi riteniamo che l'IA possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile”.
Le ragioni di Anthropic: il problema della sorveglianza e delle armi autonome
Amodei è sceso nello specifico. Ha spiegato nel dettaglio perché non vuole collaborare con il Pentagono. Il primo punto è sul fronte interno: "La sorveglianza di massa basata sull'IA presenta gravi e nuovi rischi per le nostre libertà fondamentali”. Non solo. Amodei spiega che al momento usare strumenti di intelligenza artificiale nella sorveglianza di massa sarebbe legale ma solo perché la giurisprudenza non ha ancora affrontato con attenzione l’impatto di queste tecnologie:
“La legge non ha ancora raggiunto le capacità in rapida crescita dell’IA. Una potente IA consente di assemblare questi dati sparsi e singolarmente innocui in un quadro completo della vita di qualsiasi persona, automaticamente e su larga scala”.
Per le armi completamente autonome invece il rischio è troppo alto. Al momento lo stato dell’arte della tecnologia non consente ancora di creare armi completamente autonome che siano anche sicure: “Non forniremo consapevolmente un prodotto che mette a rischio i combattenti e i civili americani”.
Le conseguenze delle scelte di Anthropic
Anthropic ha spiegato anche cosa può succedere se il Pentagono deciderà di non proseguire con il contratto: “Ci impegneremo per consentire una transizione graduale verso un altro fornitore, evitando qualsiasi interruzione della pianificazione militare in corso, delle operazioni o di altre missioni critiche”. Non è chiaro al momento se ci sono già colloqui in corso per sostituire Claude con altri modelli di intelligenza artificiale.