La punizione esemplare di Trump a chi dice no: il caso Anthropic e la nuova linea rossa dell’IA

O sei con, o se contro Trump. Non ci sono vie di mezzo con il presidente. E se ti metti contro la paghi cara. Il caso Anthropic ne è la dimostrazione. Dario Amodei, fondatore della start up di intelligenza artificiale, ha osato dire no al Penatagono. Quando il Dipartimento della Guerra degli Stati Uniti gli ha chiesto di estendere l’utilizzo del large language model Claude, per nuovi compiti, Amodei si è tirato indietro. “In un ristretto numero di casi riteniamo che l'IA possa minare, anziché difendere, i valori democratici. Alcuni utilizzi sono semplicemente al di fuori di ciò che la tecnologia odierna può fare in modo sicuro e affidabile”, ha scritto in un comunicato ufficiale. Parliamo soprattutto di sorveglianza interna di massa e le armi completamente autonome.
Questo a Trump non è piaciuto. Era prevedibile. Il presidente ha annunciato che Washington non ha più bisogno dei prodotti dell'azienda e che "non intende più fare affare con essa. In poche parole ha tagliato fuori Anthropic. Una punizione esemplare.
La punizione di Donald Trump
Donald Trump ha dato l’ordine a tutte le agenzie federali di interrompere immediatamente l’utilizzo delle tecnologie sviluppate da Anthropic, nonostante sia una delle aziende più avanzate nel campo dell’intelligenza artificiale generativa.
L’annuncio, come di consueto è stato dato su Truth Social. Nel post ha spiegato che le tecnologie di Anthropic saranno progressivamente eliminate da tutte le attività governative entro sei mesi. L’impatto diretto colpirà soprattutto le imprese private che collaborano con il Dipartimento della Difesa: chi continuerà a lavorare su commesse militari potrebbe essere costretto ad abbandonare i modelli dell’azienda. Una presa di posizione che apre un fronte delicatissimo sul rapporto tra Stato e Big Tech nell’era dell’AI.
Il caso Anthropic e il no al Pentagono
Tutto è iniziato con una richiesta del Dipartimento della Difesa: garantire alle forze armate statunitensi pieno accesso agli strumenti di intelligenza artificiale di Anthropic, inclusi modelli avanzati come Claude, per “qualsiasi uso legale”. Secondo l’azienda, tuttavia, alcune applicazioni rischiano di superare limiti etici fondamentali. In particolare, Anthropic ha espresso preoccupazione per l’eventuale impiego dei propri sistemi in programmi di sorveglianza di massa sul territorio nazionale o nello sviluppo di armi completamente autonome, due ambiti che rappresentano da anni una linea rossa nel dibattito globale sull’IA.
Il segretario alla Difesa Pete Hegseth ha reagito duramente, annunciando l’intenzione di indicare Anthropic come “supply chain risk”, ossia un rischio per la catena di approvvigionamento. Una classificazione che, se formalizzata, impedirebbe a qualsiasi azienda che lavora con il Pentagono di intrattenere rapporti commerciali con la società californiana.
Quali sono le ripercussioni su Anthropic
La posta in gioco, almeno sul piano economico, è rilevante ma non decisiva per Anthropic. Il contratto in essere con il Pentagono vale circa 200 milioni di dollari, una cifra significativa ma modesta rispetto alla valutazione complessiva della società, che, secondo le ultime stime di mercato, supera i 380 miliardi di dollari, sulla base delle attuali entrate e delle previsioni di crescita nel settore dell’AI generativa.
Anthropic, fondata nel 2021 da ex dirigenti di OpenAI, è stata tra le prime aziende a fornire modelli linguistici avanzati ad agenzie governative impegnate anche in attività classificate, a partire dal 2024. Proprio questo precedente rende la rottura ancora più clamorosa.
Una battaglia che va oltre una singola azienda
Il confronto tra Washington e Anthropic si inserisce in un quadro più ampio: quello della definizione dei limiti etici e giuridici dell’intelligenza artificiale in ambito militare. Negli Stati Uniti, il governo può ricorrere al Defense Production Act, una legge del 1950 nata durante la guerra di Corea, che consente all’esecutivo di mobilitare risorse industriali private per esigenze di sicurezza nazionale. Hegseth ha suggerito di utilizzarlo per ottenere comunque accesso ai sistemi di Anthropic.
La società ha replicato che una simile designazione sarebbe “giuridicamente infondata” e ha annunciato l’intenzione di contestarla in tribunale. In un comunicato, l’azienda ha dichiarato che nessuna pressione o minaccia cambierà la propria posizione su sorveglianza e armi autonome.
L’industria si schiera: il sostegno di OpenAI
La vicenda ha avuto un effetto inatteso: la solidarietà di un concorrente diretto. Sam Altman, amministratore delegato di OpenAI, ha espresso pubblicamente sostegno ad Amodei, affermando che anche la sua azienda mantiene “linee rosse” sull’uso militare dei propri modelli. Altman ha precisato che eventuali contratti con il Dipartimento della Difesa escluderebbero impieghi “illegali o non compatibili con infrastrutture cloud”, citando esplicitamente sorveglianza interna e armi offensive autonome. Poco dopo, però, ha confermato un accordo tra OpenAI e il Dipartimento della Difesa per l’utilizzo dei modelli su reti cloud classificate, segno che la collaborazione resta solida.
Il rapporto tra Altman e Amodei è segnato da una storia comune. Amodei infatti è stato tra i primi dirigenti di OpenAI prima di lasciare l’azienda, insieme ad altri ricercatori, in seguito a divergenze strategiche che hanno portato alla nascita di Anthropic. Oggi le due società competono direttamente nel mercato dei chatbot, degli agenti intelligenti e delle soluzioni AI per imprese e istituzioni.
Una sfida politica e simbolica
Lo scontro ha un valore simbolico. Per la prima volta, una grande azienda americana di intelligenza artificiale si oppone apertamente a una richiesta del governo in nome di limiti etici sull’uso militare della tecnologia.
Secondo alcuni ex funzionari del Dipartimento della Difesa, la posizione del Pentagono poggerebbe su basi giuridiche “fragili”. E sul piano reputazionale, l’azienda potrebbe addirittura trarre beneficio dall’immagine di attore indipendente e attento alle implicazioni sociali dell’IA.
Resta però una domanda cruciale: fino a che punto le imprese tecnologiche possono – o devono – opporsi alle richieste di uno Stato che invoca la sicurezza nazionale? Il braccio di ferro tra la Casa Bianca e Anthropic potrebbe diventare un precedente determinante per l’intero settore. In gioco non c’è soltanto un contratto da 200 milioni di dollari, ma la definizione dei confini tra innovazione privata, responsabilità etica e potere pubblico nell’era dell’intelligenza artificiale.