
La lettera di Dario Amodei è stata una boccata d’aria fresca. Quando ho letto che una delle più promettenti aziende di intelligenza artificiale aveva osato dire no al Pentagono ho pensato: siamo di fronte a un bivio. Due opzioni. La prima: il caso diventa un precedente. Chi si schiera sarà complice, quindi, forse, non sarà così semplice per il Pentagono trovare qualcun altro disposto a inchinarsi. La seconda: Anthropic subirà una punizione esemplare e qualcun altro prenderà il suo posto al servizio del Pentagono. Purtroppo ha vinto la seconda.
OpenAI con un messaggio, permettetemi, imbarazzante, ha annunciato che collaborerà con il Dipartimento della Guerra. Intanto Trump ha dato la sua frustata sulla schiena di Anthropic, bloccando qualsiasi collaborazione passata presente e futura con l’azienda. Liquidata con un “non ci serve più”. Si sa con Trump funziona così: o se con o sei contro.
Ma cosa è successo? Siamo di fronte a un rifiuto categorico. Il Pentagono chiede pieno accesso alle funzionalità dell’IA di Anthropic e l’azienda dice no. Il motivo è semplice: teme che i suoi modelli vengano utilizzati come strumenti di sorveglianza di massa e per realizzare armi completamente autonome. E come darle torto. L’ICE in questo momento sta utilizzando tecnologie da Grande Fratello. Spyware, monitoraggio dei social, software per ottenere dati sulla posizione dei telefoni, app di riconoscimento facciale, lettori di targhe e scanner dell'iride. La lista è lunga.
Il rifiuto di Anthropic non era scontato, è un no prezioso. Un sacrificio necessario che OpenAI ha reso vano. Per potere, per soldi, per posizionamento. Per non mettersi contro Donald Trump, aggiungo.
Ma immaginiamo per un secondo che la prima opzione si fosse avverata. Amodei dice di no, le principali aziende decidono di seguirlo. Il Pentagono si ritrova con realtà di serie B. Le uniche disposte a collaborare ma con strumenti più scadenti. L’unico modo per far ritornare i Big dell’IA è scendere a patti, mettere paletti, arrivare ad accordi che assicurino come verrà utilizzata e soprattutto come non verrà utilizzata la loro intelligenza artificiale. Sarebbe stato bello. Ma stiamo andando da tutt’altra parte.
Il no di Anthropic non è solo un rifiuto commerciale. Era un tentativo di tracciare un confine. E i confini, quando vengono cancellati, non spariscono soltanto: spostano più avanti ciò che siamo disposti ad accettare.