La macchina della censura: l’IA di Trump ha iniziato a ripulire anche il linguaggio

Che l'intelligenza artificiale sia diventata un'arma controversa utilizzata dal governo degli Stati Uniti già lo sappiamo. L'ICE, per esempio, ha integrato senza problemi nel suo arsenale nuovi strumenti di monitoraggio IA avanzati. Il sistema però è capillare è ben più ampio. Come rivela un inventario interno pubblicato dal Dipartimento della Salute e dei Servizi Umani (HHS) il governo avrebbe utilizzato l'IA di Palantir – una delle aziende più potenti e spaventose dell'universo tech e la stessa che fornisce software all'ICE – per la sua guerra contro l'ideologia gender e i programmi DEI (Diversity, Equity, and Inclusion).
Secondo l’inventario, da marzo 2025 Palantir è stata incaricata di analizzare le descrizioni di posizioni lavorative nei programmi finanziati dall’Administration for Children and Families (ACF), l’agenzia interna all’HHS che gestisce finanziamenti per servizi per l’infanzia, welfare familiare e adozioni. Gli strumenti di IA hanno individuato automaticamente termini o frasi in contrasto con nuove direttive della Casa Bianca e cancellato silenziosamente l'universo della diversity, equity, inclusion (DEI) e dell'ideologia gender. È una guerra politica, culturale, una censura che parte dalla lingua. E come ci ha ben insegnato George Orwell in 1984, chi controlla il linguaggio finisce per controllare anche il pensiero.
Algoritmi che “controllano” parole e concetti
Trump combatte due fronti: i programmi DEI e l'ideologia gender. Programmi DEI sta per diversity (diversità), equity (equità) e inclusion (inclusione) e sono politiche e iniziative adottate da aziende, scuole, università e organizzazioni per rendere gli ambienti più eque, aperti e rappresentativi per tutti. L'ideologia gender, invece, si riferisce a tutte le teorie e politiche secondo cui il genere non coincide necessariamente con il sesso biologico alla nascita.
Sono questi i bersagli del governo che l'intelligenza artificiale deve segnalare. E infatti, il sistema – sviluppato da Palantir Technologies insieme a Credal AI, una startup fondata da ex dipendenti dell’azienda – utilizza l'IA per esaminare le richieste di finanziamento e indicare automaticamente quelle che contengono riferimenti a inclusione, equità o alla comunità LGBTQ+. Le segnalazioni non equivalgono a un rifiuto automatico: il materiale contrassegnato viene poi riesaminato da personale umano dell’ACF.
Numeri e contratti poco trasparenti
Secondo i registri della spesa federale, l’HHS ha pagato oltre 35 milioni di dollari a Palantir nel 2025 in base a contratti che non menzionano esplicitamente la revisione del linguaggio né l’audit dei contenuti. Credal AI ha ricevuto quasi 750.000 dollari per fornire la sua piattaforma tecnologica.
Norme come il National AI Initiative Act impongono la pubblicazione di inventari ufficiali che elencano le applicazioni di IA in uso. Tuttavia, come riportato da Wired Usa, né Palantir né l'HHS hanno annunciato pubblicamente che il software dell'azienda fosse utilizzato per questi scopi.
Trump e la guerra contro DEI e gender ideology
Il controllo dell'IA si inserisce in una battaglia che Trump porta avanti da tempo. Il 20 gennaio 2025, il giorno della sua inaugurazione per il secondo mandato ha firmato l’Executive Order 14151 contro i programmi federali di DEI e l’Executive Order 14168 che impone una definizione binaria e biologica di “sesso” negando riconoscimento giuridico a identità di genere diverse da “maschile” o “femminile”.
Per capire meglio: il primo ordine chiede l’abolizione di qualsiasi politica, programma, contratto o sovvenzione che menzioni o riguardi i piani diversity, equity, inclusion & accessibility (DEIA), “equità” o “giustizia ambientale”. Il secondo, invece, ordina alle agenzie federali di interpretare tutte le norme e le politiche federali in base alla “immutabile classificazione biologica di sesso”, e proibisce l’uso di fondi federali per promuovere ciò che definisce “gender ideology”.
Effetti concreti oltre l’HHS
La “pulizia” linguistica non si limita ai controlli dell'HHS. A partire dai primi mesi del 2025, anche altre agenzie federali hanno iniziato a riesaminare documenti scientifici e progetti di ricerca per verificare la presenza di termini associati alle politiche di diversità, equità e inclusione. La National Science Foundation ha sottoposto a controllo progetti che contenevano parole molto ampie, come “inclusione” o “gruppi sottorappresentati”, richiedendo verifiche aggiuntive prima di procedere con i finanziamenti.
I Centers for Disease Control and Prevention (CDC) hanno invece sospeso o rallentato studi che facevano riferimento a identità LGBTQ+, bloccando anche la raccolta di dati relativi alle persone transgender.
Stop ai programmi DEI: l’effetto su Google, Meta e le non profit
Ma la caccia alle streghe non si ferma qui. Il presidente ha anche ordinato alle agenzie federali di contrastare qualsiasi politica del settore privato che favorisse i programmi DEI per minoranze, donne o altri gruppi specifici, minacciando anche cause legali o multe per le aziende che dessero priorità all’identità rispetto al merito nelle assunzioni.
Di conseguenza, alcune grandi aziende, come Google e Meta, hanno sospeso le iniziative DEI come eventi, corsi di formazione, campagne di reclutamento mirate e la pubblicazione dei report annuali. Secondo i dipendenti di Google ci sono stati anche cambiamenti interni: gruppi di risorse per i dipendenti hanno visto ridotte le loro attività e, in alcuni casi, è stato vietato affiggere volantini per eventi comunitari negli uffici.
Anche Microsoft si è tirata indietro, ha dichiarato di non pubblicare il report “tradizionale” perché l’azienda ha scelto di evolversi verso format più dinamici e accessibili, come video, storie e approfondimenti pratici sull’inclusione, assicurando che “missione e valori restano invariati”. Infine, per la paura di perdere l’accesso a fondi pubblici, quasi tremila organizzazioni non profit hanno riscritto statuti e dichiarazioni di missione, eliminando ogni riferimento esplicito alla DEI, anche in ambiti – come la ricerca sociale o la tutela delle vittime – dove quei concetti erano centrali.
L'IA al servizio di politiche controverse
L’impiego di sistemi automatizzati per selezionare, segnalare e potenzialmente escludere documenti in base al linguaggio pone domande profonde su libertà, trasparenza e utilizzo di strumenti IA. I sistemi sono impiegati non per accelerare analisi tecniche, ma per tradurre ordini politici controversi, intervenendo su quali idee – e quali gruppi – possono essere menzionati, finanziati o persino assunti.