Anthropic si affida alla religione: incontrati 15 leader cristiani per insegnare all’IA a essere più “buona”

In un mondo in cui l'intelligenza artificiale è destinata a incidere sempre più profondamente sulle decisioni e sui comportamenti delle persone, una parte dell'industria tecnologica inizia a interrogarsi su come dotare questi sistemi di un orientamento etico più solido. Anthropic, una delle realtà più influenti nel settore, ha scelto di esplorare una strada poco battuta, quella della religione, per rendere il proprio modello di IA non solo più sicuro ed efficiente, ma anche più "buono". Per farlo, l'azienda che ha sviluppato Claude ha recentemente interpellato un gruppo di religiosi cristiani per trarre alcune indicazioni utili a rendere l'IA in grado di rispondere positivamente anche di fronte a dilemmi etici complessi. Le discussioni hanno spaziato dal modo in cui un chatbot dovrebbe rispondere a una persona in difficoltà emotiva fino a interrogativi più radicali, come la possibilità di considerare l'intelligenza artificiale come un'entità senziente.
Il tentativo di umanizzare la macchina
Stando a quanto riportato dal Washington Post, alla fine di marzo i vertici dell'azienda guidata da Dario Amodei avrebbero incontrato a porte chiuse 15 esponenti di spicco delle confessioni cristiane negli Stati Uniti (cattoliche e protestanti) per discutere su come addestrare lo sviluppo morale di Claude. Tale esigenza nasce soprattutto dal fatto che la prossima versione del modello di IA – ancora in fase di testing – potrebbe rivelarsi il più potente mai realizzato. Un primo assaggio di tali potenzialità lo abbiamo avuto alla fine della scorsa settimana, quando il Segretario del tesoro Scott Bessent ha convocato in tutta urgenza un incontro a Washington con i grandi nomi della finanza americana dopo che l'IA di Anthropic ha scovato migliaia di falle nei sistemi informatici che proteggono l'ecosistema bancario statunitense.
Nell'incontro con i leader religiosi, i ricercatori di Anthropic hanno quindi discusso di come l'IA potrebbe rispondere a dilemmi etici e morali, soffermandosi soprattutto sull'interazione diretta con gli utenti. Come dovrebbe porsi un chatbot di fronte una persona con istinti suicidari o incline all'autolesionismo? Che feedback potrebbe fornire a coloro i quali hanno appena vissuto un lutto e sono in cerca di conforto? Dovrebbe immedesimarsi e offrire una spalla su cui piangere o pendere le distanze e ricordare all'utente di essere soltanto una macchina?
Sempre secondo le testimonianze raccolte dal Post, gli scenari affrontati nel corso dell'incontro hanno anche riguardato tutte quelle situazioni in cui un certo problema potrebbe essere risolto con la disattivazione della stessa IA. Un problema per nulla marginale, soprattutto perché i primi esperimenti in tal senso hanno dimostrato come i modelli di intelligenza artificiale possano addirittura mentire o ignorare i comandi pur di non spegnere un altro modello generativo.
L'IA deve essere etica?
La decisione di Anthropic deve essere letta a partire da una considerazione. Come abbiamo già potuto constatare in questi primi anni, l'IA non è affatto uno strumento neutro. Influenza le decisioni, le relazioni e perfino gli stati emotivi di chi la utilizza. E i metodi tradizionali per controllarla (filtri, linee guida, dataset selezionati) hanno finora mostrato limiti evidenti. I sistemi restano imprevedibili, talvolta contraddittori, incapaci di gestire situazioni delicate come il disagio psicologico degli utenti. Da qui il tentativo di Anthropic di fare uno step in più, riconoscendo come la dimensione etica non possa essere ridotta a un mero problema ingegneristico
L'azienda utilizza già una sorta di "costituzione" interna, un documento di intenti e prìncipi volti a orientare il comportamento di Claude e lo scontro con il Pentagono per il rifiuto di utilizzare Claude per progetti militari controversi prova l'attenzione dell'azienda alla necessità di imporsi dei limiti da non superare. Tradizioni religiose come quella cristiana offrono però sistemi morali stratificati, costruiti nei secoli, capaci di affrontare (indipendentemente dai giudizi personali) questioni come la sofferenza, la responsabilità individuale e i limiti morali. Nella visione di Anthropic, il ricorso alla religione potrebbe quindi funzionare come una sorta di correttivo per integrare visioni morali diverse e aiutare a costruire modelli più sensibili al contesto umano, meno inclini a risposte fredde o inappropriate. Non è un caso che tra i temi affrontati ci siano stati il suicidio, l'autolesionismo, la perdita: ambiti in cui le parole scelte e il tono adottato fanno la differenza quanto, se non più, del contenuto.
I dubbi di un salto verso la coscienza artificiale
Il tentativo ha però sollevato anche diversi interrogativi. Il primo, ovviamente, riguarda il fatto che le religioni possono affrontare il medesimo problema morale seguendo valori e precetti differenti. Ciò che per un cristiano potrebbe apparire lecito non è detto che lo sia per un musulmano o un indù (pensiamo semplicemente alla questione dei divieti alimentari). Affidarsi a una specifica tradizione religiosa può arricchire il modello, ma anche introdurre bias difficili da gestire in contesti globali e pluralistici. Su questo punto però un portavoce di Anthropic ha messo le mani avanti dichiarando che in futuro verranno interpellati anche gli esponenti di altre fedi.
Il secondo punto di domanda riguarda il fatto che, impartendo all'IA un'educazione "morale" si rischia di spostare l'attenzione dalla responsabilità umana di chi progetta e utilizza questi sistemi a quella della macchina stessa. Un'ambiguità che emerge già nel dibattito pubblico, dove talvolta gli errori dei chatbot vengono trattati come se fossero colpe della macchina e non del sistema che lo ha portato ad agire in quel determinato modo. "Cosa significa dare a qualcuno una formazione morale? Come possiamo assicurarci che Claude si comporti bene?" si è chiesto Brian Patrick Green, cattolico praticante che insegna intelligenza artificiale ed etica della tecnologia alla Santa Clara University citato dal Washington Post.
Infine, resta il dubbio su quanto un sistema statistico, addestrato su enormi quantità di dati, possa davvero interiorizzare simil prìncipi etici. Recenti ricerche sull'interpretabilità suggeriscono che modelli di IA, Claude incluso, possano simulare una sorta di coscienza, ma siamo ancora lontani da una comprensione reale dei loro processi decisionali. Parlare di coscienza o spiritualità, per molti esperti, resta ancora prematuro.