video suggerito
video suggerito
Opinioni
Intelligenza artificiale (IA)

L’intelligenza artificiale non sostituisce il sapere umanistico, lo rende necessario

L’IA è sempre più presente nella divulgazione storica e culturale, ma non comprende né interpreta. Proprio questa distanza dal senso e dal contesto rende il metodo umanistico indispensabile nell’ecosistema digitale.
A cura di Lorena Rao
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Histairy è un account social che pubblica video a tema storico realizzati con intelligenza artificiale (IA). Ce n’è uno ad esempio che ci mette nei panni di un dottore durante la Peste Nera del Trecento. La visuale è in prima persona, l’atmosfera è tetra. Un video dall’effetto senza dubbio wow, ma storicamente pieno di errori: il dottore indossa i guanti in latex, sperimentati nel XIX secolo, cinquecento anni dopo circa. Anche la maschera, quella tipica a forma di becco, non rispecchia la fedeltà storica. L’account è seguito da 979.000 persone. La Storia secondo l’IA è un concept che intriga e cattura, anche quando si raggiungono risultati surreali, controversi. È il caso dei video fatti con Sora AI con Martin Luther King in versione wrestler, stand-up comedian, rapper. Irrispettosi per Bernice King, figlia dell’attivista per i diritti civili degli afroamericani assassinato a Memphis nel 1968.

Dopo musica e posti di lavoro, sembra dunque che l’IA si stia impossessando anche del passato, del sapere. Chiariamo subito: si tratta di un’iperbole, che tuttavia apre la strada a una riflessione su intelligenza artificiale e sapere umanistico, ossia le discipline che mettono al centro l’uomo quali Storia, Filosofia, Lettere, Arte. Materie di studio oggi reputate anacronistiche ma che nel prossimo futuro potrebbero essere sempre più necessarie. E proprio grazie all’IA.

L’IA per la cultura, tra rischi e opportunità

Lo scenario paventato si basa sulla possibilità dell’intelligenza artificiale di riscrivere il passato, e quindi la cultura. Ma è un pericolo concreto? “L’IA non ‘pensa’, non interpreta e non comprende il passato. È un dispositivo statistico-linguistico che opera per correlazioni su grandi quantità di testi” spiega a Fanpage.it Michele Lacriola, dottore di ricerca in Storia contemporanea e docente di Storia e Filosofia, impegnato anche nel settore delle Digital Humanities. La sua è una precisazione doverosa, che però non elimina i dubbi in relazione all’IA come strumento per la ricerca e il sapere. “Il rischio più evidente è la credibilità ingannevole: l’IA produce contenuti molto ben scritti, fluidi, plausibili. È proprio questa sicurezza che li rende convincenti, anche quando contengono errori o semplificazioni”.

Questo perché l’IA non è in grado di analizzare le fonti a cui ricorre, di verificarne la veridicità. “Anche quando prova a citarle, l’IA può confondere gli autori, assemblare informazioni incompatibili o presentare insieme fonti di qualità molto diversa senza chiarirne l’origine. Questo mina una delle basi più importanti della ricerca e divulgazione culturale: la trasparenza e la verificabilità”. E qui entra in gioco uno scenario dai tratti distopici. “Se il pubblico smette di chiedere ‘da dove arriva questa informazione?’, finisce per affidarsi alla macchina invece che al metodo”, ammonisce Lacriola, soprattutto in riferimento alla capacità dell’IA di rafforzare le narrazioni dominanti, che non sempre coincidono con la verità.

“L’IA può essere vista come uno specchio: riflette le gerarchie culturali, quindi tende a rafforzare narrazioni mainstream, stereotipi e interpretazioni tradizionali” specifica Lacriola. “Insomma, amplifica ciò che è già forte e silenzia ciò che è già debole. In questo senso, l’IA non è neutra, bensì è conservativa più che rivoluzionaria”. Non solo, l'intelligenza artificiale è anche classista. "Le prestazioni migliori sono riservate a chi può pagare, mentre l’accesso gratuito offre versioni meno potenti e più limitate", aggiunge Lacriola. "Inoltre, gli utenti non paganti contribuiscono comunque al sistema fornendo dati, interazioni e correzioni che addestrano l’IA senza alcuna remunerazione. Si crea così un doppio livello: chi paga ottiene valore, chi non paga produce valore per altri".

Se non interrogata in modo corretto, l’intelligenza artificiale rischia di semplificare la realtà attraverso i casi più noti e, perché no, più virali. Il risultato è un appiattamento della cultura, portando nel tempo alla perdita del senso critico. Già uno studio preliminare del MIT, intitolato Your Brain on ChatGPT e pubblicato a giugno 2025, ha messo in rilievo come l’uso dell'IA più diffusa al mondo diminuisce l’attività cerebrale durante la stesura di un saggio accademico. Se poi aggiungiamo la possibilità di accettare come verità assoluta risposte date da una macchina, incapace di comprendere e interpretare, sarebbe la fine dell’uomo come essere pensante. Lo diceva pure Cartesio: cogito ergo sum.

“Le risposte dell’IA sono spesso ordinate, pulite, lineari. Ma la cultura non è così. La cultura è fatta di problemi aperti, domande irrisolte, tensioni. Se il pubblico si abitua a una versione light del sapere, potrebbe percepire come inutile o difficile tutto ciò che non rientra in quella chiarezza artificiale”, afferma Lacriola. “In questo scenario si inserisce anche la capacità dell’IA di rendere virali contenuti manipolati. Basti pensare con quale velocità si sono diffuse teorie fantasiose sulla Sardegna che in realtà è l’antica Atlantide o sull’Impero Romano mai esistito”.

Ed è qui che entra in gioca l’approccio umanistico, capace di trasformare tutto questo in risorsa. “Come detto prima, L’IA è molto brava a produrre contenuti medi ben scritti. Proprio per questo rende più evidente ciò che non sa fare: interpretare in profondità, contestualizzare, formulare giudizi storici fondati”. Spiega il docente. “Se usata correttamente, l’IA non indebolisce le discipline umanistiche, ma ne mette in luce la specificità e il valore”. E questo potrebbe avere risvolti positivi. Anche a scuola.

In uno studio del 2025 pubblicato su ScienceDirect, è emerso che oltre il 70% dei liceali mondiali utilizza ChatGPT per svolgere i compiti. Un dato che l’approccio umanistico potrebbe rendere vantaggioso nell’ambito scolastico. “Portare l’IA in classe permette di darle un significato educativo: si toglie l’aura del ‘trucchetto’ e si mostra che è uno strumento come altri, da usare con criterio”, afferma Lacriola. “Basta far generare all’IA una spiegazione storica e poi confrontarla con il manuale e con le fonti: emergono errori, semplificazioni, omissioni. Gli studenti capiscono così, in modo molto concreto, che la forma non garantisce la verità. È una lezione di metodo storico, ma anche di educazione civica”.

Umanesimo 3.0?

Attraverso queste premesse è più facile immaginare il futuro prossimo in chiave meno distopica di come si prospetta. Addirittura potrebbe essere realistico parlare di Umanesimo 3.0. Un passaggio ulteriore dalla versione 2.0, incentrata su comunicazione e scienza. Il tutto per merito dell’IA. “Se viviamo in un mondo in cui i testi si generano da soli, le immagini si creano con un click e le informazioni circolano in forme sempre più persuasive, ciò che manca non è la produzione: è l’interpretazione”, chiarisce Lacriola. “C’è bisogno di persone capaci di leggere criticamente, decifrare il senso, capire i contesti, distinguere il vero dal plausibile, il complesso dal semplificato. È un lavoro umanistico per eccellenza”.

In breve, discipline e professionisti dell’area umanistica potrebbero avere una rivalsa grazie alla tecnologia. “In un futuro distopico, gli umanisti diventano i professionisti più attrezzati per difendere ciò che rende umano il pensiero: la capacità di dare senso al mondo”, conclude con ottimismo Lacriola. “In altre parole, più la tecnologia diventa potente nel campo della produzione linguistica e culturale, più diventa prezioso chi sa interpretarla”.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views