L’IA a scuola è davvero un bene? Un report spiega perché rischia di “spegnere” il cervello degli studenti

Un computer che corregge i compiti, suggerisce le frasi giuste, prepara le verifiche e persino consola. La scena non appartiene a un film di fantascienza: è già realtà in molte scuole. Ma secondo un ampio studio del Center for Universal Education della Brookings Institution, il prezzo da pagare potrebbe essere più alto dei benefici. Il rapporto non analizza un disastro già avvenuto, ma prova a immaginare cosa potrebbe andare storto se l'utilizzo dell'IA nell'istruzione non venisse regolamentato e dosato con attenzione.
La ricerca ha coinvolto studenti, insegnanti, genitori ed esperti in 50 Paesi, incrociando interviste, focus group e centinaia di studi scientifici. Il verdetto? I vantaggi potenziali ci sono, ma a oggi i rischi sembrano superare i benefici. L'intelligenza artificiale può certamente aiutare a ottenere performance migliori, ma così com’è rischia di "minare lo sviluppo di base dei bambini". I danni sono già visibili, dicono i ricercatori, ma ancora riparabili.
Quando l'IA diventa un buon tutor
I punti a favore non mancano. L'IA è abile nel personalizzare i contenuti, adattando testi ed esercizi al livello dello studente. È una risorsa preziosa per chi impara una seconda lingua o per ragazzi con bisogni educativi speciali, come dislessia o altre forme di neurodivergenza. Può persino aiutare a superare il blocco dello scrittore: organizzare le idee, migliorare la sintassi, suggerire correzioni. Usata come supporto, spiegano i docenti intervistati, può "accendere la creatività" senza sostituirsi allo studente. Anche per gli insegnanti c'è qualche vantaggio pratico. L'assistenza del chatbot può infatti ridurre drasticamente il tempo necessario per scrivere email ai genitori, preparare le verifiche o tradurre una versione. Stando a uno studio statunitense citato dal report, l'IA può far risparmiare fino a sei ore di lavoro a settimana.
Il rischio del cervello in modalità risparmio energetico
Il problema nasce quando l’IA smette di aiutare e inizia a pensare al posto degli studenti. Il rapporto parla di "cognitive offloading", una delega mentale che rischia di trasformarsi in atrofia. Rebecca Winthrop, una delle autrici, è diretta: "Quando i ragazzi usano l’IA che dice loro qual è la risposta, non stanno più pensando. Non imparano a distinguere il vero dal falso, né a costruire un buon argomento". Come un robot che solleva pesi al posto nostro: il lavoro viene portato a termine, ma i muscoli non si allenano.
Il rischio principale è pertanto che in quei contesti dove gli studenti (ma spesso anche gli stessi insegnanti) sono solo interessati al voto, l'IA possa diventare la scorciatoia perfetta per ottenere ottime valutazioni senza troppi sforzi. Così facendo, però, bambini e ragazzi non ricevono un vero apprendimento e, come evidenziato dai dati raccolti nella ricerca, le competenze fondamentali per la formazione dei futuri adulti (lettura, scrittura, pensiero critico e persino creatività), subiscono un drastico calo. Alcuni insegnanti hanno raccontato che diversi studenti, se messi di fronte a un compito senza la possibilità di consultare l'IA, non sanno più da che parte cominciare per impostare un ragionamento. La dipendenza tecnologica, avverte lo studio, rischia di produrre nuove generazioni abituate a delegare il pensiero.
Problemi anche per la crescita emotiva
Lo studio incrociato di dati e casistiche ha portato alle luce anche un altro aspetto preoccupante, spesso poco considerato quando si parla di giovani e IA. L’uso massiccio dei chatbot, progettati per essere empatici e compiacenti, può infatti ostacolare lo sviluppo sociale dei ragazzi. Queste macchine tendono a confermare ciò che l'utente pensa e prova, senza mai metterlo in discussione. L'esempio che Winthrop ha riportato è lampante: se un ragazzo si lamenta dei genitori perché gli chiedono di lavare i piatti – un compito poco piacevole ma che contribuisce alla vita familiare – il chatbot tenderà a dare ragione alle rimostranze del giovane, rafforzando la sua convinzione di essere un incompreso. "Un amico invece direbbe: ‘bro, lavo i piatti sempre a casa mia. Non so di cosa ti lamenti. È del tutto normale'", ha sottolineato la ricercatrice. La differenza è sottile ma decisiva, poiché senza il confronto, diventa più difficile accettare il dissenso, superare le frustrazioni e costruire relazioni sane con il prossimo.
Uguaglianza o nuovi divari?
Uno degli argomenti maggiormente cavalcati dai promotori dell'uso dell'IA a scuola riguarda il fatto che l'intelligenza artificiale può effettivamente essere un potente strumento di inclusione. Il rapporto cita il caso dell’Afghanistan, dove programmi educativi basati sull'IA hanno portato lezioni alle ragazze escluse dalla scuola tradizionale, in più lingue e tramite semplici app. Per non parlare poi dei benefici che ne ricaverebbero gli studenti e le studentesse con Disturbi Specifici dell'Apprendimento (DSA), che grazie agli strumenti compensativi forniti dalla macchina potrebbero ottenere programmi d'apprendimento sempre più personalizzati ed efficaci.
Anche qui però c'è un rovescio della medaglia da considerare. I modelli più avanzati (e più affidabili) costano. "Le scuole più ricche potranno permettersi strumenti più accurati", avverte Winthrop, "ed è la prima volta nella storia dell’educazione digitale che bisogna pagare di più per avere informazioni migliori". Un paradosso che rischia di penalizzare chi ha già meno risorse.
Attenzione a disumanizzare l'apprendimento
La conclusione dello studio non è pertanto un rifiuto ostinato dell'IA, ma un monito sulla necessità di delineare una rotta chiara e condivisa per orientare il mondo scolastico in questa nuova sfida. Per favorire questo processo, il team di Winthrop propone tre parole chiave: prosperare, preparare, proteggere. Prosperare, spiegano i ricercatori, significa usare l'IA per migliorare l’apprendimento, non per svuotarlo. Preparare, vuol dire invece investire in una vera alfabetizzazione all'intelligenza artificiale, insegnando a studenti, insegnanti e famiglie come utilizzare in modo costruttivo uno strumento tanto potente. Proteggere, infine, è un concetto che implica regole chiare su privacy, sicurezza, benessere emotivo e sviluppo cognitivo. Meno compiti "transazionali", più curiosità. Meno chatbot accondiscendenti, più strumenti capaci di stimolare il pensiero critico. E una responsabilità politica nel garantire che nessuno resti indietro.