video suggerito
video suggerito
Intelligenza artificiale (IA)

I prompt IA che danneggiano il nostro cervello: tre effetti collaterali della delega cognitiva

Affidarsi troppo all’intelligenza artificiale rischia di compromettere le capacità di problem solving e favorire una dipendenza a lungo termine.
A cura di Elisabetta Rosso
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

All'intelligenza artificiale chiediamo di analizzare un testo complesso, controllare la lista della spesa o se ci sono errori nel CV. Di organizzarci un viaggio a tappe, consigli su un ristorante o regali originali per Natale. È veloce, semplice, comodissima. Basta una domanda, premi invio e il chatbot fornisce in pochi secondi una risposta. Questa crescente delega cognitiva solleva però una domanda cruciale: qual è davvero il prezzo nascosco dell'IA?

Cosa dice la ricerca scientifica

Ci sono già diversi studi che permettono di immaginare una risposta alla domada: qual è il prezzo nascosto dell'IA. Per esempio, nel 2024 il Massachusetts Institute of Technology (MIT) ha pubblicato uno studio in merito. I ricercatori hanno osservato l’attività cerebrale di 54 studenti universitari, provenienti dal MIT e da atenei limitrofi, mentre scrivevano brevi saggi. Alcuni utilizzavano ChatGPT come supporto, altri no.

Attraverso l’elettroencefalogramma (EEG), una tecnica che misura l’attività elettrica del cervello tramite elettrodi applicati sul cuoio capelluto, gli studiosi hanno rilevato un dato significativo: chi si affidava all’IA mostrava una minore attivazione delle reti neuronali associate all’elaborazione cognitiva profonda. Non solo, questi studenti faticavano di più a citare o ricordare parti del proprio elaborato rispetto a chi aveva scritto senza assistenza artificiale.

Secondo gli autori, il risultato evidenzia “l’urgenza di indagare un possibile indebolimento delle capacità di apprendimento” quando l’IA viene usata in modo sostitutivo e non complementare.

Efficienza contro pensiero critico

Risultati simili emergono da una ricerca congiunta della Carnegie Mellon University e di Microsoft, pubblicata nello stesso periodo. In questo caso, il campione comprendeva 319 lavoratori del settore impiegatizio che utilizzavano strumenti di IA generativa almeno una volta a settimana.

Analizzando oltre 900 attività affidate all’IA – dalla ricerca di insight nei dati alla verifica del rispetto di regole e criteri – i ricercatori hanno osservato una correlazione chiara: qando le persone erano convinte che l’IA “sapesse fare”, tendevano a controllare meno, riflettere meno e intervenire meno.

Lo studio avverte che, se da un lato l’IA può aumentare l’efficienza, dall’altro rischia di favorire una dipendenza a lungo termine, riducendo la capacità di risolvere problemi in modo autonomo.

Scuola e università: un quadro più sfumato

Il tema è particolarmente delicato in ambito educativo. Un’indagine pubblicata nell’ottobre 2024 da Oxford University Press ha coinvolto studenti delle scuole britanniche: sei su dieci hanno dichiarato che l’uso dell’IA ha avuto un impatto negativo.  

Eppure, il quadro non è univoco. Secondo la dottoressa Alexandra Tomescu, specialista di IA generativa presso OUP e coautrice dello studio, il 90% degli studenti afferma che l’IA li ha aiutati a sviluppare almeno una competenza, come la capacità di risolvere problemi, la creatività o la revisione dei contenuti. Allo stesso tempo, circa un quarto degli intervistati riconosce che l’IA rende “troppo facile” svolgere i compiti.

“È una situazione complessa e sfaccettata”, ha spiegato Tomescu alla Bbc. “Molti studenti non chiedono di usare meno l’IA, ma di essere guidati meglio su come usarla”.

Tutor digitale o scorciatoia cognitiva?

OpenAI ha recentemente pubblicato una raccolta di prompt pensati per aiutare gli studenti a usare l’IA in modo più formativo. L'obiettivo di OpemAI è crerare tutor virtuali che supportino lo studio, i compiti, la preparazione degli esami.

Non tutti, però, sono convinti che basti un uso “consapevole”. Il professor Wayne Holmes, docente all’University College London e studioso dei rapporti tra IA ed educazione, invita alla prudenza. Secondo lui, mancano ancora prove indipendenti su larga scala che dimostrino l’efficacia e la sicurezza dell’IA nei processi educativi.

Holmes parla di “atrofia cognitiva”, una tendenza già osservata in altri ambiti, per esempio la radiologia. U studio della Harvard Medical School, pubblicato nel 2023, aveva dimostrato come l’assistenza dell’IA avesse migliorato le prestazioni di alcuni medici nell’interpretare le radiografie, ma aveva peggiorato quelle di altri.

Il timore è che qualcosa di simile accada anche agli studenti: elaborati formalmente migliori, voti più alti, ma una comprensione più superficiale. “Il risultato finale è migliore”, sintetizza Holmes, “ma l’apprendimento reale è peggiore”.

Capire l’IA per usarla davvero bene

La conclusione condivisa da molti esperti non è un rifiuto dell’intelligenza artificiale, bensì una richiesta di alfabetizzazione critica. Capire come funzionano questi sistemi, quali dati utilizzano, come generano le risposte e quali limiti presentano è fondamentale per non trasformarli in una scorciatoia che impoverisce il pensiero.

“Non è semplicemente una calcolatrice più avanzata”, ha spiegato Holmes alla Bbc. “Ha implicazioni profonde. Non dico agli studenti di non usarla, ma di usarla sapendo cosa stanno facendo”.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views