Bocciata perché scambiata per ChatGPT: ma è davvero possibile capire se un testo è scritto da un’IA?

Anche un esame perfetto nell'era dell'intelligenza artificiale diventa un problema. Rosanna Tecola, studentessa di Lingue all'Università degli Studi Federico II di Napoli è stata bocciata, "quando ho chiesto spiegazioni ai professori mi hanno detto che non ho superato l'esame, perché a loro avviso il compito era stato realizzato con ChatGpt", ha raccontato a Fanpage.it.
"Secondo loro nel compito c'erano indicatori di intelligenza artificiale. Ma un conto è se scopri la persona che usa ChatGpt mentre fai il compito, ma non puoi usare gli indicatori in maniera postuma. Scrivere bene non è un difetto", ha aggiunto la studentessa. "Trattandosi di un esame a scelta, lo rifarò senza troppi problemi, però ci sono rimasta male." Il caso solleva una domanda spinosa: come facciamo a distinguere un testo scritto da un essere umano da uno generato da una macchina? La risposta non è così semplice.
Come si riconosce un testo “artificiale”?
Negli ultimi anni, docenti e piattaforme anti-plagio hanno adottato strumenti automatici per smascherare scritti generati da IA, come Turnitin, GPTZero o Copyleaks. Questi tool analizzano schemi di scrittura, per esempio la prevedibilità delle parole, la coerenza delle frasi, la ripetitività stilistica.
Non esiste però un sistema infallibile per scoprire se un testo è stato scritto da un’IA. Gli “AI detector” i basano su modelli statistici e spesso sono imprecisi. Capita che segnalino come “AI-generated” articoli di giornale o saggi, solo perché scritti in maniera lineare e senza errori.
La caccia all’errore funziona davvero?
Le intelligenze artificiali tendono a produrre testi molto coerenti, senza salti logici, con un uso moderato di aggettivi, spesso neutri. Quindi la caccia all'errore potrebbe essere un metodo amatoriale per riconoscere un testo generato con l'intelligenza artificiale. Non solo, anche l'uso creativo della punteggiatura, un aggettivo fuori posto, una metafora azzardata, possono essere il segno di una scrittura umana.
Anche questa prova del nove però non è infallibile. Si può chiedere a ChatGPT di “scrivere in modo più umano”, di inserire errori di proposito o di imitare lo stile di un ragazzo di quarta liceo o di uno studente universitario. Con una semplice istruzione, l’IA può costruire testi volutamente imperfetti, rendendo la distinzione sempre più sottile, e difficile da riconoscere.
Il paradosso della perfezione
Non è la perfezione il problema, ma l’incapacità di distinguere l’ingegno umano da quello artificiale. La vera sfida non è eliminare l’IA dalle aule, ma imparare a conviverci e utilizzarla come una risorsa. Per farlo, serve una scuola che sappia leggere oltre il testo finito: che chieda bozze, ragionamenti, fonti, e che insegni a studenti e docenti a usare l'intelligenza artificiale.
Almeno per ora, capire se un testo è frutto di una macchina o di un essere umano è più arte che scienza. Richiede esperienza, un occhio allenato e spesso un confronto diretto con chi lo ha scritto. Nel dubbio, punire la perfezione potrebbe essere la soluzione più ingiusta di tutte.