Ora sappiamo una cosa che non sa fare l’intelligenza artificiale: il problema dei giochi di parole

L'Intelligenza Artificiale sembra saper già fare tutto, ma ha ancora un pessimo senso dell'umorismo. A confermarlo è una nuova ricerca firmata da un team di studiosi della Cardiff University e Ca' Foscari Venezia e presentata alla Conference on Empirical Methods in Natural Language Processing (EMNLP) 2025 in Cina. Lo studio ha infatti dimostrato come i Large Language Model (LLM) – ossia quel tipo di IA che comprende ed elabora il linguaggio naturale – non sappiano cogliere l'ironia dietro le battute di spirito o i giochi di parole.
Perché i giochi di parole sono un rompicapo per le macchine
Un gioco di parole – pun in inglese – è una piccola acrobazia linguistica: sfrutta somiglianze di suono o di significato per creare un effetto a sorpresa. Uno degli esempi che i ricercatori hanno proposto all'IA è la frase: "Long fairy tales have a tendency to dragon". Per capirla bisogna un pò masticare l'inglese. Il verbo to drag on significa "trascinare", quindi il senso letterale della battuta sarebbe: "Le fiabe lunghe hanno la tendenza a trascinarsi". Scrivendolo tutto attaccato, il verbo si trasforma però in dragon, "drago", un mostro ricorrente nelle fiabe, che pertanto completa il senso del gioco di parole.
La piccola giravolta lessicale è immediatamente comprensibile a un essere umano (a patto che capisca la lingua) e funziona perché chi ascolta riconosce entrambi i sensi contemporaneamente. Si tratta di un'intuizione naturale, che vive sulle sfumature e sulle percezioni della persona che ascolta il calembour. Per il modello linguistico di un chabot come quello di Gemini o ChatGPT, invece, questa complessità rimane un mistero che ancora non sa imitare.
La "prova del nove": modificare una parola e vedere cosa succede
Per testare quanto gli LLM capissero davvero i giochi di parole, i ricercatori hanno adottato una strategia semplicissima:
prendere una battuta esistente e cambiare una parola chiave, così da farla smettere di essere una battuta. Risultato? Le IA continuavano a vedere giochi di parole che in realtà non esistevano. L'articolo, caricato sull'archivio digitale Arxiv, riporta l'esempio della battuta "I used to be a comedian, but my life became a joke" ("Ero un comico ma la mia vita è diventata uno scherzo"). Sostituendo il termine "joke” con "chaotic", il gioco di parole spariva, ma i modelli insistevano nel dire che la frase fosse un pun.
"La loro comprensione dell’umorismo è un'illusione", ha sintizzato José Camacho Collados, co-autore dello studio citato dal quotidiano britannico The Guardian. "Riconoscono gli schemi imparati durante l'addestramento, non il meccanismo che rende divertente un gioco di parole".
Le frasi che mettono l'IA all'angolo
Per andare oltre i test tradizionali, spesso troppo facili, i ricercatori hanno costruito due nuove raccolte di frasi, classificate come PunnyPattern e PunBreak. Non erano semplicemente liste di giochi di parole, ma strumenti modellati per far emergere i veri limiti delle IA. Le domande a cui dovevano rispondere erano principalmente tre:
- Capiscono un gioco di parole nuovo, mai visto prima?
- Mantengono il punto se la battuta viene "rotta" modificando un termine?
- Sanno spiegare perché una frase è (o non è) un gioco di parole?
I risultati sono stati eloquenti: quando il calembour veniva alterato anche di poco, la capacità di riconoscerlo crollava fino al 20%. In altre parole: se la battuta non è quella che il modello ha già memorizzato, l'IA inciampa.
Il cuore del problema: la differenza tra capire e ricordare
Il nodo centrale della situazione rilevata dal team di ricerca risiede dunque nel fatto che mentre gli esseri umani interpretano, i modelli linguistici associano. Se leggiamo "Mi chiamo Marina, ma non amo il mare", sorridiamo della coincidenza, ma capiamo che non è un gioco di parole. Un LLM, invece, potrebbe facilmente cascarci. È il limite di chi apprende per somiglianze statistiche e non per comprensione reale del contesto. Come spiegano i ricercatori, molti modelli "vedono giochi di parole dove bastano due suoni simili, anche se la battuta non ha alcun senso".
Perché tutto questo è importante anche fuori dai laboratori
Può sembrare un tema leggero, ma non lo è. Capire o meno un gioco di parole implica molto più del semplice umorismo: significa saper interpretare linguaggio non letterale.
E questo ha conseguenze dirette in campi come:
- Le traduzione automatiche, dove i giochi di parole sono un ostacolo enorme
- Le analisi automatiche dei commenti online, spesso contaminati da ironia
- Gli assistenti virtuali, che devono evitare risposte goffe o fuori luogo
- Lo studio dei testi letterari o pubblicitari, ricchi di sfumature e doppi sensi.
Il verdetto: l'umorismo resta (per ora) un talento umano
Lo studio ha concluso spiegando che la presunta abilità dell'IA nel capire l’umorismo sia in gran parte una sovrastima.
Funziona finché le battute sono previste, catalogate e familiari. Appena la frase si allontana dai modelli memorizzati, le IA vacillano. E anche quando riescono a cavarsela, spesso lo fanno per imitazione, non per comprensione reale. Una differenza sottile ma fondamentale."Le macchine riconoscono i contorni della battuta, non la sua anima", ha osservato uno degli autori.