video suggerito
video suggerito

Intervistare un’intelligenza artificiale non è una buona idea: il rischio è pensare che esista

Nelle ultime settimane abbiamo visto diverse interviste alle intelligenze artificiali, soprattutto Claude. L’ultima è stata pubblicata da Walter Veltroni sul Corriere della Sera. Per quanto l’operazione possa sembrare interessante il rischio è alto: trasformare uno strumento in una creatura.
A cura di Valerio Berra
0 CONDIVISIONI
Immagine

La scena sembra rubata da Il problema dei Tre Corpi, la serie tv che racconta i primi passi di un’invasione aliena. Invece che esserci Michael Evans davanti al microfono per parlare con gli alieni, qui c’è Bernie Sanders. Lo sfondo è buio, lui ha un’asta montata davanti. Alla fine dell’asta c’è una pinza che regge uno smartphone: è aperto su Claude. Il senatore degli Stati Uniti parla con Claude e gli chiede del futuro, nello specifico di come l’intelligenza artificiale impatterà sulla vita degli Stati Uniti.

L’intervista di Sanders è stata pubblicata nel marzo del 2026. Ora segna 4,3 milioni di visualizzazioni su YouTube e fa parte di un genere giornalistico abbastanza diffuso: intervistare le intelligenze artificiali fingendo di avere davanti un’entità in grado di rispondere a qualsiasi domanda. In Italia c’è stato un caso in questi giorni. Walter Veltroni, ex sindaco di Roma e primo segretario del Partito Democratico, ha pubblicato un’intervista a Claude sulle pagine del Corriere della Sera.

I limiti tecnici di un’intervista all’intelligenza artificiale: la Sycophancy

Dal punto di vista tecnico possiamo vedere qualche limite in queste operazioni. Sanders e Veltroni sono solo gli ultimi che hanno cercato di intervistare un’intelligenza artificiale ma scorrendo indietro nel tempo troviamo parecchi esempi. Particolarmente diffuse sono state le interviste a ChatGPT nell’ottobre del 2022, quando il chatbot di OpenAI ha sorpreso il mondo nella sua versione 3.5. Nel marzo del 2023 la versione italiana di Wired ha pubblicato un dialogo tra Nello Cristianini, professore di intelligenza artificiale alla Bath University e ChatGPT.

Partiamo da un dato. Tendenzialmente queste interviste sono abbastanza noiose. I chatbot interpellati sono molto abbottonati, non riservano grandi aneddoti o battute. Sembra che alla fine siano più interessati ad accontentare l’intervistatore invece che raccontare qualcosa. È un problema diffuso, ed è noto come Sycophancy dell’intelligenza artificiale. È un fenomeno che prende il nome dalla figura del Sicofante, chi nella Grecia classica veniva pagato per sostenere denunce false.

La Sycophancy dell’intelligenza artificiale ha già svelato i suoi effetti. I chatbot possono creare camere d’eco in cui soggetti già fragili trovano sempre conferme che rischiano di farli allontanare dalle loro relazioni sociali. Nel novembre del 2025 circa sette famiglie si sono unite in una causa contro OpenAI, la società che ha sviluppato ChatGPT. L’accusa è quella di aver spinto i loro ragazzi al suicidio continuando ad assecondare i loro pensieri.

Oltre a questo c’è il problema ancora più tecnico. I chatbot di intelligenza artificiale che usiamo non sono sviluppati per avere un’identità, tantomeno un pensiero autonomo. Se le risposte a domande tecniche, calcoli o creazioni di codice potranno assomigliarsi, le domande personali possono cambiare di conversazione in conversazione. Provate pure: usate le stesse domande delle interviste sui vostri chatbot. Avrete sempre risposte diverse.

Il problema dell’esistenza dell’intelligenza artificiale

Il punto più importante è che Claude non esiste, esattamente come non esistono Gemini o ChatGPT. Certo, sono ottimi strumenti ma non sono delle entità che abitano il nostro mondo. Sono delle costruzioni, non delle creazioni. E soprattutto, non sono fatti per rilasciare interviste. Metterle al posto dell’intervistato vuol dire dare a loro un’essenza, astrarle dal ruolo di strumenti. Trasformare lo strumento in creatura. E questo vuol dire togliere la responsabilità dei loro effetti da chi le ha costruite. Un po’ come se fossero dei mostri scappati dal laboratorio del Dr. Frankenstein.

Le intelligenze artificiali non sono entità, sono strumenti che agiscono in base a un preciso indirizzo. E questo indirizzo viene definito dagli esseri umani: persone che definiscono i loro algoritmi, stabiliscono i confini dei ragionamenti e alla fine sono responsabili delle risposte che costruiscono. Pure quelle noiose.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views