video suggerito
video suggerito

L’IA di Google dà milioni di risposte errate: perché è ancora presto per fidarsi di AI Overviews

Un’analisi giornalistica rivela i limiti di Google AI Overviews: pur essendo corretta nel 90% dei casi, la funzione genera milioni di errori ogni ora. Tra fonti poco autorevoli come le pagine sociale e “allucinazioni” dei modelli Gemini, l’accuratezza cala a favore di risposte non sempre verificabili. È la prova che, per ora, gli utenti hanno ancora bisogno di verificare le informazioni che trovano sul web.
A cura di Niccolò De Rosa
0 CONDIVISIONI
Immagine

Le risposte generate dall'intelligenza artificiale di Google sono affidabili nove volte su dieci. Ma quel restante 10% di errori, alla scala del motore di ricerca più utilizzato al mondo, si traduce in numeri enormi, nell'ordine di milioni di risposte sbagliate ogni ora. Un problema non da poco per un motore di ricerca che, dopo l'introduzione della funzione AI Overviews, si è trasformato da semplice intermediario a vero e proprio editore, con tutte le responsabilità che tale passaggio comporta. Ad accendere i riflettori sulla questione è una nuova analisi del New York Times, realizzata con il supporto della startup Oumi, specializzata in intelligenza artificiale. L'indagine ha messo sotto la lente d'ingrandimento le prestazioni di Overviews e i risultati suggeriscono come, nonostante le enormi potenzialità dello strumento, sia sempre meglio verificare le risposte fornite dalla macchina prima di prendere clamorose cantonate.

I limiti di affidabilità di Overview

Introdotto nel 2024, AI Overviews è uno strumento che non si limita più a mostrare link correlati con le parole chiave utilizzate dagli utenti, ma produce direttamente risposte che vengono proposte in cima ai risultati di ricerca. Un cambiamento epocale che sta mutando il modo in cui le persone si approcciano al mondo dell'informazione e ha costretto i media tradizionali (giornali in primis) a rivedere totalmente il proprio modo di realizzare contenuti che, adesso, devono essere appetibili prima di tutto per l'IA che andrà a selezionare questa o quella pagina per attingere alle informazioni da restituire all'utente.

Se però questo sistema nella maggior parte dei casi permette alle persone di ricevere in pochi secondi esattamente ciò che stanno cercando – secondo l'indagine, le AI Overviews risultano corrette nel 90% dei casi – qualche volta le analisi dell'IA producono degli svarioni che, moltiplicati per l'enorme quantità di ricerche che vengono compiute ogni istante su Google, vanno ad accumulare una montagna di risposte imprecise o totalmente sbagliate. Su Fanpage.it avevamo per esempio raccontato il caso di un negozio di provincia che si trovava enormemente penalizzato da Google perché, secondo Overviews, semplicemente non esisteva e al suo posto veniva suggerito un diretto concorrente.

Non solo. La variabilità del sistema rende piuttosto complesso operare una valutazione stabile. La stessa domanda, ripetuta a distanza di pochi secondi, può produrre risposte diverse, anche contraddittorie tra di loro. Questo comportamento rende imprevedibile l'affidabilità del servizio e complica qualsiasi tentativo di misurazione definitiva.

Il problema delle fonti e le citazioni fuorvianti

Uno degli aspetti più critici riguarda le fonti. L'analisi di Oumi ha evidenziato come piattaforme come Facebook e Reddit, non proprio fonti istituzionali o particolarmente autorevoli, figurino tra i siti più citati dalle AI Overviews, anche nei casi di risposte errate. In particolare, Facebook è comparso nel 7% delle risposte inaccurate, contro il 5% di quelle corrette.

Non si tratta però solo di fonti deboli, ma anche di interpretazioni errate. Durante i test, in alcuni casi il sistema ha sì citato siti affidabili ma travisandone il contenuto, generando conclusioni sbagliate. Emblematico l'errore sulla casa-museo di Bob Marley: Google indicava il 1987 come anno di apertura, mentre il museo è stato inaugurato nel 1986. Le fonti collegate (tra cui anche una pagina Facebook e un blog di viaggi) risultavano incomplete o contraddittorie.

Anche quando le risposte sono corrette, però, spesso manca un adeguato supporto nelle fonti. In più della metà dei risultati esatti, secondo il New York Times, i link forniti non confermano pienamente quanto affermato. Il problema si è accentuato con il passaggio da Gemini 2 a Gemini 3, il modello alla base del sistema. Se da un lato l'accuratezza complessiva è migliorata (fino al 91%), dall'altro è aumentata la quota di risposte corrette ma non verificabili, salita dal 37% al 56%.

Allucinazioni ed errori di interpretazione

Alla base di queste criticità c'è il funzionamento stesso dei modelli generativi, che si basano su probabilità matematiche e non su regole fisse e criteri tagliati su misura per il controllo delle fonti. Questo li rende inclini ad allucinazioni ed errori di interpretazione. Può accadere che un'informazione corretta venga utilizzata per costruire una risposta sbagliata, oppure che dettagli secondari risultino inesatti pur in un contesto complessivamente corretto. Nel suo report, il New York Times ha citato casi evidenti, dall'identificazione errata di un fiume negli Stati Uniti fino a informazioni contraddittorie su personaggi noti o eventi storici.

Un sistema manipolabile

Un ulteriore rischio riguarda la possibilità di manipolare i risultati. Come osservato da esperti del settore, è sufficiente pubblicare contenuti ingannevoli e aumentarne artificialmente la visibilità per influenzare le risposte dell'IA. Un esperimento citato dal New York Times mostra come un semplice post satirico sia stato rapidamente trasformato da Google in una "verità" riportata nei risultati. Secondo gli autori dell'analisi Google continua a minimizzare il problema, sostenendo che i sistemi di sicurezza già in uso filtrano la maggior parte dei contenuti ingannevoli e che molti esempi riguardano ricerche poco realistiche. Tuttavia, il rischio di distorcere la realtà attraverso la percezione degli utenti rimane un grosso punto interrogativo per il futuro.

Quando un sistema come quello di Google imbocca l'utente con un risposta già sintetizzata, in alto nella pagina e con un'apparenza di autorevolezza, tende a ridurre la spinta dell'utente a verificare altrove. Anche un'informazione sbagliata o solo parzialmente corretta può così essere accettata come vera. A questo si aggiunge un elemento più sottile. L'IA non si limita a sbagliare, ma può costruire risposte plausibili, coerenti e ben scritte anche quando sono inaccurate. Questo rende gli errori meno riconoscibili rispetto a una fonte tradizionale, dove incongruenze o mancanze sono spesso più evidenti. E se tale dinamica riguarda ogni giorno milioni di risposte fornite dal motore di ricerca più usato al mondo, il problema appare tutt'altro che marginale.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views