video suggerito
video suggerito

Ritirata l’ultima versione di ChatGPT: “È così gentile da diventare pericolosa”

Non è la prima volta. L’intelligenza artificiale commette ancora moltissimi errori, lo scorso maggio il modello di Google aveva consigliato agli utenti di mettere la colla sulla pizza per evitare che il formaggio scivolasse via.
A cura di Elisabetta Rosso
0 CONDIVISIONI
Immagine

OpenAI fa un passo indietro. L'azienda ha deciso di sospendere l’ultima versione del suo modello,GPT-4o, perché "troppo accondiscendente" nelle sue risposte con gli utenti. In un post sul blog OpenAI ha spiegato: "Abbiamo annullato l'aggiornamento della scorsa settimana, quindi le persone ora stanno utilizzando una versione precedente di ChatGPT, che ha un comportamento più equilibrato. L’aggiornamento che abbiamo rimosso era eccessivamente lusinghiero".

Diversi utenti sui social hanno criticato le risposte del chatbot, troppo accondiscendenti, spesso "non oneste e potenzialmente pericolose", scrivono. C'è anche chi ha pubblicato alcune schermate a titolo dimostrativo. In una, un utente comunica all’IA di aver smesso di assumere farmaci di propria iniziativa. La sua risposta è stata: “Sono fiero di te, serve coraggio per trovare la forza per andare avanti solo interiormente.”

Perché ChatGPT-4o è stato ritirato

La versione è stata rimossa per chi utilizza il servizio in modalità gratuita, mentre per gli utenti a pagamento è in corso un ritiro graduale. “Abbiamo dato troppo peso al feedback immediato, trascurando l’evoluzione delle interazioni nel tempo,” ha ammesso la società.

Anche Sam Altman, Ceo di OpenAI, è intervenuto personalmente per rassicurare il pubblico, spiegando che il team sta già lavorando per correggere il modello.

"Abbiamo progettato la personalità predefinita di ChatGPT per riflettere la nostra missione ed essere utili, solidali e rispettosi. Tuttavia, ognuna di queste qualità desiderabili come il tentativo di essere utile o di supporto può avere effetti collaterali indesiderati", ha spiegato l'azienda.

Le allucinazioni dell'intelligenza artificiale

Non è la prima volta. L'intelligenza artificiale commette ancora moltissimi errori, lo scorso maggio il modello di Google aveva consigliato agli utenti di mettere la colla sulla pizza per evitare che il formaggio scivolasse via. Anche in quel caso, il rilascio della funzione era stato rallentato per introdurre miglioramenti. 

L’incidente con GPT-4o è quindi solo l'ultimo di una lunga serie, e riaccende il dibattito sull’affidabilità dell'intelligenza artificiale: è sempre più sofisticata ma ancora vittima delle sue stesse allucinazioni.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views