video suggerito
video suggerito

Forse dovresti smettere di dire grazie a ChatGPT: il suo fondatore spiega perché

Un recente rapporto condotto dall’International Energy Agency ha rivelato che ogni prompt rivolto a ChatGPT richiede un consumo di elettricità dieci volte maggiore a quello impiegato da una ricerca su Google.
0 CONDIVISIONI
Immagine

"Dire grazie non costa nulla" ci dicevano i nostri genitori quando eravamo piccoli per educarci alle buone maniere. In realtà, oggi questo adagio potrebbe essere facilmente contraddetto: se stai ringraziando non un essere umano, ma un chatbot, la tua gentilezza infatti costa e nemmeno poco.

Lo ha dichiarato Sam Altman in persona, il fondatore e Ceo di OpenAI, nonché padre di ChatGPT, rispondendo su X (fu Twitter) al post di un utente che si chiedeva "quanti soldi OpenAI perda in costi di elettricità per le persone che dicono ‘per favore' e ‘grazie' ai loro modelli".

La dichiarazione di Altman: "Decine di milioni di dollari ben spesi"

Il post, che è stato visto più di 5,8 milioni di volte, deve essere arrivato anche a Altman, che dal suo account ufficiale ha commentato: "Decine di milioni di dollari ben spesi, non si sa mai". Ironicamente, nemmeno due settimane dopo OpenAI è stata costretta a sospendere l’ultima versione del suo modello, GPT-4o, perché "troppo accondiscendente" nelle risposte, a tal punto – ha denunciato qualcuno – da diventare potenzialmente pericoloso per gli utenti.

Certo, quella di Altman era chiaramente una battuta, un gioco. Ma nasconde una verità a cui quasi nessuno di noi pensa mentre "parla" con ChatGPT: ogni scambio, ogni risposta con qualsiasi chatbot ha un costo energetico – e quindi economico – per nulla indifferente.

Quanta energia consumano i chatbot

Tanto per avere un'idea, un recente rapporto condotto dall'International Energy Agency ha rivelato che ogni prompt rivolto a ChatGPT richiede un consumo di elettricità dieci volte maggiore a quello impiegato da una ricerca su Google.

Inoltre, non ci sono soltanto i costi energetici necessari per permettere all'IA di generare, bisogna tenere in conto anche l'enorme quantità di acqua che serve a raffreddare i server che generano i dati, anche se si tratta soltanto di contenuti testuali. Ad esempio, nel 2023 una ricerca dell'Università della California ha stimato che il modello GPT-3 consuma una bottiglia d'acqua da 500 ml per circa 10-50 risposte, senza contare i milioni di litri di acqua impiegati durante l'addestramento dei modelli: lo stesso studio prevedeva che entro il 2027 la domanda di acqua destinata all'IA potrebbe ammontare ai 4,2-6.6 miliardi di metri cubi, circa la metà di acqua che utilizza metà Regno Unito.

Ora, se pensiamo a come i modelli linguistici di grandi dimensioni siano entrati a gamba tesa nella nostra quotidianità – soprattutto i modelli GPT di OpenAI, ma anche Gemini di Google, e per ultimo  Meta AI di Meta – è verosimile il numero di persone che li utilizza abitualmente è destinato a crescere in modo esponenziale.

A questo punto, forse dovremmo farci qualche domanda su come utilizziamo la nostra gentilezza.

X | Il post a cui ha risposto Sam Altman
X | Il post a cui ha risposto Sam Altman
0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views