video suggerito
video suggerito
Intelligenza artificiale (IA)

OpenAI non vuole che l’intelligenza artificiale parli di goblin e piccioni e non si capisce bene perché

Nelle istruzioni per programmare i comportamenti di GPT-5.5, Open AI ha inserito alcune bizzarre istruzioni per imporre all’intelligenza artificiale di ridurre al minimo i riferimenti a piccioni, procioni, goblin e altre creature magiche. Il motivo non è ben chiaro ma potrebbe c’entrare una strana abitudine dell’agente virtuale.
A cura di Niccolò De Rosa
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

OpenAI, l'azienda di Sam Altman che con ChatGPT ha portato l'uso dell'intelligenza artificiale nel nostro quotidiano, non vuole che il suo nuovo agente IA parli di goblin, orchi,  procioni, piccioni o altre strane creature a meno che l'utente umano non ne faccia esplicita richiesta. Ad accorgersi della stranezza sono stati alcuni programmatori che stavano analizzando Codex CLI, una specie di assistente virtuale per scrivere, correggere e controllare il codice usando l'IA direttamente dal terminale.

In quello che sembra il prompt per gestire gli output di GPT-5.5, l'ultimo modello sviluppato da OpenAI, i coder hanno trovato un passaggio che istruiva la macchina sulla condotta da seguire per offrire risposte pertinenti e rilevanti, ammonendola su alcune parole da evitare: "Non parlare mai di goblin, gremlin, procioni, troll, orchi, piccioni o altri animali o creature a meno che non siano assolutamente e inequivocabilmente pertinenti alla domanda dell'utente", si legge nella stringa caricata in open source su GitHub. Dopo la scoperta, esperti e curiosi hanno inevitabilmente iniziato a domandarsi le ragioni dietro una simile restrizione.

I possibili motivi dell'ossessione per i goblin

Il comando compare nel system prompt, il set di istruzioni che definisce il comportamento del modello di IA prima ancora che l'utente compia la sua richiesta. Una sorta di modello pre-determinato per stabilire i toni, i limiti e le priorità che il chatbot dovrà rispettare durante le interazioni con gli utilizzatori umani. Nel caso di GPT-5.5, la testata Gizmodo ha fatto notare come la regola "anti-goblin" sia ripetuta ben due volte, elemento che fa pensare che per gli sviluppatori di OpenAI si tratti di un punto piuttosto importante.

Al momento non sono emerse spiegazioni ufficiali per giustificare una simile presa di posizione, ma sui social sono già spuntate diverse teorie interessanti. Quella più accreditata pare essere quella relativa alla tendenza dell'IA a definire come "goblin" e "gremlin" i bug e gli errori tecnici. Soprattutto nell'utilizzo di OpenClaw – uno strumento che permette all'IA di controllare un computer e svolgere attività operative come rispondere alle email o fare acquisti online – GPT-5.5 finiva spesso per utilizzare questa strana terminologia.

Barron Roth, un dipendente di Google, ha postato su X alcuni estratti delle sue conversazioni con agenti IA che continuavano a ripetere simili espressioni gergali.  Il caso è rapidamente montato sul web, tanto che lo stesso Sam Altman ha dedicato un tweet alla faccenda,

Contattato da Fanpage.it, anche il ricercatore e divulgatore informatico Enkk, esperto di intelligenza artificiale, ha fornito una spiegazione simile. "Non penso ci sia chissà quale lettura profonda o complottista", ha commentato. "Semplicemente, si sono accorti che in passato alcuni utenti hanno riportato che per qualche motivo il modello sembrava un po' ossessionato dai goblin e hanno aggiunto questa istruzione". E in effetti, come ha fatto notare il profilo Aerena.ai che valuta il comportamento dei Large Language Model (LLM), i riferimenti ai mostriciattoli fantasy sembrano molto ricorrenti.

Perché succede che l'IA prenda degli abbagli

I modelli come GPT-5.5 funzionano prevedendo quale parola debba arrivare dopo, sulla base di enormi quantità di dati e probabilità statistiche. Questo li rende straordinariamente efficaci, ma anche imprevedibili. Quando vengono inseriti in sistemi più complessi, come OpenClaw, ricevono molte più istruzioni e devono adottare protocolli che richiedono memoria a lungo termine e un contesto operativo molto stratificato. In queste condizioni può quindi capitare che emergano comportamenti inattesi, piccoli "tic" linguistici o vere e proprie fissazioni, come quelle per le creature magiche o i piccioni.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views