video suggerito
video suggerito
Intelligenza artificiale (IA)

ChatGPT diventa personalizzabile: come si sceglie il nuovo carattere dell’IA

OpenAI introduce nuove opzioni di personalizzazione per regolare empatia, entusiasmo ed espressività di ChatGPT.
A cura di Elisabetta Rosso
1 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

OpenAI continua a intervenire su uno degli aspetti più delicati dell’intelligenza artificiale: il suo modo di "parlare". L'azienda ha annunciato nuove opzioni di personalizzazione che permetteranno di modificare l'entusiasmo, l'empatia e l'utilizzo delle emoji nelle risposte del chatbot. Per OpenAI, il tono dell’IA non è solo un dettaglio estetico, ma un elemento centrale.

Le nuove impostazioni sono disponibili nel menù Personalization e consentono di scegliere tra tre livelli — More, Less o Default — per ciascun parametro. Oltre a emoji ed espressività, è possibile chiedere risposte più schematiche o più narrative a seconda delle preferenze personali. Questi controlli si affiancano alle opzioni già introdotte in precedenza, come la scelta di uno stile di base (ad esempio Professional, Candid o Quirky).

Un equilibrio difficile

Il tono di ChatGPT è diventato un tema. OpenAI ha persino ritirato un aggiornamento dopo aver riconosciuto che il modello era troppo accondiscendente, e finiva per adulare gli utenti fornendo anche risposte sbagliate o pericolose pur di compiacerli. Ma non ha funzionato. Con l’evoluzione dei modelli più recenti — incluso GPT-5 — l’azienda è intervenuta di nuovo per rendere le risposte più “amichevoli”, dopo le segnalazioni di chi percepiva il chatbot troppo freddo, distaccato o eccessivamente neutro. L'equilibrio è difficile da raggiungere.

Questo continuo ribilanciamento è cruciale. Il modo in cui un assistente virtuale si esprime influisce sulla fiducia, sulla comprensione dei contenuti e persino sulla disponibilità dell’utente a proseguire l’interazione. Per questo OpenAI sta cercando di spostare il controllo sempre più verso l’utente finale, permettendo a ciascuno di trovare il proprio equilibrio ideale tra formalità, empatia e sintesi.

Le critiche del mondo accademico

I ricercatori di etica dell’intelligenza artificiale hanno messo in guardia contro la tendenza dei chatbot ad assecondare gli utenti. Un’IA troppo accomodante rischia di diventare un dark pattern: un meccanismo di design che favorisce comportamenti pericolosi che, in alcuni casi, potrebbero avere effetti negativi sul benessere psicologico, soprattutto per le persone più vulnerabili.

Il dibattito è ancora aperto e coinvolge temi più ampi, come la responsabilità delle aziende tecnologiche, la trasparenza dei sistemi di IA e il loro impatto sociale. Le nuove opzioni di personalizzazione sembrano andare proprio in questa direzione: offrire strumenti di controllo, anziché imporre un unico stile comunicativo valido per tutti.

Verso un’IA “su misura”

L’aggiornamento conferma un cambio di prospettiva: ChatGPT non viene più pensato come una voce unica e standardizzata, ma come uno strumento adattabile ai contesti e alle sensibilità individuali. La possibilità di scegliere quanto un chatbot debba essere formale o entusiasta rappresenta un passo in più verso un’IA centrata sull’utente — e, forse, anche più consapevole dei propri limiti.

1 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views