ChatGPT diventa personalizzabile: come si sceglie il nuovo carattere dell’IA

OpenAI continua a intervenire su uno degli aspetti più delicati dell’intelligenza artificiale: il suo modo di "parlare". L'azienda ha annunciato nuove opzioni di personalizzazione che permetteranno di modificare l'entusiasmo, l'empatia e l'utilizzo delle emoji nelle risposte del chatbot. Per OpenAI, il tono dell’IA non è solo un dettaglio estetico, ma un elemento centrale.
Le nuove impostazioni sono disponibili nel menù Personalization e consentono di scegliere tra tre livelli — More, Less o Default — per ciascun parametro. Oltre a emoji ed espressività, è possibile chiedere risposte più schematiche o più narrative a seconda delle preferenze personali. Questi controlli si affiancano alle opzioni già introdotte in precedenza, come la scelta di uno stile di base (ad esempio Professional, Candid o Quirky).
Un equilibrio difficile
Il tono di ChatGPT è diventato un tema. OpenAI ha persino ritirato un aggiornamento dopo aver riconosciuto che il modello era troppo accondiscendente, e finiva per adulare gli utenti fornendo anche risposte sbagliate o pericolose pur di compiacerli. Ma non ha funzionato. Con l’evoluzione dei modelli più recenti — incluso GPT-5 — l’azienda è intervenuta di nuovo per rendere le risposte più “amichevoli”, dopo le segnalazioni di chi percepiva il chatbot troppo freddo, distaccato o eccessivamente neutro. L'equilibrio è difficile da raggiungere.
Questo continuo ribilanciamento è cruciale. Il modo in cui un assistente virtuale si esprime influisce sulla fiducia, sulla comprensione dei contenuti e persino sulla disponibilità dell’utente a proseguire l’interazione. Per questo OpenAI sta cercando di spostare il controllo sempre più verso l’utente finale, permettendo a ciascuno di trovare il proprio equilibrio ideale tra formalità, empatia e sintesi.
Le critiche del mondo accademico
I ricercatori di etica dell’intelligenza artificiale hanno messo in guardia contro la tendenza dei chatbot ad assecondare gli utenti. Un’IA troppo accomodante rischia di diventare un dark pattern: un meccanismo di design che favorisce comportamenti pericolosi che, in alcuni casi, potrebbero avere effetti negativi sul benessere psicologico, soprattutto per le persone più vulnerabili.
Il dibattito è ancora aperto e coinvolge temi più ampi, come la responsabilità delle aziende tecnologiche, la trasparenza dei sistemi di IA e il loro impatto sociale. Le nuove opzioni di personalizzazione sembrano andare proprio in questa direzione: offrire strumenti di controllo, anziché imporre un unico stile comunicativo valido per tutti.
Verso un’IA “su misura”
L’aggiornamento conferma un cambio di prospettiva: ChatGPT non viene più pensato come una voce unica e standardizzata, ma come uno strumento adattabile ai contesti e alle sensibilità individuali. La possibilità di scegliere quanto un chatbot debba essere formale o entusiasta rappresenta un passo in più verso un’IA centrata sull’utente — e, forse, anche più consapevole dei propri limiti.