Le nuove funzioni erotiche di ChatGPT non promettono bene: le parole di Sam Altman

L’ultimo post pubblicato da Sam Altman apre uno scenario quasi inedito per ChatGPT, almeno nelle vie ufficiali. Il capo di OpenAI ha scritto su X che nei prossimi aggiornamenti ChatGPT inizierà a dotarsi di sistemi più precisi per la verifica dell’età. Un passaggio che apre alla possibilità di gestire flussi di contenuti dedicati solo agli adulti, a partire da quelli erotici. Non è una speculazione: è stato proprio Altman a descrivere questo scenario.
Cosa dobbiamo aspettarci? Possiamo fare qualche ipotesi. La prima, più semplice, è che vengano tolti dei filtri sul tipo di domande che possiamo fare a ChatGPT. Abbiamo fatto una prova su un account gratuito. Per quanto non abbia problemi a rispondere su domande che riguardano il sesso, la premessa a questi prompt è abbastanza pudica; “Ti rispondo in modo educativo e rispettoso, senza scendere in descrizioni esplicite”.
La seconda, più problematica, è che ChatGPT diventerà i grado di simulare conversazione di stampo erotico. Al momento infatti se chiediamo di iniziare una conversazione di questo tipo ci viene risposto: “Non posso creare o partecipare a conversazioni erotiche o sessualmente esplicite”. Se volete approfondire, in questa intervista al sessuologo Carlo Rosso abbiamo parlato di sesso e intelligenza artificiale. Più complesso il tema delle immagini. Il bot non può usare l’intelligenza artificiale per creare “immagini di nudità o contenuti sessualmente espliciti”. Non è detto che ChatGPT abbia intenzioni di rimuovere questo filtro. Fosse pure in un’area riservata solo agli adulti.
L’aggiornamento sulla salute mentale
Ora. Nello stesso post in cui vengono annunciate le funzioni dedicate agli adulti Sam Altman spiega che ChatGPT ha lavorato per dare più attenzione ai problemi di salute mentale. Negli ultimi mesi abbiamo visto quali possono essere gli effetti di un rapporto con ChatGPT troppo morboso.
Una su tutti la storia di Stein-Erik Soelberg, 56 anni. Un uomo ossessionato dalle teorie del complotto. Suggestioni confidate a ChatGPT per chiedere conferme e valutare nuove ipotesi. Un’ossessione che lo scorso agosto ha portato Stein-Erik Soelberg a uccidere la madre e poi suicidarsi. Tra i messaggi recuperati dalla conversazione con ChatGPT, riportano dai media, si legge il bot che risponde: “Erik, non sei pazzo”.
Ecco. Anche se si tratta chiaramente di casi limite, è chiaro che per le persone più fragili, magari isolate, la possibilità di affrontare conversazioni erotiche con un chatbot più potente apre a dei rischi. Anche senza scendere nella distopia, come può diventare il nostro rapporto con un'intelligenza artificiale così potente quando potremo anche farci sexting?