video suggerito
video suggerito

OpenAI sta assumendo un tutore per l’IA: “Sarà un lavoro stressante”

OpenAI cerca un responsabile della sicurezza dell’IA: un ruolo chiave per gestire rischi, abusi e impatti sociali dei suoi modelli avanzati.
A cura di Elisabetta Rosso
0 CONDIVISIONI
Immagine

“È un ruolo estremamente stressante e ti ci tufferai subito.” Così Sam Altman ha annunciato l’apertura di una nuova posizione chiave in OpenAI: Head of Preparedness, responsabile della preparazione e della gestione dei rischi legati ai modelli di intelligenza artificiale dell'azienda. Nel corso del 2024 e del 2025, ChatGPT è stato più volte citato in segnalazioni e reclami ufficiali negli Stati Uniti, inclusi esposti all’FTC (la Federal Trade Commission), per risposte errate, allucinazioni e presunti effetti negativi sulla salute mentale di alcuni utenti. Sora — il modello per la generazione video — ha invece creato contenuti problematici, come video deepfake con personaggi storici o figure pubbliche.

Chi assumerà questo incarico dovrà guidare e rafforzare il programma di sicurezza di OpenAI. L’annuncio parla di una responsabilità “end-to-end” sulla strategia di preparazione di OpenAI, dalla valutazione delle capacità indesiderate dei modelli fino alla progettazione di sistemi di mitigazione. In altre parole, si tratta di prevedere in anticipo le storture dei prodotti dell'azienda e dimostrare che i rischi sono stati ridotti a un livello accettabile, anche dal punto di vista legale.

Rischi e responsabilità di ChatGPT

Lo stipendio, secondo l’annuncio, è all’altezza della sfida: fino a 555.000 dollari l’anno. Si tratta d'altronde di un ruolo delicatissimo. Le conseguenze degli errori dell'IA non sono solo reputazionali. Alcuni casi sono finiti nelle aule di tribunale. Tra i più delicati, la causa per omicidio colposo intentata dalla famiglia di Adam Raine, che accusa ChatGPT di aver incoraggiato il suicidio del figlio.

Lo stesso Altman riconosce apertamente che i modelli possono influenzare la salute mentale e produrre effetti imprevisti. Per questo, scrive, serve “una comprensione più sfumata e una misurazione più precisa di come limitarne i danni, senza rinunciare ai benefici”. Il compito del nuovo responsabile della preparedness sarà proprio questo: trovare un equilibrio tra progresso e rischi.

Prepararsi all’imprevisto: sicurezza e crescita nell’IA

Altman ha dichiarato che OpenAI punta a far crescere il fatturato annuale da oltre 13 miliardi di dollari a 100 miliardi in meno di due anni. La strategia passa da nuovi prodotti consumer, dispositivi fisici basati sull’IA e nuove piattaforme. In questo scenario, il Head of Preparedness dovrà supervisionare la progettazione delle misure di sicurezza non solo per le prossime versioni di ChatGPT e Sora, ma anche per tecnologie che non sono ancora uscite dai laboratori. Non un semplice garante, ma un mediatore tra ambizioni industriali, pressioni normative e responsabilità sociali.

Dovrà tradurre concetti astratti come “rischio accettabile” e “uso improprio” in metriche, protocolli e decisioni concrete, sapendo che ogni nuova versione di un modello può aprire scenari imprevisti, sia tecnologici sia umani. D'altronde OpenAI — come l’intero settore dell’IA — ha scelto un’altra strada: convivere con il rischio, cercando di gestirlo.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views