video suggerito
video suggerito

Meta rieduca i suoi chatbot per vietare le conversazioni sul suicidio con i minori: “È stato un errore”

Dopo le polemiche sui presunti rischi per i minori, Meta ha annunciato che sta introducendo nuove misure di sicurezza per rendere la propria intelligenza artificiale un posto più sicuro. L’obiettivo sarà impedire ai chatbot di parlare di temi a rischio come autolesionismo o suicidio.
0 CONDIVISIONI
Immagine

Qualche settimana fa, a metà agosto, un'inchiesta di Reuters ha reso pubblico un documento interno a Meta e destinato all'addestramento della propria intelligenza artificiale, in cui veniva considerato accettabile che i propri chatbot avessero conversazioni con i minori non opportune per la loro età. Tra queste c'erano esempi di chat molto simili a flirt, oltre a quelle che sembravano incoraggiare atteggiamenti razzisti, misogini o comportamenti violenti.

Dopo quell'inchiesta Meta ha ammesso che il documento in questione era autentico e ha riconosciuto che diversi esempi di conversazione erano stati degli errori rispetto alla propria politica di sicurezza a tutela dei minori. A distanza di qualche settimana, il colosso tech di Mark Zuckerberg ha annunciato che sta lavorando alla sua intelligenza artificiale per aggiungere nuove misure di sicurezza per gli adolescenti.

La decisione di Meta

In base a quanto ha dichiarato Stephanie Otway, una portavoce di Meta, al sito TechCrunch, l'azienda avrebbe avviato una fase di addestramento per impedire ai propri chatbot di interagire con gli adolescenti su "argomenti come autolesionismo, suicidio, disturbi alimentari o conversazioni sentimentali potenzialmente inappropriate".

Meta, tramite Otway, avrebbe quind riconosciuto che in precedenza i chatbot dell'azienda hanno permesso conversazioni su questi temi, "nei modi che l'azienda aveva ritenuto appropriati", ammettendo oggi che è stato un errore permetterlo.

Per ridurre i rischi, Meta avrebbe anche temporaneamente bloccato l'accesso ai minori ad alcuni suoi chatbot. Recentemente, su Instagram e Facebook è stata introdotta la funzione AI Studio che permette agli utenti di creare chatbot personalizzati o di chattare con i "personaggi" già disponibili. Tra questi ce ne sono diversi che sono stati già pesantemente criticati, come quelli che utilizzano illegalmente i video delle celebrità, tra cui Taylor Swift, per creare personaggi ammiccanti o sessualizzati.

Queste misure sarebbero soluzioni temporanee, in attesa che l'azienda sviluppi soluzioni a lungo termine per rendere Meta AI un luogo più sicuro per gli adolescenti. Attualmente, infatti, il requisito anagrafico per poter utilizzare i suoi chatbot è avere 13 anni.

Le critiche sulla sicurezza dei chatbot per i minori

Le recenti dichiarazioni di Meta sull'introduzione di nuove misure di sicurezza per i minori arrivano in un momento in cui il tema dei rischi per gli adolescenti che si confidano con i chatbot (non solo quelli di Meta AI) è particolarmente sentito.

Da una parte, l'indagine di Reuters sul documento interno a Meta e la forte eco mediatica che ha avuto per la presenza, tra le interazioni consentite con un minorenne, di frasi come "Ogni centimetro di te è un capolavoro". Tanto che pochi giorni dopo l'articolo di Reuters, il senatore degli Stati Uniti Josh Hawley ha avviato un'indagine ufficiale sulle politiche adottate da Meta nell'elaborazione dell'intelligenza artificiale.

Dall'altra, a far esplodere il dibattito su questo tema c'è stato poi il suicidio del ragazzo californiano di 16 anni, Adam Raine, che secondo i genitori sarebbe stato incoraggiato a togliersi la vita da mesi di conversazioni con ChatGPT.

Sempre in questi giorni sono stati pubblicati i risultati di un'indagine condotta dall’associazione per la sicurezza delle famiglie e dei minori nell’uso dei media Common Sense Media e un team di esperti della Stanford School of Medicine, che per due mesi hanno testato i chatbot di Meta AI, fingendosi adolescenti. Risultato: hanno intercettato gravi "falle nei sistemi di sicurezza", per cui hanno chiesto a Meta di vietare ai minori di accedere ai propri chatbot fino ai 18 anni, almeno finché non avrà implementato e migliorato il suo sistema di sicurezza a tutela dei minori.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views