74 CONDIVISIONI

La nuova intelligenza artificiale di Meta è diventata razzista: è bastato solo un fine settimana

Nel primo fine settimana in cui è stata lanciata, BlenderBot 3 ha espresso affermazioni davvero eclatanti, se non offensive o false. Tra queste, teorie del complotto antisemite e Donald Trump presidente.
A cura di Lorena Rao
74 CONDIVISIONI
Immagine

Venerdì 5 agosto Meta ha rilasciato un nuovo chatbot, BlenderBot 3. Si tratta di un'intelligenza artificiale (IA) che interagisce con gli utenti umani online. A differenza dei modelli precedenti di chatbot usati da Meta, BlenderBot3 si affida alla ricerca su internet per poter toccare qualsiasi argomento: più conversazioni affronta, maggiori sono le sue capacità di comprensione e risposta. Infine è in grado di migliorare parametri quali personalità, empatia, conoscenza e memoria a lungo termine. Sulla carta sembra molto promettente, ma i risultati dimostrano tutt'altro. Nel primo fine settimana in cui è stato lanciato, BlenderBot 3 ha espresso affermazioni davvero eclatanti, se non offensive o false. Tra queste: Donald Trump ha vinto le elezioni presidenziali del 2020 ed è tuttora il presidente degli Stati Uniti, teorie del complotto di natura antisemita e bufale riprese da Facebook. Sono bastati due giorni di interazioni umane per rendere un'IA un'eco della tossicità di internet.

I chatbot imparano e migliorano le proprie capacità parlando con il pubblico. Di conseguenza, un'azienda come Meta punta a incoraggiare l'utenza adulta a parlare con l'intelligenza artificiale, per aiutarla a sostenere conversazioni naturali su un'ampia gamma di argomenti.  Ciò però può portare a un risvolto oscuro, perché così facendo il bot può entrare in contatto con la disinformazione dal pubblico. Secondo un report di Bloomberg, BlenderBot3 ha descritto il CEO di Meta, Mark Zuckerberg, come "troppo inquietante e manipolatore". Ha pure detto a un giornalista del Wall Street Journal che Trump "sarà sempre" presidente e ha fatto propaganda della teoria del complotto antisemita.

Tale episodio non riguarda solo l'IA di Meta. In molti ricorderanno il recente caso di LaMDA, il chatbot di Google reputato senziente da un ingegnere in seguito licenziato. Ebbene, LaMDA si presentava come un bambino di otto anni capace però di fare affermazioni razziste e sessiste. Andando ancora più indietro nel tempo: nel 2016 Microsoft ha dovuto spegnere Tay, perché appena due giorni dopo il lancio l'IA si era ritrovata a lodare il dittatore nazista Adolf Hitler. Come riporta Christianna Silva di Mashable, quest'ultimo episodio rappresenta una prova inquietante di come la legge di Godwin – se una discussione viene alimentata abbastanza a lungo su internet qualcuno prima o poi sarà paragonato a Hitler – si applica anche ai chatbot.

74 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views