video suggerito
video suggerito

Cosa succede quando lasci un social in mano ai bot: “Ho visto la versione distorta degli umani”

Un gruppo di ricercatori ha creato un social abitato solo da bot. Hanno eliminato tutte le pubblicità, gli algoritmi e i feed cronologici, eppure non è stato sufficiente, le piattaforme hanno continuato a replicare dinamiche polarizzanti e divisive. L’esperimento porta quindi a una riflessione più ampia: i problemi non sono solo tecnici, ma strutturali e profondamente culturali.
A cura di Elisabetta Rosso
0 CONDIVISIONI
Immagine

Poco cambia se togliamo gli umani, gli algoritmi e le pubblicità, i social continuano a separare gli utenti in bolle amplificando la polarizzazione online. Uno studio dell’Università di Amsterdam ha scoperto che, anche in un ambiente virtuale privo di qualsiasi “mano invisibile”, gli utenti — o meglio, i chatbot che li imitano — tendono a raggrupparsi con chi la pensa come loro, dando maggiore visibilità ai contenuti più estremi.

I ricercatori olandesi hanno utilizzato 500 chatbot basati sul modello linguistico GPT-4o mini di OpenAI, assegnando loro specifiche personalità politiche. I bot sono stati poi inseriti in una piattaforma social semplice, priva di pubblicità e di algoritmi che suggerissero contenuti. Nel corso di cinque esperimenti, ciascuno con 10.000 interazioni simulate, i chatbot hanno mostrato tendenze evidenti: seguivano soprattutto chi condivideva le loro stesse convinzioni e i contenuti più estremi ricevevano più follower e condivisioni.

I risultati, seppur ottenuti in un contesto artificiale, riflettono comportamenti umani reali: i chatbot hanno emulato le nostre stesse dinamiche polarizzanti. "Non possiamo ignorare che stiamo replicando versioni già distorte di noi stessi", hanno spiegato i ricercatori, " e interrompere il circolo vizioso è molto difficile".

Come contrastare la polarizzazione online

Per provare a contrastare la polarizzazione, gli studiosi hanno sperimentato varie soluzioni: feed cronologici, svalutazione dei contenuti virali, nascondere follower e condivisioni, oscurare profili utenti e amplificare opinioni opposte. Nessuna misura, tuttavia, ha avuto un impatto significativo: lo spostamento nell’engagement verso account meno partigiani non ha superato il 6%. In alcuni casi, per esempio con i profili erano nascosti, la polarizzazione è addirittura peggiorata, con contenuti estremi che attiravano ancora più attenzione.

Secondo i ricercatori, la struttura stessa dei social media potrebbe essere incompatibile con un utilizzo equilibrato da parte degli esseri umani. "I social sono uno specchio deformante dell’umanità: riflettono chi siamo, ma amplificando le nostre peggiori inclinazioni", conclude lo studio.

La prigione dell’eco: come i social amplificano le nostre peggiori inclinazioni

Marshall McLuhan, sociologo canadese, parlava di media come estensioni dei nostri sensi e delle nostre capacità cognitive. In questo caso, i social diventano estensioni dei nostri pregiudizi e delle nostre inclinazioni: il design della piattaforma, la possibilità di seguire e condividere, amplifica tendenze che in contesti offline resterebbero più mediate. In altre parole, la tecnologia non ci impone opinioni, ma organizza il nostro spazio di interazione in modo tale da far emergere le polarizzazioni.

La simulazione mette in luce quanto siano robuste le dinamiche divisive sui social: non bastano feed cronologici, algoritmi o la rimozione di indicatori di popolarità per invertire la tendenza. Questo porta a una riflessione più ampia: i problemi non sono solo tecnici, ma strutturali e profondamente culturali. La viralità, l’attenzione selettiva, la ricerca di riconoscimento e approvazione — tutti comportamenti umani amplificati dai social — creano una “prigione dell’eco” che è difficile da scardinare.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views