video suggerito
video suggerito
Intelligenza artificiale (IA)

LinkedIn userà i tuoi dati per addestrare l’IA: come disattivare la funzione

Dal 3 novembre LinkedIn comincerà a utilizzare le informazioni degli iscritti per alimentare i suoi modelli IA: gli utenti dovranno intervenire nelle impostazioni per negare il consenso.
A cura di Elisabetta Rosso
1 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Anche LinkenIn si piega di fronte all'intelligenza artificiale. Dal 3 novembre 2025, infatti, i profili degli utenti verranno utilizzati per l’addestramento dei sistemi di IA generativa. E attenzione: l’opzione sarà attiva di default, a meno che non si vada nelle impostazioni per disattivarla.

La novità è stata annunciata in una FAQ pubblicata a metà settembre. LinkedIn in una nota ha spiegato: “Inizieremo a utilizzare alcuni dati dei membri in Europa, Svizzera, Regno Unito, Hong Kong", verranno condivisi con Microsoft per addestrare modelli IA per la generazione di contenuti. Potranno essere addestrati con “dati come i dettagli del tuo profilo e i contenuti pubblici che pubblichi su LinkedIn; non include i tuoi messaggi privati”

Come funziona il consenso implicito di LinkedIn

La scelta che fa discutere riguarda le modalità: non ci sarà un consenso esplicito da dare. L’iscrizione al programma sarà automatica, salvo disattivazione manuale. In altre parole: chi non tocca le impostazioni, da implicitamente il consenso per l'utilizzo dei suoi dati.

LinkedIn avrebbe potuto seguire un approccio più trasparente, chiedendo agli utenti di aderire volontariamente (opt-in), invece di lasciarli dentro per default (opt-out). Chi non vuole che i propri dati vengano utilizzati può comunque disattivare la funzione e negare il consenso. Basta andare nelle impostazioni alla voce “Data for Generative AI Improvement”. Lì si trova un interruttore, impostato di default su “on”. Un clic e viene disattivato

Perché i modelli hanno bisogno (disperato) dei nostri dati

Tutte le piattaforme puntano ai dati degli utenti. Il motivo è semplice, i modelli hanno bisogno di dati umani che però, ora, scarseggiano. Secondo gli esperti, tra questi il co fondatore di OpenAI, Ilya Sutskever, stanno finendo e serviranno dati sintetici per allenare l'intelligenza artificiale generativa. Come ha spiegato Andrew Duncan, direttore dell'AI foundation presso l'Alan Turing Institute del Regno Unito "la dipendenza dai dati creati dall'IA rischia però di far collassare i modelli, deteriorando la qualità degli output."

I sistemi rischiano di sputare fuori risultati distorti, banali, ripetitivi "quando si inizia ad alimentare un modello con materiale sintetico, si cominciano a ottenere rendimenti decrescenti", ha spiegato Duncan. I dati umani sono quindi fondamentali. 

Il problema non è tanto l'intelligenza artificiale in sé, quanto il metodo con cui viene introdotta. Un cambiamento di questo tipo, che riguarda informazioni professionali e dati personali sensibili, merita maggiore trasparenza.

1 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views