LinkedIn userà i tuoi dati per addestrare l’IA: come disattivare la funzione

Anche LinkenIn si piega di fronte all'intelligenza artificiale. Dal 3 novembre 2025, infatti, i profili degli utenti verranno utilizzati per l’addestramento dei sistemi di IA generativa. E attenzione: l’opzione sarà attiva di default, a meno che non si vada nelle impostazioni per disattivarla.
La novità è stata annunciata in una FAQ pubblicata a metà settembre. LinkedIn in una nota ha spiegato: “Inizieremo a utilizzare alcuni dati dei membri in Europa, Svizzera, Regno Unito, Hong Kong", verranno condivisi con Microsoft per addestrare modelli IA per la generazione di contenuti. Potranno essere addestrati con “dati come i dettagli del tuo profilo e i contenuti pubblici che pubblichi su LinkedIn; non include i tuoi messaggi privati”
Come funziona il consenso implicito di LinkedIn
La scelta che fa discutere riguarda le modalità: non ci sarà un consenso esplicito da dare. L’iscrizione al programma sarà automatica, salvo disattivazione manuale. In altre parole: chi non tocca le impostazioni, da implicitamente il consenso per l'utilizzo dei suoi dati.
LinkedIn avrebbe potuto seguire un approccio più trasparente, chiedendo agli utenti di aderire volontariamente (opt-in), invece di lasciarli dentro per default (opt-out). Chi non vuole che i propri dati vengano utilizzati può comunque disattivare la funzione e negare il consenso. Basta andare nelle impostazioni alla voce “Data for Generative AI Improvement”. Lì si trova un interruttore, impostato di default su “on”. Un clic e viene disattivato
Perché i modelli hanno bisogno (disperato) dei nostri dati
Tutte le piattaforme puntano ai dati degli utenti. Il motivo è semplice, i modelli hanno bisogno di dati umani che però, ora, scarseggiano. Secondo gli esperti, tra questi il co fondatore di OpenAI, Ilya Sutskever, stanno finendo e serviranno dati sintetici per allenare l'intelligenza artificiale generativa. Come ha spiegato Andrew Duncan, direttore dell'AI foundation presso l'Alan Turing Institute del Regno Unito "la dipendenza dai dati creati dall'IA rischia però di far collassare i modelli, deteriorando la qualità degli output."
I sistemi rischiano di sputare fuori risultati distorti, banali, ripetitivi "quando si inizia ad alimentare un modello con materiale sintetico, si cominciano a ottenere rendimenti decrescenti", ha spiegato Duncan. I dati umani sono quindi fondamentali.
Il problema non è tanto l'intelligenza artificiale in sé, quanto il metodo con cui viene introdotta. Un cambiamento di questo tipo, che riguarda informazioni professionali e dati personali sensibili, merita maggiore trasparenza.