10 CONDIVISIONI
video suggerito
video suggerito

I deepfake sono un problema anche per le truffe: riescono a ingannare il riconoscimento biometrico

Per eludere i sistemi i cybercriminali possono ingannare i sistemi di riconoscimento facciale manipolando le immagini ma anche sfruttare la tecnologia di clonazione vocale.
A cura di Elisabetta Rosso
10 CONDIVISIONI
Immagine

Esistono da tempo passaporti, patenti di guida o carte di identità false, con l’intelligenza artificiale e i deepfake però è ancora più semplice ingannare i controlli di autenticazione. I truffatori infatti utilizzano l’intelligenza artificiale per creare documenti contraffatti e realizzare video realistici che possono poi essere utilizzati per aggirare i processi di verifica dell’identificazione, per esempio quando si apre un conto bancario o si richiede una carta di credito. Non solo, sfruttano la tecnologia anche per rubare le identità di persone reali o clonare la loro voce per aggirare i sistemi di autenticazione. Con progressi nell’intelligenza artificiale generativa i truffatori non hanno più bisogno di competenze tecniche avanzate per creare deepfake impressionanti.

Basta usare modelli linguistici di grandi dimensioni come ChatGPT, software per la generazione di immagini come Midjourney, o strumenti di clonazione vocale come ElevenLabs. Come spesso succede le nuove tecnologie smarcano tutti, e infatti gli esperti hanno spiegato al Washington Post che i regolatori federali, le forze dell'ordine e i tribunali non sono attrezzati per frenare questo tipo di truffe.

Non possiamo più fidarci dei sistemi di autenticazione biometrica

L'autenticazione biometrica permette agli utenti di accedere utilizzando per esempio la scansione delle impronte digitali, del volto o dell'iride, ed è considerata uno dei metodi di accesso più sicuri. Ora però, con i deepfake e l’intelligenza artificiale generativa, i truffatori possono creare facilmente dati biometrici sintetici per ingannare i sistemi, permettendo l'accesso non autorizzato a dispositivi, aree sicure o informazioni sensibili.

Una nuova ricerca della società di consulenza gestionale Gartner mostra che entro il 2026 il 30% delle aziende non considererà più affidabili gli strumenti di verifica dell’identità e autenticazione che utilizzano i sistemi biometrici, a causa dell’evoluzione dei deepfake generati dall’intelligenza artificiale.

Le strategie dei cybercriminali

Per eludere i sistemi i truffatori possono sia ingannare i sistemi di riconoscimento facciale manipolando le immagini, ma anche sfruttare la tecnologia di clonazione vocale. Nel primo caso utilizzano immagini o video deepfake generati dall’intelligenza artificiale per ingannare gli algoritmi di riconoscimento facciale e farli riconoscere come individui legittimi. In questo modo i cyber criminali possono ottenere l'accesso non autorizzato ad account o aggirare le misure di sicurezza.

I criminali però possono an che clonare la voce per accedere su account protetti con l'autenticazione vocale, per autorizzare transazione fraudolente o chiedere aiuto fingendosi un parente o un amico della vittima. Secondo i dati della Federal Trade Commission, negli Stati Uniti, durante il 2022, sono state oltre 36.000 le segnalazioni di persone truffate da qualcuno che finge di essere un amico o un familiare. L’inganno funziona meglio al telefono e infatti sono 5.100 i casi di truffa via chiamata, e i criminali sono riusciti a estorcere 11 milioni di dollari.

Il caso di Hong Kong

Un dipendete di una multinazionale di Hong Kong (non è stato rivelato né il suo nome, né quello dell'azienda) è caduto nella trappola del deepfake. I cybercriminali sono infatti riusciti a ricreare l'immagine del direttore finanziario dell'azienda e di alcuni colleghi, hanno poi fatto partire una videochiamata dove hanno chiesto al dipendente di effettuare 15 trasferimenti su cinque conti bancari, per un totale di 25 milioni di dollari.

"Abbiamo scoperto che tutti i partecipanti alla conferenza erano falsi", aveva spiegato il sovrintendente Baron Chan Shun-ching all'emittente pubblica RTHK. I volti dei truffatori erano stati modificati utilizzando la tecnologia deepfake. Durante la conferenza stampa, la polizia di Hong Kong ha dichiarato che nell'ultimo periodo sono aumentati gli arresti legati all'utilizzo di deepfake.

Chan ha spiegato che otto carte d’identità rubate a Hong Kong (segnalate come smarrite dai loro proprietari), sono state utilizzate per effettuare 90 richieste di prestito e 54 registrazioni di conti bancari tra luglio e settembre del 2023. Non solo, come ha spiegato la polizia, sempre più spesso i deepfake sono stati utilizzati per ingannare i programmi di riconoscimento facciale.

10 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views