Ora con Veo 3 puoi trasformare una foto in un video: quali sono i rischi

Scatta una foto, scrivi due righe, premi invio. In pochi secondi hai un video completo con tanto di suoni, effetti speciali e dialoghi. Google ha lanciato una nuova funzione sull'app Gemini che permette agli abbonati di creare video di otto secondi partendo da immagini statiche. Basta caricare una foto, fornire una descrizione e il modello Veo 3 di Google genera automaticamente una breve sequenza animata.
La funzione, disponibile per gli abbonati Google AI Pro (19,99 dollari al mese) e Ultra (249,99 dollari al mese), rappresenta un ulteriore passo avanti nell’integrazione dell’AI nella produzione video. Una rivoluzione creativa? Forse. Ma anche un campo minato di rischi, tra copyright, deepfake e disinformazione.
Video AI: facili da creare, difficili da controllare
Per utilizzare la nuova funzione di Gemini, è sufficiente selezionare l’opzione “video” dal menu, caricare una foto e descrivere i movimenti desiderati. Nel caso di immagini di persone, è possibile indicare anche azioni e dialoghi specifici; per paesaggi o ambientazioni, si possono aggiungere dettagli stravaganti, come fenomeni meteorologici o oggetti fantastici. È inoltre possibile aggiungere descrizioni audio per personalizzare dialoghi ed effetti sonori.
I video generati vengono consegnati in formato 16:9 e MP4 con risoluzione 720p. Crearli è facilissimo, controllarli, invece, potrebbe diventare molto difficile.
Deepfake, diritti e fake news: i pericoli dei video AI
Ai generatori video basati su intelligenza artificiale servono enormi dataset di immagini, video, testi e suoni per addestrare modelli. Nonostante qualche imperfezione visiva – come la presenza di dettagli strani o incoerenti – i risultati spesso si avvicinano molto alla realtà, rendendo difficile distinguere i video generati dall’AI da quelli autentici.
Il rapido miglioramento di queste tecnologie è anche un problema. I video IA possono diffondere fake news, violare i diritti d’autore e avere implicazioni etiche. Basta pensare alla diffusione di deepfake a sfondo sessuale realizzati senza consenso. Un fenomeno in crescita grazie al facile accesso a strumenti AI gratuiti e in grado di produrre immagini e video estremamente realistici.
Quando le rassicurazioni non bastano
Google ha messo le mani avanti. Ha spiegato che Gemini avrà una filigrana, ogni video sarà contrassegnato da un marchio visibile che attesterà l’origine artificiale e una filigrana digitale SynthID invisibile. Sono previsti anche filtri per bloccare contenuti sessualmente espliciti. Google ha poi aggiunto che l'obiettivo della nuova funzione è stimolare la creatività degli utenti comuni, non sostituire i professionisti del settore video.
Ma queste rassicurazioni potrebbero non essere sufficienti. “Non bastano garanzie vaghe sulla sicurezza dei sistemi,” ha spiegato Miranda Bogen, direttrice dell’AI Governance Lab del Center for Democracy and Technology al Washington Post. “Oggi le protezioni sono insufficienti, perché molte aziende corrono in fretta per lanciare strumenti all’avanguardia senza adeguati test di sicurezza.” Non solo, secondo Bogen, i criminali potrebbero usare questi strumenti per diffondere stereotipi d’odio, truffe online e disinformazione.
L’evoluzione dell’AI video apre dunque scenari ricchi di opportunità ma anche di sfide, che richiederanno una regolamentazione adeguata per tutelare gli utenti e la società.