Il video del giornalista che usa l’IA per intervistare un ragazzo morto sette anni fa

Forse non è una buona idea utilizzare l'intelligenza artificiale per intervistare i morti. E lo dimostra il caso Jim Acosta. L'ex corrispondente della Casa Bianca per CNN, ha pubblicato un’intervista con un avatar generato da intelligenza artificiale di Joaquin Oliver, uno dei 17 studenti uccisi nella strage alla Marjory Stoneman Douglas High School di Parkland, in Florida, nel 2018. Nel video, l’avatar di Oliver – creato partendo da una sua fotografia reale e animato tramite tecnologie IA – indossa un berretto e ha un’espressione seria. Acosta gli chiede: “Cosa ti è successo?” L’avatar risponde con tono robotico: “Mi è stata tolta la vita troppo presto a causa della violenza armata a scuola. È importante parlarne per costruire un futuro più sicuro.”
La ricostruzione digitale ha lasciato perplessi molti spettatori, sollevando questioni sul piano etico e legale. L'intelligenza artificiale e i deepfake, infatti, possono diventare strumenti pericolosi per la diffusione di disinformazione, truffe e manipolazioni emotive. L’intervista di Acosta apre un dibattito complesso, e viene da chiedersi: fino a che punto è lecito usare la tecnologia per dare voce a chi non può più parlare? È un omaggio alle vittime o una spettacolarizzazione del dolore?
Critiche e polemiche sull'intervista a Joaquin Oliver
Acosta aveva anticipato l’intervista definendola “uno show da non perdere” e “un evento unico nel suo genere”, (da gennaio, dopo l’addio alla CNN, il giornalista si definisce indipendente e pubblica contenuti tramite una newsletter su Substack). Acosta, nel servizio, ha spiegato che è stato Manuel Oliver, padre di Joaquin, a invitarlo a essere il primo giornalista a dialogare con l’avatar del figlio. “Mi è sembrato davvero di parlare con Joaquin,” ha detto Acosta nel video, rivolgendosi al padre del ragazzo, “è stato qualcosa di molto toccante.”
Manuel Oliver ha dichiarato di essere consapevole che si tratta solo di una simulazione, ma di aver trovato conforto nel riascoltare la voce del figlio, "sono curioso di esplorare ulteriormente le potenzialità dell’AI".
Una frontiera controversa
La reazione online non si è fatta attendere. Su Bluesky molti utenti hanno criticato la scelta di intervistare una ricostruzione fittizia invece di dare voce ai sopravvissuti. “Ci sono persone vive che potrebbero raccontare le loro esperienze. Invece stiamo ascoltando parole inventate da una macchina,” ha scritto un utente.
Non è la prima volta che Joaquin Oliver viene "riportato in vita" grazie all’intelligenza artificiale. Già nel 2024, la sua voce – assieme a quella di altre vittime della strage di Parkland – era stata utilizzata in una campagna chiamata The Shotline, destinata ai membri del Congresso per sollecitare riforme sul controllo delle armi. “Quante chiamate serviranno perché vi importi?” recitava il messaggio vocale IA. “Quante voci morte dovrete ascoltare prima di agire?”.
Se da un lato c’è chi intravede nella tecnologia uno strumento per onorare le vittime e amplificare messaggi sociali, dall’altro resta il timore che queste ricostruzioni possano scivolare in una forma di intrattenimento macabro, privo di autenticità.