video suggerito
video suggerito
Festival di Sanremo 2026

La regia di Sanremo ha usato per la prima volta l’IA, ma è stato un incubo: cosa non ha funzionato

Nel corso della prima serata del Festival di Sanremo, la regia ha mandato in un onda un effetto generato dall’IA che sembra uscito direttamente dal 2023.
A cura di Niccolò De Rosa
0 CONDIVISIONI
Immagine
Attiva le notifiche per ricevere gli aggiornamenti su

Era stata annunciata come la prima edizione arricchita dai prodigi dell'intelligenza artificiale, ma la prima serata del 76° Festival di Sanremo ha restituito agli spettatori uno spettacolo che si potrebbe, eufemisticamente, definire ben al di sotto delle aspettative. A metà serata, quando la sala del Teatro Ariston ha risuonato delle note di Papaveri e Papere di Nilla Pizzi, la regia della Rai ha mandato in onda un breve sketch elaborato dall’IA che ha deformato prima il pubblico in platea, poi lo stesso Carlo Conti, in una sequenza di fotogrammi inquietante che avrebbe dovuto – almeno nelle intenzioni – trasformare in papere e anatroccoli i soggetti inquadrati. Il risultato è stato però un effetto allucinatorio che sembrava provenire direttamente dal 2023.

Perché a Sanremo 2026 è stata usata l'IA

L'utilizzo dell'intelligenza artificiale in questa edizione del Festival di Sanremo è offerto da TIM, Main Partner dell'evento. Nelle settimane precedenti, la compagnia telefonica ha infatti annunciato che nel corso delle varie serate avrebbe arricchito "con suggestioni visive" le canzoni che hanno segnato la storia della musica italiana, eseguite live dall'Orchestra di Sanremo. Il breve (per fortuna) sketch con le papere è statp la prima di queste performance.

Un esempio old style di AI slop

L'effetto utilizzato per "paperipizzare" la platea è sembrato lo stesso con cui, tre anni fa, qualsiasi ragazzino armato di smartphone provava ad animare immagini fisse sfruttando i meccanismi di un'intelligenza artificiale ancora acerba e alle prime armi. Allora eravamo agli albori di quel fenomeno che è stato definito AI slop, "la sbobba dell'IA", ossia tutti quei contenuti di bassa qualtità riprodotti in serie che finiscono per intasare l'algoritmo, come i vari Brain Rot o le clip nonsense del filone "Skibidi Boppy".

Nel 2026 però, i modelli generativi hanno compiuto passi da gigante e anche i molti contenuti etichettabili come AI slop si sono evoluti. Anche senza considerare i vari tool che, partendo da un semplice prompt, sono in grado di realizzare scene da film ad alto budget, praticamente tutte le app che si avvalgono dei sistemi di IA generativa più "basic" – da CapCut a Sora, passando per Midjourney – sono in grado di realizzare un prodotto migliore di quello mostrato ieri sera, durante l'evento televisivo più importante dell'anno.

Per farci un'idea del divario, può essere utile citare un video che proprio qualche mese fa è diventato virale su qualsiasi piattaforma social. Nella clip, intitolata "Will Smith eating spaghetti", viene mostrato in due sequenze distinte, entrambe generate dall'IA, il noto attore Will Smith mentre mangia un piatto di spaghetti. Il confronto tra i due video mostra con chiarezza i miglioramenti dei modelli generativi nel breve periodo tra il 2023 e il 2025. Nel primo, le fattezze dell'attore sono abbozzate, i movimenti sono innaturali e l'immagine sembra un quadro espressionista in movimento. Nel secondo, invece, Will Smith appare decisamente più realistico e al netto delle piccole patinature che tradiscono la presenza dell'IA, l'inquadratura sembra essere ripresa dal vivo.

Chissà, magari nelle prossime serate del Festival la qualità degli interventi dell'IA migliorerà e scopriremo che in realtà si trattava di una raffinata narrazione per raccontare l'evoluzione dell'IA di questi anni, offrendo ogni volta una performance migliore di quella precedente. Non ci resta che aspettare.

0 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views