Quando un deepfake “amatoriale” batte gli effetti speciali di Hollywood: The Mandalorian (SPOILER)

ALLERTA SPOILER: se non avete ancora visto il finale della seconda stagione di The Mandalorian, non leggete oltre per evitare rivelazioni che potrebbero guastarne la visione.

---

La puntata finale della seconda stagione di The Mandalorian include una scena in cui compare un attore ringiovanito digitalmente. Non ne cito subito il nome per non rovinarvi la sorpresa, ma è una gran bella sorpresa. 

Il guaio è che il ringiovanimento digitale in questo caso è, come dire, venuto un po’ “piatto” e innaturale, forse anche per colpa dell’estrema segretezza che ha necessariamente circondato tutto il lavoro. Le movenze della testa e le espressioni sono forzate, robotiche, e la luce che illumina il viso sembra sbagliata rispetto all’illuminazione del resto della scena. Il risultato finale è buono, ma cade proprio nel bel mezzo della famosa Uncanny Valley, ossia quella zona intermedia fra la stilizzazione estrema e il realismo perfetto, che crea emozioni di disagio nello spettatore.

In sintesi: la Uncanny Valley esprime il concetto che riusciamo a empatizzare facilmente con personaggi creati digitalmente quando sono molto differenti dalla realtà (Woody di Toy Story, per esempio); invece i volti ricreati digitalmente nei videogiochi in modo quasi fotorealistico, con le normali proporzioni e fattezze (come i personaggi del film Polar Express o Shepard di Mass Effect qui sotto) ma senza azzeccarne perfettamente tutte le sfumature e i dettagli, non generano altrettanta empatia e spesso generano ribrezzo.


Nel ringiovanimento digitale tradizionale, si prende un attore, gli si fa recitare la scena, e poi un esercito di animatori traccia punto per punto ogni movimento muscolare, ogni ruga della pelle, ogni contrazione, ogni spostamento degli occhi, delle sopracciglia, della boca o del naso, ventiquattro volte per ogni secondo di ripresa, e applica gli stessi movimenti a un modello digitale del viso ringiovanito o comunque alterato, ottenuto spesso partendo da una scansione tridimensionale del volto del personaggio da replicare.

Le riuscitissime scimmie del remake de Il Pianeta delle scimmie, Gollum del Signore degli anelli, Moff Tarkin e Leia in Star Wars Rogue One o gli alieni di Avatar sono stati creati con questa tecnica, ormai diffusissima, denominata motion capture (o spesso emotion capture, dato che serve per “catturare” le emozioni dell’attore). Funziona benissimo per i volti non umani, ma non per quelli umani, che hanno comunque qualcosa di artificiale, magari difficile da identificare ma comunque rilevabile anche da una persona non esperta. Abbiamo milioni di anni di evoluzione nel riconoscimento facciale e dei movimenti nei nostri cervelli, e la lettura delle espressioni è una funzione essenziale per la socializzazione e la sopravvivenza, per cui è difficile fregarci, nonostante i tediosissimi e costosissimi sforzi di Hollywood. 

L’unico umano digitale perfettamente indistinguibile che ho visto finora è Rachel in Blade Runner 2049. Questo video fa intuire la fatica spaventosa necessaria per quei pochi, struggenti secondi che dilaniano Deckard.

 

Tutto questo lavoro è assistito dal computer, ma richiede comunque un talento umano e una lunghissima lavorazione sia fisica sia in post-produzione per correggere gli errori del motion capture. Ma oggi c’è un altro approccio: quello dell’intelligenza artificiale, usata per creare un deepfake.

In sintesi: si danno in pasto a un computer moltissime immagini del volto da creare, visto da tutte le angolazioni e con tutte le espressioni possibili, insieme alla ripresa di un attore che recita la scena in cui va inserito quel volto, e poi lo si lascia macinare. Il computer sceglie l’immagine di repertorio più calzante e poi ne corregge luci e tonalità per adattarle a quelle della scena. Il risultato, se tutto va bene, è un’imitazione estremamente fluida e naturale delle espressioni dell’attore originale, il cui volto viene sostituito da quello digitale. 

Fare un deepfake ben riuscito è soprattutto questione di potenza di calcolo e di tempo di elaborazione, oltre che di un buon repertorio di immagini di riferimento; si riduce moltissimo l’apporto umano degli animatori digitali.

I giovani esperti di effetti digitali di Corridor Crew hanno tentato di correggere la scena imperfetta di The Mandalorian usando appunto un deepfake. A questo punto credo di potervi rivelare che si tratta del giovane Luke Skywalker. Qui sotto trovate il video del risultato, che è davvero notevole se si considera il tempo-macchina e le limitatissime risorse economiche in gioco. Un gruppo di ragazzi di talento batte la Disney: questa è una rivoluzione negli effetti speciali. Se volete andare al sodo, andate a 17:20. Buona visione.