Il termine Deepfake è diventato virale solo negli ultimi mesi, ma in realtà l’uso del termine risale già a qualche anno fa, quando nel dicembre 2017 comparve per la prima volta un video in cui il volto dell’attrice di Wonder Woman Gal Gadot era stato sostituito a quello di un’attrice porno attraverso la tecnica del Generative Adversarial Networks (GAN). Le Reti Generative Avversarie risultano infatti efficaci nella creazione di immagini inedite a partire da un input che viene loro fornito. Un esempio ben noto è la rete Condogonale Generativa Avversaria (cGAN) di pix2pix e creata dall’Università della California per determinare una mappatura da un’immagine di input e generare un’immagine di output. A condividere il video nel 2017 fu un utente di Reddit chiamato (non a caso) Deepfake, che iniziò una discussione mettendo a disposizione alcuni software open source da lui creati, per realizzare video porno contraffatti, con tanto di consigli e indicazioni dettagliate in tempo reale.

Da lì in poi si sono moltiplicati i deepfake di celebrities il cui volto è stato sostituito, e negli ultimi due anni questa tecnologia si è sempre più affinata, al punto tale che spesso non è possibile riconoscere la natura contraffatta del video per diversi secondi. Il motivo per cui le prime ad essere prese di mira sono state le celebrità è molto semplice: la tecnologia dei deepfake si basa sul machine learning, per cui si consegna al programma una grande quantità di video e immagini della persona che si intende inserire (banalmente Google immagini e Youtube), cosicché l’AI attraverso l’apprendimento automatizzato possa incamerarne le espressioni facciali e realizzare una mappatura dettagliata dei movimenti del viso.

A stupire è il fatto che questi video non siano prodotti da tecnici che utilizzano la CGI per gli effetti speciali, ma da utenti comuni con una conoscenza pratica degli algoritmi di apprendimento e che utilizzano strumenti OpenSource come Keras o TensorFlow, che Google mette gratuitamente a disposizione di ricercatori, studenti laureati e chiunque abbia un interesse per l’apprendimento automatico. Anche uno strumento di Adobe può ingannare chiunque inducendo le persone a dire qualsiasi cosa o, per citare un altro esempio, l’algoritmo Face2Face permette di creare sequenze audiovisive in cui il volto di una persona viene scambiato attraverso il tracciamento del viso in tempo reale, raffigurandola mentre imita le espressioni facciali di un’altra persona. 

Recentemente uno studio di Deeptrace ha contato 14.678 video deepfake online, il cui 96% è costituito da video porno contraffatti che hanno come protagoniste involontarie soprattutto attrici famose. I rischi di quello che è diventato ormai una piaga del web moderno, sono molti e soprattutto pericolosi. Dai dati appena citati è chiaro che una prima grave conseguenza è legata a forme di revenge porn e di umiliazione pubblica che vede come vittime in primis le donne, non solo attrici famose, ma anche donne comuni che, come ha dimostrato l’app DeepNude ora opportunamente rimossa dai principali play store, può trasformare qualsiasi innocua immagine in foto compromettenti da far circolare nel web. 

Non è tardato ad arrivare anche l’utilizzo di deepfake in ambito politico. Da Obama a Trump, si sprecano le dichiarazioni più improbabili e anche in Italia, seppur in ritardo, ha fatto scalpore il famoso discorso di Renzi a Striscia la notizia. In questo caso, il grave rischio che si incorre se non si pone un freno a questa tecnologia, è di aggravare l’insidia della disinformazione politica, minacciando la democrazia stessa. Infatti, nonostante la qualità di questi video non sia sempre altissima, molti deepfake risultano a prima vista credibili e spesso è quasi impossibile comprenderne la natura per diversi secondi. Se si considera che la soglia di attenzione media è sempre più bassa, è facile intuire come dichiarazioni politiche frutto di deepfake possano portare il fenomeno delle fake news ad un livello ancora più incontrollabile, poiché l’utente medio potrebbe non arrivare mai alla conclusione del video che, quando accade, dichiara di essere un deepfake. 

È però in via di sviluppo il progetto Deepfake Detection Challenge, che “invita le persone di tutto il mondo a creare nuove tecnologie innovative che possano aiutare a rilevare deepfake e media manipolati”. Tra i protagonisti di rilievo anche Amazon, Facebook, Microsoft, il New York Times, l’università di Oxford, il MIT, e anche l’Italia con Luisa Verdoliva dell’Università Federico II di Napoli. L’iniziativa punta a creare strumenti open source che società, organizzazioni media e di sicurezza e governi stessi potranno utilizzare liberamente con lo scopo di rilevare qualsiasi video deepfake. Il lancio ufficiale della competizione avverrà proprio a dicembre in vista di un fondamentale appuntamento della politica globale: le elezioni presidenziali americane del 2020.

In questi giorni però, sono le elezioni politiche in UK ad aver creato scalpore con il primo esperimento di deepfake in piena campagna elettorale. La Think tank londinese Future Advocacy ha infatti diffuso dei deepfake in cui Boris Johnson e Jeremy Corbyn si sostengono a vicenda. L’obiettivo era lanciare un appello sotto forma di provocazione ai partiti, per sollecitarli a collaborare e sviluppare delle regole comuni adeguate a contrastare la disinformazione politica online.