Perché il deepfake può essere una minaccia anche per la democrazia

Nato come "gioco", il software che manipola i video rischia di creare problemi in vista delle Presidenziali Usa. Per questo si sta correndo ai ripari, ma la strada è in salita.

23 Giugno 2019 16.00
Like me!

Falsi video creati con l’intelligenza artificiale, sempre più difficili da riconoscere, che minacciano l’identità, la reputazione delle persone e la stessa democrazia. L’ultima vittima è stato Mark Zuckerberg, protagonista di un falso video in cui dichiara di aver venduto i dati di miliardi di utenti perché «chi ha i dati ha il potere».

LA NASCITA DEL DEEPFAKE

Il fenomeno dei deepfake è iniziato almeno un paio d’anni fa, un po’ per provocazione. Il termine è stato utilizzato per la prima volta nel 2017 da un utente del social Reddit che aveva postato, utilizzando il nickname “deepfakes”, dei finti porno con famosi attori di Hollywood, sostituendo i loro volti a quelli degli attori hard. Da allora “deepfake” identifica tutti i video manipolati attraverso tecniche di deep learning che modificano la struttura dei contenuti. Addirittura su Reddit era stato aperto un canale per ospitare i video fake creati dagli utenti, poi chiuso a febbraio 2018 in seguito a numerose proteste.

LEGGI ANCHE: Fake news e strategie di fact checking

L’ADDESTRAMENTO DELL’ALGORITMO

In questi anni, grazie agli sviluppi dell’intelligenza artificiale, i deepfake video sono diventati sempre più sofisticati grazie a tecniche come le GANs, generative adversarial network, in grado di usare dati (come le immagini di volti umani) per produrre cose nuove (come immagini estremamente realistiche di surrogati di volti umani). Per realizzare i deepfake video l’algoritmo falsificatore viene addestrato con delle sequenze di video reali del soggetto ad apprendere le peculiarità dei suoi movimenti e ad associare il labiale e le parole (pronunciate in altre circostanze magari in momenti diversi) in modo che siano perfettamente in sincrono.

I deepfake realizzati da Samsung.

LEGGI ANCHE: La foto fake del corteo di Donald Trump a Londra

I CHEAP FAKE

A fronte di un così elevato livello di sofisticazione, produrre deepfake è diventato possibile anche a partire da pochissimi dati di partenza, tanto che gli esperti hanno iniziato a usare il termine cheap fake. Impressionanti in questo senso sono i video realizzati da Samsung che in un laboratorio russo è riuscita ad animare la Gioconda, producendo delle gif animate in cui l’opera di Leonardo si muove e parla a partire semplicemente dalla sua immagine statica.

UNA MINACCIA IN VISTA DELLE PRESIDENZIALI USA

Negli Usa i deepfake video sono considerati una reale minaccia per le prossime elezioni nel 2020 e alcuni ricercatori – guidati dal professor Hany Farid esperto di computer science e digital forensics di Berkeley – stanno lavorando a un software che riconosca i video fake di leader politici come Donald Trump, Theresa May, Justin Trudeau, così come dei candidati alla presidenza Usa. Farid ha dichiarato che la diffusione di questo genere di contenuti metterebbe realmente a rischio la democrazia e la sicurezza dei cittadini e che, al momento, non siamo assolutamente pronti per affrontarlo.

LEGGI ANCHE: Come funzionano le echo chamber nei social network 

LA VENDETTA CORRE SUL FAKE

La sua non sembra un’esagerazione se consideriamo i precedenti usi politici dei deepfake per manipolare l’opinione pubblica. Un caso che ha fatto scalpore, in India, è stato quello della giornalista investigativa Rana Ayyub che nell’aprile 2018 aveva denunciato il partito nazionalista indiano Bjp per aver marciato a sostegno delle persone accusate di aver stuprato una bambina di 8 anni del Kashmir. La sua presa di posizione le è costata cara. Oltre alla pubblicazione di tweet fasulli («odio il popolo indiano», «amo il Pakistan») per screditarla agli occhi dell’opinione pubblica è stato fatto circolare in Rete dalla pagina del Bjp un suo video porno fake che in poche ore ha raggiunto 40 mila persone, senza che lei potesse fare nulla per fermarlo (pur essendo stata informata da una fonte interna al partito). È chiaro come un’azione del genere possa manipolare l’opinione pubblica e distruggere la credibilità di un giornalista, specialmente donna. Allo stesso modo è comprensibile la preoccupazione degli Stati Uniti rispetto al rischio di simili manipolazioni nella prossima campagna elettorale presidenziale, tanto che per la prima volta al Congresso americano è stata presentata una proposta di legge per combattere i deepfake.

L’esempio di un deepfake realizzato su un video di Kim Jong Il.

COME SMASCHERARE I VIDEO FAKE

Ma come funziona la tecnologia che permette di smascherare un fake? Praticamente allo stesso modo di quella che li crea: attraverso il machine learning. Per distinguere un individuo dalla sua versione artefatta vengono utilizzati dei sistemi biometrici che registrano ore e ore di video del personaggio, in cerca di relazioni tra i movimenti della testa, gli schemi del discorso e le espressioni facciali in modo da addestrare la macchina a riconoscerli. Per esempio, quando Barack Obama – caduto nel deepfake prima di Zuckerberg – dà cattive notizie, aggrotta le sopracciglia e tende ad abbassare la testa mentre la solleva in caso contrario. Queste correlazioni sono usate per costruire un modello da usare per determinare se l’immagine di Obama contenuta in un video abbia gli schemi del parlato, i movimenti della testa e le espressioni facciali che corrispondono all’originale. Se in questi schemi si rivelano delle anomalie molto probabilmente si è in presenza di un falso.

LEGGI ANCHE: Il peso della disinformazione online in Italia

GLI ESPERIMENTI SUI CANDIDATI ALLE PRIMARIE

Si sta costruendo un modello simile sui candidati alle prossime presidenziali americane, tra cui Joe Biden, Elizabeth Warren e Bernie Sanders testato su alcuni deepfake creati da ricercatori dell’Università della California. Gli esperti hanno creato i falsi mappando i loro volti sugli attori che li imitano nel Saturday Night Live. Il risultato è piuttosto sconvolgente: nel video fake di Trump, il volto del presidente ha le espressioni facciali di Alec Baldwin.

Un deepfake di Trump con la mimica di Alec Baldwin, suo imitatore.

UN FENOMENO DIFFICILE DA ARGINARE

I deepfake sono la nuova frontiera del fake, contenuti artefatti estremamente virali che possono diventare una reale minaccia non solo per la reputazione delle persone coinvolte ma anche per il tessuto economico e la democrazia, se si tratta di politica e istituzioni. Si potrebbe obiettare che essendo falsi possono essere verificati e smentiti. Purtroppo, come abbiamo visto, in Rete la velocità di diffusione è tale che le contromisure sicuramente arrivano tardi e spesso agiscono sulle macerie della precedente credibilità. Il rischio appare piuttosto concreto: immaginiamo cosa accadrebbe se durante la campagna elettorale Usa venissero diffusi video di Trump che dichiara una guerra con armi nucleari. C’è poco da scherzare.

© RIPRODUZIONE RISERVATA

ARTICOLI CORRELATI

Commenti: 0

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *