Deepfake, quando il vero è… assolutamente falso
di Jacopo Piol | pubblicato il 4 dicembre 2019
Provate a immaginare di svegliarvi un giorno, aprire la vostra casella mail e trovare un video in cui il sottoscritto - in carne e ossa, con indosso la mia giacca e la mia cravatta, seduto alla scrivania dell’ufficio dove abitualmente vi accolgo - dica quanto segue: «Ciao caro, ho investito tutti i tuoi risparmi nella mia nuova villa con piscina ai Caraibi. Grazie e a mai più rivederci».
CI POTRESTE CREDERE?
No, ovviamente non lo farei mai e dunque mai lo dirò. Ma qualcuno - un malintenzionato ovviamente -, invece, potrebbe farmelo dire: potere del deepfake.
Di cosa si tratta? Il deepfake è la possibilità di creare, grazie all’intelligenza artificiale e a sofisticati programmi di montaggio, un video e/o un audio assolutamente falso ma che, agli occhi di chi guarda e/o all’orecchio di chi ascolta, appaia - altrettanto assolutamente - vero.
Un procedimento reso possibile dall’incredibile potenza dell’IA, in grado di analizzare migliaia di filmati (a disposizione di chiunque, in grande quantità, attraverso internet) e dividerli in fotogrammi e tracce audio che possono così essere assemblati per far dire al soggetto ciò che il creatore del deepfake desidera.
I CASI FAMOSI
Il primo caso di deepfake è tradizionalmente ritenuto quello che ha visto come - ignara - protagonista Nancy Pelosi, portavoce della Camera dei rappresentanti degli Stati Uniti. L’artificio fu relativamente “semplice” - immagini rallentate, tono della voce aumentato per mantenerlo naturale - ma il risultato portò a farla apparire incapace se non ubriaca. Il video fu condiviso milioni di volte, addirittura da Rudy Giuliani, sindaco di New York.
Tra i casi più eclatanti c’è poi quello che ha riguardato Mark Zuckerberg, CEO di Facebook, mentre prende in giro gli utenti che lasciano all’azienda i loro dati privati.
Nei video in questione, i movimenti - del corpo, del viso, della bocca - e le parole sembrano lineari e dunque realistici, rendendo molto difficile, soprattutto a un visione superficiale “tipica” nel mondo dei social, capire che si tratti di un falso. Il problema viene così accentuato proprio dai canali di diffusione, appunto i social, dove un contenuto simile, per la suddetta superficialità, diventa facilmente virale. Altri e sgradevoli casi riguardano personaggi famosi che si ritrovano, loro malgrado, ad essere protagonisti di filmati pornografici (i cosiddetti “fake porn”).
Un ulteriore ed ultimo esempio è quanto accaduto ad un’azienda dislocata tra Regno Unito e Germania, come riferito dal Wall Street Journal. Ad un dipendente in Inghilterra arrivò una telefonata; dall’altra parte della cornetta la voce dell’amministratore delegato: un tedesco che parla in lingua inglese. L’ordine impartito fu di trasferire 243mila dollari ad un fornitore ungherese. Operazione effettuata, purtroppo si trattava di un falso, un deepfake appunto: il dipendente, ascoltato in merito, dichiarò di non aver avuto nessun dubbio sull’identità dell’interlocutore, riconosciuto tramite la voce come il capo dell’azienda.
QUALI PERICOLI?
Chiaro dunque quali possano essere i pericoli legati ad un uso - spregiudicato - della potenza dell’IA. Grazie ai deepfake diventa possibile spostare soldi, come nell’ultimo caso citato, ma anche, ancora più grave, indirizzare voti o influenzare rapporti diplomatici, destabilizzando o manipolando equilibri di carattere geopolitico. Non è dunque un caso che la soglia di attenzione, per esempio rispetto alle elezioni USA 2020, sia altissima.
In prospettiva, l’enorme pericolo è che nelle persone si crei una totale sfiducia in tutto ciò che vedono: perché se tutto può essere potenzialmente finto, allora che cosa è invece vero?
Il tema sta interessando analisti, università e ricercatori; a possibili soluzioni lavorano le aziende che si occupano di cybersecurity, che stanno concentrando i loro sforzi nella creazione di algoritmi in grado di riconoscere i deepfake per contrastarne la diffusione.
LA TECNOLOGIA È NEUTRA
Abbiamo analizzato un caso limite - e negativo - di utilizzo dell’IA, ma dobbiamo sempre tenere presente che la tecnologia, in se stessa, non è “né buona, né cattiva”, è neutra: dipende solo dall’utilizzo che si decide di farne.