Continuano a circolare esempi e storie che mostrano come la nuova frontiera delle notizie false saranno i video manipolati attraverso l’intelligenza artificiale
Le discussioni sulle cosiddette fake news che da alcuni anni agitano le società occidentali – notizie deliberatamente false, scritte e diffuse allo scopo di creare disinformazione – sono destinate a fare presto un ulteriore salto di qualità: nel prossimo futuro prenderà piede un tipo di distorsione della realtà nella quale sarà più facile cadere e che sarà più difficile da smentire attraverso un classico lavoro di inchiesta giornalistica e un’accurata ricerca delle fonti. Sono i cosiddetti deepfake, cioè video manipolati attraverso l’intelligenza artificiale.
Cosa sono i video deepfake
In estrema sintesi, sono video come quello che segue: voi pensate di stare guardando un video di Obama che dice delle cose, eppure non è vero niente. Pensate per un momento a cosa sia possibile fare con una tecnologia del genere – specie dal momento che la qualità dei falsi migliora ogni giorno – e capirete perché rispetto alle banali fake news si rischia un enorme salto di qualità e pericolosità.
Il termine deepfake ha iniziato a diffondersi nell’autunno del 2017, quando un utente di Reddit utilizzò lo pseudonimo “Deepfakes” per pubblicare sul sito finti video porno di persone famose. Erano video in cui al volto di un’attrice o di un attore porno veniva sostituito quello di un attore cinematografico di Hollywood, attraverso una tecnica chiamata “generative adversarial networks” o GAN. Il nome “deepfakes” ha iniziato presto a definire tutti i video realizzati in questa maniera: “deep” fa riferimento al deep learning, una delle procedure di apprendimento delle intelligenze artificiali, mentre “fakes” vuol dire semplicemente “falsi”. Ai video deepfake venne dedicato anche un canale apposito su Reddit, in cui chiunque poteva pubblicare le proprie “creazioni”: nel febbraio del 2018 Reddit ha deciso di chiuderlo, in seguito alle molte proteste ricevute.
Nonostante i deepfake siano entrati nel dibattito pubblico alla fine del 2017 a causa di questi video porno, dei video manipolati attraverso l’intelligenza artificiale si parlava con preoccupazione già da diversi mesi, soprattutto a causa delle implicazioni che avrebbero potuto avere sull’informazione. Nel luglio del 2017 un articolo dell‘Economist raccontò il fenomeno quando era ancora poco popolare, spiegando come un semplice codice informatico fosse in grado di modificare l’audio o le immagini di un video per far dire o fare a una persone cose mai avvenute nella realtà. Quella che a luglio sembrava una tecnologia solo alla portata di pochi esperti di informatica, nel giro di pochi mesi è diventata accessibile a un pubblico più ampio grazie a programmi molto accessibili: oggi la possibilità di incorrere in video fasulli realizzati per manipolare la realtà è sempre più alta.
Il Wall Street Journal contro i deepfake
Il rischio di trovarsi di fronte un video falso e crederlo vero ha messo in guardia le redazioni dei giornali, che ora si stanno adoperando per contrastare anche questo nuovo tipo di fake news. Il Wall Street Journal – hanno raccontato Francesco Marconi e Till Daldrup su Nieman Lab – ha attivato una task force proprio per esaminare i deepfake in circolazione e istruire i giornalisti della redazione a riconoscerli. Nell’articolo si spiega che ci sono varie tecniche usate da chi crea questi video: si va dalla semplice sostituzione di un volto con un altro alla possibilità di far dire o fare a una persona in un video cose mai successe, per esempio trasferendo movimenti facciali e del corpo da un soggetto A ad uno B.
Per capire se quello che si sta guardando è un video originale oppure un video manipolato, la prima cosa da fare – come per qualsiasi notizia – è controllare la fonte da cui proviene, suggeriscono al Wall Street Journal. “Chi l’ha filmato? Chi l’ha pubblicato? E dove è stato condiviso la prima volta?” sono alcune delle domande che bisogna porsi prima di credere alla veridicità di quel filmato. A quel punto ci sono diversi strumenti a disposizione del giornalista per analizzare il video: può usare un programma di montaggio video come Final Cut per rallentarlo ed ingrandire le immagini, per capire se ci sono state manipolazioni o frame aggiunti in un secondo momento.
Le conseguenze dei video manipolati sull’informazione
Dopo lo
Un’altra dimostrazione concreta della pericolosità di ciò che è possibile fare usando l’intelligenza artificiale è stata data dal regista Jordan Peele, che ha collaborato con BuzzFeed per realizzare il falso video di Obama che abbiamo visto poco fa. Il video è stato fatto con l’esplicita intenzione di mettere in guardia da video manipolati come questo.
Un altro esempio di un video manipolato quasi impercettibilmente è quello pubblicato su Twitter dalla portavoce della Casa Bianca per mostrare lo scontro avuto tra il presidente degli Stati Uniti Donald Trump e il giornalista di CNN Jim Acosta l’8 novembre durante una conferenza stampa, e dimostrare che Acosta aveva messo le mani addosso alla donna incaricata di togliergli il microfono. Il video è stato analizzato da Storyful, un’organizzazione che si occupa di verifica delle notizie online, che ne ha scoperto la manipolazione. Al video originale, infatti, sono stati aggiunti alcuni frame nel momento in cui Acosta appoggia la mano sul braccio della dipendente della Casa Bianca, con l’obiettivo di enfatizzare l’atto e farlo apparire violento.
In tutto questo, se da un lato l’informazione dovrebbe contrastare la diffusione dei video deepfake, e scoprirne le manipolazioni quando sono veicoli di notizie false, dall’altro c’è anche chi li sta utilizzando per sperimentare nuove forme di comunicazione, creando un cortocircuito che rende la questione ancora più complicata. L’8 novembre in Cina l’agenzia di stampa di stato Xinhua ha realizzato il primo presentatore di telegiornale al mondo completamente falso. È una versione digitale del vero presentatore, Qiu Hao, di cui ha copiato movimenti facciali, voce e gesti: può parlare indifferentemente mandarino o inglese, e leggere qualsiasi notizia, senza il rischio di sbagliare ma anche senza bisogno di pensare a quello che dice, con tutte le ripercussioni etiche che questo comporta.