Libero, 4 gennaio 2019
Porno a sua insaputa
L’ultimo orrore di Internet e dell’intelligenza artificiale (e presto le due cose saranno indistinguibili) si chiama “deepfake”, cioè “falso profondo”. Ci sono le “fake news”, le notizie false; i “fake”, cioè le foto manipolate con Photoshop o altri programmi; e poi i “deepfakes”, cioè i video in cui, ad esempio, la testa della famosa e bellissima attrice Scarlett Johansson appare sul corpo di una pornostar intenta a fare il suo lavoro. Fino a qualche tempo fa, il video era il banco di prova della verità, perché la sua manipolazione non era perfetta: il trucco si vedeva. Adesso, usando programmi relativamente facili da usare e di pubblico dominio sviluppati da Google, dopo aver attinto all’archivio di immagini di un qualunque personaggio pubblico (dal suo profilo Facebook o Instagram oppure direttamente dalla rete), in poco tempo si possono realizzare video di eventi mai accaduti, di cui però quel personaggio appare realisticamente come il protagonista.
SOGNI MALATI
Proprio Scarlett Johansson, in una recente intervista al Washington Post, ha espresso tutta la sua rabbia e frustrazione, dal momento che è una dei personaggi più presi di mira dai creatori di “deepfakes”. Già nel 2016 un ingegnere di Hong Kong aveva prodotto un robot con le sue inequivocabili fattezze (se non posso avere l’attrice dei miei sogni in carne ossa, mi accontenterò del succedaneo elettronico) e la Johansson non poté contrastare legalmente quella sorta di clonazione. E cinque anni prima un hacker aveva rubato e postato foto in cui era nuda, ma l’attrice riuscì a rivalersi facendo condannare l’hacker a dieci anni di prigione. Ora, però, contro i “deepfakes” generati dal computer si dichiara impotente: ce n’è uno che sui siti porno viene classificato come “video trafugato”, come se fosse autentico, e ha avuto oltre un milione e mezzo di visualizzazioni. L’attrice americana avvisa: oggi prendono di mira me, perché sono una celebrità, ma potrebbe accadere a chiunque. E in effetti sta già accadendo a chiunque. Lo stesso giornale che ha raccolto lo sfogo della Johansson ha raccontato la storia di una donna di quarant’anni che si è ritrovata il proprio volto innestato sul corpo di un’attrice porno in una scena hard. Chi mai avrebbe potuto desiderare di vedere un “deepfake” con una donna non famosa? Semplice, un qualunque uomo – un collega di lavoro, un conoscente o persino un ex rancoroso – che nutrendo fantasie sessuali su di lei ha scaricato da Internet quante più immagini del suo “bersaglio”, e poi le ha fornite, dietro pagamento di un modesto compenso (venti dollari) a un gruppo di creatori di “deepfakes”, gente senza scrupoli che si trova sui forum o sulle chat degli amanti di questo genere di video.
RISALIRE AI CREATORI
E dunque, con le tecnologie già oggi disponibili, tutti potremmo ritrovarci in video osceni, violenti e diffamanti, e sarebbe estremamente difficile dire: «Guardate che è un falso». L’unica difesa è che, tempestivamente, i vari Paesi si dotino delle armi legali appropriate per bloccare il fenomeno. Finora il contrasto legale si è mosso in modo scoordinato, spaziando dalla violazione della privacy, al furto di identità, alla molestia sessuale. Per non parlare della difficoltà di risalire ai creatori, come amano definirsi i realizzatori di “deepfakes£, i quali, naturalmente, sono rigorosamente anonimi e riescono a far perdere le loro tracce nel web. Inoltre, ci sono i difensori non tanto dei “deepfakes” in sé, ma della tecnologia, in effetti incredibilmente potente, con cui vengono realizzati. Google stessa, dopo aver inserito nella lista dei suoi possibili “ban” (cioè la messa al bando dai risultati dal suo motore di ricerca) tutte quelle occorrenze di “pornografia sintetica non intenzionale” – cioè, detta semplice, gli stessi “deepfakes” – ha però ribadito che non può privare il pubblico di quei software che li rendono possibili, ingegnosamente sviluppati dai suoi laboratori di intelligenza artificiale nel 2014. Un professore di scienze informatiche del Darmouth College ha illustrato efficacemente il conflitto tra tecnologia e morale nel caso dei “deepfakes”: «È come se un biologo dicesse: “Questo è un virus davvero fantastico; vediamo che succede se il pubblico ci mette le mani sopra”; una cosa ovviamente inaccettabile. Eppure questo è ciò che la Silicon Valley fa tutto il tempo Dobbiamo riconoscere quanto di dannoso c’è in queste tecnologie e andarci molto più cauti nel farne uso». Perché per ora il giro dei “deepfakes” può sembrare solo un triste cinema popolato di frustrati e nutrito di sogni malati, e si può scherzare con l’idea di smentire l’evidenza filmata di un tradimento balbettando «amore, non è come credi: è solo un deepfake...». Ma il rischio di scoperchiare un vaso di mali ben più gravi è alle porte.