Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2019  novembre 27 Mercoledì calendario

Ci sono programmi gratuiti che consentono di cambiare un viso con un altro o fanno dire quel che vogliono

Non si può credere a tutto quello che si vede su Internet. Bisogna sapere che sulla rete circolano sempre più «deepfakes», video manipolati, profondamente falsi. Sono realizzati utilizzando programmi gratuiti che attraverso l’intelligenza artificiale arrivano a sostituire un volto con un altro. Ma questa tecnologia si può applicare anche alla voce. Il risultato è che si realizzano video di personaggi per fargli dire cose che non hanno mai detto. Inizialmente questa pratica interessava il mondo dello spettacolo e i «deepfakes» erano realizzati per divertimento e per fare delle parodie, ma poi ha aperto la strada a manipolazioni e ricatti che fanno meno sorridere, secondo quanto ha riportato Le Monde. E diventa importante saperli riconoscere.La particolarità di questi «deepfakes» è che la manipolazione è automatizzata grazie ai dei programmi di intelligenza artificiale, gratuiti, e relativamente di semplice utilizzo, capaci di apprendere e di riprodurre un viso a partire da numerose immagini della persona presa di mira.
I primi «deepfakes» sono stati realizzati alla fine del 2017 con la modifica di video pornografici dove il volto delle attrici veniva sostituito con quello di altre donne. Questi video sono stati pubblicati sul sito Reddit ed è stato messo a disposizione gratuitamente un software che permetteva ad altri inernauti di realizzare propri «deepfakes». Il risultato è stato una pioggia di sequenze pornografiche manipolate che mettevano in scena delle celebrità come Gal Gadot, Emma Watson, Adriana Grande sul sito Reddit prima che decidesse, all’inizio del 2018, di chudere il Forum dove venivano radunati. Troppo tardi, perchè ormai era nato il fenomeno «deepfake» e con esso un mare di preoccupazioni perchè con questa tecnica manipolatoria si possono discreditare personalità pubbliche, politici, estorcere e chiedere un riscatto con effetti disastrosi per processi democratici come le elezioni.
I pericoli del «deepfake» sono tali che l’Agenzia francese della sicurezza dei sistemi informatici (Anssi) li ha presi in rassegna nel rapporto pubblicato a maggio sui pericoli legati al digitale. Se al momento la maggioranza dei «deepfake» in circolazione riguarda i video pornografici, la grande preoccupazione provocata da questa tecnologia è il rischio delle false informazioni. In futuro la disinformazione potrà avvenire attraverso «deepfakes» che potranno esacerbare le divisioni sociali e generare violenze, secondo la giurista Danielle Keats Citron che ha anche avanzato la possibilità che questi «deepfakes» possano venire utilizzati per manipolazioni nel mondo della finanza. Uno dei «deepfake» più famosi è quello di Barack Obama che tratta Donald Trump come un infame, ha ricordato Le Monde. I «deepfake» sono un rischio per la disinformazione, specie se mette in scena una personalità influente, e bisogna prepararsi a riconoscerli e a difendersi. Un antipasto arriva dalla Cina dove Zao ha lanciato un’app che permette di inserire il proprio viso in un estratto di un film o di una clips con un semplice selfie in qualche secondo.
Creare e diffondere un video di buona qualità, «un deepfake» convincente rappresenta oggi una sfida tecnica e deve essere rapidamente analizzato per scoprire le manipolazioni ha detto a Le Monde, Renee DiResta, direttrice di ricerca all’internet osservatorio di Stanford e specialista della disinformazione. Per uno Stato costruire fabbricare un deepfake a fini politici non costa niente, ha detto a Le Monde, Vincent Nozick che ha creato, già nel 2017, un software per scoprire i «deepfakes». E anche le grandi piattaforme hanno la propria responsabilità.