Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2019  luglio 27 Sabato calendario

Adesso ci sono anche i fake video (e dei software per smascherarli)

Cos’hanno in comune Mark Zuckerberg, Donald Trump e l’attrice Scarlett Johansson?Sono stati tutti vittime di un deepfake, un video modificato con tecnologie sofisticate basate sull’intelligenza artificiale che permette di far dire o fare qualsiasi cosa a chiunque. Questa forma di manipolazione dell’informazione ha trovato una certa eco sui social network, dove i contenuti più spettacolari sono spesso i più virali.
Specialisti in analisi del linguaggio naturale o in falsificazione di immagini stanno lavorando al problema. Come Vincent Nozick, ricercatore presso il laboratorio di informatica dell’università Paris-Est Marne-la-Vallée, che ha sviluppato un software chiamato Mésonet: analizzando un gruppo di pixel in un’immagine, il sistema è in grado di sapere se questo gruppo presenta delle incoerenze, soprattutto a livello di colori, un indice caratteristico dei deepfake. Altri ricercatori si concentrano sulle tecniche di comparazione delle immagini chiave, che permettono di ritrovare l’origine di un video a partire dalla sua versione modificata. Come il progetto InVid, lanciato nel 2016, prima dell’arrivo del deepfake.
L’istituto svizzero Idiap, specializzato nelle relazioni tra uomo e macchine, ha invece sviluppato una tecnologia in grado di riconoscere differenze tra una pista audio e il movimento delle labbra su un video. Il progetto rivendica un tasso di errore compreso tra il 14 e il 24% nel reperire i deepfake. Una percentuale che varia in funzione della risoluzione dei video: migliore è la qualità, minore è la possibilità di sapere se sono stati modificati. Tra parentesi, l’Idiap beneficia dei fondi del Darpa, il laboratorio di ricerca dell’esercito americano, che a partire dal 2006 ha investito 68 milioni di dollari (61,1 milioni di euro) per cercare di venire a capo del fenomeno deepfake.