Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2020  gennaio 08 Mercoledì calendario

Dai porno alla politica: i video che Fb non vuole

Se sui social network può essere difficile stabilire il confine tra una opinione e una bugia, tra una bufala e una diversa prospettiva sulle cose, sarà ancora più complicato distinguere tra un video reale e un cosiddetto deepfake, pratica che – con la manipolazione delle immagini ad alto livello – spodesterà il buon vecchio “mi hanno hackerato l’account” come scusa per negare una gaffe.
Dopo Twitter, lo ha capito anche Facebook che in vista delle elezioni Usa ha deciso di vietare questi contenuti che manipolano la realtà utilizzando il mezzo di comunicazione più potente: il video.
Cos’è. Con il termine deepfake (falso profondo) ci si riferisce a video e immagini che sfruttando gli algoritmi di intelligenza artificiale e il cosiddetto machine learning (la capacità delle macchine di imparare dall’esperienza per adattarsi autonomamente alle situazioni) simulano fattezze, movimenti e voce delle persone rendendo difficile distinguere realtà e finzione. Finora la tecnica è stata utilizzata soprattutto nei video porno per fingere ci fossero celebrità. Oggi potrebbe servire per far dire o fare a un candidato qualsiasi cosa.
Il social network di Zuckerberg, che da sempre applica ai contenuti politici una prassi ritenuta troppo morbida dagli esponenti democratici Usa, basata sulla sola riduzione della visibilità dei contenuti quando non violino la policy della piattaforma, stavolta ha deciso di vietare questa tecnologia. Ha assicurato che ci sarà un team di moderatori ed esperti verificatori che valuterà i video manipolati e quelli critici, rintracciati anche attraverso procedimenti automatizzati.
Il rischio, infatti, è che ci sia lo stesso problema con cui Facebook ha avuto a che fare a lungo. Il tentativo di far rispettare la policy contro l’odio, la nudità e il linguaggio d’odio ha spesso generato una vera e propria involontaria censura nei confronti della satira e dell’arte: gli algoritmi rilevavano una parola vietata e non riuscivano a distinguere se fosse nel contesto di una opera letteraria o di una vignetta satirica. E se dovesse accadere lo stesso con video e immagini satiriche? “Questa politica – spiega Monika Bickert, vicepresidente del Global Policy Management – non si applica a contenuti che siano parodia o satira, o a video che siano stati modificati esclusivamente per omettere o cambiare l’ordine delle parole”. Quelli borderline non saranno rimossi, ma il social assicura che ne sarà ridotta significativamente la distribuzione, applicando sul contenuto un avviso che informa gli utenti. “Se rimuovessimo semplicemente i video manipolati contrassegnati dai correttori di fatti come falsi, sarebbero ancora disponibili altrove in Rete o sull’ecosistema dei social media – dice la Bickert –. Lasciandoli ma etichettandoli come falsi forniamo così informazioni importanti”.
I casi. In Italia il caso più famoso di deepfake è il finto dietro le quinte di Matteo Renzi trasmesso da Striscia la Notizia a settembre, nel quale l’ex premier si prendeva gioco di tutti, da Conte a Mattarella. Negli Usa, invece, nelle ultime settimane la polemica aveva investito la speaker del Congresso, Nancy Pelosi: sui social è circolato un video in cui le sue dichiarazioni sono state rallentate per dare l’impressione che fosse ubriaca e quindi le sue parole strascicate. Non un deepfake, ma un’alterazione di cattivo gusto su cui i social dovranno prendere una decisione.