Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2023  agosto 31 Giovedì calendario

Intervista a Frances Haugen

«Denunciare gli illeciti di Facebook non è stata la cosa più difficile che abbia fatto. Le persone in genere si raccontano mille motivi sul perché non riescono a fare quel che davvero vorrebbero o dovrebbero. Hanno paura di perdere il lavoro, il benessere, di ritrovarsi sole. Non era il mio caso: a me era già successo di perdere tutto».
Frances Haugen, sulla soglia dei quarant’anni, parla così della decisione che l’ha resa famosa.
Nata in Iowa, laurea in informatica e master a Harvard, nel 2021 ha pubblicato 22mila pagine di documenti interni del social network cofondato da Mark Zuckerberg provocando interrogazioni parlamentari, inchieste e un tonfo in borsa da sei miliardi di dollari. Dei “Facebook files”, apparsi in prima battuta sulWall Street Journal, il suo saggio tratta solo in parte. Il dovere di scegliere, la mia battaglia per la verità contro Facebook, che esce oggi in Italia per Garzanti, è in realtà una autobiografia che abbraccia un periodo ben più ampio e momenti non sempre così rilevanti. Limite o pregio è questione di punti di vista, considerando che Haugen oltre ad aver passato momento difficili ha lavorato per aziende come Yelp, Pinterest e Google prima di passare a Facebook, oggi chiamata Meta.
«Ero al dipartimento della disinformazione civica e poi in quello del controspionaggio che si occupava di individuare chi tenta di aggirare le regole e la moderazione dei contenuti», spiega lei stessa. «Unproduct manager di grado medio alto, sesto livello sui sette totali. Quando arrivai nel 2019, da almeno un anno erano tutti consapevoli che si era passati dal semplice tentare di trattenere gli utenti per più tempo possibile su Facebook o Instagram al cavalcare contenuti estremi capaci di provocare reazioni emotive e una conseguente impennata del traffico.
E l’odio e la rabbia sono sicuramente le più efficaci. Questo cambio di direzione era avvenuto tra il 2017 e il 2018 in risposta a una lenta diminuzione della quantità di contenuti prodotti sulla piattaforma».
Ma non è stato questo a spingerla.
«No. In generale già prima che io venissi assunta il degrado dei contenuti aveva avuto un effetto sensibile sul dibattito politico negli Stati Uniti e in Europa, ma in altri Paesi ha di fatto contribuito a scatenare la violenza versando la benzina lì dove la tensione era altissima. Il primo incidente su grande scala era avvenuto nel 2017 in Myanmar, in quello che Amnesty International definì “un’atrocità social”. L’esercito aveva costituito una rete di decine di migliaia di account, pagine e gruppi, per diffondere e amplificare la propaganda che prendeva di mira la minoranza musulmana rohingya.
Utilizzò questa rete per distribuire foto spaventose, notizie false e post provocatori, che poi è diventato un classico dell’incitamento alla violenza online. Io mi feci avanti perché, nel 2021, la seconda ondata di violenza su larga scala alimentata da Facebook aveva preso forma, stavolta in Etiopia. Ero convinta, e lo sono tuttora, che le scelte fatte dall’azienda stavano mettendo in pericolo delle vite».
Ancora oggi?
«Un copione che si può ripetere e si èripetuto. Quando pubblicai i “Facebook files” la mia previsione era che nel giro di cinque anni avremmo visto violenze su larga scala provocate da social come TikTok che si basa sui video, più virali dei testi.
Un anno dopo in Kenya si sono verificati scontri grazie a tensioni esacerbate attraverso TikTok. Ha pochi moderatori se non nelle lingue maggiori e una gestione dei contenuti ancora più opaca. Parlai al tempo con un dipendente della compagnia cinese che ammisecandidamente che non avevano alcun moderatore in lingua swahili».
Cosa è cambiato da quando è andata via da Facebook?
«Molto. Meta ha annunciato che avrebbe investito di più sulla sicurezza e sulla moderazione. Ma con l’acquisto di Twitter da parte di Elon Musk c’è stata una generale regressione su questo fronte nei social network. Musk ha licenziato metà del personale e mandato avanti la compagnia senza troppo badare alla qualità dei contenuti e senzapagarne le conseguenze. Ho letto molti rapporti che mostrano come tante piattaforme stanno seguendo più o meno palesemente tale agenda. Per questo insisto sulla trasparenza, è l’unica arma disponibile».
Cosa intende?
«È impossibile sapere con esattezza quel che accade su Facebook, e ancor più su altri social come TikTok. Al di là delle statistiche generali e spesso parziali che queste aziende pubblicano, non abbiamo idea dell’efficacia reale della moderazione, che per inciso viene fatta solo sulle lingue maggiori.
Dunque si possono tranquillamente tagliare i fondi o il personale destinato al controllo per sbandierare bilanci migliori e far crescere il titolo in borsa senza mostrare quali conseguenze tutto ciò ha sulla società. Le faccio un esempio: l’uso compulsivo degli smartphone porta probabilmente un terzo degli adolescenti alla deprivazione del sonno, con ricadute gravi sulla salute fisica e mentale.
Restano svegli fino a mezzanotte o oltre per continuare a controllare lo schermo. Dentro i social si sa con esattezza quanti lo fanno e per quanto tempo. Renderlo pubblico, con frequenza settimanale, porterebbe a una maggiore consapevolezza».
Eppure, dopo le elezioni presidenziali del 2016, sembrò che ci fosse la volontà di mettere un freno alle derive peggiori.
«Credo che in quel periodo si sia tentato di fare qualcosa. Ma nelle aziende hi-tech manca la profondità culturale e vengono guidate da persone che non hanno una visione di insieme. Sono come barche a vela che non puntano nella direzione giusta ma solo in quella dove il vento è più forte e si va più veloci. Si vince se i numeri crescono, il resto non conta. Per questo bisognerebbe imporre una trasparenza quasi totale, specie adesso con l’arrivo dell’intelligenza artificiale generativa alla ChatGpt che avrà un impatto profondo non solo sulla società ma anche sull’intero sistema produttivo.
Tutto rischia di cambiare grazie a algoritmi che operano lontani dai nostri occhi e che nessuno ha controllato. Di nuovo serve trasparenza e serve ora. Anche perché molte menti brillanti che sanno come intervenire sul piano sociale non hanno conoscenze approfondite di tecnologia».
Come lei ha spiegato, quanto visto in Myanmar, Etiopia o anche a Capitol Hill potrebbe ripetersi.
Crede che le sue rivelazioni, per altro contestate da Zuckerberg, siano servite a qualcosa?
«Mi limito a segnalare che da allora da voi in Europa è passato il Digital Services Act (Dsa), la regolamentazione dei contenuti nel mondo digitale e la direttiva sul whistleblowing che protegge e assiste chi denuncia illeciti. Nel frattempo, negli Stati Uniti, l’Ufficio per la salute pubblica ha emesso un avviso sulla pericolosità dei social media come aveva fatto per il fumo o la necessità di indossare le cinture di sicurezza in macchina».
Un’ultima domanda. Qual è la cosa peggiore che le è accaduta dopo aver reso pubbliche quelle 22mila pagine di documenti?
«Qualcuno ha provato a manipolare la voce a me dedicata su Wikipedia».
Tutto qui?
«Tutto qui».