Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2023  febbraio 21 Martedì calendario

Google citata in tribunale: il suo algoritmo favorì l’Isis

DAL NOSTRO CORRISPONDENTE
PARIGI La sera del 13 novembre 2015 Nohemi Gonzalez, 23 anni, si era data appuntamento con alcuni amici americani e francesi ai tavolini del Carillon, il bar all’incrocio tra le vie Bichat e Alibert nell’est parigino. Figlia di immigrati messicani di Whittier, vicino a Los Angeles, la prima della famiglia ad andare all’università, Nohemi stava per finire i suoi sei mesi di scambio studentesco in Francia, e a febbraio sarebbe tornata in California per laurearsi in design. Alle 21 e 25, dopo le esplosioni allo Stade de France, la seconda cellula dei terroristi dello Stato islamico entra in azione e spara sui ragazzi seduti fuori dal bar. Poche ore dopo la madre, Beatrice, riceverà la notizia nel suo salone di parrucchiera a Whittier: Nohemi è stata uccisa, è l’unica vittima americana degli attentati dei ristoranti e del Bataclan.
Nelle settimane e nei mesi successivi il mondo ha cercato di capire la natura dello Stato islamico, come l’organizzazione reclutasse i suoi soldati, come ragazzi nati e cresciuti in Belgio o in Francia potessero scegliere di arruolarsi per massacrare innocenti. Tra gli ambiti di indagini c’erano ovviamente Internet e i social media, e l’uso abile che ne hanno fatto prima Al Qaeda e poi l’Isis. Una ong israeliana, Shurat HaDin, che lotta contro il terrorismo ricorrendo a cause legali, ha proposto ai genitori di Nohemi Gonzalez di fare causa a Google, casa madre di YouTube: lasciando che lo Stato islamico diffondesse i suoi video di propaganda sul sito, e che poi l’algoritmo di YouTube li portasse in evidenza, Google si sarebbe resa responsabile di complicità involontaria con i terroristi.
La causa, in corso da anni, arriva oggi alla Corte Suprema americana, che dovrà pronunciarsi sulle «26 parole che sono il fondamento di Internet»: ovvero la Section 230 della Communications Decency Act, la legge del 1996, secondo la quale le piattaforme non sono penalmente responsabili per i contenuti realizzati da altri. YouTube, ma anche Twitter o Facebook, in base alla Section 230, non sono considerati come editori, ma come semplici diffusori di materiale altrui.
Gli avvocati della famiglia Gonzalez e della ong Shurat HaDin contestano proprio questa forma di irresponsabilità: «I video consultati su YouTube sono il modo principale con il quale l’Isis ha ottenuto sostegno e nuove reclute al di fuori delle aree di Siria e Iraq». Quindi secondo i ricorrenti la Section 230 deve essere abrogata o almeno modificata: i siti con miliardi di utenti non possono limitarsi a bandire solo i contenuti pornografici, come accade oggi, ma devono esercitare un controllo anche su altri contenuti pericolosi come i video di propaganda islamista.
La petizione alla Corte Suprema si fonda su un aspetto fondamentale: gli algoritmi automatici suggeriscono certi video sulla base delle preferenze dell’utente e di ciò che ha visto in precedenza. Nel momento in cui YouTube favorisce, sia pure inconsapevolmente, certe immagini invece di altre, è difficile sostenere che la piattaforma non svolga una funzione editoriale. Ma chi difende la Section 230 sottolinea che, senza quella tutela, Internet per come lo abbiamo conosciuto finora non potrebbe più funzionare. Mark Zuckerberg, fondatore di Facebook, e Jack Dorsey, ex capo di Twitter, si sono pronunciati in passato per una revisione, ma finora senza conseguenze.