Corriere della Sera, 15 marzo 2019
I diritti e gli algoritmi
Tempi duri per i diritti civili. Alle Nazioni Unite principi basilari che sembravano acquisiti per sempre tornano in discussione. Fin qui la scarsa sensibilità dei molti Paesi retti da regimi autoritari era stata compensata dall’impegno dell’Occidente e dalla volontà di Cina e Russia di cooperare con Europa e Usa. Ora che quei rapporti sono tornati conflittuali e che l’America di Trump ha ridotto il suo impegno nelle sedi multilaterali, a difendere i diritti rimane soprattutto un’Europa debole e divisa. Ma se tutto questo è palese (per chi lo vuol vedere), un’altra crisi dei diritti più insidiosa perché poco visibile e difficile da comprendere è quella che viene dal crescente uso degli algoritmi e dell’intelligenza artificiale in vaste aree della vita pubblica: dalla prevenzione e repressione dei crimini alle selezioni del personale e degli studenti nelle università. Per anni abbiamo citato la polizia predittiva di Minority Report come una minaccia futuribile. Oggi sappiamo che il regime cinese quelle tecniche già le usa da tempo e ora va oltre varando un sistema di controllo universale di tutti i cittadini e di rating dei loro comportamenti dalla culla alla tomba. Ma scopriamo anche che nella democrazia americana da tempo, in assenza di regole, molte polizie usano algoritmi, sistemi predittivi, spiano l’attività degli individui sui social network, sorvegliano i cellulari e usano il riconoscimento facciale non solo contro il crimine ma anche durante le proteste di piazza. La polizia di New Orleans, ad esempio, dal 2012 usa sistemi predittivi del crimine forniti da Palantir, la segretissima azienda di Peter Thiel che fornisce tecnologia ai servizi Usa di intelligence. Tutto top secret, compresi i criteri usati dagli algoritmi per individuare i sospetti. Sistemi simili stanno arrivando anche in Italia. Inevitabile, dicono i tecnici: le smart city del futuro rese «intelligenti» ed ecocompatibili dalla tecnologia, dovranno essere anche safe city: e non ci sarà sicurezza senza un uso massiccio della tecnologia. Per capire cosa questo possa significare con un regime autoritario o, comunque, senza regole, pensate a storie come quella del poliziotto cinese mandato a svolgere missioni repressive contro la minoranza musulmana degli uiguri. Costretto a perseguitare gente della sua stessa etnia, ha raccontato di averlo dovuto fare anche con la faccia feroce per timore che l’intelligenza artificiale collegata alle telecamere e ai sistemi di riconoscimento facciale scoprisse il rimorso sul suo volto.