il venerdì, 31 dicembre 2015
Ma l’algoritmo che prevede i reati funziona?
Google decide come devo avere accesso alle notizie, scegliendo quelle più adatte per me. Facebook mi consiglia gli amici, le foto e le cose che potrebbero piacermi. Amazon intuisce quale sarà il prossimo libro che leggerò – e nel frattempo coglie l’occasione per vendermelo. Benvenuti nell’era dell’algoritmo. Quella strana cosa che pochi sanno davvero cosa sia ma che, come ci dicono in continuazione, governa le nostre vite, determina le nostre scelte, amministra la finanza e, in definitiva, domina il mondo.
Negli ultimi anni l’entusiasmo per i Big Data è andato sempre aumentando, al punto che si può parlare di «cultura dell’algoritmo» o anche, come qualcuno ha suggerito, di «teocrazia computazionale». Basterà provare a fare un giochino: la prossima volta che sentite parlare di un algoritmo, sostituite il termine con «dio» e chiedetevi se cambia qualcosa. Fatto sta che, sull’onda dell’ardore, si è pensato che, se un algoritmo può indovinare i nostri gusti, allo stesso modo possa anche predire i comportamenti criminali. Proprio così: l’idea è di dar corpo alla realtà (per alcuni idilliaca per altri distopica) immaginata da Philip K. Dick nel suo Minority Report, portato sullo schermo da Steven Spielberg nel 2002. La storia è nota: un reparto di polizia usa le visioni di tre persone che prevedono i crimini per arrestare i (potenziali) delinquenti prima che questi commettano il reato. Fantascienza? Certo, ma non completamente. La pensano così a Santa Cruz, California, dove ha sede la PredPol Ine., una società privata che ha sviluppato un algoritmo segretissimo in grado di predire e localizzare atti delittuosi. Era il 2011, e l’impeto entusiasta su questo progetto fu tale che il magazine Time annoverò la PredPol Ine tra le cinquanta invenzioni dell’anno.
Da allora la curiosità e l’interesse si sono allargati: l’algoritmo è stato sperimentato (con fondi pubblici) in diverse città americane e attualmente è in uso in una ventina di luoghi, fra cui Atlanta e Los Angeles. Del resto un software simile era stato provato a Memphis già dal 2005, in un contesto di tagli ai fondi per il dipartimento di polizia nella cittadina del Tenneesse.
Nel dicembre 2012, PredPol ha anche varcato l’oceano ed è arrivato in Europa, dove è stato utilizzato nella contea di Kent, in Gran Bretagna. Anche la Francia non è stata a guardare: qualche mese fa un’inchiesta della testata Mediapart ha rivelato resistenza di un algoritmo predittivo usato dal Ministero dell’Intemo sin dalla fine del 2014 (il progetto ancora non ha un nome definitivo fra Horizon e Anticrime) e ha diffuso la notizia che un importante gruppo industriale sta sviluppando insieme a un istituto di ricerca pubblico un progetto simile.
Anche in Italia si sta conducendo un esperimento: il progetto e.SecurityTrento è un sistema informativo georiferito che incrocia dati per elaborare mappe di rischio nel capoluogo trentino. In particolare il software (finanziato con un progetto europeo di 400 mila euro e frutto della collaborazione fra l’Università di Trento, la Questura, la fondazione Bruno Kessler e il Comune) funziona su variabili socio-demografiche ed economiche, oltre che urbano-ambientali (come l’illuminazione, le condizioni climatiche, ecc.) e specifiche territoriali (presenza di auto parcheggiate, parchi, banche e luoghi pubblici, ecc.).
Ora, la domanda più importante è piuttosto banale: ma questi algoritmi funzionano? Stando alle (pochissime) informazioni rilasciate dalle società che li sviluppano e dai dipartimenti di polizia che li usano, sicuramente sì. PredPol annuncia soddisfatta che nelle città dove è in uso il suo algoritmo c’è stata una diminuzione della criminalità dal 10 al 30 per cento, a seconda del tipo di crimine. Ma non tutti ne sono convinti. In particolare, per poter davvero fare un bilancio, bisognerebbe aver accesso ad alcuni dati che invece le società in questione si guardano bene dal divulgare: che tipo di predizioni fa l’algoritmo? Di quali dati sensibili è a conoscenza e come vengono utilizzati? Qual è l’intervento di polizia messo in atto sulla base delle predizioni? Qualche risposta l’ha data Ismael Benslimane, che all’interno di un lavoro di ricerca della facoltà di Fisica dell’Università di Grenoble, ha sviluppato uno studio critico piuttosto interessante (lo si può leggere sul sito del collettivo di ricerca CorteX).
Anzitutto Benslimane ci pone di fronte a un paradosso: immaginiamo un poliziotto nella sua volante, in pausa pranzo, intento a mangiarsi un panino. A un certo punto il computer gli segnala una zona a rischio e il poliziotto decide di lasciare il panino e correre a sirene spiegate sul posto dove: A) in effetti si compie un reato e il poliziotto valida la predizione; B) non succede nulla e il poliziotto valida la predizione poiché la sua presenza ha fatto si che il reato non venisse commesso. Mettiamo invece il caso che il poliziotto decida di finire di mangiare in pace il suo panino e di non andare sul luogo indicato: può succedere che A) venga commesso un reato e che, appresa la notizia, il poliziotto validi comunque la predizione; B) non venga commesso alcun reato. In questo caso il poliziotto finirà il suo panino ed è probabile che dimentichi la predizione del sistema, perché poi nessuno gli ricorderà che non ha avuto luogo alcun atto criminale. Come si vede, l’algoritmo rischia di vincere sempre.
Ma il ricercatore francese ha fatto di più: ha contattato la società PredPol, così come la polizia del Kent, per avere più dati, senza ricevere alcuna risposta. Ha deciso allora di creare un algoritmo lui stesso utilizzando le informazioni disponibili, la poca letteratura di articoli scientifici sul tema e una serie di rapporti confidenziali anonimi e declassificati da parte di varie polizie. In particolare ha costruito il suo modello basandosi sui dati provenienti dalla polizia di Chicago, resi accessibili a tutti dal 2001 – gli stessi di cui si sono serviti gli sviluppatori di PredPol. Ebbene, Benslimane ha creato tre diversi algoritmi, da uno semplice a uno più complesso (in cui viene ponderato il tasso di criminalità in base alle zone geografiche), scoprendo che questo suo ultimo algoritmo produce una percentuale di predizione vicinissima a quella di PredPol – anzi, se applicato in zone più estese, produce addirittura risultati migliori. Insomma, a quanto pare l’algoritmo americano predice solo banalità. O meglio, riproduce il classico principio di Pareto (che g risale alla fine dell’Ottocento): l’80 per c cento delle azioni criminali hanno luogo o nel 20 per cento del territorio. Nulla che un buon poliziotto non sappia già (il famoso «fiuto» da sbirro, a quanto pare, costa molto meno ed è più efficace dell’intelligenza artificiale).
Ciò non significa che la tecnologia non possa aiutare le forze dell’ordine nella prevenzione del crimine. Ma da qui ad avere software miracolosi ce ne passa – e fra l’altro le società private che li sviluppano non hanno alcun interesse a mostrarli, evidenziandone così i limiti. Alcuni sono insiti nella stessa nella funzione «anticipatoria» della polizia in cui questi algoritmi s’inscrivono. Questa infatti, come già avvertiva il filosofo Michel Foucault in un suo corso al Collège de France del 1974-75 (Gli anormali), si fonda su criteri d’incriminazione molto labili e sulla soggettività (collettiva o individuale) e non su una base giuridica. Si arriva così a un determinismo sociale e razziale, e i ripetuti episodi di violenza, omicidi, uso e abuso delle armi da parte della polizia negli Stati Uniti nei confronti di minoranze stanno lì a dar conferma. I dati che vengono analizzati nei complessi modelli matematici che portano alle predizioni non sono infatti soltanto quelli che riguardano i luoghi, le date e le persone coinvolte nei delitti del passato. Vengono considerati anche dati in grado di determinare cluster di potenzialità criminale, legati a fattori prettamente geografici. Per la serie: abiti in un quartiere particolarmente pericoloso dove c’è un alto tasso di furti, delitti e reati vari? Ebbene, ti potrà succedere quello che è capitato al giovane Robert McDaniel, un bravo ragazzotto di 22 anni che, si, vive in un quartiere piuttosto malfamato di Chicago, ma non ha altra colpa e non ha mai commesso alcun crimine. Un giorno sente bussare alla sua porta e trova un poliziotto minaccioso che lo apostrofa di rigar dritto perché lo tengono d’occhio. Non aveva fatto nulla, eppure per il solo fatto di abitare lì era entrato nella lista dei criminali potenziali indicata dal software.
Insomma, la questione della predizione del crimine è molto delicata. E l’utilizzo di algoritmi è inquietante non soltanto per i forti interessi di privati, ma anche perché questo tipo di pratiche predittive implica una forma di determinismo. Ovvero è come se la criminalità venisse annoverata fra le disuguaglianze sociali: nasci povero e in un quartiere malfamato, allora hai una probabilità di commettere atti criminali più alta degli altri. Un modello in cui la disuguaglianza è strutturata: la società (come la polizia) riserverà al figlio del povero e del criminale un posto nella comunità che è già stato individuato, al di là della soggettività. Dimenticando qualsiasi fattore sociologico che conduce a comportamenti criminali. Perché la tecnologia, se ben usata, è un aiuto prezioso, ma fame una scienza esatta (come per esempio assumere che il futuro assomiglia al passato, cosicché i delitti di domani replicheranno quelli di ieri) è restrittivo. E anche pericoloso, quando la tecnologia, da strumento, diventa – inutile far finta che non stia accadendo sempre più spesso – una forma di vita.