Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2019  maggio 11 Sabato calendario

I computer di Wall Street hanno imparato (da soli) a commettere reati

La preoccupazione fantascientifica è che le intelligenze artificiali (essendo per l’appunto intelligenti) potrebbero un giorno rendersi conto di essere più brave di noi e quindi decidere di fare a meno dell’umanità. È più realistico invece temere che si diano al crimine. Si sono già avute istanze a Wall Street di sistemi intelligenti che, davanti alle istruzioni dei loro creatori di «massimizzare il ritorno» sugli investimenti che gestiscono, hanno autonomamente sviluppato meccanismi di collusione con altri computer loro compari, comportamenti che sarebbero certamente illegali se fossero stati stabiliti tra esseri umani.
Alla banca centrale Usa, l’economista Preston McAfee, presidente della Federal Reserve di Richmond, ha recentemente dato l’allarme per quanto riguarda la regolamentazione finanziaria: «Diventerà parecchio più difficile determinare perché un’azienda abbia preso una particolare decisione qualora si trattasse della scelta di un sistema di machine learning… una scatola nera». Quando un computer commette un crimine (per conto suo, autonomamente) di chi è la colpa? Questi sistemi si auto-programmano. È proprio per ciò chi li chiamano intelligenti. Come si fa a dimostrare il dolo, l’implicita colpevolezza che la dottrina penale richiede per la condanna? E, riuscendoci, come si punisce un computer? Gli si spegne l’elettricità per 18 mesi con la condizionale?
Secondo uno studio Ocse citato dal Financial Times: «Trovare la maniera di prevenire la collusione tra algoritmi di auto-apprendimento potrebbe essere una delle più grandi sfide che i regolatori della concorrenza abbiano mai affrontato». Gli esperti Ocse hanno aggiunto: «Non c’è base legale per attribuire la responsabilità penale o civile al programmatore di un computer che in seguito, attraverso l’autoapprendimento, impari da solo come coordinare i prezzi con altre macchine».
L’intelligenza artificiale oggi dipende dal deep learning, l’auto-apprendimento autonomo attraverso l’analisi di enormi volumi di dati per poi identificare relazioni non necessariamente «captabili» dall’intelligenza umana, come la recente dimostrazione a sorpresa che le scansioni della retina dell’occhio possano non solo identificare la persona, ma rivelare scompensi cardiaci e perfino il sesso.
Le macchine possono anche palesare fenomeni incompatibili con le ideologie correnti. Poniamo l’ipotesi che un’estesa analisi computerizzata dovesse dimostrare un legame inequivocabile tra una qualsiasi caratteristica etnica e la propensione a rubare. Sarebbe ancora razzismo diffidare di un popolo se fosse per un’obiettiva (seppure sciagurata) verità? Cerchiamo oggi di imporre come «credo democratico» l’idea che esistano solo differenze molto superficiali tra etnie, razze o generi sessuali. È davvero così, o è solo che così la vorremmo?
Si definisce l’intento criminale in termini d’opposizione alla morale comune, ma le macchine guardano solo i dati nudi, sono interessate al reale, non al retropensiero umano. La conclusione è inevitabile. Riusciremo a convivere con questi nuovi esseri «artificialmente intelligenti» solo quando riusciremo a corromperli per benino, insegnandogli anche a non veder (né a commettere, se è per quello) fatti scomodi. Saranno meno utili per comprendere il mondo che ci circonda, ma chi l’ha detto che vogliamo conoscere veramente come stanno le cose?