La Stampa, 27 marzo 2019
Gödel e il sogno dell’onnipotenza
Gennaio 2019, i matematici Shai Ben-David, Pavel Hrubeš, Shay Moran, Amir Shpilka e Amir Yehudayoff pubblicano su «Nature - Machine Intelligence» un lavoro che lega il mondo del «machine learning» (il campo più sviluppato e rilevante dell’Intelligenza Artificiale) a quello della teoria degli insiemi: la «learnability» (l’apprendibilità) è in generale indecidibile, cioè non si può sempre dimostrare che sia vera o falsa. Per ottenere questo risultato hanno costruito un collegamento tra l’IA e uno dei risultati più eclatanti della matematica del XX secolo: la prova da parte di Gödel e Cohen della indecidibilità dell’ipotesi del continuo, formulata da Georg Cantor nel XIX secolo.
Nel 1874 Cantor dimostrò che l’insieme dei numeri naturali (0,1,2...) era più piccolo di quello dei numeri reali (interi, frazioni, radici, pi greco...), pur essendo entrambi gli insiemi infiniti. Cantor ipotizzò che tra i naturali e i reali non potesse starci nulla, così come tra 2 e 3 non vi sono altri interi. Questa considerazione venne chiamata ipotesi del continuo e fu oggetto di numerosi tentativi di dimostrazione sino a quando Gödel nel 1938 per una parte e Cohen nel 1963 dimostrarono che l’ipotesi del continuo era indecidibile, cioè che era logicamente impossibile dimostrarne la verità o la falsità a partire dagli assiomi della teoria degli insiemi. E così i teoremi di incompletezza di Gödel e la loro incarnazione nell’indecidibilità del continuo frantumarono definitivamente il sogno faustiano di David Hilbert che tutta la verità di tutti gli enunciati matematici di una teoria si potesse provare, o refutare, a partire da una lista di assiomi iniziali.
Questioni statistiche
Adesso ci risiamo: l’umanità coltiva nuovi sogni in stile torre di Babele, sogni «data-driven», guidati dai dati, ma la hybris viene mortificata dall’intervento di Gödel &Co. In che modo?
Il «machine learning» ha a che fare con una varietà di problemi statistici, come la classificazione («banana o pera?»), la regressione (approssimare una funzione) e il «clustering» (dividere e unire per similarità). Un elemento accumuna questi temi: approssimare un concetto-obiettivo mediante un numero finito di informazioni che lo riguardano.
Il «machine learning» è come un sarto che realizza un abito, basandosi sulle misure di pochi clienti, ma che si può adattare a più clienti possibili (è la «generalizzazione»). La «learnability», l’apprendibilità, è, invece, legata al numero di persone di una determinata popolazione che devo misurare per realizzare un abito che vada abbastanza bene a tutti.
L’esempio degli utenti
Un esempio degli autori: «Ho un sito web e voglio pubblicare annunci mirati per vari gruppi di utenti in modo da “colpire” i gruppi che più di frequente vi accedono». Che cosa fa il «machine learning»? Prende a caso un certo numero di visite al sito e cerca di «istruire» un modello matematico, o un algoritmo, calcolandone i parametri a partire dai dati che ho (le visite passate), così da minimizzare una funzione di costo (quanto sbaglio a fare previsioni). Qui il problema è un po’ più complesso, perché voglio trovare un insieme di annunci che massimizzi la probabilità di essere interessanti, ma la probabilità che arrivi un certo utente è sconosciuta. Un problema di questo tipo viene quindi chiamato «Emx», vale a dire «Estimating the maximum».
Astraendo dall’esempio e utilizzando una famiglia di sottoinsiemi dei numeri reali, i matematici sono stati in grado di dimostrare che la «learnability» dell’«Emx» è indecidibile ed è indipendente dalla teoria degli insiemi. Sebbene questo problema non abbia risvolti applicativi diretti, il risultato evidenzia le intrinseche debolezze formali nella teoria dell’apprendimento e come la matematica, se usata come linguaggio, da serva divenga padrona (citando Paolo Zellini) e non si possa non tenerla nel dovuto conto: l’Intelligenza Artificiale - per il momento - è scritta in lingua matematica.