Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2023  novembre 30 Giovedì calendario

L’Ai in matematica è un asino

Scoop: l’AI “è in grado di eseguire calcoli a livello di matematica di scuola elementare” (sic). Non è uno scherzo, ma una grande notizia – se fosse vera: è da confermare – che ha accompagnato l’uscita di scena, e il repentino reintegro, di Sam Altman, il papà di ChatGpt, in Open AI di Microsoft. A margine dello scandaletto, social e agenzie sussurravano l’imminente rivoluzione di Q* (“Q Star”), la nuova AGI, un’Intelligenza Artificiale Generale, “forte”, multidisciplinare, che non padroneggia solo un dominio ristretto, come gli scacchi o la lingua inglese, ma ne capisce di tutto, persino di matematica. Elementare. Aritmetica di base, per bambini dai 6 ai 10 anni (non c’entra nulla con la calcolatrice, ovvero una macchina non intelligente programmata per elaborare calcoli).
Ma come? La creatura matematica per eccellenza è un’asina in matematica? La macchina della scienza non comprende i numeri epperò crea arte, scrive romanzi e sceneggiature? C’è da ridere, soprattutto per quegli intellettuali – i letterati incapaci di dividere il conto della cena con gli amici – che fino a qualche anno fa canzonavano l’AI perché non avrebbe mai saputo comporre una poesia o un film… E invece. Oggi ChatGpt scrive eccome, e abbastanza bene: versi, prosa, articoli, fiction, musica; sa persino creare opere d’arte e fotografie autorali, sostituirsi ad attori e registi, in voce o video. Di fronte a questo (quasi) sorpasso, una macchina creativa ed espressiva almeno quanto l’uomo, tocca ripensare le cosiddette “discipline umanistiche”: altro che Lettere e Filosofia, Arte e Musica, è la Matematica il primo “sapere umanistico”, che ci rende umani e ci distingue da robot e ferrivecchi… Ammesso che non siano divini, una creazione di quel Dio geometra che ha inventato gli interi, i numeri oggi si mostrano nella loro squisita umanità, troppa umanità: l’AI per ora non li padroneggia, non li capisce, non li intuisce; li predice, ma malamente, e quando li azzecca è per una probabilità, non per comprensione – intuitiva o profonda che sia – dell’operazione addizione, per esempio. Terence Tao, il più grande matematico vivente, pur apprezzando i progressi di ChatGpt in ambito numerico, descrive quella dell’AI come attività sostanzialmente “compilativa, statistica; perciò secondaria”. Il vulnus, per questo tipo di intelligenza, resta la “creatività, l’immaginazione, l’intuito”, ovvero le qualità uno-due-tre di un matematico.
AI, dunque, impara in modo probabilistico-statistico: immagazzina trilioni di dati, li elabora e prevede la risposta giusta, o meglio il numero-lettera-simbolo che ha più probabilità di essere la risposta giusta. Paradossalmente, se tutti noi scrivessimo su internet 2+2=5, ChatGpt imparerebbe 5, invece di 4, per una questione puramente statistica.
Se fosse vera la notizia del progetto Q*, ci troveremmo per la prima volta di fronte a una AGI “in grado di eseguire calcoli a livello di scuola elementare in modo deterministico, non probabilistico”. Il matematico Piergiorgio Odifreddi è ottimista: “Di Intelligenza Artificiale si parla da 70 anni: da sempre l’idea è quella di una macchina in grado di emulare l’uomo, il suo pensiero. Il sogno è rimasto lo stesso, anche se la scienza procede un passo alla volta. ChatGpt è ancora rudimentale, commette errori matematici grossolani, ma si evolverà: la sua peculiarità è che, diversamente da altre AI, è stata creata simulando il cervello umano, la nostra rete neurale; viene addestrata, educata come un bambino o un animale, non ‘programmata’ in senso stretto”.
Esistono due modi di generalizzare, di ragionare: uno statistico e uno simbolico; ChatGpt eccelle nel primo ma ignora il secondo, mentre gli esseri umani sono mediocri in entrambi, ma strutturati per entrambi. Priva di pensiero simbolico, la macchina fatica pure a riconoscere alcune immagini “complesse”, tipo un cane immortalato di spalle. E non è detto che sappia rispondere a una banale domanda aritmetica: quanto fa 2.648.283+2? Se AI non ha mai fatto prima questo calcolo, una sua risposta corretta è solo un caso probabilistico. Mentre, ad esempio, Anna V., sette anni, promettente batterista e mineralogista, conosce la risposta esatta: ha persino imparato da sola con un abaco le moltiplicazioni tanto da sapere, senza troppo sforzo ma grande capacità d’astrazione controintuitiva, che 7×1 fa 7, 4×1 fa 4 e via così… Per non scomodare gli uccelli e altre specie che – la neurobiologia conferma – padroneggiano, in maniera non verbale e non simbolica, le quattro operazioni dell’aritmetica (si veda Il pulcino di Kant di Giorgio Vallortigara, Adelphi). Il confronto con gli animali non è peregrino, spiega Odifreddi: “L’AI stenta a riconoscere un volto come tale, cosa che i nostri gatti, anche quelli non intelligentissimi, sanno fare”.
L’ultimo dei paradossi dell’AI concerne l’informatica: perché ChatGpt è brava a programmare, ma non a contare; è un computer che non computa, un calcolatore che non calcola. Che squisita vertigine logica: sicuramente è una questione di database a cui attinge – enorme per l’informatica, limitato per la matematica –, ma è pure un problema di linguaggio se, come dice Wittgenstein, imparare una lingua significa “seguire una regola”. E quelle dell’algebra non sono così scontate.