Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2021  settembre 10 Venerdì calendario

Auto intelligenti. Come un bimbo di sette mesi

Dalia, due anni, ha da tempo una certezza: anche quando finisce sotto la coperta, il suo bracchetto di peluche Mario non sparisce, esiste ancora. È la caratteristica che gli studiosi dell’età infantile chiamano “permanenza degli oggetti” e riconoscerla è una competenza che gli umani sviluppano intorno ai sette mesi. Le auto a guida autonoma invece, dopo milioni di chilometri di strade fatte e relativi dati accumulati, non l’hanno ancora capito. Quindi se “vedono” una bici che comincia ad attraversare un incrocio ma un furgone le si para momentaneamente davanti, per il loro software la bici scompare. Per “ricomparire” quando l’ostacolo si toglie di mezzo, con il rischio di incidente. È un problema non da poco che chiama in causa il machine learning, ovvero la maniera in cui l’intelligenza artificiale apprende (qui un reportage dal Texas). Tu le fai vedere milioni di situazioni e l’Ai deriva dalle situazioni delle regole. Non sa perché fa le cose ma inferisce statisticamente che se succede A dovrà fare B. Più aumentano i casi, più l’algoritmo migliora (è il motivo per cui la traduzione automatica è migliorata tanto dopo aver digerito milioni di pagine ben tradotte dai traduttori dell’Unione europea).Il problema però, in situazione delicate come la self driving car, tra entusiasmi e cautele (ascoltate Oussama Khatib di Stanford), resta. In uno studio recente l’informatico Mehul Bhatt dell’università svedese di Örebro ha quindi provato un approccio diverso. Ovvero far raffinare i dati “masticati” dal machine learning a un “motore di ragionamento simbolico”. In altre parole un software che insegna alla macchina alcune regole fisiche basilari, ovvero che se un oggetto si vede prima esisterà anche dopo e così via. I primi risultati, applicati alla guida, sono leggermente migliori (del 5%) di quelli ottenuti dal machine learning “bruto”. Però dimostrerebbero che dare delle regole qualitative è meglio che affidarsi all’anarchia quantitativa dell’autoapprendimento. Ma non tutti sono d’accordo. 

(Dalla newsletter Finalmente è Venerdì )