ilsole24ore.com, 12 aprile 2025
L’intelligenza artificiale supererà quella umana entro il 2027: cosa dice lo studio di ex ricercatori OpenAI
La rivoluzione dell’Intelligenza artificiale supererà, per rapidità e portata, la Rivoluzione industriale. Nessuno può prevedere con certezza come sarà il futuro più prossimo, perché l’evoluzione dei modelli AI procede a una velocità vertiginosa. Cinque ricercatori guidati da Daniel Kokotajlo, ex dipendente e ricercatore di OpenAI, uscito dall’azienda un anno fa, hanno provato a immaginarlo. Ma non dovremmo essere allarmati dal rapido sviluppo di macchine intelligenti, quanto dal fatto che già oggi non c’è chiarezza sulla responsabilità delle azioni che deleghiamo a questi modelli.
Macchine intelligenti e autonome entro il 2027
La ricerca, riportata in un’inchiesta del New York Times, sostiene che l’intelligenza artificiale supererà quella umana entro il 2027. Ma quanto c’è di fondato in queste previsioni?
I ricercatori guidati da Kokotajlo hanno basato le loro proiezioni su un esperimento mentale. Hanno immaginato l’esistenza di un’azienda fittizia, “OpenBrain”, che rappresenta la somma teorica dei principali laboratori di intelligenza artificiale americani. OpenBrain sviluppa un sistema sempre più avanzato: all’inizio del 2027, l’AI diventa un programmatore completo. Entro la metà dell’anno, si trasforma in un ricercatore autonomo, capace di fare scoperte e dirigere team scientifici. Tra la fine del 2027 e l’inizio del 2028, nasce un’intelligenza artificiale “superintelligente”: conosce più di noi sulla progettazione di AI avanzate e può automatizzare il proprio sviluppo, creando versioni sempre più potenti di sé stessa.
Così, entro la fine del 2027, l’AI potrebbe diventare incontrollabile. «Nelle nostre previsioni – si legge nel rapporto – immaginiamo che OpenBrain svilupperà internamente un programmatore sovrumano: un sistema capace di svolgere tutte le attività di codifica affidate oggi ai migliori ingegneri, ma in modo molto più rapido ed economico».
«Tempo fa a un congresso – prosegue – discutevamo su come la versione più aggiornata di chat gpt non riuscisse a fare un semplicissimo gioco: prendere la lettera “D”, ruotarla di 180 gradi, di metterci sopra il numero 4 e di visualizzare il disegno. Ovviamente per noi è chiaro che verrebbe fuori l’immagine di una barchetta, ma chat gpt non ci riusciva. Le macchine non hanno ancora quel tipo di intelligenza visuale, prettamente umana».
Il dilemma della responsabilità
Lo sviluppo di sistemi così automatizzati solleva una questione etica cruciale: quella della responsabilità. Lo mette in luce Silvia Milano, ricercatrice e professoressa associata esperta in etica dell’AI presso l’Università Ludwig-Maximilians di Monaco e all’Università di Exeter. «Parliamo di un vero e proprio “gap di responsabilità” – sostiene Milano –. Quando un sistema è automatizzato, ovvero capace di agire senza istruzioni dettagliate, più è autonomo, maggiore è il rischio che le sue decisioni sfuggano al controllo umano, persino di chi ha dato origine al processo. Se assegno a un’AI il compito di rispondere a una mail, quella risposta non sarà scritta da me. Posso scegliere di leggerla prima dell’invio, ma se il sistema è completamente automatizzato, quella risposta partirà senza il mio intervento. A quel punto, chi è il responsabile? Se non viene esplicitato, di fatto, nessuno».
Il problema è tanto più grave quanto più l’AI viene impiegata in ambiti sensibili. «Negli Stati Uniti – prosegue Milano – algoritmi di machine learning vengono utilizzati nella giustizia per supportare decisioni su misure cautelari o sentenze, nella sanità per stabilire priorità di trattamento e livelli di rischio, e nei processi di selezione del personale per individuare i candidati migliori. In tutti questi casi, il rischio è che le decisioni vengano prese senza che ci sia un responsabile umano chiaramente identificabile».
Occorre sempre ricordare che i Large Language Model non possiedono la nozione di verità. Le risposte che forniscono si basano su un calcolo probabilistico, che attinge a quanto hanno imparato dall’allenamento e dalla letteratura fornita loro. Per questo la possibilità di delegare alle macchine compiti umani andrebbe sempre accompagnata a un’attenta supervisione di colui che delega. Ma forse siamo già andati oltre.