Corriere della Sera, 13 maggio 2023
La Casa Bianca arruola quattromila hacker per blindare l’IA
L’intelligenza artificiale di ChatGpt sviluppata da OpenAI, e quelle di Google, Microsoft, Nvidia e di altre start up come Anthropic e Stability AI, verranno date in pasto a 4.000 hackers che cercheranno di scoprire le loro vulnerabilità e di scavalcare le barriere di sicurezza dei soft-ware. Un crash test che servirà ai giganti dell’AI per individuare i punti deboli dei loro modelli large language e tentare di correre ai ripari.
L’idea di trasformare Def-Con 2023, la grande fiera della sicurezza informatica che si tiene ogni anno in agosto a Las Vegas, nel più vasto test di cybersecurity mai tentato al mondo è partita da tre attivisti del web: Rummar Chowdhury, direttrice di Humane Intelligence, una non profit impegnata nello sviluppo di piattaforme AI affidabili, controllate dall’uomo; il fondatore dell’AI Village di DefCon, Sven Cottell, e Austin Carson, capo della non profit SeedAI.
Tutto è cominciato con un progetto pilota: un seminario nel quale un gruppo di studenti di community college è stato invitato a tentare di hackerare alcuni modelli di intelligenza artificiale. I risultati positivi dell’esperimento hanno spinto a ripeterlo a marzo in Texas, al tech festival South by Southwest di Austin.
Ad Austin c’erano anche gli esperti della direzione Scienza e Tecnologia della Casa Bianca. Spaventati dall’emergere di vulnerabilità dei sistemi come il cosiddetto «exploit della nonna»: le istruzioni per costruire una bomba ottenute non chiedendole direttamente all’AI, operazione bloccata dai filtri, ma indirettamente, mascherandole da favola raccontata dalla nonna ai nipotini.
I tecnici del governo hanno preso atto dei vantaggi un ricorso a tappeto ai read team: squadre di hacker «certificati» che lavorano in simbiosi con le industrie. Così quello che solo poche settimane prima era parso agli attivisti della rete un sogno irrealizzabile – coinvolgere la Casa Bianca in un progetto gestito da hacker, cioè da scassinatori del web, anche se ravveduti – è diventato una possibilità concreta.
Ma le difficoltà non riguardavano solo il rapporto con lo Stato: già a DefCon 2022, infatti, i militari del Pentagono avevano affidato agli hacker una verifica della tenuta dei sistemi di difesa di reti elettriche da possibili attacchi cibernetici. Sembrava assai più difficile convincere i giganti del web a mostrare agli hacker i loro codici segreti. La tendenza più recente, infatti, è quella opposta. OpenAI, nata da un progetto filantropico con l’obiettivo di creare un sistema senza segreti, open source, ora ha cambiato rotta: dice di essersi resa conto di aver realizzato un software potente, pericoloso, facilmente manipolabile (oltre che di grande valore economico).
Decisivo è stato il vertice riunito la settimana scorsa alla Casa Bianca. I capi delle aziende più avanzate nel campo dell’AI – a partire da Sam Altman di OpenAI – per una volta non si sono opposti all’introduzione di vincoli, ma, anzi, si sono mostrati assai preoccupati soprattutto per i rischi di un uso malevolo di ChatGpt e dei suoi fratelli nelle elezioni presidenziali Usa del 2024. Così anche Microsoft, Google e gli altri hanno accettato di aprire i loro sistemi.
In questo modo le aziende si espongono a rischi non irrilevanti, ma hanno capito che, così come l’addestramento delle loro intelligenze artificiali richiede volumi enormi di dati, anche la ricerca dei modi nei quali i loro bot possono essere manipolati, violare la privacy degli utenti rivelando i loro dati personali o possono assorbire, perpetuare e amplificare i pregiudizi culturali, richiede l’impegno di un numero molto elevato di «sfidanti»: gli hacker, appunto. Appuntamento, dunque, ai primi di agosto nella torrida Las Vegas.