Avvenire, 21 febbraio 2018
Crittografia, una vita in codice tra banche e social
Accade ormai frequentemente che organi di stampa, e non solo, si debbano occupare di aspetti tecnologici legati alla sicurezza di trasmissione di dati sensibili, quali, banalmente, i codici bancari delle transazioni elettroniche. Il problema della trasmissione sicura delle informazioni è, però, antico quanto la storia dell’Umanità, come suggerisce l’origine stessa del nome della disciplina – crittografia deriva, infatti, dalla fusione dei vocaboli grecikryptos (nascosto) e graphein (scrittura) – che si occupa di studiare i metodi necessari per trasmettere informazioni tra due persone – o enti – in maniera da non consentire a terzi di accedervi. L’elemento di novità rispetto al passato, caratterizzante della nostra epoca, è piuttosto l’enorme rilevanza sociale assunta dalla crittografia, non più appannaggio esclusivo di ambienti diplomatici e militari – e, quindi, accessibile solo alle classi più abbienti e istruite – ma strumento alla portata di tutti, come avviene in una società “digitalizzata” che costantemente ricorre a codici crittografici (pagamenti, comunicazioni, social network, computer) con ripercussioni sulla vita quotidiana. Ciò richiederebbe una maggiore consapevolezza del suo uso da parte degli utenti, anche se non è semplicissimo, perché le attuali applicazioni sono conseguenti alla scoperta – circa a metà degli anni ’70 – dei cosiddetti crittosistemi a chiave pubblica, i cui punti di forza e debolezze implicano la conoscenza della Teoria Computazionale dei Numeri, ovvero degli oggetti matematici coinvolti a monte.
Fino al 1978, i metodi crittografici erano a chiave privata, ossia la coppia di chiavi di cifratura e decifratura – parametro di codifica, che permette di passare dal messaggio scritto in modo intelligibile e chiaro al testo codificato, e di decodifica (procedimento inverso) – era nota esclusivamente alla coppia di utenti in comunicazione tra loro: era, dunque, essenziale al funzionamento del crittosistema che tali chiavi non fossero note a terzi.
Ne sono esempi celebri il metodo di Cesare, il disco cifrante di Leon Battista Alberti ed Enigma, la macchina della Seconda Guerra Mondiale, la cui violazione da parte dell’inglese Turing è ben più nota al pubblico del fatto che i primi ad identificarne alcune sue debolezze furono, negli anni ’30, tre matematici dell’Ufficio Cifra dello stato maggiore dell’esercito polacco. Il limite maggiore del metodo a chiave privata – detto problema di distribuzione delle chiavi – è dato dal fatto che i due utenti, prima di iniziare la comunicazione, devono accordarsi per scam- biare la coppia di chiavi codifica/decodifica necessaria per comprendersi: è evidente che ciò impedisce la costruzione di un ampio network di persone in grado di accedere a tali sistemi; si pensi, ad esempio, al grado di organizzazione richiesto negli apparati militari. Inoltre, la necessità di una coppia di chiavi segreta per ogni coppia di utenti, produce un numero di combinazioni tale, per cui, dati N utenti, avremo almeno N(N-1)/2 coppie di chiavi. Questo mette fuori gioco i crittosistemi a chiave privata negli ampi network oggi esistenti. Nel metodo a chiave pubblica, realizzato per la prima volta nel ’78, la chiave di codifica di ogni utente deve essere necessariamente a disposizione di ogni altro utente, semplicemente consultando un elenco, o un archivio, di chiavi pubbliche degli utenti. Ovviamente, anche qui, la chiave di decodifica va mantenuta segreta, in modo che solo il destinatario del messaggio possa rimuovere l’offuscamento della codifica e risalire al testo in chiaro: un intruso che tenti di violare il sistema può utilizzare la chiave di codifica pubblica di un certo utente per risalire a quella di decodifica, ma per farlo dovrebbe essere in grado di risolvere un problema matematico computazionalmente difficile, ovvero, per de- finizione, proibitivo, allo stato delle conoscenze attuali, per i calcoli richiesti alla risoluzione. Se i presupposti teorici della validità della costruzione di chiavi codifica/decodifica del crittosistema Rsa – dalle iniziali degli autori – risalgono addirittura all’epoca compresa tra il 1600 e il 1780, grazie agli studi di Fermat ed Eulero, che i calcoli previsti in Rsa siano eseguibili in tempi ragionevoli è stato verificato, invece, solo nel 2002, con la dimostrazione che la ricerca dei 2 numeri primi distinti “grandi”, richiesta dal metodo, costituisce, in realtà, un problema computazionale semplice. Inoltre la sua realizzabilità pratica è garantita dall’attuale capacità degli strumenti di calcolo disponibili al pubblico di generare, in pochi secondi, due numeri primi distinti dell’ordine di grandezza di 300 cifre in base 10 ognuno. La soglia di sicurezza di Rsa, estremamente alta, è legata alla capacità di determinare i fattori di numeri interi grandi aventi almeno 600 cifre in base 10: un problema che, con gli attuali metodi di calcolo, richiederebbe, al contrario, migliaia di anni. Basti pensare che a oggi il record per interi di tale tipologia è di 220 cifre in base 10! Dai tempi del metodo Rsa, le scoperte matematiche – in ambito teorico e astratto – applicate alla crittografia hanno completamente rivoluzionato la disciplina, consentendo l’affermarsi di quegli strumenti ad oggi, quasi inconsapevolmente, quotidiani e familiari: senza di esse, ad esempio, non esisterebbe il commercio elettronico o la firma digitale. Anche se al momento pare necessario ancora molto lavoro per rendere obsoleto Rsa, si sta anche lavorando alla costruzione di sistemi alternativi, a seguito della dimostrazione di un nuovo metodo di calcolo quantistico – per ora solo teorico – in grado di decodificare – in tempi ragionevoli – le chiavi Rsa.
Premesso che l’unico modo per mantenere segreta un’informazione è non comunicarla ad alcuno, il fatto che i metodi crittografici vengano continuamente esaminati e messi in discussione – in cerca di loro vulnerabilità – va inquadrato nell’ambito del “metodo scientifico”, per cui ogni verità è valida solamente all’interno di un ben preciso ambito di assunzioni e regole – una teoria – che costituiscano un modello del mondo reale: modello criticabile con l’introduzione di novità sperimentali o teoriche, in presenza delle quali risulta compromessa la corrispondenza con qualche specifico aspetto del mondo reale. Da qui i rischi legati a un uso acritico della crittografia, proprio perché il suo impatto sociale è sempre maggiore. Estremamente delicati sono i casi legati al corretto funzionamento dei sistemi democratici, quali l’utilizzo del voto elettronico, valutando attentamente che la dematerializzazione del supporto, su cui si esprime il voto (in forma di una sequenza di bit), rende molto più complessa la verifica – a posteriori – di eventuali brogli o errori.