Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2011  giugno 09 Giovedì calendario

LA MIA VITA IN UNA NUVOLA DIGITALE

Negli ultimi dieci anni è cambiato un aspetto importante della struttura profonda della Rete. Un mutamento che all’inizio è stato episodico e perlopiù non riconosciuto, ma che, dopo un progressivo rafforzamento, nell’ultimo anno è esploso a tutti i livelli sotto il nome cloud computing . Cosa si intende per «elaborazione nella nuvola»? Perché tutte le principali aziende del settore, da Google a Microsoft, da Amazon ad Apple stanno concentrando enormi risorse sulla «nuvola»? Perché la Commissione Europea ha appena lanciato una consultazione pubblica sul tema?
È opportuno fare un passo indietro. Fino agli Anni 70 del secolo scorso i computer erano macchine che, oltre a essere ingombranti e costose, erano anche difficili da utilizzare e mantenere. Si era dunque affermata l’idea che la capacità di elaborazione sarebbe stata una utility , come l’elettricità, l’acqua o il gas, ovvero una risorsa che l’utente finale non produce localmente, ma a cui accede da remoto pagando a consumo. Prima però che il modello «computing come utility» si radicasse, negli Anni 70 una serie di fattori sia culturali sia tecnologici produsse l’affermazione del modello opposto, ovvero, quello del «personal computing». Col personal computer la capacità di calcolo è locale e sotto il completo controllo dell’utente, che produce, elabora e conserva i suoi dati in pressoché perfetta autonomia. Quando a inizio Anni 90 arriva il Web, il modello rimane fortemente decentrato: ogni possessore di personal computer, infatti, può essere sia un lettore di siti altrui sia un editore di propri siti. Lo scenario verso la fine del secolo scorso registrava, dunque, una fortissima distribuzione a livello utente della capacità di calcolo e di immagazzinamento dati.
Tuttavia gli informatici non si accorsero per tempo di quanto fosse difficile per un utente inesperto pubblicare le proprie parole o fotografie (per non parlare del video, ancora da venire). Il software per fare praticamente tutto c’era e spesso era anche gratuito. Ma la sua installazione, configurazione e gestione era alla portata solo di un minuscolo sottinsieme degli utenti della Rete. Anche tutti gli altri, però, desideravano ardentemente pubblicare. Imprenditori innovativi videro in questo bisogno insoddisfatto di milioni di persone un’opportunità imprenditoriale e iniziarono a proporre siti web che rendevano molto facile aprire gratuitamente il proprio blog, pubblicare le proprie fotografie e poi, qualche anno dopo, entrare in reti sociali. Perché gratuitamente? Perché i possessori dei siti web, oltre a gestire spazi pubblicitari, guadagnavano accesso alle statistiche d’uso del sito, con possibilità di comporre profili degli utenti per fare un marketing ad personam .
In parallelo alle piattaforme erano intanto nate le prime «fattorie web», ovvero concentrazioni di un numero elevato di computer in grado, ad esempio, di far girare in fretta un motore di ricerca o di gestire senza intoppi il carrello di un negozio virtuale. Col tempo tali concentrazioni di computer produssero due fenomeni: economie di scala sempre più spinte (chi compra 10.000 hard disk alla volta può negoziare prezzi molto più bassi dell’utente singolo) e un surplus di potenza di calcolo e di immagazzinamento dati che Amazon per prima pensò di offrire a utenti esterni (seguirono Google e quindi Microsoft).
Tra piattaforme blog, foto e video, servizi applicativi da remoto (webmail, editing documenti, reti sociali ecc.) e dischi virtuali era nata la «nuvola», ovvero il ritorno, anche se parziale, del modello «computing come utility».
L’appeal della «nuvola»è innegabile. L’utente medio apprezza soprattutto la possibilità di accedere ai suoi dati da qualsiasi computer, senza doversi preoccupare di fare noiose copie di sicurezza o di effettuare aggiornamenti software. L’azienda, soprattutto se piccola, apprezza l’esternalizzazione di funzioni non considerate centrali e la grande flessibilità della «nuvola».
Tuttavia, comodità e flessibilità hanno un prezzo, e non solo in termini di costo diretto del servizio. Ciò che prima era sotto il sovrano dominio del proprietario, hardware e software, ora è un servizio che può essere unilateralmente sospeso dal fornitore se quest’ultimo ritiene che le condizioni d’uso siano state violate (come nel caso Wikileaks-Amazon). E in cambio dei servizi, per esempio, di una rete sociale dobbiamo accettare il fatto che ogni nostro clic venga monitorato, rendendo possibile una sorveglianza di un’intimità senza precedenti.
Dando per scontato che agli Anni 90 non si torna, la questione è duplice. Da una parte occorre regolare la «nuvola» per garantire, oltre al resto, riservatezza, condizioni d’uso eque, inter-operabilità tra i diversi fornitori, concorrenza e piena tutela da indebite interferenze (anche da parte di Stati stranieri). Dall’altra parte è necessario riprendere il controllo dei nostri dati più strettamente personali. Una versione non centralizzata di una rete come Facebook è, per esempio, perfettamente possibile e alcuni gruppi, come Diaspora e Freedom Box, ci stanno già lavorando.
La sfida dei prossimi anni sarà quindi come bilanciare gli indubbi benefici della «nuvola» con la libertà e l’indipendenza non solo di individui e aziende, ma anche di interi Paesi. Un equilibrio inedito tra personal e utility computing.