il Fatto Quotidiano, 23 gennaio 2024
22 gennaio 1984, il primo Mac
È il 22 gennaio 1984, Super Bowl, la tv statunitense trasmette uno spot diretto da Ridley Scott e pensato da Steve Jobs ancora oggi considerato una perla. Figuri tutti uguali, grigi, marciano in un tunnel di teleschermi. Assorbiti, sono investiti dal discorso di un uomo su uno schermo enorme: “Oggi celebriamo il primo glorioso anniversario delle Direttive sulla Purificazione delle Informazioni. Abbiamo creato… un giardino di pura ideologia, dove ogni lavoratore può fiorire, al sicuro dai parassiti che forniscono pensieri contraddittori. La nostra Unificazione dei Pensieri è un’arma più potente di qualsiasi flotta o esercito sulla terra…”. Intanto, una donna corre brandendo un martello, inseguita da una qualche forza di polizia. Distrugge lo schermo e tra il risveglio generale dei figuri, corrono in sovrimpressione queste parole: “Il 24 gennaio la Apple Computer introdurrà il Macintosh. E vedrete perché il 1984 non sarà come il 1984”. Il Grande Fratello di Orwell, è la promessa, sarebbe stato annientato dalla diffusione del primo personal computer, di Apple. La fine della tv (annunciata in tv), del pensiero unico, del controllo. La promessa della libertà universale: una rivoluzione. Ieri lo spot compiva 40 anni, domani li compre il Mac. Oggi, la rivoluzione appare in parte tradita.
“Alan Kay presentò l’idea del personal computer qui a Pisa nel 1973 – spiega al Fatto Giuseppe Attardi, che a Pisa è stato ordinario di Informatica – proiettò nell’Aula Magna dell’Università un video con bambini che usavano un mouse per interagire su uno schermo per disegnare, scrivere, comporre musica e programmare. Fu l’inizio della prima rivoluzione informatica”. Era inimmaginabile: le macchine erano enormi calcolatori inaccessibili. Jobs, racconta Attardi, visitò la Xerox di Palo Alto, si invaghì dell’idea, assunse Kay a Cupertino. “Oggi ci sembra una banalità, ma fu un salto enorme. Un cambiamento dell’architettura della macchina: l’hardware al servizio delle persone, non più il contrario”.
L’uomo ha potuto, prima solo con le dita e poi con la voce, fare ciò per cui serviva uno specialista, dal disegno alla scrittura, e negli anni – con i servizi in rete – anche le commissioni in banca. “Abbiamo iniziato a lavorare per le aziende. Prima per le operazioni in banca serviva un banchiere. Ora al supermercato ci sono le casse automatiche”. I costi sono stati scaricati sugli utenti. L’iniziale emancipazione creativa è diventata sfruttamento. Da qui, il secondo breve passo: i monopoli digitali, grandi piattaforme cresciute e arricchite senza maneggiare neanche un prodotto. “Il sogno di liberarsi dall’intermediazione ha avuto esito opposto. Il potenziale che ci era stato dato è stato raccolto e usato da altri”.
E dopo i pc, i telefoni. “La promessa di dar potere alle persone è stata realizzata in parte: gli individui possono fare tante cose che prima non potevano fare – spiega invece Giovanni Sartor, ordinario di Informatica giuridica a Bologna – ma l’altra faccia della medaglia è un modello guidato dalla pubblicità mirata, dall’estrazione di dati personali, dall’esistenza delle Gafam (Google, Apple, Facebook, Amazon e Microsft): siamo soggetti a continua sorveglianza e manipolazione”. La dinamica non è quella coercitiva di Orwell: “È un controllo più morbido, non diretto all’eliminazione degli oppositori ma a raggiungere biettivi commerciali con la profilazione pubblicitaria o a indirizzare le opinioni, anche politiche con informazioni errate o a tenere gli utenti sulle piattaforme attraverso camere dell’eco e algoritmi che rimandano ciò che l’utente vuole vedere e sentire”. Sono dinamiche da governare, senza drammatizzare. “L’informatica è una grande forza che dà libertà di agire e interagire. Devono essere controllate da politica e disciplina giuridica, come per le norme Ue che dovrebbero indurre anche gli operatori ad agire in modo responsabile”. Anche perché le intenzioni di partenza spesso sono positive.
“Jobs prometteva un pc in ogni casa e la limitazione del controllo di Stati e istituzioni – spiega Fulvio Sarzana, avvocato esperto di temi digitali – e siamo finiti ad esserne assoggettati”. Basti pensare a Chat gtp e alla parabola di Open Ai. “L’idea democratica di Intelligenza Artificiale con cui è nata è scomparsa quando le major dell’informatica hanno compreso il business e se ne sono appropriate”. Dell’accesso orizzontale garantito dalla rete, dal World wide web nella fase pre-motori di ricerca e pre- social, quindi prima di big tech, non c’è più traccia. “Un potenziale sprecato da metà anni 90, il tradimento di una rivoluzione non governata eticamente. L’idea che aveva Steve Jobs di migliorare le condizioni del cittadino non sembra essere quella che oggi hanno le grandi piattaforme, Apple inclusa. La filantropia non regge ai colpi del profitto. E ora è il turno dell’Intelligenza Artificiale, anch’essa nelle mani di pochi, grandi e ricchi.
“È il salto ulteriore – dice Accardi –: dalla voce ad assistenti intelligenti che realizzano ciò che gli si chiede”. Il rischio è che una tecnologa così invasiva crei un monopolio ancora più grande, tanto più che si può estendere ad ogni ambito, dall’istruzione alla medicina. La soluzione: democratizzarla davvero, consentendo a aziende e persone di fruirne e svilupparla liberamente. Come? “Ricostituendo le leggi contro la concentrazione dei monopoli, impedendo che le società possano finanziare rami d’azienda con altri, investendo sulla ricerca pubblica e creando un’infrastruttura di ricerca Ue che possa competere con quella statunitense. O, peggio, con quella del solo Zuckerberg”. A oggi, nessuno ha promesso rivoluzioni.