Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2009  giugno 04 Giovedì calendario

LA MACCHINA DELL’ERRORE


Siamo soliti ripetere che «errare è umano», ma non sappiamo invece dire quanto spesso ci accada di «errare». Gli psicologi, come James Reason, che hanno tenuto dei cosiddetti "diari cognitivi" di ogni proprio errore, anche il più banale, hanno messo in evidenza come commettiamo errori sistematicamente e quotidianamente. Ad esempio, diciamo una parola invece di un’altra, schiacciamo il bottone sbagliato sul computer o sul telefonino, non ci ricordiamo di acquistare una cosa al supermercato e così via. Dato però che la maggior parte di questi errori non ha conseguenze degne di particolare nota, ce ne dimentichiamo molto in fretta e tendiamo a ricordare solo quei rari casi do¬ve l’errore è stato bizzarro oppure ha danneggiato noi o altri.
Nonostante l’errore sia una caratteristica importante del comportamento umano, si è iniziato a studiarlo in profondità solo in tempi recenti (la prima conferenza internazionale sull’errore umano si è svolta nel 1980). E non è un caso che l’interesse verso queste ricerche sia aumentato con il crescere della complessità tecnologica che muove la nostra società e, in particolare, i costi dei disastri devastanti che l’errore umano può innescare all’interno di siste¬mi complessi su larga scala. A differenza del passato, infatti, dove le conseguenze di un errore nell’uso di uno strumento tecnologico erano circoscritte alle immediate vicinanze dello strumento, a partire dal XX secolo esse possono colpire l’intero pianeta. Un esempio tristemente noto è quello della centrale nucleare di Cher¬nobyl: l’errore compiuto in una remota cittadina dell’Unione Sovietica causò piogge di isotopi radioattivi in luoghi distanti migliaia di chilometri, Italia compresa.
Uno dei temi più sviluppati nello studio dell’errore umano è la caratterizzazione di specifiche categorie di errori, che ha portato alla proposta di varie classificazioni. La più semplice divide gli errori che commettiamo in due grosse categorie: slip e mistake. Negli slip, le azioni che abbiamo deciso di eseguire sono corrette, ma ne eseguiamo almeno una in modo sbagliato (oppure la omettiamo, nel qual caso si usa anche il termine lapse). Nei mistake, le nostre azioni realizzano correttamente la nostra decisione, ma è la decisione a essere sbagliata. Gli slip sono quindi errori di esecuzione, mentre i mistake sono errori di pianificazione.
Oltre ai tipi, anche le cause degli errori sono state accuratamente classificate. Si va da comportamenti automatici, che adottiamo senza riflettere (ad esempio, all’inizio del 2009 può esserci capitato di scrivere una data indicando erroneamente 2008 come anno, semplicemente perché abbiamo compiuto quell’azione frequentemente nei 12 mesi precedenti), a fattori sociali (ad esempio, tendiamo a eseguire le azioni indicateci da un nostro superiore o da un collega che percepiamo come esperto, anche quando abbiamo la sensazione che non siano le più appropriate).
La distrazione, lo stress eccessivo, l’affaticamento, la scarsa disponibilità di tempo aumentano la probabilità di sbagliare. E anche le interfacce degli strumenti tecnologici che usiamo giocano un ruolo cruciale nel favorire l’errore, ad esempio sovraccaricandoci di informazioni senza organizzarle per importanza e priorità, costringendoci al multitasking o presentandoci la situazione in modo ambiguo.
Considerare questo vasto insieme di fattori ha portato a cambiare ottica nelle indagini su quei disastri la cui responsabilità veniva precedentemente imputata al solo operatore di uno strumento tecnologico. Se, ad esempio, un’azienda fa lavorare un dipendente su macchine che richiedono estrema attenzione con turni di lavoro che lo portano in uno stato di forte affaticamento, quando l’operatore inevitabilmente sbaglierà, non si può chiudere il caso semplicemente additando la singola persona per non aver schiacciato il bottone giusto al momento giusto (operator error), ma bisogna considerare anche altre concause, ad esempio errori organizzativi (management error) che hanno portato quella persona a operare in condizioni limite, oppure errori di progetto (system design error) nelle interfacce delle macchine utilizzate, che possono essere state realizzate senza adeguati studi di usabilità e quindi avere reso estremamente difficile all’operatore comprendere una situazione e selezionare i comandi per essa appropriati.

Un luogo comune da sfatare è che rendendo le tecnologie che usiamo sempre più pervasive e automatiche, ci proteggiamo dai rischi di errori. Ci sono delle situazioni, per le quali la psicologa Lisanne Baindbridge ha coniato il termine di «ironie dell’automazione», dove può accadere il contrario. Ad esempio, automatizziamo un’attività umana perché gli umani commettono troppi errori, ma così facendo creiamo nuove classi di errori, compiuti direttamente dalla macchina a causa dei bug e delle semplificazioni inappropriate introdotte dai programmatori che scrivono il software di automazione. Oppure automatizziamo perché gli umani hanno difficoltà a svolgere compiti
complessi, ma così facendo introduciamo un compito per essi ancora più complesso, che è quello di stare fermi a osservare con attenzione continua la macchina che svolge il lavoro, cercando di capire cosa fa e perché lo fa al fine di notare in tempo eventuali anomalie e tentare di correggerle.

Sotto questo punto di vista, uno degli aspetti preoccupanti dei sistemi tecnologici complessi è che, come si dice nel gergo del settore, sono molto spesso "opachi" per chi si occupa della loro gestione, manutenzione o uso. Con "opaco" si intende che la macchina non permette di sapere cosa sta accadendo né di capire cosa essa può fare. quindi cruciale che chi realizza questi sistemi tenga in debito conto le conoscenze sull’errore umano per progettarli meglio, rendendo più chiaro e fluido il rapporto fra macchina e operatore.
Infine, va segnalato un effetto collaterale non immediatamente evidente delle ricerche sull’errore umano: nonostante esse nascano con l’obiettivo di prevenire gli errori, sono talmente generali da poter essere usate anche al fine di causarli. Una conoscenza dettagliata delle condizioni in cui le persone compiono determinati errori decisionali, permette infatti a terzi di creare deliberatamente quelle condizioni, al fine di fare scattare decisioni errate nella direzione da essi desiderata.
Robert Cialdini, il noto psicologo della persuasione, non è ottimista a riguardo e riassume così la convinzione a cui è arrivato nei suoi studi: «La continua accelerazione nei ritmi e nel sovraccarico informativo della società moderna renderà le forme di assenso automatico, non ragionato, sempre più diffuse in futuro».