|
|
|
Da Chernobyl a Linate Incidenti tecnologici o errori organizzativi? Questo è il titolo
del libro di Maurizio Catino, dell'Istituto di Ricerca intervento
sui Sistemi Organizzativi (IRSO) di Milano, docente di sociologia
delle professioni e dell'impresa presso la Facoltà di Sociologia
dell'Università di Milano-Bicocca. Quello che ha attirato
la nostra attenzione è stata la domanda
del sottotitolo perché ad essa stiamo rispondendo da tempo su questo
sito indicando nell'organizzazione la fonte dei fattori causali
dei disastri nei sistemi industriali. Nello sfogliare
le pagine del libro abbiamo costatato come l'autore giunga
ad analoga risposta e non poteva essere altrimenti dato che egli
illustra teorie, argomenti ed incidenti che ben conosciamo e che
abbiamo trattato sul sito e sul nostro libro "La
Strategia del Margine". Abbiamo anche costatato
che in bibliografia è citato "La Strategia del Margine"
ed il sito airmanshiponline.com; questo ci conferma nella
convinzione di aver individuato correttamente nella diffusione culturale
lo strumento primario per gestire i rischi delle tecnologie avanzate
e le pressioni economiche che si sviluppano attorno ad esse
e nei sistemi industriali che le utilizzano. Maurizio Catino illustra le teorie che hanno rivelato le modalità
di errore degli operatori umani nei sistemi ad alta potenzialità
lesiva, cioé quei sistemi capaci di arrecare danni ingenti alla popolazione
o all'ambiente. Chi agisce sulla linea di produzione, pressato dal tempo, condizionato dal
contesto sociale, soggetto a limitazioni psicologiche e fisiologiche,
può incorrere in un "semplice" lapsus o in una serie di
sviste a catena che possono essere la scintilla che fa esplodere
una miscela predisposta da altri, lontano dal luogo del disastro.
Questi luoghi sono generalmente uffici eleganti, con scrivanie enormi
[e vuote, al massimo un display LCD per le quotazioni di borsa],
oppure sale ove si riuniscono comitati o commissioni di vario tipo
in cui i partecipanti, a volte ignari (se non incompetenti) dell'importanza
dei temi in discussione, spesso attenti agli immancabili "interessi
di parte", macinano aria per ore "costruendo
percorsi preferenziali" per traiettorie di sviluppo degenerativo
del sistema che dovrebbero governare. Un quadro che ricorda l'asserzione di Bruggink?
Certamente, ed anche Maurizio Catino la riferisce nel suo libro. Abbiamo ripreso dal libro di Catino un passaggio che può far comprendere il
livello degli argomenti. 1.Teorie sulle cause degli incidenti: tre approcci. 1.3.2.
La Normal Accident
Theory (pag. 34) Tra i modelli organizzativi e socio-tecnici, la Normal Accidents Theory (NAT) si distingue per essere una teoria sostanzialmente
"pessimistica" sui rischi derivanti dall'uso delle tecnologie
pericolose nelle società moderne. Questa situazione di pericolo costante non potrebbe essere
ridotta da continui sforzi per migliorare la sicurezza e l'affidabilità
in quanto gli incidenti sono il "normale" risultato
di caratteristiche intrinseche dei sistemi tecnologici. Gravi accidents nelle organizzazioni
che gestiscono tecnologie pericolose potrebbero
essere rari ma inevitabili nel tempo e il credere che una migliore
progettazione e un management più attento possano migliorare la
sicurezza di queste organizzazioni risulta essere una illusione
secondo questa prospettiva. L'autore principale di questa teoria è il sociologo americano
Charles Perrow
che in un libro del 1984, Normal
Accidents: Living with High‑Risk Technologies,
presentò le sue tesi sui sistemi organizzativi ad alto rischio come
i sistemi aerei, gli impianti nucleari, le industrie petrolchimiche
ecc., giungendo a conclusioni pessimistiche
sulle possibilità di evitare definitivamente gli incidenti gravi
in questi sistemi tecnologicamente complessi. Vediamo più in profondità le caratteristiche di questa
teoria. Interazioni complesse e lineari. Secondo Perrow la propensione
agli incidenti deriverebbe dalla complessità interattiva ovvero
dal fatto che questi sistemi organizzativi sono composti da
un numero elevato di componenti che possono interagire tra loro
in modo inatteso e incontrollabile e, in caso di guasti e malfunzionamenti,
queste interazioni potrebbero aumentare di intensità: «questa tendenza
interattiva è una caratteristica di un sistema, non di una parte
o di un operatore; noi chiameremo questa la complessità interattiva
di un sistema» (Perrow, 1984, P. 4). La complessità interattiva è una misura non di una parte
o segmento di un sistema o di un certo numero di sub-unità che sono presenti in esso, ma è piuttosto il modo nel quale le
parti sono connesse e interagiscono. Le interazioni complesse sono quelle
sequenze non conosciute, non pianificate, non previste, non
visibili o non immediatamente comprensibili per gli operatori. Questa
tipologia di interazioni si contrappone alle interazioni lineari
che sono invece una tipologia di interazioni attese e conosciute,
ben visibili anche se non pianificate. Un esempio di
interazione lineare è la linea di assemblaggio di automobili,
dove, seppur in presenza di multipli componenti, la produzione è
articolata in fasi distinte e separate tra di loro e il processo
di produzione è ben visibile e comprensibile dalle persone. In caso
di incidenti, l'analisi e la rilevazione
sono agevoli in funzione della visibilità del processo stesso. Le
interazioni semplici sono appunto semplici nel senso che sono facilmente
comprensibili. Nessuna di queste caratteristiche è rintracciabile in un
impianto nucleare. Le diverse componenti
del processo di produzione nucleare sono strettamente connesse tra
loro e molti aspetti del processo fisico non sono ancora, dopo molti
anni, completamente noti. Infine va ricordato che gli operatori
non possono osservare direttamente tutte le componenti coinvolte nel processo di produzione. Connessione lasca e stretta. La seconda caratteristica strutturale di un certo tipo
di sistemi tecnologici è data dal tipo di legami definiti come tight
coupling (connessione stretta) e loose
coupling (connessione lasca). In quest'ultimo caso, i legami che connettono le diverse parti di un'organizzazione sono laschi e consentono alle parti
di variare in modo indipendente al variare delle altre componenti.
Nel caso di un sistema tight coupling,
invece, si verificano quattro situazioni particolari. 1. I sistemi tight coupled
hanno processi più dipendenti dal tempo,
nel senso che le interazioni avvengono rapidamente (come ad esempio
in un impianto chimico) e non è prevista una fase di stand‑by. 2. Le sequenze di produzione sono invarianti.
B segue sempre A perché vi è solo un determinato modo, in questi
sistemi, di fare il prodotto. 3. I congegni di sicurezza, la ridondanza, i cuscinetti
tra le parti di un processo di produzione, sono largamente limitati
da ciò che è stato pianificato e progettato nel sistema. Ci sono
poche possibilità di improvvisare quando qualcosa non va come atteso.
Vanno previsti quindi adeguati meccanismi per
la sicurezza, costruiti all'interno del sistema. 4. Infine, questi sistemi hanno poco slack
(risorse in eccesso) poiché le quantità devono essere precise e
le risorse non possono essere sostituite con altre. Se collochiamo le due variabili (interazione e connessione)
in una tabella, otteniamo quattro tipologie diverse di organizzazioni, come si evince dalla FIG.
1.4.
Le organizzazioni che sono più orientate a generare dei
Normal Accidents sono quelle posizionate nel quadrante due della
figura. Esse sono appunto caratterizzate da interazioni complesse
e da connessione stretta. In queste tipologie di
organizzazioni i disastri accadono per cause strutturali
dovute al fatto che il numero elevato di componenti può interagire
in modo incontrollato ed eventuali disturbi si possono propagare
in tempi assai brevi rendendo impossibile una loro efficace regolazione. Da ciò deriva che «né una migliore organizzazione né
innovazioni tecnologiche sembrano capaci di ridurre la probabilità
di incidenti sistemici nella maggior parte dei sistemi» (Perrow, 1984, P. 5). Le possibilità di miglioramento di questi
sistemi sono quindi remote in quanto queste
organizzazioni non apprendono dagli incidenti poiché i feedback
che derivano dalle esperienze sono ambigui, l'apprendimento organizzativo
si realizza in contesti ad alta politicizzazione e a bassa trasparenza,
i reports sugli accadimenti sono basati sul "capro
espiatorio" e non sono fedeli, la segretezza che avvolge questi
sistemi infine rende difficile l'apprendere dai disastri accaduti
in altri contesti. In funzione di questi elementi, Perrow
sostiene (in questo la sua è anche una teoria "politica")
che, poiché il pericolo risiede nel sistema e non in una componente,
alcuni sistemi debbano essere abbandonati, altri fortemente controllati
e ridotti nella loro diffusione ed altri infine parzialmente tollerati
e migliorati. Utilizzando due variabili decisionali come il costo
delle alternative e il potenziale catastrofico, Perrow (1984, P.304) raggruppa le
diverse tecnologie ad alto rischio in tre classi. «La prima classe di tecnologie
comprende le centrali nucleari e le armi nucleari. In questi casi,
le conseguenze degli incidenti (normali appunto perché determinati
dalla configurazione strutturale) sarebbero così catastrofiche che
è preferibile evitare del tutto queste
tecnologie. I secondi (quelli da controllare e ridurre) comprendono
il trasporto marittimo (le petroliere) e gli esperimenti sul DNA.
Queste tecnologie possono svolgere una funzione importante per il
più ampio sistema sociale ed è quindi possibile migliorarne il controllo
ma, al tempo stesso, limitarne la diffusione. Infine la terza classe
di sistemi è rappresentata dal trasporto aereo, dagli impianti chimici,
dalle miniere, ecc. Questi sistemi possono essere migliorati e cambiati,
ma non abbandonati poiché la loro funzione è fondamentale per una
società più ampia.» Un secondo autore che ha ripreso alcuni degli assunti della
teoria di Perrow
è Scott. D. Sagan, che con il suo libro The Limits of Safety
(1993) ha ampliato e confrontato la teoria di Perrow
con le successive elaborazioni teoriche sviluppatesi nel tempo.
La teoria di Perrow rispetto alle altre
teorie che affronteremo, si presenta più
"pessimistica" ma anche più "strutturale" e
più "politica". Più strutturale perché Perrow
individua alcune caratteristiche intrinseche dei sistemi tecnologici
complessi (la complessità interattiva e la trasmissione incontrollata),
caratteristiche strutturali appunto che
ne determinano le condizioni perenni di insicurezza. E' una teoria
più politica delle altre perché evidenzia gli interessi confliggenti
sia all'interno delle organizzazioni, sia tra le organizzazioni
e la comunità politica più ampia. L'aspetto più originale di questa
teoria è che essa si focalizza sulle proprietà di un sistema piuttosto
che sugli errori che singoli operatori possono compiere. Gli incidenti
non avrebbero origine quindi solo da una perdita di
attenzione, da un errore umano, dalla formazione inadeguata
del personale, da cause tecniche ecc., ma da una serie di proprietà
sistemiche che renderebbero ineluttabile l'incidente. Nel capitolo 2 Maurizio Catino illustra alcuni disastri
che più di altri, grazie ad un processo di investigazione
e di analisi approfondito, hanno permesso di ricostruire le cause
organizzative dell'incidente. Dall'incidente nucleare di Three
Mile Island
avvenuto nel marzo 1979 ad Harrisburg
(Pennsylvania) al disastro di Chernobyl
in Ucraina dell'aprile 1986. L'autore non manca di descrivere l'incidente aereo di
Tenerife del marzo 1977 di cui abbiano già fornito
un'analisi in questo sito in una edizione del 1999. Un'analisi di incidenti nel
trasporto in Italia comprende un resoconto molto dettagliato del
problema che si manifestò nella circolazione ferroviaria nel tratto
Parma-La Spezia. Non poteva mancare, quindi, l'analisi dell'evento di
Linate che l'Autore considera emblematico,
un vero caso di studio, a conferma delle teorie di causalità e dell'esistenza
di un enorme baratro culturale da superare per gestire in sicurezza
il sistema aviazione in Italia. 3. Normal Accident
nel trasporto in Italia? 3.2.3. Alcune conclusioni (pag. 119) Il disastro di Linate ha origine
da un errore involontario da parte dei piloti del Cessna,
i quali hanno confuso un raccordo per un altro. Dunque
l'incidente di Linate è il risultato di
un errore: ma se è vero che le persone nelle organizzazioni commettono
errori, è altrettanto vero che questi errori sono socialmente organizzati
e sistematicamente prodotti (Vaughan,
1996). Per questo dobbiamo parlare di errori organizzativi. Dall'analisi, emergono quattro
conclusioni principali. Una prima conclusione porta ad affermare
che la causa del disastro vada ricercata nell'errore commesso dai
piloti del Cessna, ma come abbiamo visto
quest'errore si innesta in una situazione
caratterizzata da molteplici falle latenti e difetti di funzionamento
e da una situazione gestionale della sicurezza caratterizzata da
superficialità e assenza di coordinamento tra gli enti preposti
al compito. Linate era un error-inducing
system (Perrow, 1999), come ha evidenziato
l'analisi dei numerosi elementi critici latenti. Nessuno di questi,
preso singolarmente, determina l'incidente, ma l'interazione tra
i diversi elementi può generare una configurazione critica che mina
le condizioni di sicurezza. L'incidente è accaduto perché le condizioni
di pericolo hanno superato le diverse difese del sistema organizzativo
di Linate, a causa sia degli errori attivi
che dei preesistenti fattori latenti. Una seconda conclusione attiene all'incapacítà di questo sistema di apprendere dai segnali di pericolo. Ciò che diventa importante capire non è soltanto
i perché dell'íncidente tecnologico ma
l'incapacità dei diversi attori coinvolti nel prendere atto dei
segnali di pericolo e del fallace stato di sicurezza del
sistema. Segnali precedenti sia ufficiali che informali, assieme
ad una diffusa percezione di qualcosa di insicuro,
erano presenti prima del disastro ma tutto ciò non si è tradotto
in nessuna azione migliorativa. Si può dire che si è trattato di
un disastro annunciato in quanto esso è l'esito di un "periodo di incubazione"
durante il quale nessun rimedio è stato attuato nonostante i segnali
di pericolo e la consapevolezza di alcune falle nel sistema di sicurezza. Una situazione che Turner (1976)
ha chiamato fallimento della previsione, ovvero l'incapacità
dei membri dei diversi enti coinvolti (ENAV, ENAC, SEA, compagnie
aeree, associazioni dei piloti ed altri ancora) di prendere
consapevolezza piena e individuare le diverse falle latenti presenti
nel sistema e eliminarle. Siamo in
presenza di errori e difficoltà nelle comunicazioni con eventi
inosservati o fraintesi a causa di assunzioni errate (come interpretazioni
tranquillizzanti), di difficoltà nella gestione delle informazioni
sia a causa di un sistema di knowledge
management assente che dei molteplici attori coinvolti. Questi fenomeni di "miopia" (Turner, Pidgeon, 1997) e di "sordità"
organizzativa (Baldissera, 1998) ai segnali
precedenti derivano anche dallo specifico task da compiere, dal
fatto che gli operatori agiscono in una situazione di
accettabilità del rischio e di controllo di agibilità del
volo: in questa situazione il rischio ineliminabile è trasformato,
attraverso progressivi adeguamenti mentali e organizzativi taciti,
in rischio residuale e accettabile. Il sistema rimane inerziale
sia perché non sono chiare le responsabilità di chi deve agire per mutare le condizioni, sia perché gli operatori,
per garantire il funzionamento, si fanno carico di queste debolezze
compensando con una loro maggiore attenzione che, però, talvolta
può collassare. Questo percorso porta ad una normalizzazione
della devianza (Vaughan, 1996) per
cui i segnali premonitori o la percezione che qualcosa non
vada sono ridotti e assorbiti nella routine quotidiana. Una terza conclusione riguarda la rete
di attori coinvolti: si è trattato di un incidente interorganizzativo
o incidente reticolare. Un elemento importante emerso dall'analisi
riguarda infatti le relazioni tra la rete
di attori e i rapporti non chiari tra organizzazioni controllanti
e organizzazioni controllate. Diane Vaughan (1990), a proposito
del disastro del Challenger, aveva messo in evidenza
come potessero essere fallaci questi rapporti tra le organizzazioni
che erogano il servizio e quelle che sono dedicate al controllo
e alla sicurezza. Tale difficoltà deriva, oltre che da fattori quali
le dimensioni, la complessità, la specializzazione,
i linguaggi specifici, anche dal rapporto tra autonomia degli enti
e interdipendenza. Ne consegue che le organizzazioni controllanti
si basano sulle informazioni derivanti dalle controllate compromettendo
la funzione prevista e rendendo difficile scorgere le anomalie e
i segnali di pericolo. Nel caso del disastro di Linate
siamo in una situazione in cui non sono chiare le responsabilità
dei diversi attori (come il rimpallo apparso sui giornali sulle
relative competenze ha evidenziato). Esistono delle zone d'ombra o aree cuscinetto, ovvero delle
aree di attività non presidiate da nessuno
o su cui non c'è una chiara responsabilità, come ad esempio la manutenzione
della segnaletica e l'apposizione di nuovi e più efficaci segnali,
di competenza dell'ENAC ma affidata in gestione alla SEA. E anche le conclusioni di un rapporto ministeriale non hanno
chiarito agli attori le relative responsabilità che continuano ad
essere scaricate dall'uno all'altro. Emerge che le competenze riguardo il
processo della sicurezza sono frantumate tra enti e organizzazioni
diverse e senza un sufficiente livello di coordinamento e integrazione
(come emerge dalla criticità definita: Ruoli poco chiari).
Tutto ciò genera un clima di incertezza e di scarsa attenzione per i problemi reali del
volo sicuro. Questo favorisce un fenomeno di segretezza strutturale
(Vaughan, 1996) nel senso che le azioni
commesse dai vari enti non sono sempre esplicite e osservabili a
causa della divisione del lavoro e della dispersione fisica delle
attività che ostacolano il flusso di conoscenza. Inoltre il rapporto
tra ente controllante attuatore e controllato non è definito chiaramente e presenta
delle lacune strutturali con un intrecciarsi di
autonomia e indipendenza: l'autonomia del sistema ispettivo
sconta anche il fatto di dipendere, in buona parte, da informazioni
e osservazioni segnalate dai controllati. Dall'analisi dei fatti e dalle difficoltà relative a problemi prioritari come l'installazione del radar
(ritardato e bloccato da difficoltà di comunicazione e coordinamento
tra più enti oltre che da una certa negligenza nell'operare), emerge
una cultura della sicurezza di tipo «burocratico» (Westrum,
1995), caratterizzata da situazioni con bassa circolazione delle
informazioni critiche rilevanti per la sicurezza, dall'assenza di
momenti di discussione e apprendimento, da una partizione delle
responsabilità per compartimenti stagni, da una logica basata sull'assunzione
che gli sbagli comportano rimedi soltanto provvisori. Si può sostenere
che tra i diversi attori coinvolti nel sistema sia prevalente una
concezione "giuridico formale" della sicurezza, intesa
come insieme di procedure vincolanti, ma sia assente o comunque
inadeguata una cultura della sicurezza orientata al processo complessivo
e non soltanto a parti di esso. Una quarta conclusione riguarda il tema
dell'affidabilità. Linate era un sistema
potenzialmente fallace non per la nebbia ma per la debolezza delle
connessioni tra le diverse parti del sistema. Le persone, anche
quelle più diligenti e attente, se lavorano in solitudine possono
commettere degli errori prima o poi. Come
affermano Weick e Roberts
(1993): l'attenzione è un atto sociale più che individuale.
Questo vuol dire che attori semplici (come i piloti del Cessna
che non conoscevano l'aeroporto) possono svolgere compiti complessi
o in condizioni difficoltose (come individuare il raccordo giusto
in condizioni di bassa visibilità) soltanto se sono attive le connessioni
tra le persone. Le prestazioni coscienziose (heedful) e l'attenzione vigile (mindful)
sono l'esito di connessioni sociali strette, in grado di far fronte
a situazioni difficoltose, incerte, nuove. Gli incidenti come quello
di Linate accadono quando, a connessioni tecnologiche strette
(Perrow, 1984), non fanno fronte connessioni
sociali altrettanto strette: «i normal
accidents rappresentano un breakdown
di processi sociali e di comprensione piuttosto che un fallimento
della tecnologia» (Weick, Roberts,
1993, P. 378). Ha ragione Gerrard Bruggink (1985), vicedirettore del Bureau of Accident Investigation del NTSB,
quando afferma che: «un fattore organizzativo
diventa una componente intrinseca del meccanismo
causale quando i top manager di case costruttrici, compagnie di
trasporto, organizzazioni professionali e sindacali, enti di regolamentazione
e di gestione di strutture aeronautiche favoriscono l'incidente
ignorando le lezioni di incidenti predittivi e disastri similari
avvenuti in passato o tollerando compromessi per ragioni di immagine
personale, di economicità o per incompetenza.» Questo caso conferma la tesi che gli incidenti tecnologici
sono innanzitutto l'esito di errori organizzativi.
Con questo non si vuol dire che non esista l'errore umano o che
gli uomini non commettano errori, ma che questi ‑ gli errori
‑ sono costruiti organizzativamente. L'incidente di Linate non è stato
determinato da un'unica causa (errore del pilota Cessna),
ma da una combinazione di cause di molti fattori diversi, generali
e contingenti, tra loro collegati. Se il sistema organizzativo di Linate
avesse funzionato in modo efficiente e orientato alla sicurezza,
ognuno di questi elementi avrebbe potuto
essere eliminato. Questo incidente sembra essere il risultato sia
di un'inefficienza generale sia di una non adeguata cultura della
sicurezza da parte dell'intero sistema di attori coinvolti a vario titolo nel funzionamento dell'aeroporto
di Linate.
|