Numero 3-2021
Scritto dal Dr. Luigi Cosentino, pervenuto alla Redazione di Salento Medico poco prima della sua scomparsa
BISOGNA FARE TESORO ANCHE DAI QUASI ERRORI
Gli esseri umani commettono errori
Nel 2000 l’Institute Of Medicine ha posto con chiarezza la questione degli errori in medicina – “To err is human” – e della frequenza degli eventi avversi e della loro prevedibilità. Gli eventi avversi prevenibili (incidenti che provocano danni gravi o letali) vengono solitamente identificati con gli errori attivi prevenibili – “active failures” – commessi dagli operatori in contatto diretto (“in prima linea”) con i pazienti o con alcune componenti del sistema (interfaccia uomo- sistema organizzativo, tecnologico, logistico) nel cui ambito viene erogata l’assistenza.
Gli errori attivi (errori umani) sono facilmente individuabili e riconoscibili come causa diretta e immediata di un evento avverso (prossimità spazio-temporale) e tuttavia un’efficace gestione del rischio clinico deve basarsi anche sull’individuazione degli errori latenti – “latent failures” – ovvero delle insufficienze organizzativo -gestionali del sistema (“ nelle retrovie ”) che restano silenti finché un evento scatenante (enabling condition) non le renda manifeste in tutta la loro potenziale lesività.
Il costrutto di “errori latenti” si fonda sul presupposto che, per un evento avverso che ha avuto luogo, ce ne sono stati molti altri che non sono accaduti solo perché qualcuno o qualcosa (un operatore, la presenza di un controllo o di una barriera) lo ha impedito: sono i quasi eventi o near miss (Nashef, 2003).
L’identificazione (monitoraggio/segnalazione) e l’analisi degli errori attivi consente di individuare le cause che li hanno generati e quindi, consente di “imparare dagli errori”. Sta di fatto però che gli errori non necessariamente producono danni (e dunque eventi avversi) anzi la maggior parte di essi i cosiddetti “quasi errori” o “quasi incidenti” o “near misses” non ne determinano (Figg. 1, 2).


I quasi incidenti si possono considerare come dei segnali deboli di rischio e di vulnerabilità del sistema. Sono eventi non pianificati che, per caso o per un’azione di recupero, non hanno provocato danni ma avrebbero potuto farlo. Ci regalano lezioni gratuite per scoprire e rimuovere gli errori latenti (anomalie/variazioni nei processi operativi), nascosti, incapsulati nel sistema entro cui le persone lavorano; nei processi organizzativi delle routine, nei programmi tecnologici, nelle prassi operative, dove restano a lungo senza che gli operatori se ne accorgano, anzi ci si abituano e non li riconoscono più come difetti procedurali e/o comportamentali (“normalizzazione della devianza”; J. Banja, 2010; D. Vaughan, 2004).
Vengono a crearsi delle “condizioni latenti” che – in combinazione con fattori locali innescanti – erodono le barriere di difesa del sistema (scavano dei buchi) e aprono una di “finestra di opportunità” per l’azione degli errori attivi individuali lungo la traiettoria degli incidenti descritta con efficacia nel “modello del formaggio svizzero”di J. Reason (Fig.3).

In questa prospettiva di gestione del rischio emerge l’importanza del monitoraggio e della segnalazione anche dei quasi errori come strumento informativo necessario per individuare, e rimuovere, le condizioni latenti che facilitano l’azione degli errori attivi e la loro probabilità di esitare in danno. Gli uomini sono inclini all’errore e dunque servono sistemi operativi e contesti organizzativi progettati in modo tale da prevenire o attenuare gli errori che gli esseri umani inevitabilmente commettono. La sicurezza delle cure è influenzata dalle modalità con cui gli uomini interagiscono con il loro ambiente di lavoro.
Non possiamo cambiare la condizione umana di fallibilità – dice J. Reason (BMJ, 2000) – ma possiamo cambiare le condizioni nelle quali gli uomini lavorano.
E ancora: “gli errori attivi sono come le zanzare. Possono essere schiacciate una ad una, ma loro continuano a venire. Bisogna creare barriere difensive più efficaci e drenare le paludi in cui si riproducono. Le paludi, in questo caso, sono le sempre presenti condizioni latenti”.
Si capisce allora perché imparare dagli errori non basta. Bisogna imparare anche dai quasi errori. L’obiettivo primario delle procedure di segnalazione (reporting) degli eventi avversi e dei quasi incidenti è quello di imparare dall’esperienza utilizzando i dati acquisiti per migliorare il sistema e generare informazioni utili per “generare” – e adottare – buone pratiche assistenziali.
errore umano e organizzazione
La questione si sposta dal piano dell’errore umano (person approach) a quello dell’organizzazione nella quale le prestazioni vengono erogate nella consapevolezza – fondata su evidenze – che l’errore individuale sia spesso facilitato da insufficienze latenti di sistema (system approach; J. Reason, 2000). Fermo restando la responsabilità individuale. Qual è, allora, la previsione normativa su cui fondare un credibile processo di trasformazione delle buone evidenze scientifiche in buone pratiche assistenziali?
In Italia è vigente un assetto normativo che qualifica le attività di risk management come un elemento essenziale della prestazione sanitaria (Monitoraggio degli Errori in Sanità – SIMES, 2009; commi 539-540 art. 1 legge 208/2016; Osservatorio Buone Pratiche, 2017; legge 24 /2017). La lettura integrata di queste disposizioni normative e la previsione esplicita (“… nonché agli eventi senza danno”) della lett. a, art. 2 Decr. Osservatorio Naz. Buone Pratiche, consente di acquisire un riferimento normativo per la sorveglianza anche per i “quasi incidenti” o near misses la cui identificazione e segnalazione dovrebbe far parte integrante di un buon piano per la sicurezza delle cure.
D’altra parte la legge 24/2017 colloca in modo esplicito la sicurezza delle cure nell’ambito della garanzia costituzionale del diritto alla salute (art.1, comma 1) precisando al comma 2 che “la sicurezza delle cure si realizza anche mediante l’insieme di tutte le attività finalizzate alla prevenzione e gestione del rischio connesso all’erogazione delle prestazioni sanitarie…”.
I dati nazionali disponibili sono limitati e riferiti solo agli eventi avversi.
C’è una tendenza alla sottosegnalazione, un’attenzione mirata verso alcuni tipi di eventi sentinella e un’importante variabilità nella validazione dei dati per singole regioni (rapporto SIMES, 2015). Lo studio di R. Tartaglia del 2012 si concentra sulla rilevazione degli eventi avversi prevenibili e mostra qualche discordanza rispetto ai dati internazionali. L’incidenza rilevata è pari al 5,2% vs il 9,5% con una maggiore prevalenza nell’area medica (37,5%) rispetto a quella chirurgica (30,1%). La percentuale di eventi prevenibili è pari al 56,7% vs il 43,5% (de Vries EN, 2008).
E’ un fenomeno rilevante. Occorre migliorare le attività di reporting e di risk assessment degli eventi avversi e si deve estendere la sorveglianza anche ai quasi incidenti.
Il che presuppone il coinvolgimento diffuso e responsabile degli operatori sanitari che possono diventare i “sensori collocati in prima linea” capaci di riconoscere i segnali deboli. Serve un percorso di cambiamento organizzativo – difficile ma inevitabile – che elimini residue suggestioni di cultura della colpa (blame culture) e assecondi semplicemente la crescita della cultura della sicurezza (safety culture).
Ma quand’anche dovessimo pienamente raggiungere questi risultati, seppure importanti, ci troveremmo ancora a navigare nel mare della Safety I di E. Hollnagel (Reactive safety management : capacità di reagire in base all’analisi degli eventi avversi precedenti) mentre i tempi sono maturi per avventurarsi nell’oceano della Safety II ( Proactive safety management : capacità di adattamento prima che gli eventi accadano), aprendo lo scenario sulla resilienza delle organizzazioni (HRO : High Reliability Organizations) che investe in modo diretto le organizzazioni sanitarie e in particolare l’ospedale ormai concordemente riconosciuto come un sistema adattivo complesso (CAS : Complex Adatpive System). Ma questa è tutta un’altra storia.
