Logo Hannoversche Ärzte-Verlags-Union
Berliner Allee 20
30175 Hannover
info@haeverlag.de
 
nä-Schnellsuche

Stichwort:



Erweiterte Suche
 
nä 12/2005
aktualisiert am: 2-.-1.2005

Fehlermanagement 

  klinik und praxis

cockpit und op-saal

Sind Sicherheitsstrategien in der Luftfahrt auf das Gesundheitswesen übertragbar?


 

Ähnliche Arbeitsbereiche

In den vergangenen Jahren hat das Thema Patientensicherheit zunehmend die Öffentlichkeit erreicht. Dabei werden auch Forderungen nach einer höheren Sicherheit mit Verweisen auf die Industrie, insbesondere in der Luftfahrt, erhoben. [1, 2, 3, 4, 5] Ob sich beide Bereiche jedoch ohne weiteres vergleichen lassen, ist noch zu analysieren. Zumindest augenscheinlich ähneln sie sich, indem identische Merkmale wie Teamarbeit mit hohem Spezialisierungsgrad, starke psychische und physische Belastung bei häufig schnell wechselnder Arbeitsintensität oder Konfrontation mit druckvollen Entscheidungssituationen auffallen.[6] Dennoch ist es trotz der immer komplexeren Handlungswelten in beiden Tätigkeitsfeldern und stets höheren Anforderungen an die dort handelnden Personen erstaunlich, wie gut die Systeme beherrscht werden.

Risiken sind etwas alltägliches

Obwohl Technik und Arbeitsbelastung immer komplexer geworden sind und die Zahl der Passagiere und Flüge stetig zugenommen hat, ist der Flugverkehr zusehends sicherer geworden: Von 1982 bis 1999 stiegen zum Beispiel die Passagierzahlen in den USA von 299 auf 634 Millionen, wobei die Zahl der getöteten Fluggäste pro eine Million transportierter Passagiere jedoch eindeutig zurück gegangen ist.[7]

Dass unerwünschte Zwischenfälle auftreten, ist allerdings unvermeidlich. So beträgt zum Beispiel die allgemeine Fehlerrate bei einfachen Tätigkeiten wie das Ablesen von Instrumenten bereits 0,3 Prozent, sie steigt bei komplexeren Vorgängen auf bis zu zehn Prozent, die allgemeine Fehlerrate bei Aktivitäten mit hohem Stresslevel (schnell aufeinander folgende gefährliche Ereignisse) beträgt sogar bis zu 25 Prozent.

Übertragen auf andere Arbeitsplätze, zum Beispiel in der Klinik, heißt das:
- Je mehr Menschen, selbst auf höchstem Sicherheitsniveau, miteinander agieren, desto wahrscheinlicher ist es, dass ein unerwünschtes Ereignis eintritt, beziehungsweise
- je mehr Arbeitsschritte um den oder Verrichtungen am Patienten erfolgen oder vorgenommen werden, um so wahrscheinlicher ist das Auftreten von Fehlern.

Systematische Datenerfassung als Basis

Schon frühzeitig wurden in der Geschichte der Luftfahrt systematisch Daten erhoben und ausgewertet. Das amerikanische National Transportation Safety Board (NTSB) hat seit 1962 mehr als 46 00 Accidents (Unfälle) in einer öffentlich zugänglichen Datenbank zusammengetragen und ausgewertet, deren Ergebnisse einen direkten Einfluss auf die Sicherheitsanforderungen in der Luftfahrt haben. Ziel ist, die Entwicklung von Incidents (Ereignissen) zu Accidents zu vermeiden.[8]
Diese Erkenntnis hat in den USA unter anderen zum Aufbau des freiwilligen, datenbankgestützten Meldesystems Aviation Safety Reporting System (ASRS) geführt, das die NASA im Auftrag der Amerikanischen Luftfahrtbehörde FAA seit 1975 betreibt und in das seitdem mehr als 400 000 so genannte Incident Reports freiwillig und anonymisiert eingegangen sind. [9] Der aktuell bemerkenswert hohe Sicherheitsstandard im Luftverkehr ist auch der ASRS-Datenbasis zuzuschreiben.[10]

Eine andere, wichtige Datenquelle über Zwischenfälle und Fehlerverhalten liefert das Projekt LOSA (Line Operations Safety Audit).[11] Dabei haben Experten bei über 3 500 Flügen durch Beobachtungen im Cockpit Daten über Gefahrensituationen und Fehler der Besatzungen sowie - was wesentlich wichtiger ist - über die Beherrschung dieser Situationen vertraulich gesammelt. Im Durchschnitt jedes Fluges wurden zwei Gefährdungssituationen sowie zwei Fehler beobachtet.[12]

Aufgrund dieser Daten ist es gelungen, essentielle Verhaltensmuster zur Beherrschung von Gefährdungssituationen und Fehlern zu identifizieren und daraus situationsbezogene Trainingsprogramme zu entwickeln. So ereignen sich nach Reason jährlich etwa 100 Millionen Fehler in den Cockpits der kommerziellen Verkehrsluftfahrt, die aber lediglich zu 10 größeren Zwischenfällen und letztlich zu 25 größeren Unfällen führen.[13]

Selbstverständnis

Eine weitere Fehlerursache ist die mangelhafte Selbsteinschätzung in bestimmten Situationen. Bei einer Befragung von 30 000 Piloten sowie 1 033 Ärzten und Krankenschwestern wurden eine Reihe von klassischen Statements überprüft.[14] Der Aussage: Unerfahrenere Teammitglieder sollten nicht die Entscheidungen der Erfahrenen (Chefärzte/Flugkapitäne) in Frage stellen, stimmten nur zwei Prozent der Piloten, aber 24 Prozent der Chefärzte zu. Das Statement: Auch wenn ich übermüdet bin, bin ich in der Lage, in Notfallsituationen effektiv zu handeln, beantworteten nur 26 Prozent der Piloten, aber 70 Prozent der Chefärzte mit ja. Interessant war ferner das Ergebnis, dass 30 Prozent der Ärzte und Schwestern auf Intensivstationen ausschlossen, Fehler zu begehen.

Eine der weit reichenden Konsequenzen aus der Fehlerforschung in der Luftfahrt war die verbindliche Einführung des Crew Ressource Management (CRM). Dies ist ein Trainingprogramm, das den Cockpitbesatzungen die Grenzen menschlicher Leistungsstärken durch Erschöpfung und Stress sowie die Ursachen für Fehler nahe bringt.[10, 11] Inzwischen hat sich das zunächst vor mehr als 20 Jahren freiwillig bei Cockpitbesatzungen der United Airlines eingeführte Fortbildungskonzept zu einem Modul der Pilotenausbildung entwickelt, das jetzt verbindlich in die Aus- und Weiterbildung integriert ist.
CRM vermittelt eine entsprechende Fehlerkultur mit Grundfähigkeiten wie Führung, Beobachtung, Kommunikation und gegenseitiger Überprüfung sowie Entscheidungsfindung und Überprüfung mit Modifikation von geplanten Entscheidungen. Die Ergebnisse bestätigen seine Effektivität durch Änderung von persönlichen Einstellungen und dadurch verbesserter Sicherheit.[15]

Übertragbarkeit auf und Konsequenzen für das Gesundheitswesen

Lassen sich diese Ergebnisse aus der Luftfahrt jedoch ohne weiteres auf die Medizin übertragen? Obwohl zum Beispiel Operationssäle teilweise komplexere Arbeitsumgebungen darstellen als Cockpits, zeigen Untersuchungen, dass es Parallelen in der Kommunikation und der suboptimalen Teamleistung gibt.[11]

Zwei Drittel der Schwestern und Ärzte in einem Krankenhaus nannten auf die Frage, welche Komponente vordringlich für erhöhte Sicherheit und Effektivität sei, die Verbesserung der Kommunikation.[16] Andere Untersuchungen zeigen, dass Piloten und Ärzte zwischenmenschliche Probleme und Gemeinsamkeiten in der Arbeitskultur teilen.[17, 18] Jedoch ist nicht zu leugnen, dass beide Arbeitsgebiete auch viele Unterschiede aufweisen, die sich hauptsächlich auf die Kontrollierbarkeit der äußeren Bedingungen konzentrieren (siehe Tabelle). So gibt es in der Luftfahrt eine gesetzliche Vorgabe, die bereits beim Start Mindestvoraussetzungen für das Wetter am Zielort fordert, damit der Flug überhaupt angetreten werden darf. Dies wäre für die Medizin nicht praktikabel beziehungsweise ethisch nicht umsetzbar. Bedeutete dies doch, dass schon zu Beginn der notfallmäßigen Intervention bei einem polytraumatisierten Patienten eine bestimmte Überlebenswahrscheinlichkeit sicher sein müsste, um den Eingriff überhaupt erst zu beginnen.

Trotzdem gibt es eine Vielzahl von Ansätzen, die nach entsprechender Validierung und Adaptation in der Medizin ihre Anwendung finden können. Ein für beide Bereiche gültiger Maßnahmenkatalog zur Fehlerbekämpfung könnte fünf Unterpunkte umfassen:
- Komplexitäten reduzieren,
- den Informationsfluss und die Kommunikation optimieren,
- Automationsmechanismen wohlüberlegt einführen,
- Grenzen (bei gefährlichen Vorgängen) definieren und
- die durch Veränderung hervorgerufenen unerwünschten Nebeneffekte mildern.

Voraussetzung zur Realisierung dieser Vorschläge ist jedoch, sich diesen Herausforderungen zu stellen und sie umzusetzen. Die Wahrscheinlichkeit dafür belegen Studien aus dem Jahre 2004. Am Vanderbild University Medical Center, einem Haus mit 670 Betten und 36 00 stationären Aufnahmen im Jahre 2003, wurde ein medizinisches CRM Training mit 489 Teilnehmern durchgeführt.[19] Dabei wurden in 20 von 23 Kategorien hochsignifikante Ergebnisse bezüglich den klassischen Elementen aus dem CRM wie Kommunikation, Führung, Fehlerbewusstsein und anderes mehr erzielt, wie eine entsprechende Befragung mit einem standardisierten Test ergab.

Daneben werden ASRS-ähnliche Meldesysteme gefordert, die die Vorgaben: schnell, vertraulich, einfach und mit darstellbarem Benefit für die Anwender, erfüllten.[10] Das Ziel sollte es sein, in einer Organisation das Gefühl für eine nachhaltige Sicherheitskultur zu entwickeln, der sich jeder Mitarbeiter im Sinne des Patienten verpflichtet fühlt. Insellösungen in einzelnen Segmenten wären da wenig hilfreich. Reason beschreibt dazu vier funktionelle Voraussetzungen:
- ein adäquates Meldesystem,
- angemessene Reaktionen auf die erhaltenen Meldungen,
- Flexibilität, und schließlich
- die Fähigkeit aus Erfahrung lernen zu können.

Ob sich diese Komponenten auch hierzulande entsprechend umsetzen lassen, wäre noch auszudiskutieren. Reason Antwort auf die Frage: Was ist ein gutes Risikomanagementsystem? könnte hierbei einen Fingerzeig liefern:[13]
- Ein gutes Risikomanagementsystem garantiert die Sicherheit einer Institution,
- Sicherheit heißt aber nicht Abwesenheit von Fehlern, sondern die Fähigkeit einer Institution, mit Risiken und Gefahren umzugehen um so Schäden und Verluste zu verhindern, dennoch aber die gesteckten Ziele zu erreichen.

Die Zahlenangaben in Klammern beziehen sich auf das Literaturverzeichnis.

LuftfahrtMedizin
Primärer SystemunterschiedTechnisches System, konstruiert mit definierten Biologisches System; vorgegebene Randbedingungen
Anforderungen für unterschiedliche Randbedingungen für im System agierende, kaum beeinflussbar.
Wartung der SystemkomponentenKomponenten werden regelmäßig getauschtvorbeugender Austausch kritischer Komponenten nicht
vorgesehen beziehungsweise nicht möglich
Wartung der SystemkomponentenDurch Konstruktion vorgegeben beziehungsweise Lebensdauer nur schwer beeinflussbar,
nach Anforderungen veränderbarfinales Versagen zu unbekannten Zeitpunkt vorgegeben
Beeinflussbarkeit der VorgängeDurch gesetzliche Vorgaben teilweise sehr restriktiv Vorgänge durch entsprechende Vorgaben größtenteils
(Bsp.: Wetterbdingungen, die eingehalten werden müssen) nicht beeinflussbar (Überlebensgarantien bei OP etc.)
Beinflussbarkeit durch VorgabenReduktion der Fehlermöglichkeiten durch restriktive Eingehen von hohen Fehlermöglichkeiten trotz schlechter
Vorgaben (Beispiel: zwei misslungene Schlechtwetter-Randbedingungen
anflüge - dann Flug zum Ausweichlandeplatz)(Beispiel: Reoperation bei multimorbiden Patienten)


Verfasser/in:
Dr. Christian Thomeczek
Geschäftsführer im Ärztlichen Zentrum für Qualität in der Medizin (äzq)
Wegelystr 3, 10623 Berlin, Tel.: (0 30) 40 05 25 05, Fax: (0 30) 40 05 25 55
mail@azq.de


inhalt 12/ 05
service
anzeigenaufgabe
leserbrief
umfragen
archiv
 



Literatur

[1] Kohn LT, Corrigan JM, Donaldson MS (eds.) To err is human. Building a safer health system. Washington, DC: National Academy Press, 1999.

[2] Leape LL, Berwick DM. Safe health care: are we up to it? BMJ 2000; 320: 725-726

[3] Leape LL. The Preventability of Medical Injury. In: Bogner MS (ed) Human Error in Medicine. Hillsdale NJ, Erlbaum Publ., 1994, 13-25

[4] Wilson RM, Runciman WB, Gibberd RW, Harrison BT, Newby L, Hamilton JD. The Quality in Australian Health Care Study. Med J Aust 1995;163:458-71.

[5] Ollenschläger G. Medizinische Risiken, Fehler und Patientensicherheit. Zur Situation in Deutschland. Schweizerische Ärztezeitung 2001; 82: Nr 26; 1404-1410

[6] Thomeczek C. Fehlerquelle Mensch: Berliner Ärzte 2001; 11-16

[7] National Transportation Safety Board (NTSB). Aviation Accident Statitics, Press Release http://www.ntsb.gow/aviation/Stats.htm 16.3.2001

[8] National Transportation Safety Board (NTSB). Accident Database & Synopses. http://www.ntsb.gov/aviation/aviation.htm 2001

[9] Aviation Safety Reporting System (ASRS) Database. http://nasdac.faa.gov/safety_data/#ASRS 2001

[10] Spencer FC. Human Error in Hospitals and Industrial Accidents: Current Conzepts. J Am Coll Surg 2000, 191, No 4: 410-418

[11] Helmreich RL. On error management: lessons learnt from aviation. BMJ 2000; 320: 781-785

[12] Klinect JR, Wilhelm JA, Helmreich RL. Threat and error management: data from line operations safety audits. In: Proceedings of the tenth international symposium on aviation psychology. Columbus: Ohio State University, 1999: 683-688

[13] Henderson A et al. Report on the Special Medical Seminar Lessons in Health Care: Applied Human Faktors Research 22 Nov 2000: Prepared for the Australien Council for Safety and Quality in Health care & NSW Ministerial Council for Quality in Health Care. South Yarra: 2001: 8, http://www.safetyandquality.org/publications.html

[14] Sexton JB, Thomas E, Helmreich RL. Error, stress, and teamwork in medicine and aviation: cross sectional surveys. BMJ 2000; 320: 745-749

[15] Helmreich RL, Wilhelm JA. Outcome of crew resource management training. Int J Aviation Psychol 1991: 1: 287-300

[16] Eagle CJ, Davies JM, Reason JT. Accident analysis of large scale technological disasters applied to anaesthetic complications. Can J Anaesth 1992; 39: 118-122

[17] Amalberti R. La conduite de systémes á risques. Paris: Presses Universitaires de France, 1996

[18] Helmreich RL, Davies JM. Human factors in the operating room: Interpersonal determinands of safety, efficiency and morale. In: Aitkenhead AA, ed. Bailliére´s clinical anaesthesiology: safety and risk management in anaesthesia. London: Bailliére Tindall, 1996:277-296

[19] Grogan EL, Stiles RA, France DJ, Speroff T, Morris JA Nixon B, Gaffney FA, Seddon R Pinson CW. The Impact of Aviation-Based Teamwork Training on the Attitudes of Health-Care Professionals. J Am Coll Surg 2004, 199: 843-848

Alle Inhalte © Hannoversche Ärzte-Verlags-Union 1998-2005. Diese Seite wurde zuletzt aktualisiert am: 2-.-1.2005.
Design by Tim Schmitz-Reinthal, webmaster(at)haeverlag.de.