Rüdiger Kramme (Hrsg.) Medizintechnik 3., vollständig überarbeitete und erweiterte Auflage
Rüdiger Kramme (Hrsg.)
Med...
146 downloads
6067 Views
43MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Rüdiger Kramme (Hrsg.) Medizintechnik 3., vollständig überarbeitete und erweiterte Auflage
Rüdiger Kramme (Hrsg.)
Medizintechnik Verfahren – Systeme – Informationsverarbeitung
Mit 686 Abbildungen, davon 99 in Farbe, und 170 Tabellen
123
Dipl.-Ing. Rüdiger Kramme Korrespondenz-Anschrift: Fuchsweg 14 79822 Titisee-Neustadt
ISBN-13 978-3-540-34102-4 Springer Medizin Verlag Heidelberg Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer Medizin Verlag springer.de © Springer Medizin Verlag Heidelberg 2007 Die Wiedergabe von Gebrauchsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutzgesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Produkthaftung: Für Angaben über Dosierungsanweisungen und Applikationsformen kann vom Verlag keine Gewähr übernommen werden. Derartige Angaben müssen vom jeweiligen Anwender im Einzelfall anhand anderer Literaturstellen auf ihre Richtigkeit überprüft werden.
Planung: Hinrich Küster, Heidelberg Projektmanagement: Gisela Zech, Heidelberg Lektorat: Kerstin Barton, Heidelberg Layout und Einbandgestaltung: deblik Berlin, unter Verwendung einer Abbildung von © medicalpicture/högner SPIN 10826521 Satz: TypoStudio Tobias Schaedla, Heidelberg Gedruckt auf säurefreiem Papier
2126 – 5 4 3 2 1 0
V
Wie einer, dem das Auge fehlt, auf seiner Wanderung in Not gerät, so ist einer, dem das Wissen fehlt. Darum sind die Wissenden den anderen überlegen.
Mokshadharma (Indische Philosophie des epischen, zwischen dem Veda und dem klassischen Sanskrit stehenden Zeitalters)
VII
Geleitwort Eine immer älter werdende Bevölkerung, eine zunehmende Anspruchshaltung in allen Lebensaltern an das Niveau der eigenen Gesundheit und eine rasante technologische Entwicklung, die häufig aus anderen Gebieten als den medizinischen Technologien selbst stammt, bestimmen die Innovationsraten auf dem faszinierenden Gebiet der Medizintechnik. Wer erfolgreich Medizintechnik betreibt, ist immer interdisziplinär unterwegs. Er versucht aus Nachbargebieten der Medizin, darunter allen Natur- und Ingenieurwissenschaften, nützliche Entwicklungen aufzugreifen und für die Verfügbarkeit an und im Körper aufzubereiten. Mehr als auf jedem anderen technologischen Gebiet rückt der Mensch, psychisch oder körperlich leidend, in den Mittelpunkt eines technischen Geschehens, mit hohen Anforderungen an den behandelnden Arzt: es muss ihm gelingen, die extreme Spanne an Technologisierung einerseits und menschlich-verständnisvoller Zuwendung andererseits zu vermitteln. Zu allen Zeiten, nicht erst seit Stammzell-Therapien einer breiteren Öffentlichkeit bekannt sind, haben ethische Erwägungen den Einsatz der Medizintechnik am Menschen geprägt. In geringem Maße ist die Medizintechnik insgesamt kontrovers akzeptiert, in überwältigendem großem Ausmaß wird sie als helfend, nützlich und förderungswürdig erkannt. Herrn Rüdiger Kramme ist es in der nun 3., vollständig überarbeiteten und erweiterten Auflage des Standard-Nachschlagewerks zur Medizintechnik gelungen, namhafte Autoren ihre Spezialgebiete darstellen zu lassen. Dabei besticht das Buch durch Tiefe in der Darstellung des einzelnen Gebietes und durch Breite in der Auswahl der Themen. Das Buch ist ein ausgezeichneter Begleiter, der lexikalischen Charakter mit Wertungen und Gewichtungen der einzelnen Autoren verbindet. In dieser Kombination ist das Werk besonders wertvoll für Studierende, Fachpersonen benachbarter Gebiete und für jenen wissensdurstigen Leser, der auf dem neuesten Stand der Erkennung und Behandlung von Krankheiten bleiben möchte. Dem Buch sei eine möglichst große Verbreitung gewünscht. Es gehört ins Regal jeden Lesers, der alle aktuellen Technologien der Medizin und ihre praktische Anwendung verstehen und erkunden möchte. Erich Wintermantel, Professor Dr. med. Dr.-Ing. habil o.-Univ.-Prof. für Medizintechnik Lehrstuhl für Medizintechnik der TU München, 85748 Garching Stellvertretender Vorsitzender der Deutschen Gesellschaft für Biomedizinische Technik (DGBMT)
IX
Vorwort zur 3. Auflage Ohne Technik und Physik, deren Einfluss auf die Medizin sehr vielseitig und umfangreich ist, wäre unser heutiges und zukünftiges Gesundheitswesen nicht denkbar. Seit der ersten Auflage 1997 hat sich die Zielsetzung dieses Buches, anschaulich zu machen, was Technik in der Medizin ‒ ergo Medizintechnik ‒ ist und kann, nicht verändert. Im Gegensatz dazu haben sich aber der Buchumfang, das Themenspektrum und die Anzahl der Autoren deutlich erhöht, dank der positiven Reaktionen und der damit verbundenen Nachfrage. Die vorangegangenen Auflagen haben gezeigt, dass es den Autoren gelungen ist, Beiträge aus unterschiedlichen Fachbereichen der Medizintechnik in einem Buch mit Erfolg darzustellen. Dies bestärkt uns darin, diesen Weg konsequent weiter zu gehen. Die seit Erscheinen der letzten Auflage erzielten wesentlichen medizintechnischen Fortschritte und die Leistung der unterschiedlichen Techniken im Umfeld der medizinischen Versorgung wurden in der vorliegenden Neuauflage berücksichtigt und neue Kapitel hinzugefügt. Neben der bewährten Gliederung in einen allgemeinen und einen speziellen Teil bietet ein umfangreicher Anhang praktisches Hintergrundwissen anhand zahlreicher Tabellen, Norm- und Anhaltswerte. Ein fachübergreifender historischer Abriss der Medizintechnik und ein ausführliches Sachverzeichnis runden das Buch ab. Bei der Realisierung dieser Auflage habe ich wiederum tatkräftige Unterstützung erhalten. Der Erfolg dieses Buches wäre ohne die engagierte und kompetente Mitarbeit der zahlreichen Autoren aus Wissenschaft und Praxis sowie aus der medizintechnischen Industrie so nicht möglich gewesen. Besonderer Dank gebührt meiner Frau für ihr Engagement und ihre Geduld. Für die angenehme und vertrauensvolle Zusammenarbeit danke ich seitens des SpringerVerlags Herrn Küster, Frau Zech, Frau Barton und Herrn Schaedla sowie allen anderen, die zum Gelingen dieser Auflage beigetragen haben. Titisee, im Herbst 2006 Rüdiger Kramme
XI
Vorwort zur 1. Auflage Die Entwicklung zahlreicher medizintechnischer Geräte und Einrichtungen während der letzten 20 Jahre ist vergleichbar mit der Entwicklung des Flugzeugs vom Doppeldecker zum vierstrahligen Düsenjet. Medizin und Technik stehen in einer dynamischen Wechselbeziehung zueinander. Medizinische Fragen fordern mehr und mehr technische Antworten. Neue Möglichkeiten der Technik beeinflussen die moderne Heilkunde. Sie erweitern das diagnostische und therapeutische Potential mit dem Ziel, präzise Informationen über den Gesundheitszustand des Patienten zu liefern, die Lebensqualität der Kranken zu verbessern und die Verlängerung des Lebens, nicht etwa des Sterbens, zu ermöglichen. So sehr auch die Bedeutung der Technik in der Medizin als Werkzeug für den Anwender wächst, bleibt dennoch die Kontinuität der Betreuung durch den Arzt und das Pflegepersonal von vorrangiger Bedeutung. Denn die spezifisch menschlichen Fähigkeiten und Eigenschaften kann – gerade in der Medizin – eine Maschine niemals ersetzen. Ziel dieses Buches ist es, Neues zu vermitteln, bereits Bekanntes in Erinnerung zu rufen sowie Informationen aus den verschiedenen Bereichen der heutigen Medizintechnik bereitzustellen. Zunehmend werden Beschäftigte im Gesundheitswesen mit medizinischen Geräten konfrontiert, ohne ausreichendes Informationsmaterial zur Verfügung zu haben. Während der ärztlichen oder pflegerischen Ausbildung, selbst in der Ausbildung angehender Ingenieure und Techniker für das Gesundheitswesen, wird die Medizintechnik vernachlässigt oder nur marginal behandelt. Diesem Defizit will das vorliegende Buch begegnen. Der – gemessen an der Fülle des zur Verfügung stehenden Materials – knappe Platz zwingt zur Konzentration. In der medizinischen Technik bleibt vieles erklärungsbedürftig – auch für Fachleute, die außerhalb ihres Spezialgebietes Laien sind. Die an der Praxis der Anwender orientierten, aktuellen Beiträge sind für technische Laien leicht verständlich geschrieben. Medizintechnische Fachbegriffe und Zusammenhänge werden erklärt und somit das Verständnis für die aktuelle Medizintechnik gefördert und vertieft. Nutzen Sie dieses Buch als Nachschlagewerk, Ratgeber oder Arbeitsbuch. Neben einem allgemeinen Teil, in dem die Rahmenbedingungen der Medizintechnik dargestellt werden, behandelt der zweite, spezielle Teil Geräte der Funktionsdiagnostik, Bildgebende Systeme, Therapiegeräte und Patientenüberwachungssysteme. Zahlreiche Tabellen, Übersichten und Abbildungen erleichtern das Verständnis. Darüber hinaus werden zwei Spezialthemen (Biowerkstoff Kunststoff und Operationstischsysteme) sowie Beiträge über Kommunikation und Informationsverarbeitungssysteme in der Medizin angeboten. Ein schneller Zugriff zu den einzelnen Themen wird durch ein übersichtliches und gut strukturiertes Sachwortregister gewährt. Darüber hinaus wird im Anhang praktisches Hintergrundwissen anhand zahlreicher systematisierter Tabellen, Norm- und Anhaltswerte geboten. Ein Glossar zur Computer- und Kommunikationstechnik steht ebenfalls zur Verfügung. Ohne die engagierte und kompetente Mitarbeit der Autoren wäre das vorliegende Buch in dieser Form nicht zu realisieren gewesen; deshalb gilt mein besonderer Dank allen, die direkt und indirekt durch ihren Einsatz dieses Buch ermöglicht haben. Kirchhofen, im September 1996 Rüdiger Kramme
XIII
Rüdiger Kramme, Dipl.-Ing., geboren 1954 in Dortmund. ▬ Studium der Biomedizinischen Technik, Krankenhausbetriebstechnik und Volkswirtschaftslehre in Gießen und Freiburg. ▬ Langjährige Berufstätigkeit in Vertrieb, Marketing und Personalentwicklung der medizintechnischen Industrie für Verbrauchs- und Investitionsgüter. ▬ Seit 1993 Planung und Projektierung von Universitätskliniken des Landes Baden-Württemberg sowie medizinischen Einrichtungen der Bundeswehr. ▬ Lehrbeauftragter für Medizintechnik der FH-Gießen. ▬ Verfasser zahlreicher Fachpublikationen in Zeitschriften und Büchern. Autor des Springer-Wörterbuchs »Technische Medizin«.
Sektionsverzeichnis A
Allgemeiner Teil
– 1
B
Spezieller Teil
I
Funktionsdiagnostik
II
Bildgebende Systeme
III
Therapiegeräte
IV
Monitoring – 615
V
Medizinische Informationsverarbeitung und Kommunikation – 717
VI
Spezialthemen
VII
Anhang
– 83
– 875
– 85 – 247
– 375
– 827
XVII
Inhaltsverzeichnis A Allgemeiner Teil 1
Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung . . . . . . . . . . . . . . . . . .3 R. Kramme, H. Kramme
2
Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 L.F. Clausdorff, K.-P. Hoffmann
3
Hygiene in der Medizintechnik. . . . . . . . . . . . . . . . . . . . 15 H.-M. Just, E. Roggenkamp
12 Schlafdiagnostiksysteme . . . . . . . . . . . . . . . . . . . . . . . . 169 K.-P. Hoffmann 13 Nystagmographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 K.-P. Hoffmann 14 Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung . . . . . . . . . . . . . . . . 193 S. Hoth
II
4
5
Vorschriften für Medizinprodukte . . . . . . . . . . . . . . . . . 37 M. Kindler, W. Menke Technische Sicherheit von elektromedizinischen Geräten und Systemen in medizinisch genutzten Räumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 R. Kramme, H.-P. Uhlig
6
Ökonomische Aspekte der betrieblich-medizinischtechnischen Einrichtungsplanung (BMTE) . . . . . . . . . 61 H. Knickrehm, B. Karweik
7
Qualitätsmanagement in der Medizintechnik – Ziele, Elemente und Strukturen . . . . . . . . . . . . . . . . . 73 K. Rudolf
B Spezieller Teil
Bildgebende Systeme . . . . . . . . . . . . . . . . . . .247
15 Computertomographie (CT) . . . . . . . . . . . . . . . . . . . . . 249 T.M. Buzug 16 Magnetresonanztomographie (MRT) . . . . . . . . . . . . . 271 H. Kolem 17 Positronenemissionstomographie (PET) kombiniert mit Computertomographie (PET-CT) – Hybridbildgebung zur funktionalen Diagnostik und Therapiemanagement. Ein technologischer Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285 Y. Hämisch, M. Egger 18 Ultraschalldiagnostik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 B. Köstering, H. Dudwiesus 19 Systeme für die Endoskopie . . . . . . . . . . . . . . . . . . . . . 347 K.E. Grund, R. Salm 20 Infrarot-Bildgebung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367 T.M. Buzug
III Therapiegeräte . . . . . . . . . . . . . . . . . . . . . . . . .375 I
Funktionsdiagnostik . . . . . . . . . . . . . . . . . . . . . 85
8
Elektrokardiographen (EKG-Geräte) . . . . . . . . . . . . . . . 87 R. Kramme
21 Langzeitbeatmungsgeräte für die Intensivtherapie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377 T. Peyn
9
Ergometriemessplatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 R. Kramme
22 Defibrillatoren/ICD-Systeme . . . . . . . . . . . . . . . . . . . . . 399 R. Kramme
10 Lungenfunktionsdiagnostik . . . . . . . . . . . . . . . . . . . . . . 105 R.M. Schlegelmilch, R. Kramme
23 Lasersysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407 H. Albrecht, E. Rohde, F. Zgoda, G. Müller
11 Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP) . . . . . . . . . . . 129 K.-P. Hoffmann, U. Krechel
24 Anästhesiegeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 E. Siegel
XVIII
Inhaltsverzeichnis
25 Blutreinigungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 443 C. Busse 26 Herz-Lungen-Maschinen (HLM) . . . . . . . . . . . . . . . . . . 463 A. Hahn, F. Sieburg
42 Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme . . . . . . . . . . . . . . . . 693 M. Nagel, A. Bindszus 43 Neonatologisches Monitoring . . . . . . . . . . . . . . . . . . . 707 R. Hentschel
27 Einsatz von Stoßwellen in der Medizin . . . . . . . . . . . 483 F. Ueberle
V 28 Hochfrequenzchirurgie . . . . . . . . . . . . . . . . . . . . . . . . . . 515 B. Hug, R. Haag 29 Medizinische Strahlentherapie . . . . . . . . . . . . . . . . . . . 539 P.H. Cossmann
Medizinische Informationsverarbeitung und Kommunikation . . . . . . . . . . . . . . . . . . . .717
44 Grundlagen der Vernetzung . . . . . . . . . . . . . . . . . . . . . 719 H. Tanck
30 Infusionstechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 557 W. Weyh, D. Röthlein
45 Krankenhausinformationssysteme – Ziele, Nutzen, Topologie, Auswahl . . . . . . . . . . . . . . . . . . . . . 733 P. Haas, K. Kuhn
31 VAD-Systeme (Ventricular Assist Devices) . . . . . . . . 569 G. Trummer
46 Telemedizin am Beispiel aktiver Implantate . . . . . . 757 K. P. Koch
32 Herzschrittmachersysteme . . . . . . . . . . . . . . . . . . . . . . 579 A. Bolz
47 Medizinische Bildverarbeitung . . . . . . . . . . . . . . . . . . . 765 T.M. Lehmann
33 Einführung in die Neuroprothetik . . . . . . . . . . . . . . . . 595 K.-P. Hoffmann
48 Virtuelle Realität in der Medizin . . . . . . . . . . . . . . . . . . 791 W. Müller-Wittig
34 Einführung in die Elektrotherapie . . . . . . . . . . . . . . . . 603 W. Wenk
49 Computerunterstützte Lehr- und Lernsysteme in der Medizin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 803 M. Haag, F. J. Leven
IV Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . . .615
50 PACS/RIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 815 K. Eichhorn, D. Sunderbrink
35 Biosignale erfassen und verarbeiten . . . . . . . . . . . . . 617 K.-P. Hoffmann
51 3D-Postprocessing für die virtuelle Endoskopie . . 823 G.-F. Rust, S. Marketsmüller, N. Lindlbauer
36 Patientenüberwachungssysteme . . . . . . . . . . . . . . . . 639 R. Kramme, U. Hieronymi
VI Spezialthemen . . . . . . . . . . . . . . . . . . . . . . . . .827 37 Kardiovaskuläres Monitoring . . . . . . . . . . . . . . . . . . . . 645 R. Kramme, U. Hieronymi
52 Operationstischsysteme . . . . . . . . . . . . . . . . . . . . . . . . . 829 B. Kulik
38 Impedanzkardiographie: nichtinvasives hämodynamisches Monitoring . . . . . . . . . . . . . . . . . . 659 H. Kronberg
53 Biomaterialien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 839 L. Kiontke
39 Respiratorisches Monitoring . . . . . . . . . . . . . . . . . . . . . 663 R. Kramme, H. Kronberg
54 Medizinische Robotersysteme . . . . . . . . . . . . . . . . . . . 853 H. Fischer, U. Voges
40 Metabolisches Monitoring . . . . . . . . . . . . . . . . . . . . . . . 679 R. Kramme
55 Medizinische Gasversorgungssysteme . . . . . . . . . . . 863 P. Neu
41 Zerebrales Monitoring . . . . . . . . . . . . . . . . . . . . . . . . . . . 683 B. Schulz, A. Schulz, H. Kronberg
56 Inkubatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 869 G. Braun, R. Hentschel
XIX Inhaltsverzeichnis
VII Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .875 A
Allgemeine Richtungs- und Lagebezeichnungen des Körpers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 877
B
Organprofile und Tabellen . . . . . . . . . . . . . . . . . . . . . . . 879
C
Größen und Einheiten . . . . . . . . . . . . . . . . . . . . . . . . . . . 897
D
Abkürzungen, Zeichen und Symbole . . . . . . . . . . . . . 901
E
Radionuklide (Auswahl) und dosimetrische Grundgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 905
F
Elektromagnetisches Spektrum . . . . . . . . . . . . . . . . . . 907
G
Historische Meilensteine in der Technischen Medizin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 909 Danksagung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 927 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 929 Farbteil. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 941
XXI
Autorenverzeichnis Albrecht, Hansjörg, Dr. rer. nat.
Egger, Matthias, Dr. rer. nat.
Laser-und Medizin-Technologie GmbH, Berlin Fabeckstraße 60-62 14195 Berlin
Chemin des Etorneaux 1162 Saint Prex, Suisse
Bindszus, Andreas, Dipl.-Ing. Philips Medizin Systeme GmbH Postfach 1473 71004 Böblingen
Bolz, Armin, Prof. Dr. rer. nat. Universität Karlsruhe Institut für Biomedizinische Technik Kaiserstraße 12 76131 Karlsruhe
Braun, Günther, Dipl.-Ing. (FH) Universitätsklinik Freiburg Zentrum für Kinderheilkunde und Jugendmedizin Mathildenstraße 1 79106 Freiburg
Eichhorn, Konrad, Dipl.-Inform. Philips Healthcare Information Technology 22335 Hamburg
Fischer, Harald, Dr.-Ing. Forschungszentrum Karlsruhe Institut für Biologische Grenzflächen Hermann-von-Helmholtz-Platz 1 76344 Eggenstein-Lepoldshafen
Grund, Karl Ernst, Prof. Dr. med. Eberhardt-Karls-Universität Tübingen Zentrum für Medizinische Forschung Experimentelle Chirurgische Endoskopie Waldhörnlestraße 22 72072 Tübingen
Haag, Martin, Prof. Dr. rer. nat. Busse, Christian, Dipl.-Biol. Fresenius Medical Care Deutschland GmbH Else Kroener Straße 1 61352 Bad Homburg
Medizinische Informatik Universität Heidelberg/FH Heilbronn Max-Planck-Straße 39 74081 Heilbronn
Haag, Reiner, Dipl.-Ing. Buzug, Thorsten, Prof. Dr. rer. nat. Rhein Ahr Campus Südallee 2 53424 Remagen
Lawton GmbH & Co.KG Württemberger Str. 23 78567 Fridingen
Haas, Peter, Prof. Dr. sc. hum. Clausdorff, Lüder F., Prof. Dipl.-Ing. Fachhochschule Gießen-Friedberg Fachbereich Krankenhaus Technik Management Wiesenstraße 14 35390 Gießen
Cossmann, Peter H., Dr. phil. nat. Institut für Radiotherapie Hirslanden Klinik Aarau Rain 34 5000 Aarau, Schweiz
Dudwiesus, Heiko, Dipl.-Ing. GE Medical Systems Ultrasound Beethovenstraße 239 42665 Solingen
FH-Dortmund, Medizinische Informatik Postfach 105018 44047 Dortmund Hahn, Andreas, Dr.- Ing. Sorin Group Deutschland/ Stöckert GmbH Lilienthalallee 5-7 80939 München
Hämisch, York, Dr. rer. nat. Bioscan GmbH Idstein Uglitscher Straße 3 65510 Idstein
Hentschel, Roland, Priv.-Doz. Dr. med. Universitäts-Kinderklinik Freiburg Mathildenstraße 1 79106 Freiburg
Hieronymi, Ullrich, Dr.-Ing. Dräger Medical Deutschland GmbH Moislinger Allee 53-55 23542 Lübeck
Hoffmann, Klaus-Peter, Prof. Dr.-Ing. Fraunhofer Institut für Biomedizinische Technik Ensheimer Straße 48 66386 St-Ingbert
Hoth, Sebastian, Prof. Dr. rer. nat. Universitätsklinikum Heidelberg Im Neuenheimer Feld 400 69120 Heidelberg Hug, Bernhard, Dr.-Ing. KLS Martin GmbH & Co.KG Am Gansacker 1b 79224 Umkirch
Just, H.-M., Priv.-Doz. Dr. med. Klinikum Nürnberg Med. Mikrobiologie, KH-Hygiene Professor-Ernst-Nathan-Straße 1 90340 Nürnberg
Karweik, Bernd, Dipl.-Ing. (FH) Teamplan GmbH Heerweg 8 72070 Tübingen
Kindler, Manfred, Dipl.-Ing. Kindler International Division Stemmenkamp 23 59368 Werne a.d. Lippe
Kiontke, Lothar, Dipl.-Ing. Sulzer Orthopedics GmbH Merzhauser Straße 112 79100 Freiburg
Knickrehm, Heiko, Dipl.-Ing. (FH) Teamplan GmbH Heerweg 8 72070 Tübingen
XXII
Autorenverzeichnis
Koch, Klaus Peter, Dr.-Ing.
Lindlbauer, Norbert, Ing.
Rohde, Ewa, Dr. med. Dipl.-Ing.
Fraunhofer Institut für Biomedizinische Technik Ensheimer Straße 48 66386 St-Ingbert
Rendoscopy AG Grubmühlerfeldstraße 54 82131 Gauting
Charité – Universitätsmedizin Berlin Klinik für Dermatologie, Venerologie und Allergologie Fabeckstraße 60-62 14195 Berlin
Marketsmüller, Sebastian Kolem, Heinrich, Dr. rer. nat. Siemens AG - Medizinische Technik Postfach 3260 91052 Erlangen
Rendoscopy AG Grubmühlerfeldstraße 54 82131 Gauting
Köstering, Bernd, Dipl.-Ing.
Menke, Wolfgang, Beratender Arzt/Ingenieur
GE Medical Systems Ultrasound Beethovenstraße 239 42665 Solingen
c/o Medizin & Technik Postfach 524 10795 Berlin
Kramme, Heike, Dipl.-Verw.-Wiss.
Müller, Gerhard, Prof. Dr.-Ing., Prof. h.c., Dr. h.c. mult.
Fuchsweg 14 79822 Titisee
Kramme, Rüdiger, Dipl.-Ing. Fuchsweg 14 79822 Titisee
Charité – Universitätsmedizin Berlin Institut für Medizinische Physik und Lasermedizin Fabeckstraße 60-62 14195 Berlin
Krechel, Ursula, Dipl.-Ing.
Röthlein, Doris, Dr. rer. nat. B. Braun Melsungen AG Carl-Braun-Straße 1 34212 Melsungen
Rudolf, Klaus, Dipl.-Inform. Zentrale Koordination Universitätsklinik Freiburg Malteserordensstraße 13A 79111 Freiburg
Rust, Georg-Friedemann, Dr. med. Rendoscopy AG Grubmühlerfeldstraße 54 82131 Gauting
Salm, Richard, Prof. Dr. med.
Munzinger Straße 3 79111 Freiburg
CAMTech – Centre for Advanced Media Nanyang Technological University NSI, # 05-07, Nanyang Avenue Singapore 639798
Regionalverbund kirchlicher Krankenhäuser, Abt. Allgemein- und Viszeralchirurgie, Endoskopische Chirurgie, St. Josefskrankenhaus und BruderKlaus-Krankenhaus Waldkirch, Hermann-Herder-Straße 1 79104 Freiburg
Kuhn, Klaus, Prof. Dr. med.
Nagel, Michael, Dr.-Ing.
Schlegelmilch, Rolf M., Dipl.-Math.
Zentrale Informationsverarbeitung Klinikum der Universität Marburg Bunsenstraße 3 35037 Marburg
Philips Medizin Systeme GmbH Postfach 1473 71004 Böblingen
SMT medical GmbH & Co Florian-Geyer-Straße 3 97076 Würzburg
Neu, Peter, Dr. rer. nat.
Schultz, Arthur, Priv.-Doz. Dr. med. Dr. hort.
Universitätsklinik Freiburg Hugstetter Str. 59 79106 Freiburg
Kronberg, Harald, Dr. rer. nat.
Kulig, Bernhard Maquet GmbH & Co.KG 76411 Rastatt
Lehmann, Thomas, Priv.-Doz., Dr. rer. nat. Dipl.-Ing. Institut für Medizinische Informatik Universitätsklinikum der RWTH Aachen Pauwelsstraße 30 52057 Aachen
Leven, Franz Josef, Prof. Medizinische Informatik Universität Heidelberg/FH Heilbronn Max-Planck-Straße 39 74081 Heilbronn
Müller-Wittig, Wolfgang, Prof. Dr.-Ing.
Air Liquide Deutschland GmbH Hans-Günther-Sohl-Straße 5 40235 Düsseldorf
Peyn, Thomas, Dräger Medical AG & Co.KG Moislinger Allee 53 23542 Lübeck
Arbeitsgruppe Informatik/Biometrie der Anästhesie im Klinikum Region Hannover Krankenhaus Oststadt-Heidehaus Medizinische Hochschule Hannover Podbielskistraße 380 30659 Hannover
Schultz, Barbara, Priv.-Doz. Dr. med. Roggenkamp, Eckhard, Dipl.-Ing. Klinikum Nürnberg Med. Mikrobiologie, KH-Hygiene Professor-Ernst-Nathan-Straße 1 90340 Nürnberg
Arbeitsgruppe Informatik/Biometrie der Anästhesie im Klinikum Region Hannover Krankenhaus Oststadt-Heidehaus Medizinische Hochschule Hannover Podbielskistraße 380 30659 Hannover
XXIII Autorenverzeichnis
Seipp, Hans-Martin, Prof. Dr. med., Dipl.-Ing. Fachhochschule Gießen-Friedberg Fachbereich Krankenhaus Technik Management Wiesenstraße 14 35390 Gießen
Wenk, Werner Schillingstaler Weg 37 41189 Mönchengladbach
Weyh, Wolfgang B. Braun Melsungen AG Carl-Braun-Straße 1 34212 Melsungen
Sieburg, Frank Sorin Group Deutschland/ Stöckert GmbH Lilienthalallee 5-7 80939 München
Siegel, Erich, Priv.-Doz. Dr. rer. nat. Dräger Medical AG & Co.KG Moislinger Allee 53 23542 Lübeck
Stief, Matthias Given Imaging GmbH Borsteler Chaussee 47 22453 Hamburg
Sunderbrink, Dirk, Dipl.-Wirtschaftsing. Siemens Medical Solutions 91052 Erlangen
Tanck, Hajo, Dipl.-Wirtschaftsinform. GWI Medica GmbH Eiffestraße 426 20537 Hamburg
Trummer, Georg, Dr. med. Universitätsklinik Freiburg Abt. Herz- und Gefäßchirurgie Hugstetter Straße 55 79106 Freiburg
Ueberle, Friedrich, Prof. Dr.-Ing. Hochschule für angewandte Wissenschaften Hamburg Fachbereich Naturwissenschaftliche Technik Lohbrügger Kirchstraße 65 21033 Hamburg
Uhlig, Hans-Peter, Dipl.-Ing. Goldberger Straße 57 18273 Güstrow
Zgoda, Frank Laser-und Medizin-Technologie GmbH, Berlin Fabeckstraße 60-62 14195 Berlin
1 xxxx · xxxx
Allgemeiner Teil
A X
1 Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung R. Kramme, H. Kramme
Neue Wege in der Diagnostik und Therapie werden heute in verstärktem Maße durch eine ausgefeilte und erweiterte Technik eröffnet. Rasant ist die Entwicklung zahlreicher medizinischer Geräte und Einrichtungen aufgrund digitaler Technologien, die es ermöglichen, neue medizinische Konzepte, Strategien und Visionen schneller als zuvor umzusetzen, d. h. was sich bisher in einem Jahrzehnt vollzogen hat, vollzieht sich nun im Jahresrhythmus. Damit steht die Technik nicht nur in dynamischer Wechselbeziehung zur Medizin, sondern sie beeinflusst und prägt die moderne Heilkunde aufgrund neuer technischer Möglichkeiten. Ein hochwertiges Gesundheitswesen wäre ohne medizintechnischen Fortschritt und Innovation nicht denkbar. Medizin (lat. ars medicina, ärztliche Kunst) und Technik (gr. Fertigkeit) haben die Menschen seit ihren Anfängen begeistert und fasziniert. Technische Instrumente und Geräte hatten immer ihren Platz in der Medizin. Aus der fernöstlichen Medizin ist die Akupunkturnadel seit etwa 2500 v. Chr. bekannt. Hippokrates (460–370 v. Chr.), Begründer der abendländischen wissenschaftlichen Medizin, verwendete als bedeutender Arzt seiner Zeit bereits ein Proktoskop zur Darminspektion. Darüber hinaus hat er eine Vielzahl von Instrumenten und Vorrichtungen für die Wundversorgung beschrieben. Beispielsweise Apparaturen mit Gewichten und Bändern, die bei einer Armfraktur die gebrochenen Knochen zueinander positionierten, streckten und gleichzeitig ruhigstellten. Bereits im Imperium Romanum (ab 63 v. Chr.) wurden, wie archäologische Ausgrabungen im verschütteten Pompeji eindrucksvoll belegen, differenzierte Instrumente und Geräte für chir-
urgische Eingriffe verwendet. Die vielen von uns vertraute Sehhilfe (sog. Brille) ist keine Errungenschaft des zwanzigsten Jahrhunderts, sondern wurde bereits Ende des 13. Jahrhunderts von einem Handwerker erfunden. Der erste große medizintechnische Durchbruch und Aufschwung in der modernen Medizin erfolgte um 1900 mit Röntgens Entdeckung der nach ihm benannten Röntgenstrahlen (1895). Obwohl bereits 1895 von Einthoven die Nomenklatur des EKG – die noch heute unverändert Gültigkeit besitzt – festgelegt wurde, konnte der erste klinisch brauchbare Elektrokardiograph erst 1903 eingesetzt werden. 1896 wurde von Riva-Rocci die nichtinvasive palpatorische Messmethode zur Bestimmung des Blutdrucks vorgestellt. Das Elektroenzephalogramm (EEG) wurde erstmals 1924 von Berger mit einem Saitengalvanometer abgeleitet. Weitere Meilensteine in der Medizintechnik waren die Erfindung und Einführung der künstlichen Niere (1942), der Herz-Lungen-Maschine (1953), Hüftgelenkprothesen (1960), künstlichen Herzklappen (1961) und die ersten klinischen Patientenüberwachungsgeräte (um 1965). Um 1960 wurden in den USA bereits klassifizierte Kriterien für die Vermessung und Standardisierung des EKG nach dem Minnesota-Code entwickelt. Anfang der 1940er Jahre wurde mit der Konstruktion des ersten elektrischen Rechners eine neue Ära eingeleitet, und es entstand eine neue Technologie, die die Medizintechnik ein weiteres Mal revolutionierte: die Datenverarbeitung bzw. Informatik. Diese neue Technologie stellt alle bisherigen technischen Entwicklungen in den Schatten. Wäre ein heutiger Taschenrechner mit elektronischen Bauteilen (z. B. Transistoren) von vor 40 Jahren ausgestat-
4
1
Kapitel 1 · Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung
tet, so würde dieser Taschenrechner eine Leistung von 6000 W – über die Stromversorgung zugeführt und als Wärme an die Umgebung abgegeben – benötigen. Leichte 50 kg und eine Würfelkantenlänge von circa einem Meter ließen eher auf einen Ofen als auf einen Taschenrechner schließen. Der Umbruch der Technologie von der analogen zur digitalen Technik eröffnete neue Dimensionen in der Medizintechnik: Der Computertomograph (CT), der Körperquerschnittsbilder erzeugt, wurde von Hounsfield und Cormark entwickelt und 1971 als Prototyp in einer Klinik installiert und erprobt. Der Durchbruch für die medizinische Anwendung von Kernspin- bzw. Magnetresonanztomographen gelang 1977 Mansfield mit Hilfe des Magnetresonanzverfahrens. Erstmals erfolgte eine Abbildung des menschlichen Brustkorbs ohne Einsatz von Röntgenstrahlen. Einzigartige und erweiterte Möglichkeiten in der Diagnostik eröffnet ein medizintechnisches Großsystem, das in der Nuklearmedizin eingesetzt wird: der Positronenemissionstomograph (PET). Als bildgebendes System bereichert der PET die Diagnostikpalette dadurch, dass Darstellungen von physiologischen und metabolischen Prozessen im menschlichen Körper ortsabhängig und quantitativ bestimmt werden können. Durch die zunehmende Integration von rechnergestützten Systemen in die Röntgentechnik, werden bildgebende Verfahren in immer kürzeren Zyklen neu dimensioniert. Die rasche Ausweitung des klinischen Anwendungsspektrums, die kontinuierliche Weiterentwicklung und die Implementierung neuer Techniken haben nicht nur zu einem veränderten und erweiterten Indikationsspektrum dieser Verfahren geführt, darüber hinaus werden zunehmend Bildgebungstechniken als Gesamtlösungspakete entwickelt, wie z. B. Hybridsysteme für die interventionelle Radiologie oder integrierte IT-Lösungen (PACS, RIS u. a.), die darauf abzielen, eine Prozessoptimierung und damit eine höhere Effizienz im Krankenhaus zu erreichen. Den Fortschritt und die Entwicklung ( Anhang G »Historische Meilensteine in der Technischen Medizin«) aller medizintechnischen Geräte und Errungenschaften zu skizzieren, würde den Rahmen dieses Buches sprengen. Obwohl die Medizintechnik meist nicht originär ist, sondern vielmehr technische Entwicklungen aus Technologiefeldern wie der Elektronik, Optik, Feinwerktechnik, Kunststofftechnik u. a. übernimmt und diese erst durch die Anwendung an Lebewesen zur Medizintechnik deklariert werden, konnte sie sich etablieren und ist aus der medizinischen Versorgung nicht mehr wegzudenken. Aus diesem Sachverhalt geht die eigentliche Bedeutung der Medizintechnik hervor: Medizintechnische Geräte und Einrichtungen (inklusive Labor- und Forschungsbereich) sind einzelne oder miteinander verbundene Instrumente, Apparate, Vorrichtungen, Hilfsmittel und Hilfsgeräte sowie not-
wendige Einrichtungsgegenstände, die aufgrund ihrer Funktion zur Erkennung (Diagnostik), Behandlung (Therapie), Überwachung (Monitoring) und Verhütung (Prävention) von Erkrankungen beim Menschen eingesetzt werden.
Ziel unserer heutigen Gesundheitspolitik muss eine menschliche, moderne, leistungsfähige, effiziente und bürgernahe medizinische Versorgung im stationären sowie im ambulanten Bereich sein, in deren Mittelpunkt der Patient steht. Die Entwicklung der Medizintechnik als wesentlicher Bestandteil des Gesundheitswesens erfolgt in permanenter Wechselwirkung mit den Fortschritten der gesellschaftlichen Lebensformen. Daher basiert die gesundheitspolitische Bedeutung der Medizintechnik im Wesentlichen auf folgenden Punkten: ▬ Der Qualität und Sicherung der medizinischen Versorgung aufgrund der kontinuierlichen Differenzierung und Verbesserung der Diagnose- und Therapiemöglichkeiten sowie der Förderung der medizinischen und technischen Forschung; des Weiteren auf der breiten Anwendung und Ausdehnung auf große Bevölkerungs- oder Patientengruppen durch apparative Reihenuntersuchungen (z. B. im Rahmen der Prävention). ▬ Der Verkürzung der Krankheitsdauer oder des Krankenhausaufenthalts, wodurch Kosten reduziert werden und damit verbunden volkswirtschaftliche Nutzeffekte resultieren. ▬ Der Entlastung des Personals von zeitaufwändigen Routineaufgaben. ▬ Der Erfüllung von Erwartungshaltung bzw. Anspruchsniveau der Bevölkerung an Prozess- und Ergebnisqualität im Gesundheitswesen. Die zukünftigen Entwicklungen in der technischen Medizin müssen sich an den zusätzlichen Anforderungen der medizinischen Versorgung aufgrund knapper Ressourcen orientieren: ▬ Medizintechnische Diagnostik und Therapie mit hohem Kostensenkungspotential unter Einsatz von umweltfreundlichen Geräten und Systemen. ▬ Weiterer Ausbau minimalinvasiver Verfahren mit der Zielsetzung geringer Morbidität und kurzer Rekonvaleszenz. ▬ Miniaturisierte Kompaktsysteme, die einen geringeren Installations- und Serviceaufwand benötigen. ▬ Bedienungsfreundliche und -sichere Konzeption, die Fehlbedienungen weitgehend vermeidet. Invasive Techniken werden zunehmend durch weniger bzw. nichtinvasive ersetzt, wie bspw. die Nierenstein- und Gallensteinzertrümmerung mit einem Lithotripter anstelle eines operativen Eingriffs, endoskopisch minimalinvasive Eingriffe anstelle konventioneller Chirurgie, 3-D Echo-
5 Kapitel 1 · Die Rolle der Technik in der Medizin und ihre gesundheitspolitische Bedeutung
kardiographie zur Darstellung komplexer Fehlbildungen am Herzen, pathomorphologischer Veränderungen an der Mitral- oder Trikuspidalklappe und Vorhof- oder Ventrikelseptumdefekten anstelle einer aufwändigen und risikobelasteten Herzkatheteruntersuchung, Darstellung der Herzkranzgefäße mit der Magnetresonanztomographie anstelle einer Kontrastangiographie oder Herzkatheterdiagnostik. Schlüsseltechnik des Gesundheitswesens des einundzwanzigsten Jahrhunderts ist die Telematik, die allen Beteiligten des Gesundheitswesens enorme Vorteile bringen kann, das »Unternehmen Gesundheitswesen« aber auch vor zahlreiche neue Anforderungen in organisatorischer, technischer und rechtlicher Hinsicht stellt. Zentren der Telemedizinanwendungen werden zukünftig die Krankenhäuser sein. Telemedizinische Kommunikation und Systeme – also alle IT-Anwendungen im Gesundheitswesen, die über öffentliche oder Fernverkehrsnetze abgewickelt werden – ermöglichen die schnelle Übertragung großer Datenmengen, sodass eine räumliche Entfernung kein Hindernis mehr darstellt. Dies ist mit ein Grund dafür, dass der Telemedizin international eine zunehmend größere Bedeutung beigemessen wird. Die Bestrebungen gehen dahin, eine einheitliche Plattform für die Telematik zu entwickeln, sodass der Einsatz von moderner Telekommunikations- und Informationstechnik die Versorgungsqualität und die Wirtschaftlichkeit zukünftig verbessert. Begrenzte finanzielle Ressourcen der Krankenhäuser lassen es heutzutage nur noch selten zu, alle technischen Neuerungen und Möglichkeiten einzuführen bzw. auszuschöpfen. Daher ist es für den Nutzer unerlässlich, eine Investitionsentscheidung leistungsbezogen und kaufmännisch zu beurteilen (z. B. durch prozessorientierte Technologiebewertung, sog. technology assessment, die in erster Linie Kriterien wie Leistungsfähigkeit, Effektivität und Effizienz berücksichtigt). Insbesondere im Hinblick auf die Vorteilhaftigkeit einer Sachinvestition ist es wichtig, dass nicht emotionale, sondern rationale Entscheidungskriterien im Vordergrund stehen. Die Bewertung technischer Möglichkeiten in Hinblick auf den Nutzen für die Patienten erfordert ein Verständnis für die heutige Technik und ihre Grenzen. Vielfach ist das Ziel medizintechnischer Hersteller und Lieferanten, immer bessere und technisch perfektere medizintechnische Produkte sowie medizinische Datenverarbeitungssysteme anzubieten. Das Ergebnis ist, dass heutzutage die Funktionen vieler medizintechnischer Produkte weit über die Bedürfnisse und Nutzungsmöglichkeiten hinausgehen. Der meist nicht technophile Nutzer zahlt für ein Mehr, das er nicht nutzen kann. Zahlreiche hochentwickelte Produkte sind vielleicht technisch vollkommen, aber selten bedarfsgerecht. Technisch ist vieles machbar, aber offensichtlich gleichwohl von Menschen kaum steuerbar, wie bspw. die Komplexität unterschiedlichster Softwareschnittstellen, die selbst von hochqualifizierten Technikern nicht
mehr vollständig verstanden wird. D. h., die technischen Möglichkeiten übersteigen häufig das Vermögen vieler Anwender, damit umzugehen. Unkritische Technikbegeisterung kann deshalb sehr schnell in Technikfeindlichkeit umschlagen! Nichts zu tun oder auf Innovationen zu verzichten und an veralteten technischen Produkten festzuhalten, ist aber auch keine Lösung. Der Dienst am Kunden im Krankenhaus oder in der Arztpraxis wird künftig ein Produkt mit größerem Differenzierungspotential werden, als die Qualität und technische Leistungsfähigkeit von medizintechnischen Produkten. Die auch künftig unabdingbare medizintechnische Innovation muss »Menschenmaß« haben und bedarfsgerecht sein. Sie ist einzubetten in das Spannungsfeld aus technisch-wissenschaftlichem Know-how, Markt- und Einzelkundenorientierung. Aus Anwendersicht werden nahezu alle Produkte immer vergleichbarer. Der richtige Dienst am Kunden wird ein weiterer Erfolgsfaktor für Medizinprodukte werden: Es muss verstärkt an Nachfrage gedacht werden, nicht nur »in Angeboten«!
1
2 Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder L.F. Clausdorff, K.-P. Hoffmann
2.1
Einleitung – 7
2.2
Biomedizinische Technik – 7
2.2.1 2.2.2 2.2.3 2.2.4
Aufgaben – 7 Anforderungen – 8 Ausbildung – 8 Berufsfelder – 8
2.3
Krankenhaustechnik
2.3.1 2.3.2 2.3.3
Aufgaben – 10 Anforderungen – 11 Ausbildung – 11
2.1
2.3.4 2.3.5 2.3.6
Studienorganisation – 12 Berufsfelder – 13 Zusammenfassung und Schlussfolgerungen
Weiterführende Literatur
– 13
– 13
– 10
Einleitung
Die hochspezialisierte medizinische Betreuung und die klinische Grundlagenforschung sind ohne interdisziplinär arbeitende Teams nicht vorstellbar. Ihnen gehören häufig auch Absolventen ingenieurwissenschaftlicher Disziplinen an. Diese bringen ihr ingenieurwissenschaftliches Spezialwissen und Methodenspektrum erfolgreich in die Arbeitsgruppen ein. Sie sehen ihre vorrangigen Aufgaben in der Bereitstellung von Technik zur Lösung von Problemen in der Medizin, der Biologie, dem Umweltschutz und dem Gesundheitswesen. Die von ihnen entwickelten Geräte und Systeme tragen als Werkzeug in der Hand des Arztes oft entscheidend zur Erkennung, Behandlung, Linderung und Überwachung von Krankheiten und zur Kompensation von Behinderungen bei. Die hohe Nachweisempfindlichkeit moderner Diagnosemethoden ermöglicht die frühe und sichere Erkennung zahlreicher Krankheiten, wodurch sich die Therapiechancen verbessern. Die unmittelbare Beschäftigung mit medizinischen Problemen unter Anwendung ingenieurwissenschaftlicher Methoden und Kenntnisse gewinnt dabei zunehmend an Bedeutung. So vielfältig die technischen Aufgaben in der Medizin sind, so unterschiedlich sind auch die technischen Disziplinen, aus denen die Ingenieure kommen. Zu ihnen gehören Absolventen aus der Biomedizinischen Technik, der Medizintechnik, dem Klinikingenieurwesen, der Medizinischen Physik, der Biophysik, der Medizinischen Informatik, der Biotechnologie, der Bionik, der Biomechanik, der Biochemie, den Gesundheitstechnologien, der
Gentechnik, der Krankenhaustechnik, dem Technischen Gesundheitswesen usw. Zwei Fachrichtungen – die Biomedizinische Technik sowie Technisches Management und der Ingenieur Krankenhaustechnik – sollen hinsichtlich der Aufgaben, der Anforderungen, der Ausbildung und der Berufsfelder im Folgenden näher betrachtet werden.
2.2
Biomedizinische Technik K.-P. Hoffmann
2.2.1 Aufgaben
Die Biomedizinische Technik (BMT) ist im deutschsprachigen Raum das Pendant zum angelsächsischen Biomedical Engineering. Sie ist ein junges, sich rasch entwickelndes Fachgebiet, das gegenwärtig zu den Schlüsseltechnologien gezählt werden kann. Wichtige Impulse erhält die Biomedizinische Technik von der Biotechnologie, der Mikrosystemtechnik und der Telematik. Unter Biomedizinischer Technik wird die Bereitstellung und Anwendung ingenieur- und naturwissenschaftlicher Mittel und Methoden auf lebende Systeme in Biologie und Medizin verstanden: ▬ in Forschung und Entwicklung ▬ im medizinischen Betreuungsprozess, Prophylaxe, Diagnose, Therapie, Rehabilitation und Nachsorge ▬ im biomedizinischen Gerätebau
8
2
Kapitel 2 · Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder
▬ in der pharmazeutischen Industrie und in der Biotechnologie (Dammann et al. 2005 und Morgenster 2004) Im Rahmen der Harmonisierung der BMT- Ausbildung in Europa wurde von der IFMBE formuliert: »Medical and Biological engineering integrates physical, mathematical and life sciences with engineering principles for the study of biology, medicine, and health systems and for the application of technology to improving health and quality of life. It creates knowledge from the molecular to organ systems levels, develops materials, devices, systems, information approaches, technology management, and methods for assessment and evaluation of technology, for the prevention, diagnosis, and treatment of disease, for health care delivery and for patient care and rehabilitation.« (Biomedical Engineering Education in Europe 2005, Nagel 2001 und 2005).
2.2.2 Anforderungen
Der VDE hat die Anforderungen, die an einen Absolventen der Biomedizinischen Technik zu stellen sind, wie folgt formuliert: Der Absolvent soll ▬ das aktuelle Wissen und die Methodik der Ingenieurwissenschaften beherrschen und zur Lösung von Problemen in der Medizintechnik einsetzen ▬ die besonderen Sicherheitsaspekte der Medizintechnik bei der Lösung von technischen Problemen sowie bei der Überwachung technischer Einrichtungen in der Medizin verantwortungsvoll einsetzen ▬ die medizinische, diagnostische und therapeutische Fragestellung verstehen und geeignete technische sowie methodische Lösungen entwerfen und realisieren können ▬ die besonderen Aspekte bei der Wechselwirkung technischer Systeme mit dem menschlichen Körper kennen und berücksichtigen ▬ die Grundprinzipien der klinischen Arbeitsweise bei diagnostischen und therapeutischen Verfahren kennen (Dammann et al. 2005)
2.2.3 Ausbildung
In Deutschland gibt es gegenwärtig 43 Studiengänge mit einem Bezug zur Biomedizinischen Technik, davon 22 an Universitäten und 21 an Fachhochschulen (Morgenster 2004). Die Umstellung von Diplomstudiengängen auf die konsekutive Bachelor- und Masterausbildung unter Berücksichtigung des Bologna Prozesses ist im vollen Gange. Die ersten Studiengänge wurden bereits akkreditiert. Die ⊡ Abb. 2.1 zeigt die Studienorte in Deutschland.
Ein Studium, das zum ersten berufsqualifizierenden Abschluss Bachelor of Engineering oder Bachelor of Science führt, sollte nach Ansicht der zuständigen Fachgesellschaft mindestens 7 Semester mit 210 ECTS Punkten umfassen (Dammann et al. 2005). Als Gründe sind die Multidisziplinarität des Fachgebietes und die Notwendigkeit eines breiten ingenieurwissenschaftlichen Basiswissens auf der Grundlage einer fundierten Ausbildung in den Naturwissenschaften Mathematik und Physik zu nennen. Diese sind in sechs Semestern nur schwer vermittelbar. Für den konsekutiven Master bleiben dann noch drei Semester mit 90 ECTS- Punkten. Für einen nicht konsekutiven Masterstudiengang, der als Aufbaustudiengang angeboten werden kann, sollten vier Semester mit 120 ECTS-Punkten vorgesehen werden. ECTS-Punkte stellen die quantitative Maßeinheit für den Studienaufwand der Studierenden dar. Insgesamt werden 60 ECTS-Punkte pro Studienjahr vergeben, was einem Zeitaufwand von etwa 1500 bis 1800 Stunden pro Jahr entspricht (Hochschule Anhalt 2002). Empfohlene Lehrinhalte ⊡ Tab. 2.1. Das Fachpraktikum im Bachelor-Studiengang soll mindestens fünf Monate betragen, um den erforderlichen Praxisbezug zu garantieren. Hier können sich die Studenten erstmals den Anforderungen ihres Fachgebietes bei der Lösung konkreter Fragestellungen beweisen. Die nichttechnischen Fächer sollen insbesondere die Herausbildung von Schlüsselkompetenzen oder sog. »soft skills« wie Teamfähigkeit, Kommunikationsfähigkeit usw. unterstützen. Hierzu ist auch die Verbesserung der Sprachkenntnisse, z. B. auf den Gebieten Business English oder Technical English zu zählen (Hoffmann und Foth 2004). Die ⊡ Abb. 2.2 fasst die Lehrgebiete des Gegenstandskataloges Medizintechnik, Biomedizinische Technik und Klink-Ingenieurwesen zusammen.
2.2.4 Berufsfelder
Die Berufsfelder und Einsatzgebiete für Absolventen der Biomedizinischen Technik ergeben sich aus der Multidisziplinarität und hohen Innovation des Fachgebiets in Forschung und Entwicklung, in technischen Überwachungsdiensten und Behörden, in der Applikation, aber auch im Vertrieb und Service medizintechnischer Geräte und insbesondere in medizinischen Einrichtungen und Kliniken. Dabei wird das Zusammenspiel von Medizin, Informationstechnik, Ingenieurwissenschaften, Werkstoffwissenschaften und Zellbiologie bislang ungeahnte Möglichkeiten in Diagnostik und Therapie eröffnen. Der Transfer von Ideen aus der Grundlagenforschung über einen Prototypen bis hin zum Produkt einschließlich der methodischen Fragen der Anwendung stellt zukünftig immer höhere Ansprüche an die Zusammenarbeit der Teams. Herausforderungen werden in der 4D-Bildgebung z. B. für die Diagnose am schlagenden Herzen, der Ankopplung von Mikrosystemen an Neuronen
9 2.2 · Biomedizinische Technik
⊡ Abb. 2.1. Möglichkeiten einer Ausbildung auf dem Gebiet der Biomedizinischen Technik in Deutschland nach Biomedical Engineering Education in Europe 2005 und Dammann et al. 2005, Fotos HSA
⊡ Tab. 2.1. Lehrinhalte für ein Studium der Biomedizinischen Technik mit den zugehörigen ECTS-Punkten Inhalt
Bachelor 7 Semester
Master 3 Semester konsekutiv
Master 4 Semester nicht konsekutiv
Mathematik
20
0
0
Physik
20
0
0
Ingenieurwissenschaften
30
20
15
Anatomie, Physiologie
10
0
10
Nichttechnische Fächer
20
0
0
BMT Kernfächer
25
0
25
BMT Vertiefung
25
10
30
Fachpraktikum (5 Monate)
15
0
0
Abschlussarbeit
15
30
30
Flexibles Budget
30
30
10
210
90
120
2
10
Kapitel 2 · Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder
2
Biomechanik
Anatomie
Biomaterialien Biowerkstoffe
Physiologie Molekularbiologie
Elektromedizin Med. Messtechnik
BMT in der Therapie
Bildgebende Verfahren Labor-Analysenmesstechnik
Rehabilitation Statistische Methoden Modulierung und Simulation
⊡ Abb. 2.2. Ausbildungsinhalte für ein Studium der Biomedizinischen Technik entsprechend des Gegenstandskataloges der DGBMT (DGBMT 2001)
Kommunikations- u. Informationssysteme
z. B. bei Neuroprothesen, dem Einsatz neuer Biomaterialien mit Oberflächenmodifikationen im Nanobereich z. B. zur Herstellung einer lebenslang haltenden Verbindung von Hüftprothesen und in der Computermodellierung eines virtuellen Patienten zur Überprüfung von Diagnose und Therapie gesehen (VDE-Ingenieurstudie 2005). In der Branche Medizintechnik sind gegenwärtig insgesamt 87.500 Beschäftigte tätig, davon etwa die Hälfte in Betrieben zur Herstellung medizintechnischer Geräte. Vor allem in forschungsintensiven Unternehmen sind bis 2002 rund 6000 neue Arbeitsplätze entstanden (VDE-Ingenieurstudie 2005). Zusammengefasst lassen sich folgende Berufsfelder beschreiben: ▬ international tätige Unternehmen (Management, Forschung, Entwicklung) ▬ medizinische Einrichtungen (klinische Forschung, hochspezialisierte medizinische Betreuung, Management) ▬ Forschungsinstitute, Hochschulen, Universitäten (Grundlagenforschung, angewandte Forschung, Lehre) ▬ Behörden
2.3
Krankenhaustechnik L.F. Clausdorff
2.3.1 Aufgaben
Ingenieure, die interdisziplinär und umfassend auf dem Gebiet der Krankenhaustechnik ausgebildet werden, können die verschiedensten Aufgaben in vielen Berufsfeldern
Digitale Bildverarbeitung Biosignalverarbeitung
Medizinprodukterecht Qualität, Sicherheit
Struktur des Gesundheitswesens Ethik in der Medizintechnik
Strahlenschutz
Hygiene und Hygienetechnik
Dosimetrie Bestrahlungsplanung
wahrnehmen. In den nachfolgenden Abschnitten sind die wichtigsten Aufgaben beschrieben.
Technisches Gebäudemanagement Eines der wesentlichsten Aufgabengebiete für Ingenieure der Krankenhaustechnik ist die Leitung des Dezernates bzw. der Abteilung Technik bei Gebäuden des Gesundheitswesens. Das technische Management im Krankenhaus umfasst neben der Personalführung die Planung, Ausschreibung, Bauüberwachung, Abnahme und Instandhaltung von Gebäuden und gebäudetechnischen Anlagen. In vielen Einrichtungen gehören zu diesem Aufgabenbereich auch die Instandhaltung und die Beschaffung der medizintechnischen Geräte und Anlagen. Ein wesentlicher Anteil an der Tätigkeit ist auch die Betreuung und Begleitung von kleinen und großen Baumaßnahmen. Zu den Aufgaben gehört die Beratung der Verwaltung, der Ärzteschaft und der Pflege in allen technischen Fragen. Einige der genannten Aufgaben werden von Unternehmen wahrgenommen, die im technischen Gebäudemanagement tätig sind. Diese Firmen sind i. d. R. aus Zusammenschlüssen und Ausgründungen der technischen Abteilung der Krankenhäuser entstanden und übernehmen diese Aufgaben als Dienstleister.
Planungen bei Bauten des Gesundheitswesens Die Ausbildung befähigt die Krankenhausingenieure auch, in den unterschiedlichsten Sparten der Planung von Gebäuden des Gesundheitswesens tätig zu werden. Ein großes Arbeitsfeld ist die Planung der technischen Gebäudeausrüstung. Hierbei werden spezielle Kenntnisse über die besonderen Anforderungen bei dieser Gebäudeart
2
11 2.3 · Krankenhaustechnik
benötigt, die nur bei Krankenhausingenieuren vorhanden sind. Auch die Ausschreibung und Vergabe und die Objektüberwachung bei der Errichtung und Herstellung von Gebäuden und gebäudetechnischen Anlagen gehört zu den Aufgaben im Bereich der Planung.
Gesundheitsüberwachung
⊡ Tab. 2.2. Baunutzungskosten nach DIN 18960 Kostenart
Kosten € / Tag
%
Technischer Dienst
5,61
13,53
Wasser, Energie, Brennstoffe
8,74
21,09
Steuern, Abgaben, Versicherungen
3,85
9,29
16,86
40,68
6,39
15,42
Ein weiteres Aufgabenfeld ist die Gesundheitsüberwachung. Auf der Grundlage des Infektionsschutzgesetzes § 36, das die Überwachung der Gesundheitseinrichtungen durch die Gesundheitsämter regelt, werden die in den Gesetzen und Verordnungen für den Schutz von Patienten vor Infektionen vorgesehenen regelmäßigen Prüfungen durchgeführt. Diese können kompetent von auf dem Gebiet der Krankenhaustechnik ausgebildeten Ingenieuren durchgeführt werden. Beispielhaft sind hier die Trinkwasserversorgung, die Aufbereitung von Medizinprodukten nach der Betreiberverordnung und die Prüfung von Lüftungsanlagen der Operationsräume auf der Grundlage der anerkannten Regeln der Technik und den Vorgaben des Robert-Koch-Institutes zu nennen.
von zentraler Dampfversorgung auf dezentrale Dampferzeugung oder den Aufbau einer eigenen Stromerzeugung mit BHKW’s oder Solartechnik.
2.3.2 Anforderungen
2.3.3 Ausbildung
Gebäudetechnische Anlagen in Gebäuden des Gesundheitswesens dienen vielfach der Versorgung lebenserhaltender Systeme für die Patienten mit Energie. Diese Anlagen werden i. d. R. mit elektronischen Systemen gesteuert und überwacht. Bei Lüftungsanlagen ist die Verbreitung von Keimen in der Luft zu vermeiden und die Versorgung der Patienten mit medizinischen Gasen ist sowohl im Hinblick auf die Versorgungssicherheit als auch auf die Qualität eine verantwortungsvolle Aufgabe. Bei allen Anlagen und Systemen werden sehr hohe Anforderungen an die Qualität und die Ausfallsicherheit gestellt. Bei der Inspektion, Wartung und Instandsetzung der gebäudetechnischen und medizintechnischen Anlagen sind eine Fülle von Vorschriften in Form von Verordnungen, DINNormen, VDE- und VDI Richtlinien und die Richtlinien des Robert-Koch-Institutes RKI zu beachten. Ein weiterer wichtiger Aspekt ist der wirtschaftliche Betrieb dieser Anlagen. Daher werden von den verantwortlichen Führungskräften im technischen Management betriebswirtschaftliche Kenntnisse erwartet. Der Anteil des Budgets eines Krankenhauses für diese Aufgaben, auch als Baunutzungskosten nach DIN 18960 bezeichnet, beträgt ca. 10% (⊡ Tab. 2.2). Im Aufgabenbereich Energiemanagement werden kontinuierliche Verbesserungsmaßnahmen notwendig, um den steigenden Energiekosten entgegen zu wirken. Diese Maßnahmen können aus Änderrungen bei den Lieferverträgen, aus Energieeinsparmaßnahmen und Änderungen der Medien bestehen, wie z. B. der Umstellung
Der Studiengang KrankenhausTechnikManagement (KTM) ist heute der einzige Studiengang in der Bundesrepublik und in Europa, der Ingenieure speziell für das Gesundheitswesen ausbildet. Bereits im Jahr 1965 wurde ein Ausbildungsgang für Gesundheits-/Krankenhausbetriebsingenieure an der damaligen Ingenieurschule Gießen gegründet. Ab WS 1970/71 wurde der Ausbildungsgang Krankenhausbetriebstechnik (KBT) eingerichtet, und 38 Studentinnen und Studenten nahmen ihr Studium auf. Bereits im SS 1973 verließen die ersten Absolventen als Diplomingenieure des Technischen Gesundheitswesens die Fachhochschule GießenFriedberg. Mit dem WS 1995/96 wurde eine neue Studien- und Prüfungsordnung eingeführt, die sowohl das Lehr- und Studienangebot den neuen technologischen Entwicklungen und Bedürfnissen anpasste, als auch dem Studium eine neue Struktur gab. Dabei wurde das Studium auf 8 Semester inklusive eines berufspraktischen Semesters umgestellt, sodass auch die formale Voraussetzung für eine europaweite Anerkennung der Diplome geschaffen worden ist. Eine weitere Änderung der Prüfungsordnung wurde im Jahr 2000 eingeführt, um den Ansprüchen an die Modularisierung und Internationalisierung gerecht zu werden. Zurzeit wird an der Einführung eines Bachelor- und Masterstudienganges gearbeitet, um den »Bologna-Beschluss« der Europäischen Union umzusetzen. Ziel dieses Masterstudienganges ist es, den Absolventen umfassende Kenntnisse und Fähigkeiten der Fachgebiete zu vermit-
Instandhaltung Sonstiges Summe Baunutzungskosten
41,45
100
DKG Zahlen, Daten, Fakten 2004/2005
12
2
Kapitel 2 · Ingenieure im Gesundheitswesen – Ausbildung und Tätigkeitsfelder
teln, die sie in die Lage versetzen, Führungspositionen im technischen Management bei großen Gesundheitsanbietern auszuüben.
2.3.4 Studienorganisation
Das erste Studienjahr dient in enger Verflechtung mit den anderen Studiengängen überwiegend dem Erwerb des mathematisch-naturwissenschaftlichen Grundlagenwissens. Es beinhaltet aber auch bereits fachspezifische Grundlagen. Das zweite und dritte Studienjahr vermittelt ingenieurwissenschaftliche Grundlagen und technische Anwendungen (⊡ Tab. 2.3). Die Studieninhalte wurden um die Fächer Personalmanagement, Energiemanagement, Qualitätsmanagement und Instandhaltungsmanagement erweitert. Bei dieser Umstellung entstand der neue Name des Studienganges »KrankenhausTechnikManagement« KTM.
Im 6. Semester können die Studierenden Module aus einem von vier Schwerpunkten wählen. Diese Schwerpunkte decken das gesamte Spektrum der Berufsfelder ab (⊡ Tab. 2.4). Das 7. Semester dient dazu, im Rahmen der berufspraktischen Projektarbeiten an Arbeitsplätzen des späteren Tätigkeitsfeldes unter Anleitung Erfahrungen in der Berufspraxis zu sammeln. Diese Zeit ermöglicht es den Studierenden, Kontakte zu Krankenhäusern, Unternehmen und anderen Einrichtungen zu knüpfen, die ihnen den Einstieg in das Berufsleben erleichtern. Wie die steigenden Bewerberzahlen zeigen, nimmt das Interesse am Studium KTM ständig zu. Bis zum Beginn des WS 2005 haben ca. 500 Absolventen den Studiengang KBT/KTM als Diplomingenieurinnen bzw. Diplomingenieure verlassen. Das vielfältige, interdisziplinäre Lehrangebot wird zu einem Teil durch Kooperation mit anderen Studiengängen und Fachbereichen sowie der Mitarbeit externer Spezia-
⊡ Tab. 2.3. Inhalt des Studienprogramms KrankenhausTechnikManagement 1. Semester
2. Semester
3. Semester
Mathematik 1
Mathematik 2
Elektrotechnische Grundlagen
Physik 1
Physik 2
MSR- Technik
EDV / Statistik
Biologie
Maschinentechnische Grundlagen
Berufsqualifizierendes Training 1
Berufsqualifizierendes Training 2
Verfahrenstechnische Grundlagen
4. Semester
5. Semester
6. Semester
Sanitärtechnik
Heiztechnik / Dampferzeugung
Management
Krankenhausplanung
Krankenhausbau
Medizinische Geräte
Elektrotechnik im Krankenhaus
Betriebswirtschaftliche Grundlagen
Kommunikationssysteme
Klimatechnik im Krankenhaus
Mikrobiologie und Hygiene
Module der Schwerpunkte (⊡ Tab. 2.4)
⊡ Tab. 2.4. Fächer und Inhalte der Schwerpunkte KTM Schwerpunkt Krankenhausplanung
Medizintechnik
Finanzierung, Controlling, Management
Umweltschutz im Krankenhaus
Sanierungsplanung
Bildgebende Verfahren
Rechnungswesen
Abfallwirtschaft
Seminar Projekt Bau
Interventionelle Verfahren
Krankenhausfinanzierung
Umweltrecht
Seminar TGA
Strahlentherapie
Controlling
Abwasserbehandlung
Bau- und Genehmigungsrecht
Strahlenschutz
Management von Großprojekten
Wasseraufbereitung
CAD Bau
Diagnostische Geräte und Systeme
Projekt- und Prozessmanagement
CAD/CAE
Elektromedizin
13 2.3 · Krankenhaustechnik
listen (Honorarprofessoren und Lehrbeauftragte) ermöglicht, sodass hierdurch der Praxisbezug gewahrt bleibt und die aktuellen Entwicklungen in die Lehre einfließen.
Dokumentation, Schulung/Training und die Tätigkeit bei Energieversorgungsbetrieben.
2.3.6 Zusammenfassung und 2.3.5 Berufsfelder
Diplomingenieure der Krankenhausbetriebstechnik/ KrankenhausTechnikManagemenent, die interdisziplinär für das Gesundheitswesen ausgebildet werden, finden eine Vielzahl von Berufsfeldern, in denen sie tätig werden können.
Technisches Gebäudemanagement An erster Stelle ist hier das technische Gebäudemanagement in Krankenhäusern, aber auch bei anderen Gebäuden des Gesundheitswesens zu nennen. Diese Aufgabe wird auch bei Dienstleistern im Bereich Facility Management wahrgenommen.
Schlussfolgerungen Der Wandel im Gesundheitswesen führt zu einer Vielzahl von Organisationen, die sich mit den Aufgaben der Krankenversorgung, aber auch dem wachsenden Markt der Vorsorge und Früherkennung widmen. Für alle diese Einrichtungen werden Gebäude mit gebäudetechnischen und medizintechnischen Anlagen benötigt, die sowohl wirtschaftlich als auch auf einem hohen Qualitätsniveau betrieben werden müssen. In diesem wachsenden, sich ständig verändernden »Gesundheitsmarkt« und der rasanten Entwicklung der Medizintechnik werden interdisziplinär ausgebildete Ingenieure benötigt, die sowohl über Kenntnisse und Fähigkeiten auf dem Gebiet der Ingenieurwissenschaften als auch über betriebswirtschaftliche Kompetenzen verfügen.
Planungsbüros Aufgaben finden die Absolventen des Studienganges KTM in Planungsbüros, die sich mit den verschiedensten Sparten der Planung im Bereich Gebäude des Gesundheitswesens beschäftigen. Neben Architektur- und Ingenieurbüros sind hier Einrichtungen zu nennen, die sich mit der Bedarfs- und der Betriebsplanung, aber auch mit der Planung der medizintechnischen Ausstattung beschäftigen.
Industrie In Unternehmen, die sich mit der Planung, der Herstellung, dem Marketing und Vertrieb von Anlagen und Geräten beschäftigen, die bei Gebäuden des Gesundheitswesens benötigt werden, wie z. B. Lüftungsanlagen, Medizinprodukte und Desinfektionsanlagen, sind Krankenhausingenieure als Spezialisten ebenfalls gesuchte Mitarbeiter.
Prüfeinrichtungen und Behörden Um die zahlreichen gesetzlich vorgeschriebenen Prüfungen im Gesundheitswesen kompetent durchführen zu können, werden Krankenhausingenieure sowohl in Überwachungseinrichtungen als auch in Gesundheitsämtern eingesetzt. In Umweltämtern und bei der Gewerbeaufsicht im Bereich der Arbeitssicherheit bei Genehmigungsbehörden, z. B. Regierungspräsidien und Ministerien, werden diese Ingenieure ebenfalls beschäftigt.
Sonstige Berufsfelder Weitere Berufsfelder sind das Qualitätsmanagement, das Patentwesen, das Projektmanagement, die Technische
Weiterführende Literatur Biomedical Engineering Education in Europe (2005) Status Reports, BIOMEDIA Project. http://www.bmt.uni-stuttgart.de/biomedea/ Status%20Reports%20on%20BME%20in%20Europe.pdf Dammann V, Dössel O, Morgenstern U, Nippa J, Trampisch W (2005) DGBMT-Empfehlung. Akkreditierung von Studiengängen Biomedizinische Technik, Klinik-Ingenieurwesen. VDE, Frankfurt DGBMT (2001) Gegenstandskatalog Medizintechnik. Biomedizinische Technik und Klinikingenieurwesen. VDE, Frankfurt Hochschule Anhalt (2002) Handbuch-Einführung eines Leistungspunktsystems im Fachhochschulverbund Sachsen Anhalt Hoffmann KP, Foth H (2004) Master Programme in Biomedical Engineering. Internat. J. Health Care Engineering 12: 151–153 Morgenster U (2004) Ausbildung Biomedizinische Technik in deutschsprachigen Ländern. Biomedizinische Technik 49, Ergänzungsband 2: 956–957 Nagel JH (Hrsg) (2001) White paper on accreditation of biomedical engineering programs in Europe. IFMBE VDE-Ingenieurstudie (2005) Elektro- und Informationstechnik. VDE, Frankfurt Nagel JH (Hrsg) (2005) Criteria fort he accreditation of biomedical engineering programs in Europe, BIOMEDEA. http://www.bmt. uni-stuttgart.de/biomedea/Documents/Criteria%20for%20Accre ditation%20Biomedea.pdf
2
15 xxxx · xxxx
Hygiene in der Medizintechnik H.-M. Just, E. Roggenkamp
3.1
Einleitung – 15
3.6
Nichtinvasive Technik – 29
3.1.1 3.1.2
Mitarbeiterschutz – 15 Patientenschutz – 16
3.2
Infektionsentstehung – 16
3.6.1 3.6.2 3.6.3
Am Patienten eingesetzte Geräte – 29 Nicht am Patienten eingesetzte Geräte – 29 Reparatur und Wartung – 29
3.3
Impfungen – 17
3.7
Invasive Technik – 30
3.4
Methoden der Desinfektion – 17
3.4.1 3.4.2 3.4.3 3.4.4 3.4.5 3.4.6 3.4.7
Grundlagen – 17 Desinfektionsverfahren – 17 Chemische Desinfektionswirkstoffe – 18 Durchführung der manuellen Desinfektion – 18 Physikalische Desinfektionsverfahren – 19 Einwirkzeiten und Wirkungsbereiche – 23 Vergleich chemischer und physikalischer Desinfektionsverfahren – 24
3.5
Methoden der Sterilisation – 24
3.5.1
Verfahren
3.1
– 24
Einleitung
Die Technik erobert in zunehmendem Maß die Medizin. Viele diagnostische wie therapeutische Fortschritte sind erst durch entsprechende technische Verfahren und Weiterentwicklungen möglich geworden. Der Stellenwert der Hygiene wird deutlich, wenn man sich vergegenwärtigt, dass knapp die Hälfte aller im Krankenhaus von Patienten erworbenen Infektionen mit medikotechnischen Maßnahmen in Zusammenhang stehen oder durch diese (mit)verursacht werden [24]. Der Umgang mit diesen Geräten kann aber auch die Mitarbeiter gefährden. Verlässliche Daten aus Deutschland zu bekommen, die einigermaßen repräsentativ sind, ist schwierig, da es hierfür bislang keine zentrale Erfassungsstelle gibt. Als Anhalt sei auf Ausführungen zurückgegriffen, die auf Daten der Berufsgenossenschaft für Gesundheit und Wohlfahrtspflege (BGW) in Hamburg basieren [13]. Danach stellen die infektiösen Erkrankungen nach den Dermatosen die zweitgrößte Gruppe mit einer Häufigkeit von 7,3%, allerdings steigt deren Anteil bei den erstmals entschädigten Berufskrankheiten auf 1/3! Aus den Daten geht nicht hervor, welcher Prozentsatz der Dermatosen auch auf technische Handhabungen im weitesten Sinn zurückzuführen ist, wie den Umgang mit Reinigungs- und Desinfektionsmitteln. Hygienemaßnahmen im Zusammenhang mit medizintechnischen Produkten müssen deshalb 2 Ziele verfolgen:
3.8
Praktische Beispiele – 30
3.8.1 3.8.2 3.8.3 3.8.4 3.8.5 3.8.6
Postoperative Wundinfektionen – 30 Beatmungsassoziierte Pneumonien – 31 Katheterassoziierte Septikämie – 32 Katheterassoziierte Harnwegsinfektion – 32 Dialyse – 33 Creutzfeldt-Jakob-Erkrankung – 34
3.9
Regelwerke – 34
3.9.1 3.9.2
Technische Regeln für Gefahrstoffe Normen – 34
Literatur
– 34
– 36
1. Schutz der Mitarbeiter im Umgang mit und 2. Schutz der Patienten bei der Anwendung dieser Pro-
dukte vor einer Keimübertragung, die zu einer a) Kontamination, b) Kolonisierung oder c) Infektion führen kann. Welche Maßnahmen im Einzelfall erforderlich sind, um das jeweilige Ziel zu erreichen, hängt von mehreren Faktoren ab.
3.1.1 Mitarbeiterschutz
Bei der Anwendung am Patienten gilt die Regel, sich so zu verhalten, dass das Risiko, mit Keimen des Patienten in Kontakt zu kommen, so gering wie möglich gehalten wird. Dies wird dadurch erreicht, dass vor der erstmaligen Anwendung eines medizintechnischen Produkts eine entsprechende Einweisung zur korrekten Handhabung erfolgt. Hygienerichtlinien regeln, wann welche Schutzmaßnahmen erforderlich sind, die jedoch auch abhängig sind von den Erkrankungen des Patienten, der vermuteten Keimbesiedlung und dem möglichen Übertragungsweg. Beim Umgang mit medizintechnischen Produkten im Rahmen von Aufbereitung, Wartung und Reparatur kann der Mitarbeiter selbst darauf achten, ob das Gerät z. B. be-
X 3
16
3
Kapitel 3 · Hygiene in der Medizintechnik
reits außen sichtbar kontaminiert ist oder Bestandteile verschmutzt sind. Insbesondere muss er vom Anwender darüber unterrichtet worden sein, ob das Produkt unmittelbar zuvor bei einem Patienten mit einer übertragbaren Erkrankung bzw. mit besonderen Keimen eingesetzt wurde. Eine desinfizierende Vorreinigung muss in solchen Fällen vor dem Beginn einer Wartung oder Reparatur erfolgt sein. Eine Desinfektion als erster Schritt ist auch immer dann notwendig, wenn der Umgang mit dem Produkt mit einem erhöhten Verletzungsrisiko verbunden ist. Handelt es sich um Wiederaufbereitungsarbeiten, sollten Verfahren eingesetzt werden, die maschinell reinigen und desinfizieren, und das möglichst thermisch und in einem Arbeitsgang. Unter Umständen ist bestimmte Schutzkleidung (z. B. Handschuhe) sinnvoll oder sogar vorgeschrieben.
3.1.2 Patientenschutz
Für die erforderlichen Maßnahmen ist entscheidend, wie das medizintechnische Produkt am Patienten eingesetzt wird. Ein dem Patienten implantierter Schrittmacher muss steril und pyrogenfrei sein und während der Insertion auch bleiben. Für ein medizinisches Gerät mit nur äußerlichem (Haut)kontakt reicht eine desinfizierende Vorbehandlung, bei einem Gerät, das neben dem Patienten am Bett steht, i. d. R. eine Reinigung. Kommen Teile eines entfernt vom Patienten platzierten Gerätes aber mit sterilen Bereichen des Patienten in Kontakt (z. B. blutführende Schlauchsysteme von Dialyse- oder kardiochirurgischen Geräten), dann muss dieses Systemteil selbstverständlich denselben Kriterien genügen wie ein implantiertes Produkt. Gleiches gilt auch, wenn mit einem Gerät Flüssigkeiten oder Medikamente in sensible (z. B. Lunge bei der maschinellen Beatmung) oder sterile Körperbereiche (z. B. Infusiomaten) eingebracht werden [1, 8, 18]. Im Folgenden werden die Prinzipien zielgerichteter Hygienemaßnahmen erläutert und anhand von Beispielen aufgezeigt, wie die Risiken erkannt werden und welche risikobezogenen Maßnahmen notwendig sind. Auf die zu beachtenden Regelwerke wird hingewiesen, wobei es die Aufgabe des jeweiligen Bereichsverantwortlichen ist, im Rahmen der regelmäßigen Schulungen den Maßnahmenkatalog neuen wissenschaftlichen Erkenntnissen und Empfehlungen anzupassen. Pauschale Vorgaben, die sich nicht am praktischen Einsatz, dem konkreten Infektionsrisiko und dem Infektionsweg orientieren, sind häufig teuer, weil personal- und zeitintensiv, aber selten effektiv.
3.2
Infektionsentstehung
Voraussetzung für eine Infektionsentstehung ist ein Infektionserreger, ein für eine Infektion empfänglicher Mensch
und ein Kontakt, der es dem Keim ermöglicht, den Menschen so zu besiedeln, dass eine Infektion entstehen kann. Diese Vielzahl an Voraussetzungen macht deutlich, dass es keinen Grund gibt, in einer generellen Angst vor Mikroorganismen zu leben, seien es Bakterien, Viren oder Pilze. Bakterien besiedeln unsere Haut und Schleimhaut und sind ein wichtiger Bestandteil unserer körpereigenen Abwehr. Aus unserem Nasen-Rachen-Raum können über 40 verschiedene Spezies isoliert werden, und pro Gramm Stuhl leben bis zu 1012 Keime! Die bei jedem Menschen vorhandene Keimbesiedlung der Haut wird unterschieden in eine ständige und eine vorübergehende. Die ständige ist immer vorhanden, die vorübergehende erworben und daher wechselnd, je nachdem, was man angefasst oder welche Arbeit man verrichtet hat. Händewaschen eliminiert den größten Teil (>90%) dieser erworbenen »Verschmutzung«, lässt die ständige Besiedlung aber unbehelligt. Eine Hände- oder Hautdesinfektion soll die erworbenen Keime vollständig eliminieren, beeinträchtigt aber auch die ständige Hautbesiedlung. Haut und Schleimhaut sind mechanische Barrieren, die, wenn sie unverletzt sind, den Mikroorganismen das Eindringen in unseren Körper verwehren. Das erklärt, warum Verletzungen von Haut und Schleimhaut immer mit einer erhöhten Infektionsgefährdung einhergehen, sei es in Form einer lokalen, oberflächlichen Infektion (Pustel, Abszess), sei es in Form einer – meist bei abwehrgeschwächten Patienten auftretenden – ausgedehnten Weichteilinfektion (Ulkus, Gangrän), in dessen Folge es auch zu einer Sepsis mit hohem Fieber kommen kann. In vielen Regionen hat unser Körper weitere Abwehrmechanismen aufgebaut, wie den Säuremantel der Haut, Mikroorganismen tötende Enzyme in Sekreten und Exkreten (z. B. Augenflüssigkeit) und spezielle Strukturen in unserem Blut, deren Hauptaufgabe es ist, Eindringlinge zu eliminieren. Dazu gehören die weißen Blutkörperchen, die Bakterien »auffressen« und verdauen, und sog. Antikörper, mit deren Hilfe die Blutkörperchen die Strukturen im Körper erkennen, die sie vernichten sollen. Die Bildung solcher mitunter spezifischen Antikörper erfolgt im lymphatischen Gewebe unseres Körpers nach entsprechendem »Reiz«. Ein solcher Reiz kann ein Kontakt mit dem Infektionserreger selbst (»natürliche Immunisierung«) sein oder durch eine Impfung (»künstliche Immunisierung«, s. unten) erfolgen. Gelingt es einem Keim trotzdem, sich auf Haut oder Schleimhaut festzusetzen, dann ist der erste wichtige Schritt geglückt. Bleibt es bei dieser »Kolonisierung«, dann kommt es zwar zu keiner Erkrankung, der Patient oder Mitarbeiter kann aber zu einer (unerkannten) Quelle für weitere Übertragungen werden, sofern es sich um einen problematischen Keim (Infektionserreger, multiresistentes Bakterium) handelt. Ist der Keim aber im zweiten Schritt in der Lage, seine krankmachenden Eigenschaften
17 3.4 · Methoden der Desinfektion
zu entfalten und ist die betroffene Person nicht immun, dann kommt es zu einer Infektion, die je nach Gesundheitszustand des Betroffenen zu einer unterschiedlich schwer verlaufenden Erkrankung führen kann.
3.3
Impfungen
Eine der wichtigsten Maßnahmen, sich vor Infektionen zu schützen, ist die Impfung. Die Impfungen, die von der »Ständigen Impfkommission (STIKO)« am Robert-KochInstitut (RKI) empfohlen und regelmäßig aktualisiert werden [20], sind gerade für Mitarbeiter im Gesundheitswesen von besonderer Bedeutung. Die Impfungen der Kategorie A (»... mit breiter Anwendung und erheblichem Wert für die Gesundheit der Bevölkerung«) sind die Impfungen der Säuglinge und Kinder und sollten bei allen Mitarbeitern im Gesundheitswesen vorhanden und, wenn nötig, regelmäßig aufgefrischt sein. Hierzu zählen so wichtige Impfungen wie Tetanus, Poliomyelitis, Hepatitis B und Diphtherie. Hinzu können, je nach Arbeitsbereich, derzeit sog. »Indikationsimpfungen« (Kategorie I) kommen, wie gegen Hepatitis A, Influenza und Varizellen. Ansprechpartner bei Fragen zum persönlichen Impfschutz und zu den arbeitsplatzbezogenen Anforderungen ist i. d. R. der Betriebsarzt.
3.4
Methoden der Desinfektion
> Definition »Desinfektion ist die gezielte Abtötung oder Inaktivierung von Krankheitserregern mit dem Ziel, deren Übertragung zu verhindern.« (TRGS 525)
3.4.1 Grundlagen
Die Desinfektion hat somit wie auch die Sterilisation ( Abschn. 3.5) das Ziel, eine Übertragung krankmachender Keime zu verhindern. Eine absolute Keimfreiheit (Sterilität) ist aber nicht garantiert. Eine Desinfektion von Geräten und Materialien ist immer dann ausreichend, wenn eine Übertragung von vermehrungsfähigen Mikroorganismen zwar verhindert werden soll, der Körper aber physiologischerweise über einen gewissen Eigenschutz in diesen Bereichen verfügt wie auch in ansonsten keimbesiedelten Bereichen des menschlichen Körpers (z. B. Magen-Darm-Trakt). Obligat pathogene (immer krankmachende) Keime dürfen jedoch auf desinfiziertem Gut nicht vorkommen. Bei der Anwendung von Desinfektionsmitteln und -verfahren sind sowohl das jeweilige mikrobiologische Wirkungsspektrum wie auch der Anwendungsbereich zu berücksichtigen. Den thermischen Desinfektionsverfah-
ren ist, soweit anwendbar, immer der Vorzug vor den chemischen Desinfektionsmitteln und -verfahren zu geben. Chemische Desinfektionsmittel sind, soweit sie keine besonderen Hinweise enthalten, meist nur zur Abtötung von vegetativen Bakterien und Pilzen geeignet. Desinfektionsmittel werden, bevor sie auf den Markt kommen, auf ihre antimikrobielle Wirkung mittels mikrobiologischer Untersuchungen getestet. Hierfür gibt es standardisierte Verfahren, deren Ergebnisse auch darüber entscheiden, ob ein Mittel in die Liste der vom RKI nach dem Infektionsschutzgesetz zugelassenen Mittel [21] aufgenommen wird. Neben dieser »amtlichen« Liste gibt es noch die »Desinfektionsmittel-Liste der DGHM« (DGHM-Liste), die von der Deutschen Gesellschaft für Hygiene und Mikrobiologie in eigener Regie und unter Zugrundelegen eigener Testverfahren und Testkriterien herausgegeben wird.
3.4.2 Desinfektionsverfahren Thermische Verfahren kommen nur für thermostabile Gegenstände in Frage, chemische auch für thermolabile Gegenstände und Flächen. Als Anwendungsbereiche für chemische Desinfektionsverfahren werden unterschieden: ▬ Hände-, Haut- und Schleimhautdesinfektion ▬ Flächendesinfektion ▬ Instrumentendesinfektion
Hände-, Haut-/Schleimhautdesinfektion und Flächendesinfektion Hände-, Haut- und Schleimhautdesinfektion sowie die Flächendesinfektion können nur als chemische Desinfektion durchgeführt werden, wobei unterschiedliche keimtötende Substanzgruppen zur Anwendung kommen (⊡ Tab. 3.1). Für die Auswahl eines Mittels ist entscheidend, wofür es eingesetzt werden soll und welche Wirkintensität, aber auch Wirkbreite erforderlich ist. Entsprechende Festlegungen sollten in bereichs- oder verfahrensspezifischen »Hygieneplänen« geregelt sein.
Instrumentendesinfektion Instrumente und Geräte können thermisch, chemothermisch oder auch rein chemisch desinfiziert werden. Die Auswahl des Verfahrens hängt ab von der Eignung des Materials für bestimmte Arten der Desinfektion, von den örtlichen Gegebenheiten (Infrastruktur) und ggf. besonderen Erfordernissen. Als sicherste Möglichkeit gelten maschinelle thermische Desinfektionen in speziellen Reinigungs- und Desinfektionsgeräten, da nur bei entsprechender Temperatureinwirkung die gewünschte Keimreduktion mit hinreichender Sicherheit garantiert
3
18
3
Kapitel 3 · Hygiene in der Medizintechnik
wird. Die Maschinen melden Störungen im Programmablauf, sodass eine versehentliche Entnahme vor Ablauf der Desinfektion nicht möglich ist und Fehler weitestgehend ausgeschlossen werden. Rein chemische Verfahren, wie Einlegen in Lösungen etc., sind demgegenüber anfällig für Fehler in der Aufbereitung und erfordern ein hohes Maß an Zuverlässigkeit beim durchführenden Personal.
Standzeit
3.4.3 Chemische Desinfektionswirkstoffe
Reihenfolge: Desinfektion und Reinigung
In ⊡ Tabelle 3.1 sind die gängigsten Desinfektionsmittelwirkstoffe, deren Vor- und Nachteile und deren Anwendungsgebiete wiedergegeben. Die kommerziellen Desinfektionsmittel enthalten in den seltensten Fällen nur einen Wirkstoff, sondern bestehen häufig aus Wirkstoffgemischen, um eine möglichst optimale antimikrobielle Wirksamkeit zu erzielen.
3.4.4 Durchführung der manuellen
Desinfektion Auswahl der Desinfektionsmittel Üblicherweise werden Desinfektionsmittel anhand der DGHM-Liste ausgewählt. Dabei ist aber zu beachten, dass neben dem Anwendungsbereich, der Konzentration und Einwirkzeit (voneinander abhängig) auch der erforderliche Wirkungsumfang gewährleistet ist. Im Zweifel muss auf die entsprechenden Gutachten zurückgegriffen werden. Eine weitere wichtige Informationsquelle insbesondere aus arbeitsmedizinischer Sicht sind die Sicherheitsdatenblätter gem. 91/155/EWG – geändert durch 2001/58/EWG – zu den jeweiligen Desinfektionsmitteln. Im Hinblick auf Materialverträglichkeit und Wirksamkeit ist besondere Vorsicht geboten bei gummi- und kunststoffhaltigen Materialien.
Die maximale Dauer, in der das Mittel bestimmungsgemäß wirkt, kann den jeweiligen Datenblättern entnommen werden. Bei sichtbarer Verschmutzung der Lösung ist diese allerdings sofort zu erneuern. Soweit eine Kombination von Reinigungs- und Desinfektionsmittel verwendet wird, beträgt die Standzeit generell nur 24 h.
Bei Instrumenten, bei denen Verletzungsgefahr besteht, ist eine Desinfektion vor der Reinigung durchzuführen (UVV VBG 103 § 11). In den übrigen Fällen erfolgt die Desinfektion mit oder nach der Reinigung.
Arbeitsweisen Flächen- bzw. Instrumentendesinfektionsmittel werden von den Herstellern als Konzentrat in verschiedenen Gebindegrößen vom Portionsbeutel bis zum Großgebinde angeboten und müssen vom Anwender durch Zumischen von Wasser in die entsprechende Anwendungskonzentration gebracht werden. Zur Vermeidung von Schaumbildung beim Ansetzen von Desinfektionslösung wird erst das Wasser, dann das Desinfektionsmittel eingefüllt. Das Ansetzen der Lösung erfolgt per Hand mittels Dosierhilfen oder über Zumischgeräte. Der Vorteil bei Verwendung von Zumischgeräten ist die automatische Dosierung des Desinfektionsmittels. Desinfektionsmittel dürfen nur für den angegebenen Zweck eingesetzt werden und nicht ohne vorherige Prüfung mit Reinigungsmitteln gemischt werden, da es zu Wirkungsverlusten des Desinfektionsmittels kommen kann (Herstellerangaben beachten). Der Wechsel der Desinfektionslösung wird erforderlich bei Erreichen der vom Hersteller angegebenen Standzeit oder bei sichtbarer Verschmutzung der Lösung.
⊡ Tab. 3.1. Vor- und Nachteile sowie Anwendungsgebiete der gängigsten Desinfektionsmittelwirkstoffe Wirkstoff
Vorteile
Nachteile
Anwendungsbereich
Alkohole
Schnell wirksam, keine Rückstände, geringe Toxizität, angenehmer Geruch
Nicht sporozid, brennbar/ explosibel, teuer
Händedesinfektion, Hautdesinfektion, kleine Flächen
Jod/Jodophore
Keine Schleimhautreizung, schnell wirksam
Allergien möglich, Eigenfarbe, (Nebenwirkung an Schilddrüse?)
Hautdesinfektion, Schleimhautdesinfektion, Händedesinfektion
Formaldehyd/ Aldehyde
Breites Wirkspektrum, biologisch abbaubar
Reizend, allergen, mäßig toxisch, (karzinogen?)
Flächen, Instrumente, Raumdesinfektion
Quaternäre Ammoniumverbindungen
Gute Reinigungswirkung, geruchsarm, geringe Toxizität
Wirkungslücken, Eiweiß-/ Seifenfehler
Flächendesinfektion in Sonderbereichen (Küche)
Persäuren/Peroxide
Breites Wirkspektrum, schnell wirksam
Eiweißfehler! Korrosiv, reizend, instabil
Flächen, Instrumente
Phenole
Geringe Beeinflussung durch Milieu
Wirkungslücken, biologisch kaum abbaubar
Ausscheidungsdesinfektion, sonst obsolet
19 3.4 · Methoden der Desinfektion
Zu Beeinträchtigungen der Wirkung kann es in englumigen Schläuchen und Rohren, z. B. durch Luftblasen, oder durch Verunreinigungen kommen. Deshalb ist darauf zu achten, dass das Desinfektionsgut komplett und blasenfrei untergetaucht ist und alle Flächen vollständig benetzt sind. Alle Gegenstände sind so weit wie möglich zu zerlegen. Das Einlegen von Instrumenten sollte schonend erfolgen, um Beschädigungen zu vermeiden.
Einspartipps Folgende Möglichkeiten zu Einsparungen können genutzt werden: ▬ Häufig genügt es, statt einer Desinfektion vor einer nachfolgenden Sterilisation nur eine Reinigung durchzuführen. Ausnahmen: Nur spitze, scharfe Gegenstände müssen vor dem Reinigen desinfiziert werden (s. oben). ▬ Wenn zeitlich machbar, sollten geringe Konzentrationen mit längerer Einwirkzeit gewählt werden. ▬ Wenn möglich auf zusätzliche Reinigungsmittel verzichten, denn eine Desinfektionslösung mit Reinigerzusatz muss täglich gewechselt werden. ▬ Lösung möglichst wenig mit organischem Material verschmutzen, damit kein Wechsel vor dem Ende der Standzeit erforderlich ist. ▬ Gegenstände abwischen statt einlegen.
Ausguss Zum Schutz der Abwasserinstallationen vor Korrosion ist auf ausreichende Verdünnung vor dem Ausgießen zu achten. Instrumentendesinfektionsmittel sind i. d. R. mit Korrosionsinhibitoren versehen. Trotzdem können hohe Konzentrationen für die Abwasserleitungen problematisch sein. Darüber hinaus sind die kommunalen Abwassersatzungen zu beachten. Desinfektionsmittelkonzentrate gelten als Gefahrstoffe und sind als besonders überwachungsbedürftig zu entsorgen.
Personenschutz Beim Ansetzen der Lösung, dem Einlegen/Herausnehmen von Produkten, Entleeren und Reinigen des Beckens sind Handschuhe (Einmal- oder Haushaltshandschuhe) und Schutzkleidung (flüssigkeitsdichte Schürze) zu tragen. Wenn Spritzgefahr besteht, muss eine Schutzbrille bzw. ein Gesichtsschutz getragen werden (⊡ Abb. 3.1). Gefüllte Desinfektionsbecken sind abzudecken, um ein Abdampfen in die Raumluft zu minimieren. Aus dem gleichen Grund sind Desinfektionslösungen immer mit kaltem (bis maximal handwarmem) Wasser anzusetzen. Desinfektionsmittelkonzentrate dürfen nicht über Augenhöhe gelagert werden.
⊡ Abb. 3.1. Ansetzen einer Desinfektionslösung – der abgedeckte rechteckige weiße Kunststoffbehälter im Hintergrund ist das Desinfektionsbecken
Besonderheiten Es kann zu unerwünschten Materialbeeinflussungen kommen, wenn ungeeignete Desinfektionsmittel angewendet werden. Auf die Chemikalienbeständigkeit der Produkte muss deshalb immer Rücksicht genommen werden. In Zweifelsfällen sollte beim Instrumentenhersteller nachgefragt werden.
3.4.5 Physikalische Desinfektionsverfahren
Bei den physikalischen Desinfektionsverfahren unterscheidet man zwischen thermischen und chemothermischen Desinfektionsverfahren.
Thermische Desinfektionsverfahren Bei den thermischen Desinfektionsverfahren werden die Krankheitserreger durch die Einwirkung von Wärme unschädlich gemacht. Die Wirksamkeit der Verfahren ist umso größer, je höher die Temperatur und je länger die Einwirkungsdauer ist. Je nach An- oder Abwesenheit von freiem Wasser wird in der Anwendungspraxis zwischen »trockener Wärme« und »feuchter Wärme« unterschieden. Für die Bekämpfung von Krankenhausinfektionen ist nur die »feuchte Wärme« von Bedeutung. Bei der Behandlung mit »feuchter Wärme« unterscheidet man zwischen 2 Verfahren: 1. dem Spülen mit heißem Wasser (Reinigungs-/Desinfektionsgeräte) und 2. dem Behandeln mit Wasserdampf (Dampfdesinfektionsverfahren).
Reinigungs-/Desinfektionsgeräte Reinigungs-/Desinfektionsgeräte sind Geräte, in denen die maschinelle Aufbereitung von Instrumenten, Anäs-
3
20
3
Kapitel 3 · Hygiene in der Medizintechnik
thesiezubehör, Labormaterialien (Gläser o. Ä.) und anderen thermostabilen Gegenständen durchgeführt wird (⊡ Abb. 3.2). In der Normenreihe DIN EN ISO 15883 –Reinigungs-/ Desinfektionsgeräte – werden die Leistungs- und Geräteanforderungen von Reinigungs-/Desinfektionsgeräten festgelegt. Je nach Bauweise unterscheidet man zwischen Reinigungs-/Desinfektionsgeräten mit einer Aufbereitungskammer und Geräten mit mehreren Aufbereitungskammern, den sog. Taktwaschanlagen. Die Reinigungs-/Desinfektionsgeräte gibt es als Frontlade- (be- und entladen im gleichen Raum) oder als Durchladeausführung mit zwei Türen (Trennung in »reine« und »unreine« Seite). Die Taktwaschanlagen (Mehrkammeranlagen) bestehen aus mehreren Waschkammern und Trockenkammern, durch die das Behandlungsgut auf Beschickungswagen durchgeschleust wird. Die Beschickungswagen unterscheiden sich nach den zu behandelnden Produkten. Durch Sensoren an den Beschickungswagen erkennt die Steuerung der Anlage, um welches Behandlungsgut es sich handelt, und wählt automatisch das richtige Aufbereitungsprogramm, sodass Bedienungsfehler durch falsch gewählte Programme, Temperaturen und Zeiten ausgeschlossen sind. Das jeweils ablaufende Desinfektionsverfahren ist üblicherweise chemothermisch oder thermisch. Als Zusatzausführung zur Vorreinigung von stark verschmutzten Teilen kann der Anlage ein Ultraschallbecken vorgeschaltet werden. In jeder Kammer werden unterschiedliche Aufbereitungsschritte durchgeführt. Jeder Kammer sind spezielle Tanks mit den jeweiligen Reinigungsmitteln zugeordnet. Die Reinigungslösung wird in den Tanks aufgefangen und für die nächste Aufbereitungscharge wiederverwendet.
Da nicht die gesamte Reinigungslösung zurückgewonnen wird, muss ein Teil der Lösung ergänzt werden. Die genaue Dosierung der Reinigungsmittel erfolgt über Dosierpumpen, die über Kontaktwasserzähler angesteuert werden. Arbeitstäglich muss der Inhalt der Aufbereitungstanks entleert und erneuert werden. Taktwaschanlagen werden wegen ihrer höheren Durchsatzleistung vorwiegend in Zentralen Sterilgutversorgungsabteilungen eingesetzt. Durchführung der maschinellen Reinigung und Desinfektion
Um ein gutes Reinigungs- und Desinfektionsergebnis zu erzielen, kommt es ganz entscheidend darauf an, wie die Maschine beladen wird. Es ist darauf zu achten, dass alle Gegenstände so weit wie möglich zerlegt und Hohlkörper mit der Öffnung nach unten eingelegt werden. Instrumente mit langen bzw. engen Hohlräumen, z. B. Metallkatheter, Metallsauger, Spezialkanülen usw., müssen auch innen durchströmt werden. Hierfür sind spezielle Beschickungswagen zu verwenden. Bei den verwendeten Reinigungsmitteln oder kombinierten Desinfektions- oder Reinigungsmitteln sind die Angaben des Herstellers (Einwirkzeit, Konzentration und Temperatur) genau zu beachten. Nur die richtige Dosierung gewährleistet ein einwandfreies Desinfektions- und Reinigungsergebnis bei größtmöglicher Materialschonung. Unterdosierung alkalischer Reinigungsmittel birgt die Gefahr für das Auftreten von Lochkorrosion, da diese bei pH-Werten über 10,5 vermieden wird. Bei Verwendung von sauren Reinigern können durch Chloride im Wasser Korrosionen auftreten, die nur durch Verwendung von vollentsalztem Wasser ausgeschlossen werden können. Bei der maschinellen Reinigung müssen in der Nachspülphase sämtliche Rückstände aus dem Reinigungsgang zuverlässig entfernt werden, da sonst Verfleckungen und/ oder Verfärbungen an den chirurgischen Instrumenten auftreten. Der zusätzliche Einsatz eines geeigneten Neutralisationsmittels kann diesen Vorgang unterstützen und das Nachspülergebnis verbessern. Dokumentation
Im Zuge der Qualitätssicherung bei der Aufbereitung von Medizinprodukten ist es notwendig, dass die verfahrensrelevanten Aufbereitungsschritte der einzelnen Chargen mit direkter Zuordnung zu jeweiligen Behandlungsgütern dokumentiert werden. Kontrollen und Wartung
⊡ Abb. 3.2. Ausfahren eines Beschickungswagens aus einem Reinigungs-/Desinfektionsgerät in Durchladeausführung nach der Desinfektion (reine Seite)
Desinfektionsmaßnahmen in Reinigungsgeräten sind nur dann wirksam, wenn die Wartung und Kontrolle dieser Maschinen nicht vernachlässigt wird. In der Betriebsanweisung, die vom Betreiber zu erstellen ist, sind die notwendigen Kontrollen und Wartungen festgelegt. Die
21 3.4 · Methoden der Desinfektion
Wartung sollte mindestens einmal jährlich durch geschultes Fachpersonal erfolgen. Prüfungen
In der Verordnung über das Errichten, Betreiben und Anwenden von Medizinprodukten (MedizinprodukteBetreiberverordnung, MPBetreibV) wird im § 4 Abs. 2 gefordert, dass die Aufbereitung von Medizinprodukten mit geeigneten, validierten Verfahren so durchzuführen ist, dass der Erfolg nachvollziehbar gewährleistet ist und die Sicherheit und Gesundheit von Patienten, Anwendern und Dritten nicht gefährdet wird. In der RKI-Empfehlung »Anforderungen an die Hygiene bei der Aufbereitung von Medizinprodukten« (Bundesgesundheitsblatt 44 (2001): 1115–1126) wird ebenfalls eine validierte Aufbereitung von Medizinprodukten gefordert. Konkrete Hinweise über die Durchführung der Validierung und den nachfolgenden periodischen Prüfungen sind in der DIN EN ISO 15883-1 – Reinigungs- und Desinfektionsgeräte – Allgemeine Anforderungen, Definitionen und Prüfungen und in der Leitlinie von DGKH, DGSV und AKI für die Routineüberwachung maschineller Reinigungs- und Desinfektionsgeräte für thermolabile Medizinprodukte festgelegt. Die Validierung ist ein dokumentiertes Verfahren zum Erbringen, Aufzeichnen und Interpretieren der erforderlichen Ergebnisse, um zu zeigen, dass ein Verfahren ständig die geforderte Qualität erbringt, die mit den vorgegebenen Spezifikationen übereinstimmt. Für Reinigungs- und Desinfektionsgeräte (RDG) besteht die Validierung aus Installationsqualifikation, Betriebsqualifikation und Leistungsqualifikation, durchgeführt an Geräten, für die ein dokumentierter Nachweis vom Hersteller für die Übereinstimmung mit den Anforderungen der DIN EN ISO 15883 vorliegt. Die Installationsqualifikation wird durchgeführt um sicherzustellen, dass das RDG und Zubehör ordnungsgemäß geliefert und installiert wurden und die Betriebsmittelversorgung den speziellen Anforderungen genügt. Die für die Installationsqualifikation durchzuführenden Prüfungen und Kontrollen müssen festgelegt, durchgeführt und die Ergebnisse dokumentiert werden. Durchzuführende Prüfungen und Kontrollen sind z. B.: ▬ Prüfung des Bestell- und Lieferumfangs (bei vorhandenen Installationen Prüfung des Bestandes) ▬ Beladungswagen/-körbe, Einsätze sowie Düsen/Adapter ▬ Installationsplan, Gebrauchsanweisung(en) ▬ Prüfungen der Anschlüsse und Medienversorgung, Abgleich mit dem Installationsplan – Strom – Wasser kalt/warm/vollentsalzt – Dampf – Abwasser – Abluft/Entlüftung
Die Betriebsqualifikation wird durchgeführt um sicherzustellen, dass das RDG und die Medienversorgung mit den Spezifikationen der Hersteller und den Anforderungen der DIN EN ISO 15883 übereinstimmen. Die für die Betriebsqualifikation durchzuführenden Prüfungen und Kontrollen müssen festgelegt, durchgeführt und die Ergebnisse dokumentiert werden. In der Leistungsprüfung werden die festgelegten Reinigungs- und Desinfektionsprogramme für Referenzbeladungen geprüft und die Ergebnisse dokumentiert. Bei Einhaltung der Festlegungen soll sichergestellt sein, dass jederzeit reproduzierbare Ergebnisse erreicht werden. Jede Referenzbeladung muss Instrumente mit betriebstypischen Kontaminationen sowie kritischen Konstruktionsmerkmalen umfassen. Die Referenzbeladungen sind immer betreiberspezifisch und müssen dokumentiert werden. Voraussetzung für die Leistungsqualifikation ist die Festlegung und Dokumentation der notwendigen Programme mit den entsprechenden Verfahrensabläufen. Die Verfahrensbeschreibung muss die Vorbedingungen zur Reinigung mit einbeziehen. Die Verfahrensbeschreibung ist im Detail, einschließlich genauer Angaben zu den Chemikalien, zu dokumentiren. Bei der Leistungsqualifikation werden folgende Prüfungen durchgeführt: 1. Prüfung der Reinigung
Die Überprüfung der Reinigung wird mit zwei verschiedenen Verfahren durchgeführt. Es werden Prüfinstrumente (Arterienklammern nach Crile) mit definierter Testanschmutzung nach DIN EN ISO 15883 und nach Gebrauch real verschmutzte Instrumente verwendet. Jedes verwendete Programm ist zu überprüfen. Die Prüfinstrumente werden nach der Reinigungsphase vor der Desinfektionsphase aus dem RDG mit Handschuhen entnommen. Die Auswertung des Reinigungsergebnisses erfolgt zunächst visuell und wird dokumentiert. Die Prüfinstrumente müssen optisch sauber sein. Anschließend sind die Prüfinstrumente auf Proteinrückstände mit einer mindestens semi-quantitativen Proteinnachweismethode zu überprüfen. In der Praxis hat sich der Restproteinnachweis mit der Biuret-Methode bewährt. Die Prüfung der realverschmutzten Instrumente erfolgt in gleicher Weise. Beurteilung: Grenzwert: Alle Prüfinstrumente dürfen den Proteingehalt von 100 µg Protein pro ml Eluat nicht erreichen noch überschreiten. Bei Grenzwertüberschreitung erfolgt die sofortige Stilllegung des RDG. Richtwert: maximal 50 µg Protein pro ml Eluat eines Prüfinstrumentes. Keine Maßnahmen erforderlich. 2. Prüfung der Desinfektion
Die Prüfung der Desinfektion erfolgt mit Thermoelementen, die in der Desinfektionskammer an den
3
22
3
Kapitel 3 · Hygiene in der Medizintechnik
kritischen Stellen verteilt werden, und den Temperaturverlauf während der Aufbereitung aufzeichnen. An den Temperaturkurven lässt sich erkennen, ob an allen Stellen der Kammer die für die Abtötung der Mikroorganismen notwendige Temperatur vorhanden war. Aus der Temperaturkurve lässt sich der A0-Wert nach DIN EN ISO 15883 errechnen. Der A0-Wert eines Desinfektionsverfahrens mit feuchter Hitze ist das Maß der Abtötung von Mikroorganismen, angegeben als Zeitäquivalent in Sekunden, einer durch das Verfahren auf das Medizinprodukt übertragenen Temperatur von 80°C. Welcher A0-Wert erreicht werden muss, hängt von Art und Anzahl der Mikroorganismen auf den kontaminierten Medizinprodukten und der anschließenden Verwendung ab. Der A0-Wert von 3000 muss bei Medizinprodukten, die mit hitzeresisten Viren, z. B. Hepatis B Virus, kontaminiert sind oder sein können und bei kritischen Medizinprodukten erreicht werden. Dies entspricht einer Einwirkzeit von 5 min bei einer Temperatur von 90°C oder einer Einwirkzeit von 50 min bei einer Temperatur von 80°C. Der A0-Wert von 600 wird bei unkritischen Medizinprodukten, die nur mit unverletzter Haut in Berührung kommen, angewendet. Dies enspricht einer Einwirkzeit von 1 min bei einer Temperatur von 90°C oder einer Einwirkzeit von 10 min bei einer Temperatur von 80°C.
531, Feuchtarbeit) haben dazu geführt, dass Dekontaminationsanlagen zunehmend auch für andere Güter im Bereich der Medizin eingesetzt werden, wie z. B. Transportwagen, Behälter (z. B. für Arzneimittel, Medizinprodukte, Sterilgüter, Speisen), OP-Schuhe, Transportbehälter für Kleinförderanlagen und ähnliche Güter. Die Dekontaminationsanlagen bestehen aus einer Dekontaminationskammer, die zum Aufnehmen der Behandlungsgüter dient, und einem Aggregateraum, der die zum Betrieb erforderlichen Baueinheiten und Bauelemente enthält. Die Anlagen werden i. d. R. in zweitüriger Ausführung gebaut (⊡ Abb. 3.3). Das Behandlungsgut wird auf der »unreinen Seite« (z. T. spezielle Beschickungswagen) in die Dekontaminationskammer geschoben. In der ersten Phase erfolgt eine kombinierte Reinigung und Desinfektion des Behandlungsguts über ein separates Düsensystem mittels einer Umwälzpumpe. Die Temperatur der Dekontaminationsmittellösung sowie die Dekontaminationszeit sind am Bedienteil einstell- und veränderbar, damit man schnell und einfach den Prozess optimal auf das Behandlungsgut abstellen kann. Die Versorgung der Dekontaminationsmittellösung erfolgt aus dem beheizten Vorratstank. Im Anschluss an die Dekontamination wird das Behandlungsgut mit einer Klarspülmittellösung besprüht, um die Reste der Dekontaminationsmittellösung zu entfernen und eine schnelle und fleckenlose Trocknung zu gewährleisten. Während der Trocknungszeit saugt ein Ventilator die feuchte Warmluft aus dem Innenraum der
Neben den thermoelektrischen Messungen (A0-Konzept) lassen sich auch mit biologischen Indikatoren Aussagen über die Abtötung von Mikroorganismen machen. Biologische Indikatoren sind Keimträger, die mit einem BlutKeim-Gemisch einer definierten Resistenz für das entsprechende Desinfektionsverfahren kontaminiert sind. Das Robert-Koch-Institut schreibt für die Prüfung von thermischen Desinfektionsverfahren in Reinigungs- und Desinfektionsautomaten kontaminierte Schrauben bzw. Schläuche vor. In der Zwischenzeit sind auch gleichwertige biologische Indikatoren erhältlich, die eine für den Anwender einfachere Prüfung erlauben. Die Leistungsqualifikation ist jährlich zu wiederholen. Bei Änderung der Programme, der Prozesschemikalien oder bei Einführung neuer Medizinprodukte, die verändert aufbereitet werden müssen, ist eine erneute Leistungsqualifikation erforderlich.
Dekontaminationsanlagen Dekontaminationsanlagen wurden in der Vergangenheit vor allen Dingen für die Reinigung und Desinfektion (Dekontamination) von Bettgestellen und Zubehör eingesetzt. Anforderungen an die Hygiene, wirtschaftliche Überlegungen und Arbeitsschutzerfordernisse (TRGS
⊡ Abb. 3.3. Dekontaminationsanlage beim Reinigen eines Transportwagens
23 3.4 · Methoden der Desinfektion
Kabine ab bei gleichzeitigem Ansaugen von Frischluft von der reinen Seite. Die Dekontaminationsmittellösung wird über eine Umwälzpumpe in den Vorratstank zurückgepumpt, sodass pro Charge etwa nur 20 l Wasser benötigt werden. Zu den Anforderungen, dem Betrieb und der Prüfung auf Wirksamkeit von Dekontaminationsanlagen sei auch auf die DIN-Normen 58955 Teil 1–7 (»Dekontaminationsanlagen im Bereich der Medizin«) verwiesen.
Dampfdesinfektionsverfahren Dampfdesinfektionsverfahren dienen vorzugsweise zur Desinfektion von Bettausstattungen (Matratzen, Wäsche und Textilien; ⊡ Abb. 3.4), aber auch von Abfällen, die desinfiziert werden müssen. Der gleichzeitige Einsatz der Anlagen auch zur Desinfektion von Abfällen kann wegen der Geruchsbelästigung und Verschmutzungsgefahr des Apparates für problematisch erachtet werden. Bei entsprechender Trennung ist jedoch auch eine gemeinsame Nutzung der Apparate zur Desinfektion von Betten und Abfällen durchaus denkbar. Das Desinfektionsgut wird in Dampfdesinfektionsapparaten der Einwirkung von gesättigtem Wasserdampf ausgesetzt. Um sicherzustellen, dass alle zu desinfizierenden Oberflächen dem Wasserdampf ungehindert ausgesetzt sind, muss die Luft aus der Desinfektionskammer und dem Gut entfernt werden. Je nach Art der Verfahrensweise ist zu unterscheiden zwischen: a) Dampfströmungsverfahren und b) fraktioniertem Vakuumverfahren (VDV-Verfahren).
⊡ Abb. 3.4. Dampfdesinfektionsapparat mit Matratzenbeschickungswagen
Dampfströmungsverfahren (Wirkungsbereich: ABC)
⊡ Abb. 3.5. Schema des fraktionierten Vakuumverfahrens
Beim Dampfströmungsverfahren wird die Luft aus der Kammer und dem Desinfektionsgut mit Hilfe von gesättigtem Wasserdampf verdrängt. Die Desinfektionstemperatur beträgt 100–105°C bei einer Einwirkzeit von mindestens 15 min. Für poröse Güter kann die Einwirkzeit mehr als 1 h betragen. Das Dampfströmungsverfahren ist geeignet für die Desinfektion von Abfällen, die ausreichend Wasser enthalten, z. B. mikrobiologische Kulturen.
vakuumdicht sein. Das fraktionierte Vakuumverfahren wird vornehmlich zur Desinfektion von porösen Gütern wie Matratzen, Wolldecken und Abfällen verwendet.
Fraktioniertes Vakuumverfahren (VDV-Verfahren)
Das Verfahren (⊡ Abb. 3.5) ist gekennzeichnet durch: 1. Entfernung der Luft aus der Kammer und dem Desinfektionsgut durch mehrmaliges Evakuieren im Wechsel mit Einströmen von Sattdampf; 2. Desinfektion mit Sattdampf; 3. Trocknen des Desinfektionsgutes durch Evakuieren. Zur Durchführung dieses Verfahrens ist Dampf erforderlich, der weitgehend frei von Luft bzw. Fremdgasen ist (vgl. DIN EN 285). Die Desinfektionskammer muss
3.4.6 Einwirkzeiten und Wirkungsbereiche
Einwirkzeiten und Wirkungsbereiche zeigt ⊡ Tab. 3.2. In der »Liste der vom Robert-Koch-Institut geprüften und anerkannten Desinfektionsmittel und -verfahren« (RKI-Liste) sind die Wirkungsbereiche durch Buchstaben gekennzeichnet; es bedeuten: ▬ A: zur Abtötung von vegetativen bakteriellen Keimen einschließlich Mykobakterien sowie von Pilzen einschließlich pilzlicher Sporen geeignet; ▬ B: zur Inaktivierung von Viren geeignet; ▬ C: zur Abtötung von Sporen des Erregers des Milzbrandes geeignet.
3
24
Kapitel 3 · Hygiene in der Medizintechnik
⊡ Tab. 3.2. Einwirkzeiten und Wirkungsbereiche
3
Temperatur [°C]
Dauer [min]
Wirkungsbereich
75
20
A, B (außer Virushepatitis)
105
1
A, B
105
5
A, B, C
3.5
Methoden der Sterilisation
> Definition Sterilisieren ist das Abtöten bzw. das irreversible Inaktivieren aller vermehrungsfähigen Mikroorganismen und ihrer Dauerformen.
3.5.1 Verfahren
Für die Desinfektion von Abfällen gelten z. T. höhere Temperaturen und längere Einwirkzeiten. Zugelassene Verfahren sind der RKI-Liste zu entnehmen. Die Anforderungen, der Betrieb und die Prüfung auf Wirksamkeit von Dampfdesinfektionsapparaten ist in den DIN-Normen 58949 Teil 1–7 (»Dampf-Desinfektionsapparate«) festgelegt.
▬ Physikalische Verfahren – Dampfsterilisation – Heißluftsterilisation ▬ Chemisch-physikalische Verfahren – Ethylenoxidgas-Sterilisation – Formaldehydgas-Sterilisation – H2O2-Niedertemperatur-Plasmasterilisation.
Physikalische Verfahren 3.4.7 Vergleich chemischer und physikalischer
Desinfektionsverfahren Nachteile chemischer Desinfektion ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Wirkungslücken, Kontaminationen (Primäre) bakterielle Resistenz Adaptation (Biofilmbildung) Mögliche Keimverbreitung im Krankenhaus (Zentralanlagen) Konzentrations-, Temperatur-, pH-Abhängigkeit Zersetzbarkeit, Wirkungsverlust Seifen-, Eiweißfehler Eingeschränkte Penetrationsfähigkeit in organisches Material Dekontaminationsgefahr Desinfektionsmittelreste im Material (z. B. Gummi) Materialkorrosion Gesundheitsbelastung für Personal und Patient Arbeitsplatz-, Umweltbelastung Hohe Kosten Erhöhung des Müllvolumens
Dampfsterilisation
Die Sterilisation mit Hilfe von gesättigtem und gespanntem Dampf, auch teilweise als feuchte Hitze bezeichnet, ist das sicherste Sterilisationsverfahren und aufgrund der einfachen Handhabung das wichtigste Verfahren zur Sterilisation von Medizinprodukten. Das Prinzip der Dampfsterilisation beruht auf der Übertragung thermischer Energie auf die kontaminierten Flächen durch Kondensation des gespannten Wasserdampfs. Durch Kondensation des Dampfes am Sterilisiergut wird Energie frei, die eine irreversible Schädigung der Mikroorganismen verursacht. Dampfdruck und -temperatur sind voneinander abhängig: z. B. hat ein gespannter gesättigter Dampf mit der Temperatur 121°C einen Druck von 2 bar (1 bar=105 Pa) oder bei einer Temperatur 134°C einen Druck von 3,2 bar. In der Praxis werden die folgenden 2 Standardbedingungen verwendet: ▬ 121°C bei 15 min Einwirkzeit ▬ 134°C bei 3 min Einwirkzeit (nur für entsprechend hitzebeständige Güter) Erregerresistenz gegen feuchte Hitze. Die Resistenz von
Vorteile physikalischer Verfahren ▬ ▬ ▬ ▬ ▬
Geringere Kosten Geringere Umweltbelastung Höhere Sicherheit Automation möglich Reinigung, Desinfektion, Trocknung in einem Arbeitsgang ▬ Keine Toxizität, keine Allergisierung ▬ Prüfung auf Wirksamkeit
Keimen gegen feuchte Hitze wird in 4 Stufen eingeteilt (⊡ Tab. 3.3) Ein vollständiges Einwirken des Dampfes auf das Sterilisiergut ist nur dann möglich, wenn die Luft aus der Kammer und dem Sterilisiergut entfernt wurde. Verfahren zum Entfernen der Luft aus dem Sterilisiergut. a) Vorvakuumverfahren (⊡ Abb. 3.6)
Beim Vorvakuumverfahren wird die Luft mit Hilfe einer Vakuumpumpe aus der Sterilisatorkammer entfernt. Das Verfahren ist durch folgende Betriebsphasen gekennzeichnet:
25 3.5 · Methoden der Sterilisation
– einmaliges Evakuieren der Sterilisatorkammer auf einen Druck von 20–70 mbar; – Dampfeinlassen bis zum Erreichen des Arbeitsdrucks. Das Vorvakuumverfahren eignet sich nicht zur Sterilisation von porösen Gütern (z. B. Wäsche) in Sterilisierbehältern mit Filter bzw. Ventil im Deckel des Sterilisierbehälters. b) Fraktioniertes Vakuumverfahren (⊡ Abb. 3.7)
Das fraktionierte Vakuumverfahren ist durch folgende Betriebsphasen gekennzeichnet: – mehrfach wiederholtes Evakuieren bis zu einem Druck von 3 mm Innenlumen und bis zu einer Länge von 200 mm Länge sterilisiert werden können. Schläuche mit einem Innenlumen 0,2 mV, ▬ gehäufte monomorphe oder polytope, ventrikuläre Extrasystolen, ▬ ventrikuläre Salven, ▬ vereinzelte Extrasystolen, die in die T-Welle der vorangegangenen Herzaktion fallen (R-auf-T- Phänomen), ▬ Vorhofflimmern oder -flattern, ▬ schwerwiegende Überleitungsstörungen (z. B. totaler AV-Block), ▬ Erregungsausbreitungsstörungen (z. B. Schenkelblock), ▬ systolischer Blutdruck >250 mm Hg, diastolischer Blutdruck >130 mm Hg sowie Blutdruckabfall, ▬ auffällige Atembeschwerden (Dyspnoe), ▬ Zeichen einer beginnenden Linksherzinsuffizienz, ▬ EKG-Zeichen eines frischen Myokardinfarktes.
9.10
Sicherheitstechnische Aspekte
Tretkurbelergometer unterliegen den Vorschriften des Medizinproduktegesetzes (IIa) sowie der DIN VDE 0750-238. Sie müssen einschließlich der evtl. eingebauten nichtinvasiven Blutdruckmessgeräte regelmäßig gewartet werden.
103 Weiterführende Literatur
9.11
Raumanforderung
Eine Raumtemperatur von 18–23°C bei einer relativen Luftfeuchte von 40–60% wird empfohlen. Für die Nutzfläche des Raumes kommen als Richtwert 16 m2 in Betracht. Die Möglichkeit des Umkleidens (Umkleidekabine ca. 3 m2) sowie einer sanitären Einrichtung WC/Dusche (ca. 5 m2) sollten gegeben sein.
Weiterführende Literatur Börger HH (1994) EKG-Informationen, 6. Aufl. Steinkopff, Darmstadt Csapo G (1980) Konventionelle und intrakardiale Elektrokardiographie. Documenta Geigy, Wehr/Baden Erdmann E (2006) Klinische Kardiologie. Springer, Berlin Heidelberg New York Tokio Jung K (1986) Ergometrie in Klinik und Praxis. In: Wehrmedizin und Wehrpharmazie 1: 61–72 Hochrein H et al. (1988) Checkliste Kardiologie. Thieme, Stuttgart Kaltenbach M (1986) Die Dosierung der Ergometerleistung unter Berücksichtigung der Körperoberfläche. In: Medizinische Information. Robert-Bosch-Institut, Berlin Klinge R (2002) Das Elektrokardiogramm, 8. Aufl. Thieme, Stuttgart Löllgen H (1991) Praxis der EKG-Beurteilung. Boehringer, Ingelheim Mellerowicz H, Franz IW (1983) Standardisierung, Kalibrierung und Methodik in der Ergometrie. perimed, Erlangen Olshausen K von (2005) EKG-Information, 8. Aufl. Steinkopff, Darmstadt Trappe H-J, Löllgen H (2000) Leitlinien zur Ergometrie. Z Kardiol 89: 821–837
9
10 Lungenfunktionsdiagnostik R.M. Schlegelmilch, R. Kramme
10.1 Spirometriesysteme 10.1.1 10.1.2 10.1.3 10.1.4 10.1.5
– 105
Einführung – 105 Pneumotachographie – 105 Gerätetechnik – 106 Methodische Grundlagen der Spirometrie – 110 Mitarbeitsfreie Lungenfunktionstests – 114
10.2 Weiterführende kardio-pulmologische Funktionsdiagnostik – 116 10.2.1 10.2.2 10.2.3 10.2.4
10.1
10.2.5 Ergospirometrie – 123 10.2.6 Nichtinvasive Bestimmung des Herzzeitvolumens (HZV) – 126 10.2.7 Metabolisches Aktivitätsmonitoring – 126 10.2.8 Planerische Hinweise und bauliche Voraussetzungen – 127
Literatur
– 128
Übersicht – 116 Bodyplethysmographie – 117 Diffusionskapazität – 120 Stickstoff-Washout-Verfahren zur FRC-Bestimmung – 122
Spirometriesysteme
10.1.1 Einführung
Spirometer sind nicht-invasive Diagnostikgeräte, die zur einfachen Lungenfunktionsprüfung bei pulmonalen Routineuntersuchungen verwendet werden. Die Spirometrie bietet bei geringem Aufwand und kurzer Untersuchungsdauer grundlegende Erkenntnisse über die Art und das Ausmaß pneumologischer Funktionsstörungen. Angesichts der großen Häufigkeit von Atemwegserkrankungen wie Asthma, Bronchitis und Emphysem, gehört die apparative Lungenfunktionsdiagnostik heute zum unentbehrlichen Standard in der Klinik und niedergelassenen Praxis, der Arbeits- und Präventivmedizin sowie Epidemiologie, um sowohl gefährdete als auch bereits erkrankte Patienten untersuchen und adäquat behandeln zu können. Zwei der elementaren Fragen der Lungenfunktionsprüfung können mit Hilfe der Spirometrie beantwortet werden: 1. Wie groß ist das Lungenvolumen, welches ein- oder ausgeatmet werden kann? 2. In welcher Zeit bzw. mit welcher Strömung wird dieses Volumen ein- oder ausgeatmet? Die Atemstromstärke und das daraus resultierende Lungenvolumen werden unmittelbar am Mund des Probanden erfasst. Zur Messung wird ein Mundstück verwendet, sodass die Atemluft direkt über den spirometrischen Sensor ein- bzw. ausgeatmet wird. Gebräuchlich
ist die Registrierung der forcierten Exspiration, also der schnellen Ausatmung nach vollständiger Einatmung, zur Bestimmung der forcierten Vitalkapazität (FVC) und des Einsekundenwertes (FEV1), im Deutschen auch als Atemstoßtest oder Tiffeneau-Test bezeichnet. Die graphische Registrierung dieser Messung kann als forciertes Spirogramm, Volumen gegen die Zeit, oder besser als Fluss-Volumen-Kurve erfolgen. Im Rahmen der forcierten Atmung können mehrere Dutzend Parameter zur Auswertung kommen, die vorwiegend die Größe und Form der Fluss-Volumen-Kurve beschreiben (⊡ Abb. 10.1), wobei FVC und FEV1 die wichtigsten und gebräuchlichsten Messwerte sind. Neben der forcierten Spirometrie kann auch die langsame Spirometrie, also die Registrierung der langsamen In- und Exspiration, durchgeführt werden. Letztere dient zur Erfassung der Lungenteilvolumina (Atemzugvolumen VT, Inspiratorisches und Exspiratorisches Reservevolumen IRV und ERV, Inspiratorische Kapazität IC), die meist jedoch nur im Zusammenhang mit weiterführenden Lungenfunktionsuntersuchungen Verwendung finden (vgl. auch Abschn. 10.2.2 »Bodyplethysmographie«).
10.1.2 Pneumotachographie
Die Grundlage für alle Lungenfunktionsmessungen bildet die Erfassung der Gasströmungsgeschwindigkeit gegen die Zeit, ein Vorgang, der auch als Pneumotachographie bezeichnet wird. Im medizinischen Anwendungsbereich ist die Strömungsgeschwindigkeit
106
Kapitel 10 · Lungenfunktionsdiagnostik
I
a
b
⊡ Abb. 10.1a,b. a Spirogramm und b Fluss-Volumen-Kurve
[cm/s] jedoch nur Mittel zum Zweck. Sie dient nämlich zur Bestimmung der bei bekanntem Sensordurchmesser resultierenden Strömungsmenge [l/s]. Synonym für Strömungsmenge werden auch die Bezeichnungen Strömung, Volumenfluss oder Fluss verwendet. Auch die englische Bezeichnung »Flow Rate«, also Strömungsrate, ist zutreffend, da tatsächlich eine Strömungsmenge pro Zeiteinheit gemessen wird. Der Schweizer Physiologe Fleischer veröffentlichte bereits 1925 grundlegende Arbeiten über die klinische Anwendung der Pneumotachographie. Während noch vor einigen Jahren Pneumotachogramme und Fluss-Volumen-Kurven mittels Schreiber aufgezeichnet und mühsam von Hand ausgewertet werden mussten, wird dies heute von im Spirometer integrierter Mikroelektronik übernommen. Die Atemstromstärke wird dabei fortlaufend elektronisch oder digital zum Atemvolumen integriert. Der Pneumotachograph, also der Flusssensor, der die spirometrische Messung ermöglicht, ist heute Kernstück eines jeden Lungenfunktionsmesssystems, vom kleinen handgehaltenen Peakflowmeter bis hin zum Bodyplethysmographen (⊡ Abb. 10.2).
10.1.3 Gerätetechnik
Wurden in der Vergangenheit noch geschlossene oder halb-offene Messsysteme wie Glocken- oder KeilbagSpirometer verwendet, werden heute wegen der geringeren Baugröße, der für den Patienten angenehmeren Messbedingungen und der weit günstigeren hygienischen Bedingungen ‚offene’ Messgeräte eingesetzt. Offene Systeme sind solche, bei denen der Proband in die freie Atmosphäre (Umgebungsluft) aus- bzw. einatmet. Dies
geschieht i. d. R. über einen ventillosen Flusssensor, der für bestimmte, spezielle Untersuchungen, insbesondere bei weiterführenden Untersuchungsverfahren, auch mit einem Atemventil gekoppelt werden kann. Das Messgerät erfasst den Atemstrom und bildet durch elektronische oder digitale Integration das Volumensignal: . V = ∫Vdt [l]; . dV dabei ist V das geatmete Volumen, V = [l . s–1]; die dt Atemstromstärke. In ⊡ Abb. 10.3 wird das Pneumotachogramm (Atemstrom) dem daraus integrierten Spirogramm (Atemvolumen) gegenübergestellt. Die Aufzeichnung der Atemkurven und die Berechnung abgeleiteter Parameter erfolgt in aller Regel in digitaler Form online in einem eingebauten Mikrocomputer oder einem PC. Messbereich
Der physiologisch erforderliche Messbereich für die Messung der Atemströmung beträgt mindestens 25 ml/s bis 10 l/s, optimal 10 ml/s bis 15 l/s, und benötigt eine Auflösung von 5–10 ml/s. Somit werden sehr hohe Anforderungen an die technische Auslegung des Flusssensors gestellt. Die in der Atemkurve enthaltene Anstiegsgeschwindigkeit benötigt zudem einen linearen Frequenzgang bis mindestens 5 Hz, um den ersten Teil der forcierten Ausatmung korrekt erfassen zu können. Kalibration und Verifikation
Unverzichtbar ist die Möglichkeit zur Kalibration des Sensors bzw. zumindest zur Verifikation der Messwerte. Die Kalibration oder Verifikation wird üblicherweise mit Hilfe einer Handpumpe, die ein bekanntes Volumen
107 10.1 · Spirometriesysteme
⊡ Abb. 10.2. Pneumotachograph (Werksfoto: ndd Medizintechnik AG, Zürich)
tionswerte werden von einem Rechner automatisch aus dem Sensor eingelesen (bspw. von einem programmierten Chip im Stecker). Digitale Systeme, wie z. B. solche mit Ultraschallsensor, benötigen keine laufende Kalibrierung. Bei diesen Systemen ist jedoch eine gelegentliche Volumenverifikation anzuraten. Die American Thoracic Society (ATS) hat Empfehlungen (American Thoracic Society 1995) herausgegeben, die vor Marktzulassung eine Typenprüfung des Spirometers mittels standardisierter Fluss-Volumen-Kurven fordern. Diese Kurven decken den gesamten physiologisch und pathophysiologisch vorkommenden Messbereich ab. Die Typenprüfung findet in unabhängigen Testlabors statt, die motorisierte, prozessorgesteuerte Kalibrationspumpen verwenden, mit denen die Spirometer getestet werden. Nachdem diese Prüfung Teil des in den USA vorgeschriebenen Zulassungsverfahrens ist, kann man davon ausgehen, dass dort vermarktete Spirometer diesen Anforderungen genügen. Vor Beschaffung eines Gerätes sollten deshalb beim Hersteller oder Vertreiber die vom Spirometer erfüllten Genauigkeitsnormen ERS und ATS Spirometrie-Standards (American Thoracic Society 1995, European Respiratory Society 1993) erfragt werden. Hygiene
⊡ Abb. 10.3. Vergleich Pneumotachogramm und Spirogramm
von mindestens 2 l aufweist, durchgeführt. Bei Betätigen der Kalibrationspumpe entsteht eine Strömung, die vom Flusssensor erfasst und anschließend im Gerät zu Volumen integriert wird. Nach einem kompletten Pumpenhub muss das Spirometer das Pumpenvolumen wiedergeben. Durch unterschiedlich schnelle Kolbenbewegung kann eine variable Atemströmung im Bereich bis +10 l/s simuliert werden, um den gesamten Messbereich abzudecken. Die meisten Spirometer verfügen über ein Kalibrationsprogramm, wodurch der Abgleichvorgang erheblich erleichtert wird. In der Kalibrationsroutine wird automatisch ein Mittelwert über mehrere Pumpenhübe gebildet und die Abweichung des Messwertes vom Kalibrationswert direkt angezeigt. Ein entsprechender Kalibrationsfaktor wird dann für weitere Messungen berücksichtigt, bis die nächste Kalibration erfolgt. Die Kalibration muss ohne Berücksichtigung der bei der Messung erforderlichen BTPS-Korrektur (s. unten) durchgeführt werden. Zunehmend werden Messsysteme verwendet, die vorkalibrierte (disposable) Sensoren einsetzen. Die Kalibra-
Wegen der Gefahr einer Kreuzkontamination bei Messungen an unterschiedlichen Personen oder Patienten sind geeignete Maßnahmen zu treffen, um eine am Spirometer erworbene Infektion wirksam und zuverlässig zu vermeiden. Ist der Flusssensor fest installiert und nicht leicht auswechselbar, ist die Verwendung eines disposablen Atemfilters unverzichtbar. Der Atemfilter sollte, wie auch der Sensor selbst, nur einen geringen Widerstand aufweisen, um die Atmung nicht zu behindern. Ist der Flusssensor leicht zu wechseln, muss stets ein gereinigter Sensor verwendet werden. Für normale Untersuchungen wird keine Sterilität des Sensors gefordert; eine Desinfektion der Sensorteile nach Herstellerangaben ist ausreichend. In vielen modernen Spirometern kommen Einmalteile zum Einsatz, wodurch ausreichende Hygiene bei einfacher Handhabung gewährleistet wird. Der Einmalsensor birgt jedoch den Widerspruch in sich, dass auch ein kostengünstiger (Wegwerf-) Sensor eine hohe Messgenauigkeit aufweist. Letztlich sollte der Einmalsensor nicht (viel) teurer sein als ein Atemfilter, jedoch die o. a. Anforderungen an Genauigkeit und Auflösung erfüllen. Anwendungstechnisch vorteilhaft sind solche Sensoren, die Einmalteile verwenden, die lediglich die Hygiene sicherstellen und nicht unmittelbarer Bestandteil des Sensors sind, somit auch keinen direkten Einfluss auf die Messgenauigkeit ausüben. Die Europäische Gesellschaft für Respiration (ERS) hat zu Sensor- und Filterwiderstand, Kalibration und Hygiene Empfehlungen herausgegeben, die Beachtung finden sollten (European Respiratory Society 1993).
10
108
Kapitel 10 · Lungenfunktionsdiagnostik
Umrechnung auf Körperbedingungen BTPS
I
Im offenen Messsystem ist es erforderlich, dass die gemessene Strömung und damit das Volumen auf »Lungenverhältnisse« oder Körperbedingungen BTPS (Body Temperature Pressure Saturated, 37°C, 760 mmHg, 100% relative Feuchte) korrigiert werden. Die Korrektur muss inspiratorisch (1 l Umgebungsluft entspricht ca. 1,1 l Lungenluft) und exspiratorisch (1 l Lungenluft entspricht ca. 0,97 l am Sensor), abhängig von Sensorprinzip und Bauweise erfolgen. Ohne Umrechnung auf BTPS-Bedingungen können erhebliche Abweichungen der Messwerte mit Fehlern von über 10% entstehen. Umrechnungsformeln auf BTPS-Bedingungen finden sich z. B. in (European Respiratory Society 1993). In den heute erhältlichen Spirometern wird üblicherweise automatisch auf BTPS-Bedingungen korrigiert. Im Folgenden werden die Messprinzipen heute gebräuchlicher Flusssensoren und deren mögliche Vor- und Nachteile kurz dargestellt.
Differentialdruck-Flowmeter Die Messung des differentialen Drucks (p1–p2) in einem Messrohr mit integriertem, definierten Widerstand ist die klassische Methode zur Bestimmung der Atemströmung. Die Art des eingesetzten Widerstands bezeichnet die Messmethode. Der turbulente Atemstrom aus der Trachea via Mund wird über einen dem Messaufnehmer vorgeschalteten Rohrstutzen und/oder einen Atemfilter, der als Atemstromgleichrichter dient, »laminarisiert«, da sich der Druckabfall vor und nach dem Widerstand nur bei einem laminaren Atemstrom proportional zur Atemgeschwindigkeit verhält. Je nach Flussrichtung ist der Atemdruck vor dem Widerstand größer als nach dem Widerstand. Die Druckdifferenz vor und nach dem Widerstand ist proportional der Atemstromgeschwindigkeit und deren jeweiligen Änderungen. Die Druckdifferenzen werden fortlaufend über Druckwandler in elektrische Signale übergeführt und nach Digitalisierung weiter verarbeitet. Ein generelles Problem bei allen Flow messenden Systemen, die mit Druckwandlern arbeiten, ist die Nullpunktstabilität. Geringste Unsymmetrien im Messsignal, z. B. Drifts durch Erwärmung des Messwandlers, wirken sich als »künstliche« Strömung aus, die sich laufend als Volumen aufintegriert. Um diesen Effekt zu vermeiden, wird ein Flowbereich definiert, in dem keine Strömung gemessen wird (»tote Zone«) und demnach keine Volumenintegration stattfindet. Dieser Bereich ist möglichst klein zu halten und darf 10–15 ml/s nicht übersteigen. Pneumotachograph nach Fleisch
Das pneumotachographische Messprinzip nach Fleisch (⊡ Abb. 10.4) war bis in die 1980er Jahre das am weitesten
verbreitete Flowmeter. Im Messaufnehmer ist ein Kapillarbündel (Röhrchen) als fester Widerstand integriert. Über weite Messbereiche ist der vielfach geteilte Atemstrom in den einzelnen Kapillaren laminar. Die Druckdifferenz ergibt sich nach dem physikalischen Gesetz von Hagen-Poiseuille und lässt sich bei laminarer Strömung wie folgt ableiten: . 8ηl . ∆p = k .V = 4 V r Hier bedeuten: k Konstante, deren Größe von der Viskosität und der Rohrbeschaffenheit abhängt, l Länge der Röhre, r Röhrenradius, η. Viskositätskonstante, V Volumendurchfluss. Bei dem Pneumotachographen nach Fleisch, der auch als Fleischsches Staurohr bezeichnet wird, erzielt man die Linearität zwischen Druckdifferenz und Strömungsgeschwindigkeit durch Anordnung einer großen Anzahl parallel angeordneter Röhrchen. Diese Linearität der Flussmessung war früher Voraussetzung, um eine direkte Registrierung und Ablesung der Strömung auf einem Schreiber zu ermöglichen. Heute kommen auch vermehrt nichtlineare Systeme zum Einsatz, da Mikroprozessoren zur online Messwertberechnung und Kurvendarstellung eingesetzt werden. Allerdings müssen diese Systeme regelmäßig einer Kalibration oder Verifikation unterzogen werden. Wesentlicher Nachteil beim Fleischschen Rohr und anderen mit Widerständen arbeitenden Pneumotachographen ist die Kontamination mit Sputum, die schon bei kleinsten Tröpfchen zu Widerstandsänderungen und damit zu teils erheblichen Messwertverfälschungen führt. Bei einigen Systemen ist deshalb ein Krümmer vorgeschaltet, um einerseits das Sputum abzufangen und andererseits die Strömung in den nachgeschalteten Sensor zu laminarisieren. Ein weiteres probates Mittel gegen Sputum ist die Verwendung eines Einmalatemfilters, was heute aufgrund der hygienischen Anforderungen Standard sein sollte ( Abschn. 10.1.3 »Gerätetechnik«). Pneumotachograph nach Lilly
Werden Drosselstellen in Kanülen laminar durchströmt, so ergibt sich ein proportionaler Druckabfall bis zu Reynolds-Werten von ca. 10. Dies gilt auch, wenn eine Reihe solcher Drosseln, etwa in Form eines engmaschigen Netzes oder Gitters, parallel angeordnet und gleichmäßig durchströmt wird. Dabei ist ausschlaggebend, dass die Maschenweiten sehr gering und der Durchmesser der Netzflächen relativ groß sind. Eine erhebliche Verbesserung der Linearität des Systems lässt sich durch die Kombination verschiedener Metallnetze erzielen. Allerdings steigt damit auch der Strömungswiderstand an.
109 10.1 · Spirometriesysteme
⊡ Abb. 10.4. Pneumotachograph nach Fleisch (schematisch)
Lamellen-Spirozeptor
Bei diesem pneumotachographischen Prinzip dient eine lamellenartig geschlitzte Folie als Widerstandselement. Auch hier ergibt sich ein zur durchgehenden Strömung proportionaler Druckabfall. Die Lamellen reagieren weniger empfindlich auf Verschmutzung mit Sputum. Der Spirozeptor lässt sich leichter reinigen. Turbulenz-Flowmeter
Neben den beschriebenen Pneumotachographen mit linearen Widerstandselementen gibt es Messinstrumente, die den Druckabfall bei turbulenten Strömungen durch eine variable Öffnung bestimmen. In den meisten Fällen wird dieses Prinzip bei Langzeit-Flow-Monitoring genutzt, bei dem hoch genaue Messungen des Flusses bzw. ein breiter Flussbereich nicht erforderlich sind.
Turbinen-Flowmeter Diese Art von Flowmeter (synonym: digitaler Volumentransducer) wird als Propeller oder Turbine inmitten des Atemstromaufnehmers integriert, so dass die Atemströmung diesen direkt in beiden Flussrichtungen passieren muss. Die damit verbundene Rotation der Turbine oder des Propellerflügels reflektiert oder unterbricht das Licht eines oder mehrerer LEDs. Photodioden registrieren diese Reflexionen oder Unterbrechungen und setzen sie in elektrische Impulse um. Das Atemgasvolumen,
das diesen Transducer passiert, verhält sich proportional zur Gesamtanzahl der Impulse, während der Atemstrom sich proportional zur Häufigkeit dieser erzeugten Impulse verhält.
Hitzedrahtanemometer Das Messelement besteht aus einem strömungsmechanischen Teil (Venturi-Rohr) und zwei geheizten Drähten im Strömungskanal. Beide Heizdrähte sind Bestandteil einer elektrischen Messbrückenschaltung (WheatstoneBrücke). Der eine Draht, bestehend aus zwei unterschiedlich aufgeheizten Platindrähten, erfasst die Temperatur des strömenden Gases. Der zweite Draht wird über eine elektronische Regelsteuerung so versorgt, dass die an das strömende Gas abgegebene Wärmemenge sofort in Form von elektrischer Leistung wieder zugeführt wird. Daraus resultiert ein Gleichgewichtszustand zwischen zugeführter elektrischer Leistung und abgegebener Wärmemenge. Somit ist die zugeführte elektrische Leistung ein Maß für die Strömungsgeschwindigkeit des zu messenden Gases. Ein neueres, verfeinertes Prinzip des Hitzedrahtanemometers (Mass Flow Meter) beruht auf der Bestimmung des Gasmassenflusses, die die Menge der vorbei fließenden Gasmoleküle pro Zeiteinheit bestimmt. Wesentlicher Vorteil dieses Prinzips ist die Unabhängigkeit von der Temperatur und Gaszusammensetzung.
10
110
Kapitel 10 · Lungenfunktionsdiagnostik
Wirbelfluss-Flowmeter
I
Das Phänomen von strömenden Wirbeln wurde bereits 1518 von Leonardo da Vinci beobachtet und aufgezeichnet. Grundsätzlich entstehen Wirbel aus Wellen, die in einer Strömung auf Widerstand stoßen. Beim Wirbelfluss-Flowmeter wird die Atemströmung an einem feststehenden Widerstandselement, dem sog. Bluff Body, vorbeigeleitet, wodurch sich stehende Wirbel bilden. Art und Häufigkeit der Wirbelbildung sind abhängig von der Geschwindigkeit der Atemströmung. Die Anzahl der erzeugten Wirbel kann durch unterschiedliche Messtechniken ermittelt werden: Piezoelektrische Elemente, Temperatursensoren oder optische Lichtfasern. Das Verfahren kann nur unidirektional messen und ist somit für die fortlaufende Spirometrie ungeeignet.
Ultraschall-(Transit-time-) Flowmeter Das Prinzip dieser Methode (⊡ Abb. 10.5) basiert auf der Durchgangszeitdifferenz: Mittels der Fortpflanzungsgeschwindigkeit von akustischen Wellen in einem strömenden Medium kann die Strömungsgeschwindigkeit ermittelt werden. Die Fortpflanzungsgeschwindigkeit der akustischen Wellen erhöht sich um den gleichen Betrag wie die Richtungsgröße des Flussgeschwindigkeitsvektors bei der Schallübertragung. Bei der technischen Umsetzung werden drei Grundprinzipien unterschieden: ▬ Kontinuierliche Phasenverschiebung: hierbei wird die Phasenverschiebung des kontinuierlich übertragenen Ultraschallsignals gemessen. ▬ Impulsphasenverschiebung: die Phasenverschiebung zwischen Abweichungen der Ultraschallsinuswellen wird ermittelt. ▬ Time-of-flight-Impuls: die Durchgangszeit des übertragenen Ultraschalls (Transmitter/Receiver) wird gemessen.
Während das Prinzip der Phasen- und Impulsphasenverschiebung in der Medizin nicht kommerzialisiert wurde, wird das Time-of-flight-Prinzip (Buess et al. 1986) immer häufiger in der Spirometrie eingesetzt und hat sich in der Praxis durchgesetzt und bewährt. Bei diesem Verfahren sind schräg zum Atemrohr Ultraschallelemente angeordnet, die kurze Schallimpulse (»Klicks«) emittieren. Die Transitzeiten für die Impulse werden abwechselnd in beiden Richtungen ermittelt. Die Differenz der Transitzeiten ist proportional zur Strömungsgeschwindigkeit, unabhängig von allen anderen Störeinflüssen wie Temperatur, Feuchte oder Viskosität des Atemgases. In einer technischen Realisierung des Ultraschall-Flowmeters wird ein disposables Atemrohr verwendet, das den Ultraschallelementen gegenüberliegende, durch Folien verschlossene Fenster aufweist, die für den Ultraschall transparent, aber für Keime nicht durchlässig sind. Das Verfahren besticht durch seine hohe Messgenauigkeit, seine Kalibrationsfreiheit, die absolute Hygiene und die zusätzliche Möglichkeit, die Molmasse des Atemgases zu ermitteln. Die Molmasse, also das spezifische Gewicht des Gases, ergibt sich aus der Summe der Transitzeiten. Bei der Ausatmung ergibt sich eine Molmassekurve, die der CO2-Kurve ähnlich ist (vgl. Abschn. 10.1.5 »Mitarbeitsfreie Lungenfunktionstests«).
Peak-Flowmeter Zur Langzeitüberwachung oder therapeutischen Kontrolle von Patienten mit obstruktiven Lungenkrankheiten eignet sich die Peak-Flowmetrie. Das klassische, mechanische Peak-Flowmeter ist eine einfache Konstruktion, die aus einem Messrohr mit einer Skalierung (l/min) und einem Hubkolben besteht. Die forcierte Exspiration bewegt den durch die Atemluft angetriebenen Hubkolben auf der Skalierung nach oben. Der maximale exspiratorische Spitzenfluss (PEF = Peak Expiratory Flow) kann so ermittelt werden. Moderne Peak-Flowmeter verwenden eines der oben beschriebenen Messprinzipien, in aller Regel eine Turbine, und beinhalten eine elektronische Auswertung, meist mit Speicher und Tagebuchfunktion, teilweise mit Datenübertragung per Modem. In regelmäßigem Turnus sollte kalibriert werden.
10.1.4 Methodische Grundlagen der Spirometrie
Statische Lungenvolumina
⊡ Abb. 10.5. Prinzip des Ultraschall Flowmeter (ndd Medizintechnik AG, Zürich)
Der Gastransport in den Lungen hängt davon ab, wie schnell und gleichmäßig sich das Lungenvolumen ändern kann. Statische Lungenvolumina werden bei langsamer Atmung und mit Methoden gemessen, bei denen die Gasströmungsgeschwindigkeit eine untergeordnete Rolle spielt. Werden zwei oder mehrere Teilvolumina zusammen gemessen, spricht man von einer Kapazität. Das Lun-
111 10.1 · Spirometriesysteme
⊡ Tab. 10.1. Bewertung der Flusssensor-Prinzipien Vorteile
Nachteile
Pneumotachograph nach Fleisch
Bewährtes Messprinzip Mechanisch sehr stabil
Verschiedene Sensoren für unterschiedliche Messbereiche Empfindlich auf Verunreinigung Schwierig zu reinigen Kalibration erforderlich
Pneumotachograph nach Lilly
Bewährtes Messprinzip Mechanisch stabil Reinigung möglich
Empfindlich auf Verunreinigung Kalibration erforderlich
Lamellen-Spirozeptor
Bewährtes Messprinzip Geringes Gewicht Einfache Reinigung
Kalibration erforderlich
Turbulenz-Flowmeter
Einfacher Sensoraufbau, auch als Einmalsensor verfügbar Klein, leicht
Geringer Messbereich Kalibration erforderlich
Turbinen-Flowmeter
Einfacher Sensoraufbau Klein, leicht
Häufige Reinigung und Kalibration erforderlich
Hitzedrahtanemometer
In der Ausführung als Massenflowmeter gute Genauigkeit
Einfaches Anemometer zu ungenau Kalibration erforderlich
Wirbelfluss-Flowmeter
Einfacher Sensoraufbau
Nicht in der Routine bewährt Nur unidirektional Kalibrationsprobleme
Ultraschall-Flowmeter
Einfacher Sensoraufbau Leicht, klein, hohe Genauigkeit, kalibrationsfrei
genvolumen am Ende einer tiefen Einatmung nennt man die totale Lungenkapazität (TLC). Sie setzt sich aus der Summe des Residualvolumens (RV), das nicht ausgeatmet werden kann, und der Vitalkapazität (VC) zusammen. Ermittelt wird die TLC mit der Indikatorgasmethode oder der Bodyplethysmographie in Kombination mit der Spirometrie. Die Totalkapazität ist ein Maß der maximalen Lungengröße. Die Vitalkapazität (VC) ist das maximale Volumen, das nach einer kompletten Exspiration inspiriert (IVC) oder nach einer kompletten Inspiration exspiriert (EVC) werden kann. Die Vitalkapazität umfasst folgende Teilvolumina: ▬ Atemzugvolumen (VT), das während des Atemzyklus ein- und ausgeatmet wird; ▬ Inspiratorisches Reservevolumen (IRV), das nach einer normalen Inspiration noch zusätzlich maximal eingeatmet werden kann; ▬ Exspiratorisches Reservevolumen (ERV), das von der Atemruhelage aus exspiriert werden kann; ▬ Inspiratorische Kapazität (IC), die Summe aus VT und IRV. Die funktionelle Residualkapazität (FRC) kann wie die TLC nur mit aufwändigeren Methoden gemessen werden. Das Residualvolumen ist die Differenz zwischen der funk-
tionellen Residualkapazität und dem exspiratorischen Reservevolumen ( Abschn. 10.2 »Weiterführende kardiopulmologische Funktionsdiagnostik«). Die spirometrische Erfassung der Lungenteilvolumina ohne Bestimmung der FRC macht nur bei besonderen Fragestellungen Sinn und wird deshalb in der Routine wenig durchgeführt.
Dynamische Lungenvolumina Die Bestimmung der dynamischen Lungenvolumina, allen voran der forcierten Vitalkapazität und des Einsekundenvolumens FEV1, gehört zur internistischen Basisdiagnostik. Die forcierte Exspiration liefert dabei wesentliche Hinweise nicht nur über das Vorliegen einer Obstruktion der Atemwege im Sinne einer Querschnittsreduktion, sondern auch über einen möglichen Retraktionsverlust der Lunge, einen damit einhergehenden Elastizitätsverlust und eine Instabilität der Atemwege. Die Verringerung der Lungenelastizität spiegelt meist den Verlust an funktioneller Gewebsstruktur wider, wodurch die Lunge an Gasaustauschoberfläche verliert. Höherer Ventilationsbedarf und geringere maximale Sauerstoffaufnahme sind die Folge. Die forcierte Inspiration kann zur Erfassung einer extrathorakalen Obstruktion, z. B. einer Stenose in der Trachea, dienen. Wurde in der Vergangenheit aus techni-
10
112
I
Kapitel 10 · Lungenfunktionsdiagnostik
schen Gründen vorwiegend nur das forcierte Spirogramm aufgezeichnet, wird heute üblicherweise die Fluss-Volumen-Kurve online dargestellt. Der zeitliche Verlauf des Spirogramms zeigt auf den ersten Blick die Ausatemzeit, die bei einem Lungengesunden drei, beim obstruktiven Patienten allerdings bis zu 10 s und mehr beträgt. Das forcierte Spirogramm hat die Form einer exponentiellen Funktion, seine Formbewertung benötigt somit einiges Verständnis. Im Gegensatz dazu bewirkt die Darstellung in den Fluss-Volumen-Koordinaten eine Linearisierung: Beim Lungengesunden ergibt sich nach schnellem Anstieg zum Peak Flow ein geradliniger Abfall. Die Abweichung von der Geraden, die konkave Formbildung, gleichbedeutend mit einer Flussverminderung, ist augenfällig und kann einfach erkannt und interpretiert werden. Die nachfolgende ⊡ Tab. 10.2 enthält die wichtigsten Parameter des forcierten Spirogramms bzw. der Fluss-Volumen-Kurve. Die Liste der aus dem forcierten Spirogramm und der Fluss-Volumen-Kurve abgeleiteten Parameter ließe sich (fast) beliebig fortsetzen. Neben der numerischen Auswertung sollte die Formanalyse der Fluss-Volumen-Kurve unbedingt Beachtung finden (⊡ Abb. 10.6a–e).
Kurvendarstellung, Ergebnisse Die online Darstellung und Dokumentation der FlussVolumen-Kurve kann mittlerweile als in der Spirometrie üblicher Standard angesehen werden. Schließlich ist sie
⊡ Tab. 10.2. Die wichtigsten Parameter des forcierten Spirogramms und der Fluss-Volumen-Kurve Parameter
Dimension
Beschreibung
FVC
l
Forc. Vitalkapazität
FEV1
l
Einsekundenwert
FEV1/FVC
%
Rel. Einsekundenwert
FEVt
l
z. B. FEV0.5, FEV1, FEV2
PEF
l/s
Peak Flow
FEF 25/25
l/s
Mittlerer Fluss (forc. Spirogramm)
MEF 25
l/s
Maximaler Fluss nach 25% der Ausatmung
MEF 50
l/s
Maximaler Fluss nach 50% der Ausatmung
MEF 75
l/s
Maximaler Fluss nach 75% der Ausatmung
MTT
s
Mean Transit Time
FIV1
l
Insp. Einsekundenwert
MIF 50
l/s
Maximaler Fluss nach 50% der Einatmung
in Deutschland auch Voraussetzung für die Abrechenbarkeit nach den ärztlichen Gebührenordnungen (EBM und GOÄ). Auch die fortlaufende Messung des gesamten Atemzyklus und Dokumentation der forcierten In- und Exspiration wird dort gefordert. Die Kurven sollten in ausreichender Größe dargestellt werden. Bei der Wiedergabe der Fluss-Volumen-Kurve ist das xy-Verhältnis, der sog. Aspect Ratio, wichtig, um einen Kurvenvergleich, z. B. vor und nach Gabe von Broncholytika, und eine Formanalyse vornehmen zu können.
Praktische Hinweise zur Durchführung Grundsätzlich gilt für jede Lungenfunktionsprüfung, dass die Qualität der Messung von der Kooperation des Probanden und den (anspornenden) Anleitungen des Personals abhängt. Nachdem das Lungenfunktionsgerät vorbereitet wurde (Überprüfung des Gerätes nach Einschaltung, neues Einmalmundstück oder Atemfilter aufsetzen, Kalibration nach Herstellerangaben durchführen, evtl. neue Schlauchsysteme verwenden etc.), wird dem Probanden der Messvorgang erläutert. Vor und während jeder Messung erfolgt die überaus wichtige Erläuterung des Atemmanövers, vor allem der Forcierung und die Bedeutung der vollständigen Aus- bzw. Einatmung. Der Proband sollte frei und ungehindert atmen können. Weiterhin muss der Proband eine Nasenklemme tragen. Eine Probemessung vor der eigentlichen Messung ist zu empfehlen. Alle Tests sind in einheitlicher Position durchzuführen, in der Regel sitzend. Bei Reihenuntersuchungen oder arbeitsmedizinischen Untersuchungen kann auch eine stehende Position gewählt werden. Bei Kindern und älteren Patienten, die das Mundstück mit den Lippen nicht fest umschließen können, ist die Verwendung eines Mundstücks mit Dichtlippe sinnvoll. Für Kinder sind kleinere Mundstücke erforderlich. Die Verwendung eines Einmalatemfilters sollte zum einen aufgrund der hygienischen Erfordernis und zum anderen als Schutzvorrichtung des wieder verwendbaren Sensors gegenüber Sputum obligat sein. Bei neueren Geräten finden Einmalsensoren Anwendung, die eine Kreuzkontamination verhindern und deshalb keine Atemfilter benötigen. Sowohl die ERS (Europäische Gesellschaft für Respiration) als auch die ATS (American Thoracic Society) fordern in ihren Standards, dass regelmäßig, mindestens einmal täglich, eine Volumenkalibration mit einer Kalibrationspumpe durchgeführt werden sollte. Auch bei einem kalibrationsfreien System sollte einmal monatlich eine Volumenverifikation stattfinden. Empfehlung für die Messung zur Bestimmung der Vitalkapazität (und Teilvolumina) in Ruhe. Der Proband
atmet in Atemruhelage. Nach einigen Atemzyklen erfolgt nach Anweisung des Untersuchers eine maximale, langsame, kontinuierliche Einatmung, danach eine lang-
113 10.1 · Spirometriesysteme
⊡ Abb. 10.6a–e. Typische Fluss-Volumen-Kurven bei a Normalbefund, b Obstruktion, c Restriktion, d Emphysem und e Stenosen
same, vollständige Ausatmung und wieder eine vollständige Einatmung. Der Atemzyklus sollte wiederholt werden. Die wiederholt gemessenen Werte sollten sich nicht mehr als 5% unterscheiden. Empfehlungen für die forcierte Messung (forciertes Spirogramm und/oder Fluss-Volumen-Messung). Zunächst
atmet der Proband in Ruhelage. Nach Anweisung erfolgt eine maximale Einatmung, dann eine forcierte, maximale Ausatmung. Der Vorgang wird mindestens zweimal wiederholt. Die Atemmanöver sollten klar angewiesen werden. Insbesondere die Forcierung und die lange Ausatmung benötigt eine anspornende Unterstützung. Zur Auswertung werden die aus den einzelnen forcierten Atemzyklen gewonnenen Kurven herangezogen. Neuzeitliche Auswerteprogramme vergleichen die Kurven
und geben einen Warnhinweis, wenn die Qualitätsstandards [ERS, ATS] nicht eingehalten wurden. Entweder werden die jeweils größten Werte aus verschiedenen Kurven genommen oder die Kurve mit der größten Summe aus FVC und FEV1 für die Auswertung herangezogen. Mögliche Fehlerquellen: Durch schlechte Kooperation des Probanden wird der PEF zu spät erreicht oder ist zu klein. Kleine MEF-Werte können von fehlenden Nasenklemmen oder nicht richtig umschlossenen Mundstücken ausgehen. Deformierte Kurven und Zacken können durch Husten entstehen. Kein FEV1-Wert erscheint, wenn nicht lange genug ausgeatmet oder die Atmung unterbrochen wird. Sehr unterschiedliche Kurven lassen auf mangelnde Motivation des Probanden schließen. Bei guter Mitarbeit ergeben sich praktisch deckungsgleiche Fluss-Volumen-Kurven.
10
114
I
Kapitel 10 · Lungenfunktionsdiagnostik
Anhand der Auswertung kann eine erste Einteilung des Befundes in normal, obstruktiv oder restriktiv erfolgen (⊡ Abb. 10.6a–e). Für die häufig vorkommenden obstruktiven Störungen kann zudem der Schweregrad beurteilt werden.
Referenzwerte Die Auswertung spirometrischer Funktionsuntersuchungen erfolgt durch den Vergleich der Messwerte mit Referenzwerten, die auch als Norm- oder Sollwerte bezeichnet werden. Als wesentliche Bezugsgrößen werden für die Ermittlung dieser Referenzwerte das Alter, die Größe und das Geschlecht des Probanden herangezogen. Die Sollwerte ergeben sich aus Gleichungen, die von den Fachgesellschaften empfohlen und veröffentlicht werden. Im Sollwertvergleich sollte in jedem Fall die Standardabweichung für den Parameter, also das Maß für die Streuung des Wertes in der (lungengesunden) Vergleichspopulation, berücksichtigt werden. Die Bildung des Residuums R=
M – S, SD
wobei R das Residuum, M der Messwert, S der Sollwert und SD die Standardabweichung sind, ist zu empfehlen, um den Messwert im Vergleich mit der Verteilung in der Grundpopulation einordnen zu können. Nur so lassen sich signifikante Abweichungen erkennen und bewerten. Die großen Fachgesellschaften ERS und ATS (American Thoracic Society 1995, European Respiratory Society 1993) haben Sollwerte herausgegeben, die vorwiegend an Personen kaukasischer Abstammung erhoben wurden. Diese europäischen und amerikanischen Sollwerte unterscheiden sich nicht wesentlich. Bei der Beurteilung der Lungenfunktion von Personen anderer ethnischer Abstammung müssen entweder speziell für diesen Typ erhobene Sollwerte, z. B. nationaler Fachgesellschaften, verwendet werden oder zumindest eine prozentuale Anpassung der kaukasischen Sollwerte Berücksichtigung finden. In rechnergestützten Lungenfunktionsgeräten sind Sollwertformeln, in international vertriebenen Geräten unterschiedliche Sollwertsätze, programmiert, die zum Ist-Sollwertvergleich dienen. Im Benutzerhandbuch des Gerätes sollten sich Hinweise auf den Ursprung der Sollwerte mit Literaturangabe finden lassen. Im Ergebnisprotokoll sollte neben den Mess- und Sollwerten oder deren prozentualen Abweichung unbedingt ein Marker für die signifikante Abweichung vom Sollwert, also die Überschreitung bestimmter Grenzen, z. B. halbe oder ganze Standardabweichung, angegeben sein. Für Kinder und Jugendliche im Alter bis 18 Jahre ist die Verwendung pädiatrischer Sollwerte zu empfehlen.
10.1.5 Mitarbeitsfreie Lungenfunktionstests
Die Spirometrie ist seit mehr als 50 Jahren in der klinischen Routine eingeführt. Ihr hoher Stellenwert wurde in zahllosen Publikationen dokumentiert. So lässt sich durch den Atemstoßtest die Mortalität besser voraussagen als durch Rauchverhalten, zuvor bestehende kardio-vaskuläre Erkrankung, Blutdruck oder Geschlecht (Petty et al. 1976). So wertvoll die Ergebnisse des Atemstoßtestes sind, so schwierig gestaltet sich die Sicherung und Kontrolle der Mitarbeit des Probanden. Auch in gut ausgestatteten Lungenfunktionslabors mit gut geschultem Personal ist der Anleitung und Motivation von Kindern und älteren Menschen und von fremdsprachigen Mitbürgern Grenzen gesetzt. Früher wurden mitarbeitsfreie Tests vor allem für den pädiatrischen Bereich, für epidemiologische und arbeitsmedizinische Reihenuntersuchungen gefordert. Durch die umwälzende demographische Veränderung mit dramatischer Zunahme des älteren Bevölkerungsteils stellt sich diese Erfordernis heute mit größerer Dringlichkeit denn je. Obwohl FEV1 bzw. FEV1/FEVC als ‚Goldstandard’ zur Erkennung obstruktiver Störungen anerkannt ist, scheint es gerade bei älteren Probanden besser geeignete, spezifischere Parameter zu geben, die mit Dyspnoe, also Kurzatmigkeit, korrelieren. In den letzten Jahren wurden deshalb neue, (weitgehend) mitarbeitsfreie Methoden und Techniken entwickelt, die zum Teil noch auf ihre Kommerzialisierung warten. Im Folgenden soll eine Übersicht über bewährte und neue Entwicklungen auf diesem Gebiet gegeben werden.
Ultraschallpneumographie (UPG) Im Abschn. 10.1.3 »Gerätetechnik« wurde bereits der Ultraschall-Sensor beschrieben. Aus der Summe der damit gemessenen Transit-Zeiten lässt sich die Molmasse, das spezifische Gewicht des Atemgases, ohne Mehraufwand in Echtzeit ermitteln. Während bei der Inspiration Umgebungsluft über den Sensor eingeatmet wird, verändert sich die Molmasse bei Ausatmung durch die Abnahme des Sauerstoffanteils und die Zunahme der Kohlensäurekonzentration (CO2 ist deutlich schwerer als O2). Wird die Molmassekurve während der Ausatmung registriert, so verhält sie sich ähnlich einer CO2-Kurve. Die Ultraschallpneumographie, kurz UPG genannt, wendet die wissenschaftlichen Erkenntnisse vieler Jahrzehnte an, in denen die CO2-Ausatmungskurve studiert und klinisch erprobt wurde. Die damals sehr aufwändige Bestimmung der Atemvolumina mit gleichzeitiger, schneller Gasanalyse, z. B. mittels Massenspektrometrie, wird jetzt durch die instantane und absolut synchrone Messung von Strömung, Volumen und Molmasse in der UPG auf elegante und preisgünstige Weise ersetzt. Die Bestimmung der Molmasse wird zwar durch den
115 10.1 · Spirometriesysteme
erheblichen Einfluss von Temperatur und Feuchte des Atemgases erschwert, doch zeigen die neuesten Studien, dass auch die »native« Molmasse, also auch die unkorrigierten Transit-Zeiten-Werte, verwendet werden können. Der Proband atmet am UPG-Sensor für einige Minuten normal und ruhig, also ohne Durchführung bestimmter Atemmanöver (⊡ Abb. 10.7). In der Auswertung kommen statistische Verfahren zur Anwendung, die die typische »Molmassen-Kurve« für diesen Probanden bildet und auswertet. Die Kurvenform beinhaltet Informationen über die Distribution des Atemgases in der Lunge. Erste klinische Studien (Gappa et al. 2005, Jensen et al. 2005) zeigen eine hohe Korrelation mit FEV1 und FEV1/FVC sowie zuverlässige Aussagen über das Ausmaß der Obstruktion.
Negative Expiratory Pressure Methode (NEP) Bei dieser Methode wird dem Pneumotachographen ein T-Stück vorgeschaltet. An einen T-Anschluss wird hinter einem schnellen Ventil eine Sogquelle (Staubsauger) angeschlossen. Der Proband atmet in Ruheatmung am Pneumotachographen. Während einer Exspiration wird das Ventil geöffnet und es entsteht eine spontane maximale exspiratorische Fluss-Volumen-Kurve. Mehrere solcher Kurven werden randomisiert aufgenommen und mit
der mittleren Ruhekurve verglichen. Der Abstand beider Kurventypen ist ein Maß für die Flow-Reserve, die unter Belastung benötigt wird. Eine Flussbegrenzung lässt sich leicht erkennen, wenn nämlich maximale und Ruhekurve aufeinander treffen. Das System liefert zuverlässige und gerade bei älteren Personen klinisch relevante Werte. Es ist bisher nicht kommerziell verfügbar.
Widerstandsmessungen Forced Oscillation Technique
Dieses seit den 1970er Jahren bekannte Prinzip (Oostveen et al. 2003) verwendet einen an den Flusssensor angedockten Lautsprecher, ein Widerstandselement und einen Druckwandler. Der Ruheatmung des Patienten werden durch den Lautsprecher feine Druckschwankungen überlagert, die vom respiratorischen Takt mit einer Phasenverschiebung wiedergegeben werden. In einem Frequenz-Phasen-Diagramm erfolgt eine Auswertung, die im Wesentlichen den Real- und Imaginärteil des Atemwiderstandes ausgibt. Das Verfahren wird heute in Form der Impulsoszillometrie vermarktet und v. a. in der Pädiatrie und bei Pharmastudien verwendet. Aufgrund seiner Komplexität, der relativ hohen Kosten und der hygienischen Kompromisse ist einer Anwendung in der Routine Grenzen gesetzt. Monofrequente oszillatorische Widerstandsmessung
Dieses seit Jahrzehnten bewährte Verfahren (Schmidt 1996, Ulmer et al. 2003) ist die einfache Variante des o. g. Prinzips. Statt eines Lautsprechers wird eine kleine Sinuspumpe verwendet. Die Auswertung liefert wiederum Widerstand (Resistance) und Phase (Reaktanz). In der klinischen Routine zeigt sich jedoch, dass der oszillatorische Widerstand nur bedingt mit dem FEV1 korreliert, eine geringere Spezifität aufweist und somit nur als Orientierung oder zum Screening eingesetzt werden kann. Unterbrecher-Methode
⊡ Abb. 10.7. Ultraschallpneumographie bei einem Kind (Werksfoto: ndd Medizintechnik AG, Zürich)
Dieses ebenfalls als Interruptor- oder Shutter-Methode bekannte Verfahren (Schmidt 1996, Ulmer et al. 2003) wurde parallel zur oszillatorischen Widerstandsmessung eingeführt. Es verwendet einen Unterbrecher (Shutter), der den exspiratorischen Atemstrom für kurze Zeit (100 Millisekunden) unterbricht und den Atemweg dabei nach außen verschließt. Während des Verschlusses steigt der Munddruck an und gleicht sich (weitgehend) mit dem Alveolardruck aus. Das Verfahren wird mittlerweile in Kombination mit einfachen Spirometern angeboten und stellt eine kostengünstige Erweiterung der Spirometrie dar. Leider gilt für seine Aussagekraft das gleiche wie für die oszillatorische Widerstandsmessung, deshalb kann das Verfahren nur als Ergänzung und nicht als Ersatz für die Spirometrie dienen.
10
116
Kapitel 10 · Lungenfunktionsdiagnostik
10.2
I
Weiterführende kardio-pulmologische Funktionsdiagnostik
10.2.1 Übersicht
Im Gegensatz zur einfachen Spirometrie erfordert eine weiterführende pulmologische Funktionsdiagnostik einen erheblich größeren methodischen, apparativen und personellen Aufwand. Sie wird deshalb in aller Regel nur in den internistisch-pneumologischen Fachabteilungen der Krankenhäuser und den Facharztpraxen durchgeführt. Die langsame und forcierte Spirometrie bleibt jedoch die Grundlage einer jeden Lungenfunktionsuntersuchung. Sie findet sich in allen aufwändigeren Geräten wieder und bleibt damit zentraler Ausgangspunkt für alle weitergehenden Verfahren. Unter den anspruchsvolleren Verfahren nimmt die Bodyplethysmographie mit der Messung der Lungenteilvolumina und des Atemwegswiderstands den ersten Platz ein. Die Messung der Diffusion nach der »Single-BreathMethode« und die Bestimmung der FRC mittels N2-Auswaschverfahren, in den englischsprachigen Ländern für die Routine häufig bevorzugt, werden auch hierzulande vermehrt eingesetzt. Die Gasdilutionsmethode im »geschlossenen System«, in früheren Jahren die wohl am häufigsten verwendete Methode zur Bestimmung der FRC, wird nicht mehr vermarktet. Sie verschwindet wegen ihrer inakzeptablen Hygiene mehr und mehr aus den Labors und wird deshalb hier nicht mehr dargestellt. Daneben werden eine Vielzahl von mehr oder weniger aufwändigen Untersuchungstechniken angewandt, die sich aber allesamt nicht in der breiten klinischen Routine durchsetzen konnten. Eine Übersicht über die wichtigsten Verfahren gibt ⊡ Tab. 10.3. Schließlich ist die Ergospirometrie, also die Belastungsuntersuchung mit Bestimmung des Gasaustauschs, zu ei-
nem wichtigen Instrument bei der Beurteilung ventilatorischer und kardialer Leistungseinschränkungen geworden. Gerade gutachterliche Fragestellungen kommen nicht ohne diese objektive Methode zur globalen Beurteilung und Einstufung krankheitsbedingter Leistungsverminderung aus. Das Interesse an der fortlaufenden Messung von physischer Aktivität und metabolischem Monitoring hat in der letzten Zeit geradezu explosionsartig zugenommen. Denn es gibt kaum einen Bereich der Medizin, von der Rehabilitation obstruktiv Kranker bis hin zur Demenzprophylaxe, in dem die Bedeutung physischer Aktivität zur Verbesserung des Krankheitsbildes, zur Genesung und insbesondere zur Prävention nicht erkannt und publiziert wurde. Trotz der vielen technischen Innovationen, die die Durchführung der Ergospirometrie erheblich erleichtert haben, bleibt sie ein insgesamt anspruchsvolles Messverfahren, sowohl in Bezug auf den zeitlichen Aufwand als auch auf die Komplexität der Auswertung. Für das Aktivitätsmonitoring kommen deshalb wesentlich kostengünstigere und einfach anzuwendende, tragbare Monitore zur Anwendung. Medizintechnik ist ein Teil der IT-Branche. Sie lebt in den gleichen rasanten Innovationszyklen und kann sich dem allgemeinen Preisverfall, der vom Massenmarkt der Mikroelektronik ausgeht, nicht entziehen. Musste man Mitte der 1970er Jahre für die Anschaffung eines computerisierten Bodyplethysmographen noch rund 100.000 € ausgeben, genügen heute weit weniger als 15.000 €, um ein qualitativ vergleichbares, jedoch wesentlich bedienungsfreundlicheres Gerät zu erstehen. Kaum ein Gerät am Markt kommt ohne Mikroelektronik, PC, Microsoft Windows, Vernetzung, Einbindung ins Internet aus, was nicht nur zu Kostenvorteilen für den Anwender, sondern zu wesentlich vereinfachter Bedienung und standardisierter Kommunikation im Labor-, Praxis- oder Krankenhausnetzwerk führte.
⊡ Tab. 10.3. Verfahren und Parameter weiterführender Lungenfunktionsdiagnostik Verfahren
Hauptparameter
Abgeleitete Parameter
Bodyplethysmographie
Intrathorakales Gasvolumen ITGV
FRC, RV, TLC
Bodyplethysmographie
Atemwegswiderstand RAW
GAW, sRAW, sGAW
Compliancebestimmung
statische Compliance Cstat
Pmi
Compliancebestimmung
dynamische Compliance Cdyn
Atemarbeit
Atemantriebsmessung
P0,1, pmax
Diffusion Single-Breath
Transferfaktor TLCO
KCO, VA, TLCSB
Diffusion Single-Breath mit O2
Membranfaktor DM
Kapillares Blutvolumen VC
Diffusion Steady-state
CO-Diffusion DLCO
IntraBreath-Verfahren
CO-Diffusion DLCO
Herzzeitvolumen Qc
N2-Washout
FRC
RV, TLC, Distribution
117 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
10.2.2 Bodyplethysmographie
Physikalische und methodische Grundlagen Ein Bodyplethysmograph, auch Ganzkörperplethysmograph genannt, besteht aus einer abgeschlossenen Kammer, ähnlich einer Telefonzelle, in die sich der Patient begibt (⊡ Abb. 10.8). Die durch die Atmung des Patienten hervorgerufenen thorakalen Bewegungen wirken sich im Kammerinneren als Volumen- und Druckänderungen aus, die erfasst und ausgewertet werden. Die Grundlagen der heutigen Bodyplethysmographie, deren Erarbeitung wir DuBois in den USA und Ulmer (Ulmer et al. 2003) in Deutschland zu verdanken haben, reichen zurück in die 1950er und frühen 1960er Jahre. Historisch unterscheiden wir die sog. volumenkonstante und die druckkonstante Methode. Bei der letztgenannten atmet der in der Kammer sitzende Proband über ein Rohr ins Freie, wodurch im Kammerinneren die totale thorakale Volumenverschiebung gemessen werden kann. Aus messtechnischen Gründen hat sich jedoch das volumenkonstante Prinzip durchgesetzt, das praktisch in allen modernen Geräten angewandt wird. Dabei atmet der Proband innerhalb der Kammer über einen Flusssensor und einen Verschlussmechanismus (Shutter), mit dem die Atmung kurzzeitig unterbrochen werden kann. Unmittelbares Ziel der Bodyplethysmographie ist die Bestimmung des Alveolardrucks, der durch Kompression bzw. Dekompression des im Thorax eingeschlossenen Gasvolumens entsteht. Es sei darauf hingewiesen, dass es nur darum geht, diesen (kleinen) kompressiblen Volumenanteil, der
nach dem Boyle-Mariotte-Gesetz (pV=const.) proportional zum Alveolardruck ist und Fluss fördernd wirkt, zu bestimmen. Gleichzeitig wird die durch den Alveolardruck erzeugte Strömung und das geatmete Lungenvolumen am Mund pneumotachographisch erfasst. Die Thoraxbewegung führt also zu einer Volumen- und dazu proportionalen alveolären Druckänderung innerhalb der Lunge, die sich in der Kammer als identische Volumenänderung auswirkt. Die Volumenänderung in der Kammer hat wiederum nach dem Boyle-Mariotte-Gesetz ihrerseits eine Kammerdruckänderung zur Folge (⊡ Abb. 10.9). In einem landläufig als »Kammereichung« bezeichneten Verfahren wird der Proportionalitätsfaktor zwischen Kammervolumenänderung und Kammerdruckänderung bestimmt. Hierzu wird bei besseren Geräten eine in die Kammer eingebaute motorisierte Kolbenpumpe benutzt, deren fester Hub von z. B. 50 ml als Kammerdruckauslenkung registriert wird. Die Kalibration der Kammer ist normalerweise stabil und muss nur selten kontrolliert werden.
Bestimmung des intrathorakalen Gasvolumens Bei Atembewegungen des Patienten gegen den Verschluss am Mund kommt es – Druckausgleich zwischen Mund und Alveolarraum vorausgesetzt – zu einer thorakalen Volumenverschiebung, die eine proportionale Alveolardruckänderung auslöst. Bei einer Registrierung des Munddrucks gegen den Kammerdruck während Verschluss kann der Proportionalitätsfaktor zwischen Alveolardruck und Kammerdruck bestimmt werden. Gleichzeitig lässt
⊡ Abb. 10.8. Bodyplethysmograph (Werksfoto: Viasys GmbH, Höchberg)
10
118
Kapitel 10 · Lungenfunktionsdiagnostik
I
⊡ Abb. 10.9. Das volumenkonstante bodyplethysmographische Kammerprinzip
sich aus dem Verhältnis von Alveolardruck- und Lungenvolumenänderung das gesamte bei Verschluss in der Lunge befindliche Lungenvolumen, das als intrathorakales Gasvolumen ITGV oder auch IGV bezeichnet wird, sehr einfach berechnen: PK ITGV = kα . [l]. PM Dabei sind pK der Kammerdruck [hPa], pM der Munddruck und kα eine Konstante, die abhängig ist von der Kammereichung, dem Kammervolumen, dem Körpervolumen des Patienten und dem Barometerdruck. Erfolgt der Verschluss am Ende einer normalen Ausatmung, so entspricht das ITGV der funktionellen Residualkapazität FRC.
Bestimmung des Atemwegswiderstands (Resistance) Wird während der Ruheatmung der Kammerdruck gegen die Strömung am Mund aufgezeichnet, so ergibt sich die sog. Resistanceschleife (⊡ Abb. 10.10, auch 4-Farbteil am Buchende). Nach dem Ohm’schen Gesetz gilt: . U = R . I bzw. Palv = RAW . V [hPa], woraus der Atemwegswiderstand RAW , auch als Resistance bezeichnet, abgeleitet werden kann:
[ ]
P PK hPA RAW = alv . = kß . . V V l/s
. Dabei sind V die Strömung [l/s] am Mund, palv der Alveolardruck [hPa bzw. cm H2O], pK der Kammerdruck [hPa] und kß ein Faktor, der im Wesentlichen das während des Verschlussmanövers festgestellte Verhältnis zwischen Mund- und Kammerdruck enthält.
Technische Besonderheiten der Bodyplethysmographie Die in der Kammer gemessenen Druckänderungen sind bei Ruheatmung vergleichsweise klein und betragen nur wenige hPa (bzw. cm H2O). Die Störeinflüsse durch patientenbedingte Wärmeänderung in der Kammer (Schwitzen), durch atmungsabhängige Temperatur- und Feuchteänderungen und durch Druckschwankungen aus der Umgebung, um nur die wichtigsten zu nennen, sind erheblich und summieren sich zu einem Fehler, der durchaus größer als das Messsignal sein kann. Zur Vermeidung von mangelndem Druckausgleich zwischen Mund und Alveolarraum sollte Hechelatmung beim Verschlussmanöver gänzlich vermieden werden (Rodenstein u. Stanjescu 1983). Die Konstruktionsmerkmale der Bodyplethysmographenkammer sind somit ausschlaggebend für die Messqualität. Zu diesen gehören: ▬ Steifigkeit der Kammerkonstruktion, ▬ Wärmetransferverhalten der Kammerwände, ▬ Ausgleichsgefäß, ▬ BTPS-Kompensation, ▬ Kalibrationseinrichtung, ▬ Einstellung eines definierten Lecks, ▬ Art und Schnelligkeit des Shutters. Hierzu nur einige Bemerkungen, die im Rahmen dieser Darstellung nicht erschöpfend sein können. Die Kammer sollte in ihrer Formgebung und der Auswahl der Materialien so beschaffen sein, dass eine möglichst große Steifigkeit und ein schneller Wärmetransfer der vom Patienten in der Kammer produzierten Wärme gewährleistet wird. Ein eingebautes Ausgleichsgefäß zur Gleichtaktunterdrückung von Druckschwankungen aus der Umgebung sollte vorhanden sein (vgl. ⊡ Abb. 10.9). Eine automatische Ka-
119 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
⊡ Abb. 10.10. Bildschirmdarstellung einer Bodyplethysmographie mit Resistance- und Verschlussdruckschleifen (Werksfoto: Ganshorn Medizin Electronic GmbH, Niederlauer)
librationseinrichtung mit »Kammereichpumpe«, dynamischer Simulation der Lungenvolumenkompression und Einstellung des definierten Lecks (pneumatischer Tiefpass zur Driftkompensation) sind zur Qualitätssicherung der Messergebnisse unverzichtbar. Die druck- und strömungsabhängige BTPS-Kompensation wird heute digital durchgeführt. Der Widerstand eines Atemfilters muss bei der Berechnung des Atemwegswiderstandes berücksichtigt werden. Werden die vorgenannten Konstruktionsmerkmale berücksichtigt, so kann die Bodyplethysmographie ohne großen Aufwand und mit sehr guten Ergebnissen in der klinischen Routine betrieben werden. Der Wartungsaufwand für eine Bodyplethysmographenkammer ist vergleichsweise gering. Von Mundstücken und Atemfiltern abgesehen, fällt so gut wie kein Verbrauchsmaterial an. Durch die einfache Zerlegbarkeit moderner Verschlusssysteme kann die Hygiene bedingt gewährleistet werden. Die Verwendung eines Atemfilters ist zu empfehlen. Der zeitliche Aufwand für eine komplette bodyplethysmographische Messung eines Patienten mit Mehrfachbestimmung der Resistance und des ITGV beträgt ca.
15 min; in Kombination mit der Spirometrie zur Bestimmung der Teilvolumina ca. 30 min.
Klinische Wertigkeit der Bodyplethysmographie Die Bodyplethysmographie liefert, wie oben beschrieben, in einem Messvorgang den Atemwegswiderstand und das intrathorakale Gasvolumen bzw. die FRC. Die Messung ist weitgehend unabhängig von der Mitarbeit des Patienten und kann in kurzer Zeit mehrfach wiederholt werden. Damit ist sie wohl die effizienteste Form, diese beiden für die Lungenfunktion elementaren Parameter zu bestimmen. In Verbindung mit der (bei offener Kammertür durchführbaren) langsamen und forcierten Spirometrie bzw. Fluss-Volumen-Kurve und in Kombination mit der Messung weiterer Parameter, wie Atemantrieb und Compliance, sowie mit einer Zusatzeinrichtung für Diffusion lassen sich somit praktisch alle relevanten Größen der Lungenfunktion bestimmen. Atemwegswiderstand (Resistance)
Der Atemwegswiderstand wird nach Ulmer (Ulmer et al. 2003) oder Matthys (Matthys 1988) als Rtot bzw. Reff be-
10
120
I
Kapitel 10 · Lungenfunktionsdiagnostik
rechnet und stellt ein empfindliches Maß für die bronchiale Obstruktion dar. Dabei enthält der Wert nicht nur den strömungsabhängigen Widerstand, sondern auch Widerstandsanteile, die durch Atemwegskollaps bei instabilen Atemwegen und verminderter Lungenelastizität (Retraktionsverlust) verursacht werden. Durch Forminterpretation der Widerstandsschleife, die in jedem Fall auf dem Befundblatt ausgedruckt werden sollte, lässt sich somit eine homogene Obstruktion (z. B. verursacht durch Asthma) von einer inhomogenen Obstruktion (z. B. Bronchitis) und von instabilen Atemwegen (z. B. Emphysem) unterscheiden. Intrathorakales Gasvolumen/FRC
Das intrathorakale Gasvolumen beinhaltet alle während Verschluss durch die Thoraxbewegung komprimierten Gasanteile, wodurch sowohl in der Lunge gefesselte Luft als auch im Abdominalraum vorhandene Gase gleichzeitig erfasst werden. Die Methode liefert in diesen Fällen falsch-positive Messwerte, was bei hochobstruktiven Patienten durch mangelnden Druckausgleich zwischen Mund und Alveolarraum noch verstärkt werden kann. Im Gegensatz dazu unterschätzen die Dilutions- und Fremdgasmethoden das krankheitsbedingt erhöhte Lungenvolumen im Fall einer hochgradigen Obstruktion. Nichtsdestoweniger gilt heute die Bodyplethysmographie wegen ihrer Genauigkeit und sehr guten Reproduzierbarkeit als »Goldstandard« in der Volumenmessung. Durch Kombination des spirometrisch gemessenen ERV und der VC mit dem ITGV/FRC können alle Lungenteilvolumina einschließlich RV und TLC in einem Fortgang schnell und wiederholt bestimmt werden.
10.2.3 Diffusionskapazität
Der Gasaustausch zwischen alveolärer Luft und Kapillarblut, also der Übertritt des Gases über die alveolo-kapillare Membran, wird als Diffusion bezeichnet. Die Diffusionskapazität eines Gases wird bestimmt von der Gasmenge pro Zeiteinheit, die über die Membran ausgetauscht wird, und der Partialdruckdifferenz zwischen Gas- und Blutphase. Von eigentlichem Interesse ist die Diffusionskapazität für Sauerstoff, die aber wegen des nicht erfassbaren kapillaren Partialdrucks nicht bestimmt werden kann. Aus diesem Grund wird für klinische Zwecke die Diffusionskapazität für Kohlenmonoxid (CO) bestimmt. Nachdem CO eine sehr hohe Hämoglobinbindung aufweist, werden sehr geringe CO-Konzentrationen im ppm-Bereich verwendet, um den Patienten nur unwesentlich mit CO zu belasten.
Bei diesem Verfahren wird nicht die eigentliche Diffusionskapazität, sondern der sog. Transferfaktor für CO, kurz TLCO, bestimmt. Der Patient atmet nach tiefer Ausatmung ein Gasgemisch ein, das mit 0,2–0,3% CO und einem Inertgas (typischerweise Helium oder Methan) angereicherte Luft enthält. Die Einatmung erfolgt maximal, also bis zur TLC. Danach hält der Patient für ca. 10 s die Luft an. Währenddessen verteilt sich das Gasgemisch im Alveolarraum und CO diffundiert über die alveolo-kapillare Membran ins Blut. Nach der Anhaltezeit atmet der Patient aus, und der mittlere Teil des Exspirationsgases wird gesammelt (⊡ Abb. 10.11). Bei moderneren Geräten mit schneller Gasanalyse wird während der Exspiration fortlaufend analysiert. Während der erste und letzte Teil der Ausatmung keine Berücksichtigung findet, wird vom mittelexspiratorischen Teil eine Gasprobe bestimmt, die den alveolären Wert repräsentieren soll. Das Inertgas nimmt nicht am Gasaustausch teil und dient zur Charakterisierung des Dilutionsvorgangs, also der Verteilung des Gases, in der Lunge. Unter der Annahme, dass sich das CO in ähnlicher Weise wie das Inertgas in der Lunge verdünnt, kann nun der diffusible Anteil des CO-Gases berechnet werden. Das Modell zur Bestimmung des Transferfaktors geht dabei aus von einem exponentiellen Abfall der alveolären CO-Konzentration während der Phase des Atemanhaltens. Wird der CO-Partialdruck des Kapillarblutes als null angenommen, lässt sich der Transferfaktor folgendermaßen berechnen: ⎛ FACO0 ⎞ V ⎟⎟ mmol ⋅ min −1 ⋅ kPa −1 , TLCO = b ⋅ A ⋅ ln ⎜⎜ tV F ⎝ ACO ⎠ F wobei FACO0 = FICO ⋅ AX . FIX
[
]
FI ist die inspiratorische Gaskonzentration, FA die alveoläre Konzentration der exspiratorischen Gasprobe, X der Index für das Inertgas, FACO0 die alveoläre Anfangskonzentration von CO, VA das Alveolarvolumen und tv die Atemanhaltezeit; b ist eine Konstante zur Umrechnung auf die verwendeten Einheiten. Neben der TLCO lässt sich aus demselben Messvorgang auch das aus der Verdünnung des Inertgases resultierende Alveolarvolumen VA berechnen:
V A = (VIN − VD )(FIX / FAX )
[l ] ;
dabei ist VIN das vor dem Atemanhalten inspirierte Volumen und VD das Totraumvolumen bestehend aus anatomischem und apparativem Totraum. Alle Volumina werden in BTPS angegeben. In Kombination mit der Spirometrie lassen sich die Größen RV und TLC ableiten.
Single-Breath-Methode
Technische und methodische Besonderheiten der Single-Breath-Methode
Seit vielen Jahren ist die von Cotes entwickelte Einatemzug- oder Single-Breath-Methode am weitesten verbreitet.
Der technische Aufwand für diese Methode ist erheblich. Neben einem System zur Volumenbestimmung und den
121 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
⊡ Abb. 10.11. Bildschirmdarstellung einer Single-Breath-Messung (Quelle: Viasys GmbH, Höchberg)
Analysatoren für CO und das Inertgas wird ein Ventilsystem benötigt, das die Patientenatmung von Luft auf Gasgemisch umstellen kann. Analyseventile sorgen für die Zuführung der entnommenen Gasproben an die Analysatoren. Qualitätskontrollen haben gezeigt, dass die Qualität der Messergebnisse neben gerätespezifischen Unzulänglichkeiten hauptsächlich von der korrekten Bedienung und Kalibration der Apparatur abhängt. Um häufige Fehlerquellen zu vermeiden, sollte besonderer Wert gelegt werden auf ▬ korrekte, schnelle Funktion der Atemventile, ▬ regelmäßige Kalibration der Gasanalysatoren mit zertifiziertem Kalibrationsgas, ▬ optimale Anleitung des Patienten, ▬ Berechnung der Parameter nach den Standards der Europäischen Gesellschaft für Respiration (European Respiratory Society 1993).
vom Normalbereich ab, sollte eine Korrektur bei der Berechnung der TLCO berücksichtigt werden. Die Messung des Patienten sollte stets in sitzender Position erfolgen. Die Reinigung der meisten Atemventilsysteme ist aufwändig, praktisch oft unmöglich. Die Einhaltung hygienischer Bedingungen ist deshalb besonders schwierig und kann meist nur durch Verwendung eines Atemfilters erreicht werden. Der Wartungsaufwand für Diffusionsgeräte ist nicht zu unterschätzen, gerade dann, wenn aufwändige und komplizierte Atem- und Analyseventile verwendet werden. Die Kosten für Mess- und Kalibrationsgas und die mit deren Beschaffung verbundene Logistik müssen ebenfalls berücksichtigt werden. Der zeitliche Aufwand für eine Single-Breath-Messung liegt einschließlich Kalibration bei wenigen Minuten.
Starke Raucher oder CO-exponiert arbeitende Personen weisen einen erhöhten arteriellen bzw. venösen CO-Partialdruck, einen Backpressure, auf, der möglichst gemessen und vom alveolären Partialdruck abgezogen werden sollte. Weicht der Hämoglobingehalt des untersuchten Patienten
Klinische Wertigkeit der Single-Breath-Methode
Die Bestimmung der TLCO mittels Single-Breath-Methode ist in der Routine einfach und schnell durchführbar. Die Messergebnisse zeigen bei Vermeidung der oben erwähnten technischen und methodischen Fehlerquellen und bei
10
122
I
Kapitel 10 · Lungenfunktionsdiagnostik
guter Patientenführung eine ausreichende Genauigkeit und gute Reproduzierbarkeit. Der Parameter TLCO reagiert nicht nur auf Veränderungen der Diffusionskapazität im Sinne des Gasaustauschs über die alveolo-kapillare Membran empfindlich, sondern auch auf strukturelle Veränderungen des Lungengewebes, egal ob sie mit Verkleinerung oder Vergrößerung des Alveolarraums einhergehen. Reduzierte TLCOWerte lassen sich deshalb nicht nur bei interstitiellen Lungenerkrankungen wie Lungenfibrose, Sarkoidose, Alveolitis oder bei Lungenödem feststellen, sondern auch bei generalisiertem Emphysem, das meist durch den Verlust von Lungenoberfläche bei vergrößertem Alveolarraum charakterisiert wird. Eine normale oder leicht reduzierte TLCO lässt sich bei Obstruktion der Atemwege finden, erhöhte Werte bei Obstruktionen mit Lungenblähung, wie sie beim Asthma vermehrt auftritt. Bei intrapulmonalen Blutungen muss ebenfalls mit einer Erhöhung der TLCO gerechnet werden. Die TLCO eignet sich besonders gut für Verlaufs- und Therapiekontrollen. Sie kann auch bei der Beurteilung von pulmonal-vaskulären Erkrankungen als zusätzlicher Parameter herangezogen werden. Bei Reihenuntersuchungen wird sie aufgrund des technischen Aufwands nur bei besonderen Fragestellungen, wie der Untersuchung von staubexponierten Arbeitern, eingesetzt werden können. In einer Variante der Single-Breath-Methode lässt sich bei Atmung eines Gasgemischs, das eine CO/Inertgasbeimischung in reinem Sauerstoff enthält, die Diffusionskapazität der alveolo-kapillaren Membran, die sog. Membrankomponente, und das kapillare Blutvolumen bestimmen. Diese interessante Untersuchung wird jedoch nur in spezialisierten Labors vorgenommen.
Weitere Methoden zur Diffusionsbestimmung In den letzten Jahren wurde neben der Single-Breath- die IntraBreath-Methode eingeführt. Sie erfordert lediglich eine tiefe Einatmung und anschließende gleichmäßige Ausatmung, jedoch kein Luftanhalten; ein Vorteil gerade bei kurzatmigen Patienten und Kindern. Mittels schneller Gasanalysatoren nach dem Infrarotprinzip wird bei dieser Methode CO und das Inertgas Methan fortlaufend analysiert und in einem komplexen Algorithmus verrechnet. Bei Zugabe einer geringen Konzentration des im Blut löslichen Gases Azetylen in die Einatmung kann zusätzlich in derselben Messung das kapillare Herzzeitvolumen QC bestimmt werden. Die IntraBreath-Methode lässt sich auch gut unter Belastung durchführen. Im Gegensatz zu früheren Jahren wird heute die zur TLCO alternative Steady-State-Methode wegen der vergleichsweise hohen CO-Exposition für den Patienten kaum mehr angewandt. Neben den beschriebenen Techniken existieren noch eine Reihe weiterer Verfahren zur Bestimmung der Dif-
fusionskapazität. Dazu gehören u. a. die Rückatem- oder Rebreathing-Methoden. Alle diese Verfahren eignen sich jedoch nicht für die klinische Routine und werden international nicht anerkannt.
10.2.4 Stickstoff-Washout-Verfahren zur
FRC-Bestimmung Bei diesem seit vielen Jahren in der Routine bewährten Verfahren atmet der Patient an einem Ventilsystem, das es erlaubt, die Inspiration von Luft auf reinen Sauerstoff umzustellen. Das in der Lunge vorhandene N2, das nicht am Gasaustausch teilnimmt, wird somit Atemzug für Atemzug durch O2 ersetzt. Am Mund wird fortlaufend eine Gasprobe entnommen und einem schnellen N2-Gasanalysator zugeführt. Während der Auswaschphase wird das exspirierte N2-Volumen eines jeden Atemzuges bestimmt und solange aufsummiert, bis die exspiratorische N2-Konzentration auf ca. 1% abgefallen und damit der Washout-Vorgang abgeschlossen ist. Nachdem vor Umschalten auf Sauerstoff die N2-Konzentration (einschließlich Edelgase) in der Lunge 79,2% betrug, lässt sich jetzt die funktionelle Residualkapazität FRC einfach berechnen:
FRC = VN 2 / 0,79 [l ] , wobei VN2 das gesamte ausgeatmete N2-Volumen bedeutet.
Technische Besonderheiten des StickstoffWashout-Verfahrens Das Verfahren erforderte früher die Verwendung eines schnellen N2-Gasanalysators oder eines Massenspektrometers. Beide Geräte sind vergleichsweise anspruchsvoll in Beschaffung, Bedienung und Wartung. Heute können alternativ zu N2 auch die komplementären Gase O2 und CO2 schnell analysiert werden, woraus sich die N2-Konzentration fortlaufend berechnen lässt. Voraussetzung ist eine gute zeitliche Synchronisation der beiden Gasproben in einem Computerprogramm. Nachdem bei allen üblichen Verfahren die Gasprobe im Seitstrom entnommen wird, entsteht eine Verzögerung (»Delay«) zwischen der am Mund gemessenen Strömung und der Gaskonzentrationsänderung und dem Vollausschlag des Analysators (»Response«), die in einem Rechnerprogramm exakt eingestellt und bei der Berechnung ebenfalls berücksichtigt werden müssen. Die Ventilsysteme sind konstruktiv ähnlich denen der Diffusionsbestimmung und hygienisch ebenso problematisch. Der zeitliche Aufwand der FRC-Bestimmung mittels N2-Washout ist abhängig von der Lungendistribution und dauert bei Lungengesunden wenige Minuten, bei hochobstruktiven Patienten durchaus 20 min und mehr.
123 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
Während die klassischen N2-Washout-Verfahren eine aufwändige Seitstromgasanalyse benötigen, steht jetzt für die klinische Routine die wesentlich einfachere Ultraschallmolmassenspirometrie nach dem Spiroson-Prinzip zur Verfügung (vgl. 10.1.3 Abschn. »Ultraschall-(Transit-time-) Flowmeter« sowie ⊡ Abb. 10.5). Dabei lassen sich neben Strömung und Volumen die spezifische Molmasse des Atemgases mit einem einzigen Aufnehmer bestimmen. Nachdem sich die Molmassen von O2 und N2 deutlich unterscheiden, wird bei diesem Gerät kein separater Gasanalysator benötigt, da die N2-Konzentration direkt aus der Molmasse abgeleitet werden kann. Die Konzentrationsänderung kann im Hauptstrom erfasst werden und weist deshalb keine Zeitverzögerung zur Strömung auf.
10.2.5 Ergospirometrie
Die Ergospirometrie dient zur Bestimmung von Ventilation und Gasaustausch unter definierter körperlicher Belastung. Ein Ergospirometriemessplatz (⊡ Abb. 10.12) besteht aus je einem ▬ Belastungsgerät (Ergometer) zur Herstellung einer physikalisch exakt vorgegebenen Belastung, ▬ Aufnehmer zur Bestimmung der Ventilation, ▬ Gasanalysatoren für O2 und CO2, ▬ Rechner zur Online-Erfassung und Auswertung der Messdaten sowie ▬ mehrkanaligem, möglicherweise computerisierten EKG-Gerät. Als Belastungsgerät wird i. Allg. entweder ein Fahrradoder ein Laufbandergometer verwendet ( Kap. 9 »Ergo-
metriemessplatz«). Spezielle Ergometer, wie z. B. Handkurbel- oder Ruderergometer, eignen sich für besondere Fragestellungen in der Arbeits- und Sportmedizin (⊡ Abb. 10.13).
Ventilationsmessung Auch bei der Durchführung der Ergospirometrie hat sich die Messung der Ventilation im offenen System durchgesetzt. Heute werden Strömungssensoren verwendet, die nach unterschiedlichen Prinzipien arbeiten (Pneumotachographie, Turbine, Massenfluss/Thermistor, Ultraschallsensor, u. a.) und allesamt Vor- und Nachteile aufweisen. Die Kalibration der Strömungsmesseinrichtung vor jeder Messung ist unverzichtbar. Der relative Fehler der Strömungsmessung sollte 3% des Messwerts nicht übersteigen, die Linearität im Messbereich muss mindestens 2% des Messwerts betragen. Der Messbereich muss für klinische Zwecke bis mindestens 100 l/min, für sportmedizinische Zwecke bis mindestens 200 l/min ausgelegt sein. Ein Problem kann die in der Exspirationsluft vorhandene Feuchte bereiten, die aufgrund sinkender Temperatur an dafür empfindlichen Strömungsmessern ausfällt und zu Unsicherheit bei den Messwerten führt. Zur Untersuchung sollte vorzugsweise eine Maske verwendet werden, die eine natürliche Atmung über Mund und Nase erlaubt.
Gasanalyse Als »Goldstandard« der Gasanalyse gilt das Massenspektrometer, das gleichzeitig alle drei im Atemstrom vorkommenden Gase, O2, CO2 und N2, schnell, synchron und mit großer Genauigkeit analysieren kann, jedoch wegen
⊡ Abb. 10.12. Ergospirometrisches Messsystem (Werksfoto: Ganshorn GmbH, Niederlauer)
10
124
Kapitel 10 · Lungenfunktionsdiagnostik
Bei der Gasmischmethode atmet der Patient über eine Maske mit Richtungsventilen oder ein Y-Ventil, wodurch In- und Exspiration getrennt werden können. Das Exspirationsgas wird über einen Schlauch und einen Strömungsmesser in ein Mischgefäß geleitet. Das Strömungssignal wird dem Rechner zugeführt, der daraus das exspiratorische Atemzugvolumen und Atemminutenvolumen integriert. Aus dem Mischgefäß wird fortlaufend eine Gasprobe entnommen, die die mittlere exspiratorische Konzentration FE repräsentiert. Die Gasprobe wird getrocknet und einem O2- und einem CO2-Analysator zugeführt. Die daraus resultierenden Konzentrationen werden nun im Rechner zusammen mit dem Atemminutenvolumen weiterverarbeitet. Die Sauerstoffaufnahme VO2 kann nun berechnet werden nach: . V O2 = c . VE ( F1O2 . ks – FEO2) [l/min],
I
⊡ Abb. 10.13. Portables ergospirometrisches Messsystem (Werksfoto: Viasys GmbH, Höchberg)
seiner hohen Anschaffungskosten, seiner aufwändigen Handhabung und Wartung und seiner bislang voluminösen Bauweise für klinische Zwecke normalerweise nicht in Frage kommt. Deshalb werden in der Routine kompakte Gasanalysatoren angeboten, die zusammen mit der Elektronik und dem Rechner in einem häufig fahrbaren Gehäuse, bisweilen sogar tragbaren und Batterie betriebenen Gerät, untergebracht sind. Die Analyseverfahren unterscheiden sich untereinander durch »Delay« (Verzögerung von Mund bis Analysator) und »Response« (Anstiegsgeschwindigkeit des Analysators), die beide mittels aufwändiger Kalibrations- und Rechenverfahren kompensiert werden müssen. Zur Sauerstoffanalyse haben sich Geräte bewährt, die nach dem paramagnetischen Prinzip oder mit einer sog. Brennstoffzelle (geheizte Zirkoniumoxidröhre) arbeiten. Für CO2 wird meist das Infrarotprinzip verwendet. Der absolute Fehler der Gasanalysatoren darf im Messbereich 0,1% nicht übersteigen, die Linearität sollte 1% des Messwerts betragen. Die exakte Kalibration der Analysatoren mit zertifizierten Kalibrationsgasen an zwei Punkten (Umgebungs- und Ausatemluft) vor jeder Messung ist unabdingbare Voraussetzung für genaue Messwerte. Moderne Ergospirometriesysteme beinhalten deshalb eine rechnergestützte Kalibrationseinrichtung zum automatischen Abgleich der Analysatoren.
Mischbeutelverfahren Bei den in mannigfaltigen technischen Varianten ausgeführten Ergospirometriesystemen muss grundsätzlich zwischen der Messung mit mechanischem Gasmischgefäß und der Atemzug-zu-Atemzug-Analyse (auch Breath-byBreath-Verfahren) unterschieden werden.
wobei der Faktor ks die sog. Ausatemschrumpfung ist und ermittelt wird mit
k S = (100 − FE O2 − FE CO2 ) / (100 − FI O2 ) . VE ist das exspiratorische Atemminutenvolumen, FI die inspiratorische und FE die mittlere exspiratorische O2bzw. CO2-Konzentration. Weiterhin muss ein Faktor c für die Umrechnung von BTPS auf STPD Bedingungen und von Konzentration auf Fraktion berücksichtigt werden. In analoger Weise wird die CO2-Abgabe ermittelt. Die Response der Gasanalysatoren und die Einstellung des »Delay« ist bei der Mischmethode von geringer Bedeutung für die Genauigkeit der Messwerte, da der Mischvorgang eine relativ große Zeitkonstante besitzt. Der Vorteil des Verfahrens liegt demnach in der sehr einfachen Handhabung und der guten Genauigkeit für klinische Zwecke. Allerdings können nur solche Belastungsänderungen dynamisch korrekt erfasst werden, die der Zeitkonstante des Messsystems entsprechen. Deshalb setzt sich auch im klinischen Bereich das früher vorwiegend für atemphysiologische und sportmedizinische Untersuchungen angewandte, nachfolgend beschriebene Verfahren zunehmend durch.
Atemzug-zu-Atemzug-Verfahren (Breath-by-Breath-Verfahren) Beim Breath-by-Breath- oder kurz »B×B-Verfahren« wird die Strömung ventilfrei in- und exspiratorisch direkt am Mund oder an einer Maske gemessen. Eine kontinuierliche Gasprobe, ebenfalls am Mund abgenommen, wird über einen dünnen Schlauch den Analysatoren zugeleitet, wobei im Gegensatz zur Mischgasmethode ausreichend schnelle Gasanalysatoren verwendet werden müssen. Strömung und Gase müssen vom Rechner in Phase gebracht werden. Die »Response« der beiden Gasanalysato-
10
125 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
ren muss im Rechenprogramm Berücksichtigung finden. Die Berechnung der O2-Aufnahme erfolgt nach . . V O2 = ∫ FO2 . V dt [l/min], . wobei V O2 die Sauerstoffaufnahme, FO2 die O2-Konzen. tration bzw. -Fraktion und V die Strömung am Mund sind. Außerdem müssen noch Faktoren zur Umrechnung von BTPS auf STPD berücksichtigt werden. Die CO2-Abgabe wird sinngemäß ermittelt. Das B×B-Verfahren birgt die Gefahr vieler Ungenauigkeiten und Fehler, die der Benutzer nur durch wiederholte Kalibration und ständige Kontrolle vermeiden kann. Zur Kalibration gehört die exakte Kompensation der Response der Gasanalysatoren und die genaue Einstellung des »Delay«, welche letztendlich über die Genauigkeit der Messwerte entscheiden. Oft hat der Benutzer jedoch keine Möglichkeit der Kontrolle dieser wichtigen Vorgänge und muss den Einstellungen und »Softwaretricks« der Gerätehersteller blind vertrauen. Eine solide Ergospirometriesoftware beinhaltet deshalb ein Kalibrations- und Verifikationsmodul, das die Analyse der Kalibrationsgase graphisch in Echtzeit darstellt und »Delay«, »Response« und Gasanalysewerte numerisch angibt, sodass zum einen der Kalibrationsvorgang transparent wird und zum anderen Abweichungen zwischen den Abgleichvorgängen im zeitlichen Verlauf besser erkannt werden können.
Klinische Bedeutung der Ergospirometrie Die grundlegenden Methoden zur Bestimmung des Gasaustauschs gehen auf die Arbeiten von Knipping zurück, während die moderne Ergospirometrie von Hollmann und von Wasserman (Wasserman et al. 2004) entwickelt wurde. Die Belastung wird für klinische Zwecke in Stufen gesteigert, beim Fahrradergometer z. B. in je 2–3 min um 25 W. Diese rektangulär-trianguläre Belastungsform ist gerade für Patienten besonders gut geeignet. Sie gewährt dem kardiovaskulären System genügend Zeit zur Anpassung, wodurch ein frühzeitiger Abbruch bedingt durch muskuläre Ermüdung, anaerobe Stoffwechselvorgänge und Laktatausschüttung vermieden werden kann. Die O2-Aufnahme ist ein Maß für die globale Leistungsfähigkeit von Herz-Lunge-Kreislauf und Muskulatur. Die Bestimmung der maximalen O2-Aufnahme, der Vita maxima, stellt somit ein objektives Maß für die maximale Leistungsfähigkeit des untersuchten Probanden dar. Durch die Betrachtung der Dynamik von Ventilation, Gasaustausch und der mit dem EKG gewonnenen Herzfrequenz kann der unterschiedliche Wirkungsgrad bzw. die eingeschränkte Leistungsfähigkeit der organischen Leistungsträger differenziert werden. Bei der Auswertung werden zudem abgeleitete Sekundärparameter, wie re-
spiratorischer Quotient und Atemäquivalent (⊡ Tab. 10.4) sowie die unter Belastung gewonnenen Blutgase herangezogen, aus deren Anpassungsverhalten bereits bei submaximaler Belastung auf Leistungseinbußen geschlossen werden kann. Die Bestimmung des aerob-anaeroben Übergangs, kurz anaerobe Schwelle genannt, spielt eine wichtige Rolle nicht nur in Bezug auf die generelle Leistungseinbuße, sondern auch bei der Beurteilung von Trainingseffekten während der Rehabilitation. Nach Eingabe von off-line ermittelten Daten wie Blutdruck und Blutgasen erfolgt die Auswertung der ergospirometrischen Untersuchungsergebnisse aufgrund der Datenflut bevorzugt in graphischer Form, wobei sich hier die sog. 9-Felder-Graphik nach Wasserman (Wasserman et al. 2004) durchgesetzt hat. Für gutachterliche Fragestellungen, gerade im arbeitsmedizinischen Bereich, sind die aus der Ergospirometrie
⊡ Tab. 10.4. Ergospirometrische Parameter Parameter
Abkürzung/ Definition
Dimension
Leistung (Fahrradergometer)
P
W
Geschwindigkeit (Laufband)
v
km/h
Steigung (Laufband)
s
%
Atemzugvolumen
VT
l
Atemfrequenz
Af
min-1
Atemminutenvolumen
VE
l x min-1
Kohlendioxidabgabe
. VO 2 . VO
Herzfrequenz
Hf
Sauerstoffaufnahme
Respiratorischer Quotient Atemäquivalent (für O2)
l x min-1 l x min-1
2
min-1
. . RQ=VO /VO 2
–
2
. EQO2=VE /VO
–
2
. EQCO2=VE /VO
–
. VO2Puls=VO / Hf
ml . min-1kg-1
Alveoloarterielle Differenz
AaDO2
mmHg
Funktionelle Totraumventilation
VDf
%
Atemäquivalent (für CO2) Sauerstoffpuls
2
2
126
I
Kapitel 10 · Lungenfunktionsdiagnostik
gewonnenen Erkenntnisse über die objektive Leistungseinbuße eines Patienten unverzichtbar. In der Beurteilung von Leistungssportlern nimmt die Untersuchungsmethode nach wie vor einen hohen Stellenwert ein und gehört heute zur Grundausstattung einer jeden sportmedizinischen Untersuchungsstelle. Der zeitliche Aufwand einer ergospirometrischen Untersuchung beträgt einschließlich Vorbereitung des Patienten und Kalibration mindestens 30 min.
10.2.6 Nichtinvasive Bestimmung
des Herzzeitvolumens (HZV) Im Rahmen der Ergospirometrie kann die kardiale Leistung, also die Leistung des Herzens, nur indirekt bestimmt werden. Nach der Fick’schen Gleichung ist die Sauerstoffaufnahme VO2 zwar proportional zum Herzzeitvolumen Qt: . V O2 = Qt . avDO2 [l/min]. Die arteriovenöse O2-Gehaltsdifferenz des Blutes avDO2 ist aber selbst leistungsabhängig und damit variabel. Zur direkten Messung des HZV bieten sich neben den invasiven Verfahren mit Herzkatheter auch nichtinvasive Methoden an, die heute als Erweiterungsmodule des ergospirometrischen Messplatzes zur Verfügung stehen. Als internationaler Standard der nichtinvasiven Verfahren hat sich die CO2-Rebreathing-Methode, also die Rückatemmethode mit Kohlendioxid, durchgesetzt. Sie basiert wieder auf der Anwendung des vorgenannten Fick’schen Prinzips, jedoch nicht in Bezug auf die Sauerstoffaufnahme, sondern bezüglich des Austauschs von Kohlendioxid zwischen Blut- und Gasphase, also . . Qt =V CO2 / avDCO2 =V CO2 /(CVCO2 – CaCO2) [l/min],
wobei avDCO2 die arteriovenöse Gehaltsdifferenz und CVCO2 und CaCO2 der gemischt-venöse bzw. arterielle Gehalt an CO2 im Blut sind (⊡ Abb. 10.14). Das Diagramm zeigt schematisch das Zusammenwirken von Herz, Lunge und Kreislauf. Um die einzelnen Größen der letztgenannten Gleichung bestimmen zu können, wird der Proband während der ergospirometrischen Messung an ein Ventilsystem angeschlossen, das die Umschaltung der Atmung von Umgebungsluft auf einen Rückatembeutel ermöglicht. Im Beutel befindet sich ein Gasgemisch aus Sauerstoff und Kohlendioxid. Der Partialdruck von CO2 wird dabei so gewählt, dass er ungefähr dem gemischt-venösen Partialdruck des Probanden auf der gewählten Leistungsstufe entspricht. Zunächst atmet der Proband Umgebungsluft – wie bei einer normalen Ergospirometrie – und die CO2-Abgabe wird laufend gemessen. Um Qt zu bestimmen, bedarf es nun der Ermittlung des arteriellen und venösen CO2-Gehalts im Blut. Zunächst wird bei Luftatmung eine Blutgasanalyse durchgeführt, um den arteriellen Partialdruck pa CO2 zu erhalten. Daraus kann der arterielle CO2-Gehalt CaCO2 mit Hilfe der Dissoziationskurve von CO2 abgeleitet werden. Approximativ lässt sich der paCO2 auch aus dem endexspiratorischen Partialdruck petCO2 ableiten, was allerdings nur bei Lungengesunden zu akzeptablen Ergebnissen führt. Nachdem die Atmung des Probanden endexspiratorisch auf den Beutel umgeschaltet wurde, beginnt das Rückatemmanöver. Der CO2-Partialdruck gleicht sich zwischen Lunge und Beutel durch die Rückatmung aus, da das rechte Herz bis zur Rezirkulation einen konstanten CO2-Partialdruck in die Lunge anliefert. Der Rückatemvorgang, der nur wenige Atemzüge dauert, wird über die CO2-Gasanalyse in Echtzeit verfolgt, bis das CO2-Äquilibrium erreicht und der gemischt-venöse CO2-Partialdruck bestimmt ist. Der gemischt-venöse CO2-Gehalt CvCO2 wird rechnerisch aus der Dissoziationskurve abgeleitet. Die CO2-Rebreathing-Methode ist ein sehr elegantes Verfahren, das keinerlei Risiken für den Probanden birgt und nur geringe Mitarbeit erfordert. Der technische Aufwand ist bei vorhandenem Ergospirometriesystem vergleichsweise gering. Die Genauigkeit ist mit der invasiver Verfahren vergleichbar (Jones 1984). Zu berücksichtigen ist, dass die Methode im Gegensatz zu den Katheterverfahren nur den pulmonalen Anteil des HZV ohne den Rechts-links-Shunt liefert.
10.2.7 Metabolisches Aktivitätsmonitoring ⊡ Abb. 10.14. Das Fick’sche Prinzip. Das Diagramm zeigt schematisch das Zusammenwirken von Herz, Lunge und Kreislauf (RH rechte Herzkammer, LH linke Herzkammer, MV Atemminutenvolumen, VCO2 Kohlendioxidabgabe, Qt pulmonales Herzzeitvolumen, pVCO2 gemischtvenöser Kohlendioxidpartialdruck, paCO2 arterieller Kohlendioxidpartialdruck). Weitere Erläuterungen siehe Text
Die portable Ergospirometrie wurde in den letzten Jahren erheblich verbessert und wird bereits in sehr kompakter und benutzerfreundlicher Form angeboten (vgl. ⊡ Abb. 10.13). Dennoch lässt sie sich in den meisten klinischen Situati-
127 10.2 · Weiterführende kardio-pulmologische Funktionsdiagnostik
onen, am Arbeitsplatz und im normalen Leben, nur mit sehr großen Einschränkungen einsetzen. Vor allem aber ist ihre Anwendung zeitlich stark begrenzt, da in der Praxis die ergospirometrischen Werte meist nur im Bereich bis zu einer Stunde aufgenommen werden können. In den letzten Jahren wurde vermehrt nach Lösungen gesucht, physische Aktivität über einen längeren Zeitraum, über mehrere Stunden oder Tage, ohne wesentliche Behinderung der Testperson zu erfassen. Zudem sollten die Messgeräte klein, leicht bedienbar und preisgünstig sein. Wenn auch nicht die Aussagekraft und Genauigkeit der Ergospirometrie zu erwarten wäre, so sollte die physische Aktivität mindestens in totalen Kalorien, also in einem integralen Sauerstoffäquivalent (d. h. physikalisch als Arbeit) ausgegeben werden. Entwickelt und vermarktet wurden schließlich Geräte, die die physische Aktivität aus der Herzfrequenz (Herzfrequenzuhr), den Schritten (Pedometer) oder der Beschleunigung in ein oder zwei Achsen (Akzellerometer) erfassen. Aufgrund dieser Wirkprinzipien können diese Verfahren nur in sehr eingeschränkten Situationen eine Leistungserfassung und damit eine gute Korrelation mit der Sauerstoffaufnahme erreichen. Sei kurzem wird ein multisensorischer Monitor in Form eines nur 80 g schweren Armbands angeboten, das am Oberarm getragen wird (⊡ Abb. 10.15a,b). Das Gerät ermöglicht nicht nur die fortlaufende und zuverlässige Erfassung des Energieumsatzes, Kalorienverbrauchs (auch unter enteraler oder parenteraler Ernährung), der Sauerstoffaufnahme unter Belastung, sondern auch die Dokumentation von Bewegungs-, Ruhe- und Schlafzeit, Schrittzahl und anderer Lebensstilparameter. Physiologische Signale wie Beschleunigung, Wärmefluss, Hauttemperatur und Hautleitfähigkeit werden kontinuierlich aufgezeichnet (10 min. bis zu 14 Tage), ohne die Bewegungsfreiheit des Trägers einzuschränken. Das Gerät ist nicht manipulierbar; es schaltet sich selbsttätig ein und aus. Nach dem Einsatz werden die vom Armband aufgenommenen Daten auf einen PC übertragen und mit Hilfe künstlicher Intelligenz (Clusteranalyse, neuronale Netze, Markov Modelle u. a.) ausgewertet. Die Genauigkeit der Daten ist mit den Goldstandards Ergospirometrie und indirekte Kalorimetrie vergleichbar, wie die Literatur zeigt.
erdings kann die Messung der Diffusion auch innerhalb der Kammer (bei offener Tür) durchgeführt werden. Geräte für N2-Washout erfordern keine besonderen räumlichen Voraussetzungen. Für die Ergospirometrie sollte ein möglichst großer und gut belüfteter Raum zur Verfügung stehen, insbesondere dann, wenn Fahrrad- und Laufbandergometer und Blutgas- oder andere Analysegeräte im gleichen Raum Platz finden sollen. Für den Patienten sollte eine Umkleidekabine und möglichst eine Dusche eingeplant werden.
a
10.2.8 Planerische Hinweise und
bauliche Voraussetzungen Für die Bodyplethysmographie sind keine besonderen räumlichen Voraussetzungen zu berücksichtigen. Auch kleinere Räume sind hierfür ausreichend. Wegen der druckempfindlichen Bodykammer sind Räume ohne Publikumsverkehr mit wenig Fensterflächen zu bevorzugen. Die Diffusionsmessung wird in aller Regel im gleichen Raum mit der Bodyplethysmographie durchgeführt. Neu-
b ⊡ Abb. 10.15a,b. Metabolischer Armbandmonitor zur Bestimmung physischer Aktivität (Werksfoto: Bodymedia Inc., Pittsburgh)
10
128
Kapitel 10 · Lungenfunktionsdiagnostik
Literatur
I
American Thoracic Society (1995) Standardization of Spirometry. Am J Respirat Crit Care Med 152: 1107–1136 American Thoracic Society (1991) Lung function testing: Selection of Reference values and interpretative strategies. Am Rev Respir Dis. 144(5): 1202–18 Baur X (1998) Lungenfunktionsprüfung und Allergiediagnostik. Dustri, München Buess C, Pietsch P, Guggenbühl W, Koller EA (1986) A pulsed diagonal beam ultrasonic airflow meter. J. Appl. Physiol 61(3): 1195–1199 European Respiratory Society (1993) Standardized lung function testing. Eur Respir J 6 (Suppl 16): 3–52 Haber P (2004) Lungenfunktion und Spiroergometrie. Springer, Wien Jones NL (1984) Evaluation of a microprocessor-controlled exercise system. J Appl Physiol 57: 1312–1318 Jones NL, Campbell EMJ (1997) Clinical exercise testing. Saunders, Philadelphia Lindemann H, Leupold W (2003) Lungenfunktionsdiagnostik bei Kindern. Kohlhammer, Stuttgart Gappa M, Buess C, Fuchs SI (2005) Slope indices from ultrasonic tidal molar mass-volume curves. ERS Congress, Copenhagen Matthys H (1988) Pneumologie. Springer, Heidelberg Neuberger M et al. (1994) Lungenfunktionsreferenzwerte für Schüler von 6 bis 16 Jahren. Pneumologie 48: 175–181; Erratum (1995), Pneumologie 49: 96 Oostveen E et al. (2003) The forced oscillation technique in clinical practice: methodology, recommendations and future developments. Eur Respir J 22: 1026–1041 Petro W, Konietzko N (1992) Lungenfunktionsdiagnostik. In: Ferlinz R (Hrsg) Diagnostik in der Pulmologie. Thieme, Stuttgart Petty TI, Pierson DJ, Dick NP, Hudson LD, Walker SH (1976) Follow-up evaluation of a prevalence study for chronic bronchitis and chronic airway obstruction. Am Rev Respir Dis 114: 881–890 Jensen RL, C. Buess C, Crapo RO (2005) Ultrasonic measurements of CO2 during quiet breathing may diagnose degree of airway obstruction. ATS Convention Rodenstein DO, Stanjescu DC (1983) Frequency dependence of plethysmographic volume in healthy and asthmatic subjects. J Appl Physiol 54: 159–165 Rothe T (2004) Lungenfunktion leicht gemacht. Jungjohann, Neckarsulm Schmidt W (1996) Angewandte Lungenfunktionsprüfung. Dustri, München Ulmer WT, Nolte D, Lecheler J (2003) Die Lungenfunktion. Methodik und klinische Anwendung. Thieme, Stuttgart Wasserman K, Hansen JE, Sue DY (2004) Principles of Exercise Testing and Interpretation: Including Pathophysiology and Clinical Applications. Lippincott Williams and Wilkins, Philadelphia
11 Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP) K.-P. Hoffmann, U. Krechel
11.1 Grundlagen
– 129
11.3 Elektromyograph
11.1.1 Neurophysiologische Grundlagen – 129 11.1.2 Technische Grundlagen – 132
11.2 Elektroenzephalograph 11.2.1 11.2.2 11.2.3 11.2.4 11.2.5 11.2.6
– 140
Signal – 140 Gerätetechnik – 143 Methodik – 143 EEG-Ableitverfahren – 145 Auswertung/ Signalanalyse – 146 Spezielle Methoden – 148
Methoden der Klinischen Neurophysiologie, wie die Elektroenzephalographie (EEG), Elektromyographie/ Elektroneurographie (EMG/ENG) und die Ableitung der evozierten Potentiale (EP) (⊡ Abb. 11.1) ermöglichen die Beurteilung des Funktionszustandes des zentralen und peripheren Nervensystems sowie der Muskulatur. Dabei werden bioelektrische Potentiale messtechnisch erfasst, verstärkt, gespeichert, analysiert und bewertet. Die für die Funktionsdiagnostik des Nervensystems eingesetzten medizintechnischen Geräte sind der Elektroenzephalograph und der Elektromyograph. Ihr jeweiliger Aufbau, ihre Funktionsweise sowie die klinisch gebräuchlichen Methoden werden in diesem Kapitel dargestellt.
11.1
Grundlagen
11.1.1 Neurophysiologische Grundlagen
Nervensystem Erregbare Zellen reagieren auf einen Reiz mit einer Änderung ihrer elektrischen Membraneigenschaften. Wird eine erregbare lebende Zelle gereizt, ändert sich an ihrer Membran die Ionenleitfähigkeit. Aus dem bestehenden Ruhemembranpotential (50–100 mV) kann ein Aktionspotential werden, das durch eine Nervenzelle weitergeleitet wird und am Muskel zur Kontraktion führt. Das motorische Neuron und alle von ihm versorgten Muskelfasern bilden eine motorische Einheit. Die Zahl der von einem Motoneuron versorgten Muskelfasern variiert stark und beträgt bei Augenmuskeln 5 und beim M. temporalis über 1000.
11.3.1 11.3.2 11.3.3 11.3.4 11.3.5 11.3.6
– 150
Signal – 151 Gerätetechnik – 151 Elektromyographie (EMG) – 154 Elektroneurographie (ENG) – 156 Evozierte Potentiale (EP) – 160 Ereignisbezogene Potentiale (ERP) – 167
Weiterführende Literatur – 167
Das Zentralnervensystem (⊡ Abb. 11.2) besteht aus dem Gehirn und dem Spinalkanal. Es ist der zentrale Teil des gesamten Nervensystems und stellt ein kompliziert verschaltetes Informationsverarbeitungssystem dar. Die mittels Sinnesorgan aufgenommenen Informationen (109 bit/s) werden während ihrer Weiterleitung zum Zentralnervensystem durch hemmende und fördernde Verschaltung an den Synapsen auf 101–102 bit/s vermindert. Nach ihrer Verarbeitung und Analyse werden sie als Reaktionen in Form von Bewegungen, Verhalten oder Organtätigkeit umgesetzt. Zu den Leistungen des Gehirns gehören neben der willentlichen Bewegung auch Emotionen und geistige Fähigkeiten wie Gedächtnis und Lernen. Verschiedene Ebenen des zentralen Nervensystems sind an der Steuerung des vegetativen Nervensystems beteiligt: ▬ das limbische System zur Steuerung des emotionalen Antriebs ▬ der Hypothalamus für die homöostatische Regulation ▬ die Medulla oblongata zur Regelung des Tonus des Sympathikus ▬ das Rückenmark bei der Schaltung spinaler Reflexe. Zum peripheren Nervensystem (⊡ Abb. 11.2.) werden alle Nerven und Ganglien gezählt, die sich außerhalb des zentralen Nervensystems befinden. Zu ihnen gehören die efferenten (motorischen) Bahnen, über die Skelettmuskeln innerviert werden. Afferente (sensorische) Bahnen leiten Erregungen aus der Körperperipherie, den Rezeptoren der Haut und der inneren Organe an das Zentralnervensystem.
130
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 11.1. Methoden der Klinischen Neurophysiologie zur Diagnostik von Funktionsstörungen im zentralen und peripheren Nervensystem sowie der Muskulatur
⊡ Abb. 11.2. Schematische Darstellung des zentralen und peripheren Nervensystems und des Einsatzbereichs von EEG und EMG
131 11.1 · Grundlagen
Das vegetative Nervensystem oder autonome Nervensystem ist ein Teil des peripheren Nervensystems. Es regelt die Organfunktionen im Körper, passt sie den jeweiligen Bedürfnissen an und kontrolliert das innere Milieu des Körpers. Diese Aktivitäten laufen weitgehend unbewusst ab und entziehen sich einer willkürlichen Kontrolle. Beispiele für geregelte Vitalfunktionen sind Herzschlag, Atmung, Blutdruck, Verdauung und Stoffwechsel. Das vegetative Nervensystem lässt sich in drei Gruppen untergliedern: ▬ sympathisch: leistungsfördernde (ergotrope) Wirkung ▬ parasympathisch: überwiegend erhaltungsfördernde (trophotrope) Wirkung ▬ enterisch: weitgehend vom Zentralnervensystem unabhängiges Nervensystem des Gastrointestinaltrakts
Muskuläres System Skelettmuskeln (⊡ Abb. 11.2) können die chemische Energie als ATP direkt in mechanische Energie und Wärmeenergie umwandeln. Ihre Innervation erfolgt willkürlich über Motoneurone. Die Auslösung einer Kontraktion erfolgt ausschließlich durch Aktionspotentiale an der motorischen Endplatte. Auffallendes Merkmal der Skelettmuskelzellen ist die Querstreifung der Myofibrillen mit ihrer regelmäßigen Abfolge dunkler anisotroper (A-Streifen) und heller isotroper (I-Streifen) Banden. Glatt werden alle Muskeltypen genannt, die keine Querstreifung aufweisen. Sie bestehen aus langen spindelförmigen Zellen, die locker angeordnet und dadurch beweglich sind. Die glatte Muskulatur kleidet innere Organe wie den Magen oder Darm, aber auch die Wände von Blutgefäßen aus. Darüber hinaus besitzt die glatte Muskulatur eine eigene Erregungsbildung und wird unwillkürlich vom vegetativen Nervensystem innerviert. Sie führt relativ langsame Bewegungen aus, ermüdet nur langsam und kann über längere Zeit auch große Kräfte entwickeln. Der Herzmuskel besitzt Eigenschaften der quergestreiften und glatten Muskulatur. Er verfügt über eine eigene Erregungsbildung und wird unwillkürlich von vegetativen Nerven beeinflusst.
Entstehung von Ruhe- und Aktionspotential Aufgrund einer unterschiedlichen Verteilung von Ionen im Innen- und Außenmilieu von lebenden Zellen tritt an der Zellmembran ein Membranpotential auf. Dieses wird durch aktive Transportmechanismen (Ionenpumpe) erzeugt und aufrecht erhalten. Die Konzentration der K+ Ionen im Zellinneren ist etwa 30-mal größer als außerhalb, sodass das Zellinnere im unerregten Zustand negativ gegenüber der Außenflüssigkeit geladen ist. Das
Ausmaß dieser Ladungsverzerrung hängt von der Membrankapazität ab. Das Aktionspotential ist eine durch überschwellige Zellreizung verursachte Spannungsänderung an der Membran lebender Zellen. Es tritt in Folge einer Änderung der Ionenleitfähigkeit der erregten Membran auf und besteht aus drei Phasen: rasche Depolarisation, langsame Repolarisation und Nachhyperpolarisation. Die Dauer des Aktionspotentials ist abhängig von der Temperatur und der jeweiligen Zelle. Ein motorischer Nerv leitet das Aktionspotential entlang des Axons weiter, sodass es am Muskel zu einer Kontraktion kommt.
Fortleitung des Aktionspotentials Die Erregungsleitung unterscheidet sich grundlegend von der Art der Nervenfaser. So tritt bei markhaltigen Fasern eine saltatorische und bei marklosen eine kontinuierliche Erregungsleitung auf. Markhaltige Fasern besitzen von Myelin umgebene Axone, was wie eine Isolierung wirkt. Diese Myelinschicht ist von Ranvier-Schnürringen unterbrochen. Eine Erregungsleitung kann daher nur in Sprüngen von einem Schnürring zum anderen über eine Distanz von 1–2 mm erfolgen. Dabei werden Geschwindigkeiten bis zu 120 m/s erreicht.
Neuromuskuläre Überleitung Die Übertragung der Erregung von einer Nervenzelle zu einer zweiten oder vom Nerv zum Muskel erfolgt über Synapsen. Unterschieden werden Synapsen mit elektrischer oder chemischer Übertragung sowie mit erregender oder hemmender Wirkung. Die chemische Übertragung erfolgt über Transmitter. Erregende Synapsen setzen bspw. Acetylcholin, Adrenalin, Noradrenalin und Serotonin frei, wodurch es zu einem exzitatorischen postsynaptischen Potential (EPSP) kommt. Inhibitorische Synapsen setzen hemmende Transmitter frei, bspw. GABA. Es kommt zu einem inhibitorischen postsynaptischen Potential (IPSP). Das Ergebnis für eine mögliche Weiterleitung von Erregungen ergibt sich aus der räumlichen und zeitlichen Summation der exzitatorischen oder inhibitorischen Wirkung der einzelnen Synapse. Die Überleitung von einem Neuron auf einen Muskel geschieht an der motorischen Endplatte. Ankommende Aktionspotentiale setzen Acetylcholin frei, wodurch es zu einer Endplattendepolarisation kommt. Nach der Überschreitung einer kritischen Schwelle ist die Muskelmembran erregt und die Muskelfaser kontrahiert. Das Acetylcholin wird durch Cholinesterase gespalten. Dies zieht eine Repolarisation der Endplatte nach sich, wodurch der Ausgangszustand wieder erreicht wird und sie erneut erregt werden kann.
11
132
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
11.1.2 Technische Grundlagen
I
Die Methoden der Klinischen Neurophysiologie passen sich in das Spektrum diagnostischer Verfahren ein (⊡ Abb. 11.3). Sie ergänzen, wie die anderen diagnostischen Methoden der Labordiagnostik, der Bildgebung und Funktionsdiagnostik, die Diagnosefindung auf der Grundlage der Anamnese und der klinischen Untersuchung. Aus dem Gesamtbild der Bewertung und Befundung der erforderlichen Untersuchungen kommt der Arzt zur Diagnose und damit zur Therapie. Der Therapieverlauf und prognostische Aussagen können im Rahmen eines Monitorings objektiviert werden. Die in der Klinischen Neurophysiologie zu bewertenden Signale sind elektrische Potentialdifferenzen. Ihre Ableitung wird mit Nadel- oder Oberflächenelektroden realisiert. Die so messtechnisch erfassten Signale werden vorverarbeitet und verstärkt. Dabei richtet sich die jeweilige Empfindlichkeit und die Bandbreite des Verstärkers nach dem abzuleitenden Signal. Diese Biosignale können Amplituden von wenigen Mikrovolt bis zu einigen Millivolt und Frequenzen von Gleichspannung bis 30 kHz haben. Mit Hilfe von Differenzverstärkern, die sich in der Empfindlichkeit und im Frequenzgang unterscheiden, werden sie verstärkt und anschließend registriert. Die Auswertung erfolgt sowohl visuell, als auch rechnergestützt, wobei die Signale auch gespeichert werden können.
Die Signalverarbeitung dient mit an die Fragestellung angepasster Software der Unterstützung einer Auswertung. Die Befundung ist immer eine ärztliche Leistung. Die Patientendaten, Rohsignale, Ergebnisse der Analyse und der Befund werden gespeichert und ausgedruckt. Bei vielen Diagnostikmethoden werden den Patienten Reize appliziert, wie z. B. bei der Fotostimulation für die Ableitung evozierter Potentiale und zur Bestimmung der Nervenleitgeschwindigkeit. Der Zeitpunkt des Reizes ist in die Auswertung der reizbezogenen Potentiale mit einzubeziehen. Es werden elektrische, akustische, optische und magnetische Stimulatoren für verschiedene Fragestellungen eingesetzt. Die Signalerfassung, Filterung, Verstärkung und Auswertung hat so zu erfolgen, dass die Signale unverfälscht registriert und gespeichert werden können. Die Reproduzierbarkeit der Ergebnisse ist gegebenenfalls durch eine Doppelbestimmung, wie bei der Ableitung der evozierten Potentiale, nachzuweisen. Die Signalerfassung geschieht rückwirkungsfrei, das heißt die Messung beeinflusst den Messwert bzw. das Signal nicht.
Elektroden Elektroden stellen die Schnittstelle zwischen dem technischen System und dem biologischen Gewebe dar. In der Klinischen Neurophysiologie benutzt man Elektroden, die
⊡ Abb. 11.3. Messtechnische Erfassung bioelektrischer Potentiale in der Klinischen Neurophysiologie im Prozess der Diagnosefindung
133 11.1 · Grundlagen
auf der Körperoberfläche unmittelbar mit der Haut über Elektrolytschichten kontaktiert werden (Oberflächenelektroden) oder Nadelelektroden, die wie eine Kanüle unter die Haut oder in den Muskel gestochen werden. Die Bauformen und eingesetzten Materialien unterschieden sich in Abhängigkeit von der Anwendung. Elektrisch gesehen, lassen Elektroden sich als elektromotorische Kraft und ein Netzwerk aus Kondensatoren und Widerständen darstellen, wobei diese Komponenten vom Elektrodenmaterial, dem Elektrolyten, der Geometrie, der Stromdichte sowie der Signalfrequenz abhängen. Vereinfacht kann man das in der ⊡ Abb. 11.4. angegebene Ersatzschaltbild annehmen. Dabei sind Ep die Polarisationsspannung, Cü der kapazitive Anteil des Übergangswiderstandes (Helmholtz-Kapazität), Rü der Ohmsche Anteil des Übergangswiderstandes (Faraday-Widerstand) und Re der Elektrodenwiderstand. Die Helmholtz-Kapazität ist direkt proportional und der Faradaywiderstand indirekt proportional zur Fläche. Bringt man eine Metallelektrode in eine Elektrolytlösung, so gehen aufgrund des Lösungsdrucks positiv
geladene Metallionen in die Lösung über. Dem wirken der osmotische Druck und die Feldkraft des entstehenden elektrischen Feldes entgegen. Es kommt zu einer elektrischen Aufladung der Elektrode und zum Aufbau einer Schicht entgegengesetzter Ladung im molekularen Abstand von der Phasengrenze. Diese Helmholtzsche Doppelschicht verhält sich wie ein Kondensator mit molekularem Plattenabstand, wobei die Plattenspannung als elektromotorische Kraft anzusehen ist und als Galvanispannung bezeichnet wird. Reine Metallelektroden werden daher als polarisierbare Elektroden bezeichnet. Überzieht man diese Metallelektroden mit einem schwerlöslichen Salz (z. B. Ag mit AgCl), wobei das gleiche Anion im Elektrolyten zu finden sein muss (z. B. bei NaCl), erhält man unpolarisierbare Elektroden mit wesentlich geringeren und stabileren Galvani-Spannungen. ⊡ Abb. 11.5 ( auch 4-Farbteil am Buchende) spiegelt die Charakterisierung von gesinterten Ag/ AgCl-Elektroden über einen Zeitraum von 10 Tagen wider. Es ist die gute Langzeitstabilität und die große Bandbreite bis weit in den niederfrequenten Bereich dieser Materialien ersichtlich. Damit sind Ag/AgCl-Elektroden für fast alle Signale der Klinischen Neurophysiologie einsetzbar.
Ableitarten Bipolare Ableitung
⊡ Abb. 11.4. Ersatzschaltbild einer Ableitelektrode
Die bipolare Ableitung ist eine in der Klinischen Neurophysiologie sehr häufig eingesetzte Methode zur messtechnischen Erfassung bioelektrischer Potentialdifferenzen. Zwei gleichartige Elektroden werden auf bioelektrisch aktiven Gebieten platziert. Jede Elektrode ist mit einem
⊡ Abb. 11.5. Charakterisierung von 128 Ag/AgCl-Elektroden über einen Zeitraum von 10 Tagen. Darstellung der Mittelwerte des Betrages der Impedanz aller Elektroden als Funktion der Signalfrequenz
11
134
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Eingang des Verstärkers verbunden. Durch Verwendung eines Differenzverstärkers wird die jeweilige Differenz der beiden Elektrodenpotentiale verstärkt. Beim Einsatz mehrerer Elektroden, wie z. B. im EEG, lassen sich Reihen von Elektroden bilden. Die Ausgangspannungen entsprechen dann jeweils der Differenz zwischen der vorangehenden
und der nachfolgenden Elektrode. Wenn man eine Potentialverteilung annimmt, deren Verlauf an- und absteigend ist und diesen mit 5 Elektroden erfassen möchte, wobei die mittlere Elektrode auf dem Punkt mit dem höchsten Potential platziert wurde, dann ergibt sich der in der ⊡ Abb. 11.6 dargestellte Messaufbau.
a
b ⊡ Abb. 11.6a,b. Bipolare Ableitung. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. Die Phasenumkehr zwischen C3-P3 und P3-O1 ist im gelb markierten Kurvenbereich gut zu erkennen
135 11.1 · Grundlagen
Es ist ersichtlich, dass die Ausgangsspannungen U1 und U2 nach unten und die der Spannungen U3 und U4 nach oben gerichtet sind. Im Maximum der Potentialverteilung kommt es zu einer Phasenumkehr. Derartige Potentialmaxima treten z. B. in der Randzone eines Tumors auf und ermöglichen eine Lokalisation des Herdes.
Mit der bipolaren Ableitung wird der Potentialgradient korrekt erfasst. Unipolare Ableitung
Bei der unipolaren Ableitung (⊡ Abb. 11.7) ist allen Kanälen eine Referenzelektrode gemeinsam. Diese Referenze-
a
b ⊡ Abb. 11.7a,b. Unipolare Ableitung. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. Der gleiche Kurvenabschnitt aus Abb. 11.6 wurde auch hier markiert. Die spikeförmige Aktivität imponiert mit einer hohen Amplitude im Kanal P3-A1
11
136
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
lektrode wird auf ein elektrisch möglichst inaktives Gebiet platziert, sodass sie keine oder nur geringe Potentiale erfasst. Sie wird deshalb auch als neutral oder indifferent bezeichnet. Da aber eine Beeinflussung dieser Elektrode durch zerebrale Potentiale nicht auszuschließen ist, handelt es sich eher um einen hypothetischen Punkt. Die auf dem bioelektrisch eher als aktiven Gebiet platzierte Elektrode ist die differente Elektrode. Für die bereits eingeführte Potentialverteilung wurde in der ⊡ Abb. 11.7 die unipolare Ableitung dargestellt. Für die Referenzelektrode wurde ein Potential er angenommen. Aus der Abbildung ist erkennbar, dass es bei der unipolaren Ableitung zu keiner Phasenumkehr kommt. Ein möglicher Herd wird durch die Größe der korrekt registrierten Potentialdifferenz lokalisiert. Ableitung gegen eine Durchschnittsreferenz
Die Referenz bei einer Ableitung gegen eine Durchschnittsreferenz (⊡ Abb. 11.8) ist der Mittelwert aller Elektrodenspannungen. Dies kann softwaremäßig oder durch verbinden aller Elektroden über gleich große Widerstände mit einem Referenzpunkt erreicht werden. Da die Summe der Ströme in diesem Punkt gleich Null ist, kann gezeigt werden, dass das erzielte Potential genau dem Mittelwert aller einzelnen Elektrodenspannungen entspricht. Auch bei dieser Ableitung kommt es zu einer Phasenumkehr. Die Ausgangsspannung entspricht der Differenz zwischen der jeweiligen Elektrodenspannung und dem Referenzpotential. Quellenableitung
Bei der Quellenableitung werden die Elektroden ebenfalls auf elektrisch aktiven Gebieten platziert. Die Ableitung erfolgt gegen eine Referenz, welche die unmittelbare Umgebung der interessierenden Elektrode berücksichtigt. Im Unterschied zur Ableitung gegen eine Durchschnittsreferenz ist ihr Potential bei der Bestimmung der Referenzspannung nicht beteiligt. Bei der Quellenableitung (⊡ Abb. 11.9.) wird die Differenz zwischen dem Potential der interessierenden Elektrode und dem gewichteten Mittelwert der Potentiale der umgebenden Elektroden gebildet. Die Wichtung w ist ein Faktor, der sich aus dem reziproken Wert der Entfernung ergibt. Bei einer quadratischen Elektrodenanordnung ist w=1 für den einfachen, w=0,5 für den doppelten und w=0,707 für die Diagonale. Um den gewichteten Mittelwert zu erhalten, wird die Summe der gewichteten Elektrodenspannungen durch die Summe der Wichtungen dividiert. Der Wert der Quellenableitung liegt in der besseren Darstellung lokaler Ereignisse durch die Eliminierung von Fernfeldanteilen im örtlichen Potential, wie z. B. der Einfluss des EOG beim Öffnen der Augen. Allerdings wird das örtliche Potential selbst durch die Quellenableitung nicht genauer wiedergegeben.
Elektrodenplatzierung Für reproduzierbare Ableitungen und für die Vergleichbarkeit der Ergebnisse bei Verlaufsuntersuchungen ist es erforderlich, dass die Elektroden jeweils an die gleichen Positionen gesetzt werden. Das zu verwendende System darf nicht starr sein, sondern muss sich den verschiedenen Kopfgrößen (neonatales EEG, EEG bei Kindern und Erwachsenen) anpassen (⊡ Abb. 11.10). Daher muss es von leicht zu findenden und zuverlässig definierten Punkten am Schädel ausgehen. Diese Punkte sind das Nasion (Nasenwurzel, tiefster Punkt zwischen Nase und Stirn in der Mitte zwischen den Augen), das Inion (unterer Knochenhöcker in der Mitte des Hinterkopfes am Ansatz der Nackenmuskulatur) und die beiden präaurikulären Punkte (Vertiefung vor dem äußeren Gehörgang direkt unterhalb des Jochbeins und oberhalb des Unterkiefergelenks). Die Verbindungslinien zwischen Nasion und Inion sowie zwischen den präaurikulären Punkten schneiden sich im Vertex (Cz). Die Verbindungslinien werden in 10- bzw. 20%-Abschnitte eingeteilt. In den Schnittpunkten der sich ergebenden Längs- und Querreihen werden die Elektroden platziert. Die Bezeichnung der Positionen erfolgt nach Regionen: Fp = frontopolar, F = frontal, C = zentral, P = parietal, O = okzipital, T = temporal, A = aurical und zusätzlich cb = cerebellär sowie pg = pharyngeal. Die Numerierung der Elektroden gibt Auskunft über die Hemisphäre (eine ungerade Zahl entspricht der linken, eine gerade der rechten Seite) und den Abstand von der Mittellinie, wobei z = zero (Null) bedeutet. Die Abstände der Elektroden innerhalb einer einzelnen Reihe sind gleich. Bei Teilung der Linien in 10-, 20-, 20-, 20-, 20- und 10%-Abschnitte ergeben sich für die sagittale Längsreihe die Elektrodenpositionen Fpz, Fz, Cz, Pz und Oz sowie für die mittlere Querreihe T3, C3, Cz, C4 und T4. Dabei werden die Positionen Fpz und Oz nicht mit Elektroden besetzt. Teilt man in gleicher Weise die Strecken Fpz, Oz, die über T3 bzw. T4 führen, ergeben sich auf der linken Hemisphäre die Positionen Fp1, F7, T3, T5 und O1 sowie auf der rechten Seite Fp2, F8, T4, T6 und O2. Über die Elektroden Fp1, C3 und O1 sowie Fp2, C4 und O2 lassen sich zwei parasagittale Längsreihen ziehen, die sich mit der vorderen (F7, Fz und F8) und der hinteren Querreihe (T5, Pz und T6) schneiden. Diese Schnittpunkte ergeben die Positionen für die Elektroden F3, F4, P3 und P4. Zwischen diesen Standardpositionen können noch weitere Elektroden, z. B. F1, F2, F5 und F7 für die vordere Querreihe gesetzt werden. Die Erdelektroden werden an den Ohrläppchen, die den Positionen A1 und A2 entsprechen, befestigt.
Verstärker In der Klinischen Neurophysiologie wird zur Verstärkung der abgeleiteten Biosignale i. d. R. ein Differenzverstärker eingesetzt. Diese Verstärker, deren Prinzip 1931/32
137 11.1 · Grundlagen
von Tönnies im Kaiser-Wilhelm-Institut Berlin entwickelt wurde, verstärken die Differenz zweier Eingangspotentiale. Praktisch unterscheiden sich die Verstärkungen für Gleichtaktsignale (z. B. gleichphasische Störsignale, die über die Zuleitungen eingestreut werden) und für Gegentaktsignale (eine bestehende Potentialdifferenz aufgrund eines bioelektrischen Generators). Das Verhältnis beider
Verstärkungen wird Gleichtaktunterdrückung bzw. Rejektionsfaktor genannt. Die Gleichtaktunterdrückung sollte im Bereich von 80 bis 120 dB liegen, d. h. die Verstärkung von Gegentaktsignalen ist 104 bzw. 106-mal größer als die Verstärkung der Gleichtaktsignale. Differenzverstärker haben einen invertierenden und einen nicht invertierenden Eingang. Nach der Lyoner Ver-
a
b ⊡ Abb. 11.8a,b. Ableitung gegen eine Durchschnittsreferenz. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. Die spikeförmige Aktivität zeigt sich mit einer sehr großen Amplitude auf Kanal P3 AVR mit ca. 300 µV
11
138
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
einbarung von 1980 ist eine Verschaltung so vorzunehmen, dass eine Negativierung unter der differenten Elektrode zu einem positiven Ausschlag im Registriergerät führt. Ein weiteres Merkmal des Verstärkers ist der Verstärkungsfaktor, der Quotient von Ausgangsspannung zur Eingangsspannung. Dieser wird häufig über die Emp-
findlichkeit angegeben. Groß gewählt werden sollte die Eingangsimpedanz des Verstärkers (50–200 MΩ). Dies ist erforderlich, um einmal die Potentialquelle strommäßig nicht zu belasten und damit rückwirkungsfrei zu messen. Zum anderen kann so der Einfluss der Elektrodenübergangswiderstände minimiert werden.
a
b ⊡ Abb. 11.9a,b. Quellenableitung. a Schematische Darstellung der Elektrodenverschaltung, b Beispiel einer Registrierung. P3 imponiert auch hier mit einer hohen Amplitude
139 11.1 · Grundlagen
Der Frequenzgang ist ein Maß für das dynamische Übertragungsverhalten elektronischer Baugruppen und spiegelt die Abhängigkeit der Verstärkung von der Frequenz des Signals wider. Er kann aus dem Quotienten der komplexen Amplituden von Ausgangs- und Eingangssignal für eine stationäre Sinusschwingung berechnet werden. Ein Hochpass lässt Signale oberhalb einer bestimmten Grenzfrequenz ohne wesentliche Abschwächung passieren. Der Hochpass wird zur Verringerung niederfrequenter Störungen (z. B. Nullliniendrift) verwendet. Anstelle der Grenzfrequenz wird mitunter die Zeitkonstante angegeben, die sich aus der exponentionell abfallenden Antwort des Hochpasses auf eine Sprungfunktion ergibt. Dabei ist die Zeitkonstante jene Zeit, während der die Amplitude auf 37% ihres Anfangswertes sinkt. Dagegen lässt ein Tiefpass Signale unterhalb einer bestimmten Grenzfrequenz ohne wesentliche Abschwächung passieren. Der Tiefpass wird eingesetzt, um den Einfluss hochfrequenter Störungen (wie z. B. das Rauschen) zu verringern. Im Unterschied dazu beruht der Phasengang auf einer Phasendifferenz, die gewöhnlich zwischen sinusförmigen Ein- und Ausgangsspannungen eines Ableitsystems auftritt. Eine weitere Eigenschaft des Verstärkers ist das Rauschen, das aufgrund des akustischen Klangbildes so bezeichnet wird. Es ist ein kleines Störsignal über einen breiten Frequenzbereich, das auch bei kurzgeschlossenem Eingang am Ausgang registrierbar ist. Als Ursache können thermische Elektronenbewegungen in resistiven Komponenten genannt werden.
Registrierung/ Speicherung Neben den Rohsignalen werden auch Patientennamen, Datum und Art der Ableitungen sowie die entsprechenden Befundtexte in einer Datenbank angelegt. Auf einen Blick lassen sich alle bereits durchgeführten Untersuchungen mit ihren Messergebnissen erkennen, bei Verlaufskontrollen sind diese Daten unmittelbar abrufbar.
Vernetzte Systeme In Abteilungen der Klinischen Neurophysiologie werden verschiedene Arbeitsplätze für die Signalerfassung eingesetzt. Meistens sind die einzelnen Ableitstationen für spezielle Anwendungen, z. B. EEG, EMG/ENG und evozierte Potentiale, mit entsprechender Hardware wie Stimulatoren, Untersuchungsliege, Elektroden usw. ausgestattet. Auch unterscheiden sich die Arbeitsplätze dahingehend, ob – wie beim EMG – die Untersuchung von einem Facharzt oder – wie beim EEG – von einer MTA für Funktionsdiagnostik ausgeführt wird. Eine Vernetzung der Ableitstationen und die Einbeziehung von Auswertstationen ist zu empfehlen. Damit sind alle Daten an jedem PC präsent und der befundende Arzt kann unmittelbar alle Informationen abrufen. Computersysteme für die niedergelassene neurologische Praxis bestehen meist aus einer Ableit- und Auswertstation. Sie arbeiten mit einer einfachen Netzwerkfunktion »peer-to-peer«, bei der ein Datentransfer nur zwischen zwei Stationen gesteuert werden muss. Bei größeren Systemen ab 4 Ableitstationen empfiehlt sich die Installation eines lokalen Netzwerkes (LAN) mit einem eigenen Server.
⊡ Abb. 11.10. Ten-Twenty System zur Elektrodenplatzierung (10/20- System); gerade Zahlen: rechte Kopfseite, ungerade Zahlen: linke Kopfseite, F: frontal, C: zentral, P: parietal, O: okzipital, T: temporal, A: aurical
11
140
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Signalprocessing
I
Das Signalprocessing spielt für Neurophysiologie eine große Rolle. Nach einer Vorverarbeitung und Analog-/ Digitalwandlung stehen die Daten für eine weitere Auswertung zur Verfügung. Die meisten Geräte verfügen über eine Software, die eine Darstellung, Ausmessung, das Erkennen einfacher Artefakte und erste Analysen durchführt. Das Spektrum möglicher Verfahren ist breit. Die Fast Fourier Transformation (FFT) zur Frequenzanalyse, das Averaging zur Verbesserung des Signal-Störabstandes bei evozierten Potentialen, der Einsatz neuronaler Netze zur Mustererkennung, die Anwendung von speziellen Filtern, die Analyse von Schlafstadien und die Lokalisation von Quellen der bioelektrischen Aktivität sind einige Beispiele. Häufig ist der direkte Zugriff auf die Rohdaten gegeben, sodass durch die Verwendung von MATLAB® oder LabView® eine eigene Applikationssoftware erstellt und eingesetzt werden kann.
Jede der genannten Untersuchungsmethoden sollte in einem gesonderten Raum durchgeführt werden. Dabei ist zu vermeiden, die Ableiträume in die Nähe von großen Stromverbrauchern wie Fahrstühlen, Radiosendern, Magnetresonanztomographen (MRT) oder Computertomographen (CT) zu legen. Fahrstühle sollten 10–15 m entfernt sein. Meistens sind in Kliniken MRT und CT von anderen Funktionseinheiten entfernt installiert. Generell ist für neurophysiologische Untersuchungen heute aufgrund der hohen Gleichtaktunterdrückung moderner Verstärker keine spezielle Raumabschirmung im Sinne eines Faraday-Käfigs notwendig. Zu beachten bleibt jedoch, dass die elektrostatische Aufladung von Schuhen und Kunstfaserkleidung durch Erdung leicht entladen werden kann. Auch sind der Ableitstuhl oder die Untersuchungsliege sowie der Patient mit Erdpotential zu verbinden.
11.2
Artefakte Artefakte sind Störspannungen, die dem Signal überlagert sind und dieses verfälschen. Ihre Ursache kann in technischen oder biologischen Prozessen liegen. Biologische Artefakte werden durch den Patienten selbst generiert. Es sind zum einen physiologische Signale, die dem gewünschten Potential überlagert sind (z. B. das EEG dem evozierten Potential oder das EKG und EOG dem EEG. Auch treten durch Verspannung, Bewegung oder Schwitzen des Patienten zusätzliche Potentiale auf. Technische Artefakte werden durch das verwendete Gerät selbst erzeugt oder von außen eingekoppelt. Zu den Artefakten der Messapparatur gehören das Rauschen der Verstärker, 50 Hz Störspannung infolge fehlender oder ungenügender Erdung und die Verwendung ungeeigneter Elektroden. Eingekoppelt werden Artefakte galvanisch, kapazitiv oder induktiv. Möglichkeiten einer Artefaktunterdrückung bestehen zum einen durch eine 50 Hz Bandsperre. Die mit Reizen korrelierenden Signalanteile lassen sich durch Averaging aus der Hintergrundaktivität selektieren. Spezielle Algorithmen und der Einsatz neuronaler Netze können zu einer Erkennung von biologischen Artefakten eingesetzt werden und diese vom abgeleiteten Signal trennen. Auch adaptive Filter können der Artefaktunterdrückung dienen.
Elektroenzephalograph
Die Elektroenzephalographie (EEG) zeichnet elektrische Potentialdifferenzen, deren Ursache in zerebralen Vorgängen liegen, mit Hilfe von Elektroden auf, die i. d. R. auf der intakten Kopfhaut platziert wurden. EEG-Geräte finden Anwendung in der neurophysiologischen Funktionsdiagnostik in niedergelassenen neurologischen Praxen, neurologischen Abteilungen von Krankenhäusern, neurologischen Kliniken, sowie in Epilepsiezentren, neurologischen Rehabilitationskliniken und psychiatrischen Kliniken. Darüber hinaus werden sie in der Diagnostik von neurologisch-psychiatrischen Schlafstörungen, bei Medikamentenstudien und in der klinischen Forschung eingesetzt. Sie finden auch Anwendung in der Neurochirurgie und der Intensivmedizin im Monitoring. Die diagnostische Bedeutung des EEG liegt insbesondere auf dem Gebiet der Epilepsie (Klassifikation, Therapiekontrolle), der Diagnostik diffuser zerebraler Funktionsstörungen (entzündliche Erkrankungen, Hirnblutungen, Metabolismus, Pharmaka, Drogen), Funktionsstörungen infolge von Raumforderungen (Erhöhung des Hirndrucks, Blutungen, Tumore, Schädelhirntraumen), Schlafdiagnostik, Feststellung des Hirntodes, Vigilanzstörungen und der Bestimmung der Narkosetiefe. Das EEG wurde 1924 erstmals von Hans Berger in Jena vom Menschen abgeleitet.
11.2.1 Signal
Sicherheitstechnische Aspekte Für die Geräte der Klinischen Neurophysiologie gelten die allgemeinen Grundforderungen für die Anwendung medizintechnischer Produkte, das heißt das jeweilige Gerät, die Installation und die Bedienung müssen sicher sein. Die Einhaltung der technischen Parameter, wie z. B. Patientenableitstrom oder Geräteableitstrom, ist in vorgegebenen Abständen nachzuweisen.
Das EEG wird durch oberflächennahe Nervenzellen des zerebralen Kortex generiert (⊡ Abb. 11.11). Dieser ist ca. 3 mm dick und besteht aus 6 Schichten, in denen sich Stellatumzellen, Sternpyramiden- und Pyramidenzellen befinden. Die apikalen Dendriten der letzteren Zellen ziehen sich durch 5 der 6 Schichten. Ein exzitatorisches postsynaptisches Potential (EPSP) am Zellsoma führt
141 11.2 · Elektroenzephalograph
in Folge der Depolarisation zu einem Dipol mit einem oberflächennahen positiven Pol. Inhibitorische postsynaptische Potentiale (IPSP) am Zellsoma bewirken aufgrund der Hyperpolarisation eine entgegengesetzte Polung, ebenso wie die EPSP am apikalen Dendriten. EPSP und IPSP können sowohl zeitlich durch nacheinander entstehende, als auch räumlich durch synchron an benachbarten Synapsen entstehende Potentiale summiert werden. Bei Ableitung von einer intakten Hautoberfläche werden die Potentiale durch die zwischen Großhirnrinde und Haut befindlichen Schichten verschiedener Gewebe verformt. Die Widerstände und Kapazitäten dieser Schichten wirken wie Filter mit Tiefpasscharakter, wodurch Frequenzanteile über 1 kHz fast vollständig eliminiert werden. Die EEG-Potentiale bilden komplexe Wellenzüge aus, die in ihrer Form und Größe von neuronalen Faktoren in der Großhirnrinde sowie von Geschlecht, Atmung, Metabolismus, Homöostase, Sauerstoff- und Kohlendioxidgehalt des Blutes, Blutzuckergehalt, Medikamenten und Toxinen abhängen. Ebenso hängen sie von physio-
⊡ Abb. 11.11. Generierung des EEG
logischen Faktoren ab: vom Wach- oder Schlafzustand, offenen oder geschlossenen Augen im Wachzustand, von der allgemeinen Vigilanz und vom Alter. Die Amplituden des EEG nehmen vom Neugeborenen zum Kleinkind zu und vom Erwachsenen zum alten Menschen wieder ab, während die Frequenzen der Wellen von der frühen Kindheit bis ins hohe Alter ansteigen. In Abhängigkeit von der Frequenz werden Alpha-Wellen (8–13 Hz), Beta-Wellen (über 13 Hz), Theta-Wellen (4–7 Hz) und Delta-Wellen (unter 4 Hz) unterschieden. Die Beschreibung des EEG erfolgt hinsichtlich Frequenz, Amplitude, Häufigkeit, Modulation, Symmetrie und Reagibilität. Besondere Wellenformen sind Spitzen (spikes), steile Wellen- (sharp waves-) Komplexe aus spitzen bzw. steilen Wellen und einer langsamen Welle (spike and wave Komplex, SW-Komplex) und weitere Wellenformen wie z. B. µ-Welle, Vertex-Welle oder K-Komplex (⊡ Tab. 11.1). Die Beurteilung des EEG hat unter klinischen Gesichtspunkten zu erfolgen. Dabei nimmt der befundende Arzt Stellung, Regelmaß, dominierende Frequenz, auffällig hohe oder niedrige Amplituden, Altersabhängigkeit der Grundaktivität bei Kindern, Vigilanzniveau, Abweichungen von der physiologischen örtlichen Verteilung und Reagibilität sowie von der Grundaktivität unterscheidbare kontinuierliche, diskontinuierliche, generalisierte oder lokalisierte EEG-Tätigkeit. Die ⊡ Abb. 11.12 zeigt ein normales EEG eines 21Jährigen mit der Blockierung der Alpha-Wellen nach dem Öffnen der Augen. Zum Vergleich ist in ⊡ Abb. 11.13 ein EEG mit epileptiformen Mustern eines 31-jährigen männlichen Patienten dargestellt. Die EEG-Aktivitäten unterscheiden sich hinsichtlich ihrer Amplitude und Frequenz.
⊡ Tab. 11.1. Einteilung und Eigenschaften von EEG-Wellen und singulär auftretenden Wellen Wellenbezeichnung
Wellenfrequenz
Amplitude
Wellenart
Auftreten bei
Alpha-Wellen
8–13 Hz
30–50 ìV
schnell physiologisch
wach, Augen zu
Beta-Wellen
>13 Hz
~20 ìV
rasch physiologisch
wach, Augen auf, beim Rechnen
Theta-Wellen
4-7 Hz
bis zu 500 ìV
langsam physiologisch
Leichtschlaf
Delta-Wellen
0,5-3,5 Hz
viele 100 ìV bis 1–5 mV
langsam physiologisch
Tiefschlaf
steile Wellen – »sharp waves«
≥80 ms
variabel
steil abnorme Wellen
normal und abnorm
Spitzen – »spikes«
≤80 ms
variabel
steil abnorme Wellen
meist abnorm
Folge von Spitzen
5–10-mal mit ≤80 ms
≥50 ìV, oft sehr groß
steil abnorm
z. B. bei epileptischen Anfällen
spike-wave- Komplexe
3/s
10–100 ìV
viele verschiedene Varianten
immer abnorm
11
142
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
I
⊡ Abb. 11.12. Normales 16-kanaliges EEG eines 21 Jahre alten männlichen Patienten in bipolarer Ableitung. Das Schema der Verschaltung der Elektroden ist angegeben
⊡ Abb. 11.13. EEG mit epileptiformen Mustern eines 31 Jahre alten männlichen Patienten
143 11.2 · Elektroenzephalograph
11.2.2 Gerätetechnik
In den letzten 10 Jahren vollzog sich mit dem Übergang von den EEG-Geräten auf der Basis von Papier- oder Thermokammschreibern zum Computer-EEG ein gravierender Wandel in der Gerätetechnik. Dies betrifft zum einen die Hardware, die nun aus einem PC, A/D-Wandler und Verstärkerbox (Headbox) besteht, zum anderen die rechnergestützten Möglichkeiten der Analyse und Befundung aufgrund moderner Software sowie die digitalen Medien für die Signalspeicherung und Archivierung. Damit hat sich das Aussehen eines EEG-Gerätes grundlegend verändert (⊡ Abb. 11.14). Zur Standardausstattung eines EEG-Gerätes gehört ein Fotostimulator. Dieser erzeugt kurze helle Lichtblitze mit definierter Leuchtdichte und Frequenz. Bei Doppelblitzen ist der Blitzabstand ebenfalls einstellbar. Die Basis für den Fotostimulator ist ein Stroboskop oder ein Leuchtdiodenarray.
sichtlich Signalverstärkung und Verzerrungsfreiheit gestellt werden. Seine Gütekriterien, die Gleichtaktunterdrückung und die Eingangsimpedanz müssen besonders hoch sein (>120 dB und >100 MΩ). Für eine qualitativ hochwertige Ableitung ist neben der aktiven Elektrode und der Referenzelektrode auch eine Erdelektrode mit dem Differenzverstärker zu verschalten. Je nachdem, wie man die Elektroden an den verschiedenen Kopfpunkten zueinander in Beziehung setzt oder sie verschaltet, entstehen andere EEG-Registrierungen. Es ist für die Interpretation des registrierten EEG von wesentlicher Bedeutung, die Verschaltung dieser Eingänge pro Kanal, auch Ableitprogramme oder Montagen genannt, zu kennen und sie direkt der Kurve zuordnen zu können. So wird unterschieden in unipolare oder Referenzableitungen, bipolare Ableitungen und Quellenableitungen.
11.2.3 Methodik
Mindestanforderungen Elektroden Zur Ableitung des EEG werden gesinterte Ag/AgCl-Oberflächenelektroden eingesetzt (vgl. ⊡ Abb. 11.5). Diese ermöglichen auch im niederfrequenten Bereich eine optimale Aufzeichnung. Der Kontakt der Elektrode mit der Kopfhaut wird über Elektrolyt oder mit Kochsalzlösung getränkte Filzüberzüge hergestellt. Zur Verminderung des Elektrodenübergangswiderstands, der unter 10 kΩ sein sollte, wird die Kopfhaut vorbehandelt.
Verstärker Ein Vorverstärker (Headbox) ist auf einem Stativ in der Nähe des Patientenkopfs montiert und dient dem Elektrodenanschluss und der Vorverstärkung der EEG-Signale. Danach werden sie zum eigentlichen Hauptgerät übertragen. Da die Vorverstärker mit A/D-Wandlern ausgestattet sind, können die digitalisierten Signale über größere Entfernungen fehlerfrei und ohne nennenswerte Verluste übertragen werden. Der eigentliche Vorverstärker ist ein Differenzverstärker, an den hohe Anforderungen hin-
⊡ Abb. 11.14. Ableitung eines EEG im Labor
Die Deutsche Gesellschaft für Klinische Neurophysiologie hat für die Ableitung des EEG Mindestanforderungen definiert. Ein EEG-Gerät sollte mindestens mit 10 EEG-Verstärkern und einem EKG-Verstärker ausgestattet sein. Die Elektrodenplatzierung erfolgt nach dem 10-20 System. Vor und nach einer Ableitung ist die Eichung des Gerätes vorzunehmen und die Elektrodenübergangswiderstände sind zu dokumentieren. Die Ableitung, die mindestens 20 Minuten dauert, muss Referenzschaltungen sowie bipolare Längs- und Querreihen enthalten. Die Prüfung der sensorischen Reaktivität, z. B. durch Augen öffnen und schließen (Berger-Effekt) sowie die Durchführung der Photostimulation und Hyperventilation ist dabei enthalten. Während der Ableitung auftretende Artefakte müssen bezeichnet und soweit wie möglich korrigiert werden. Die registrierte Kurve ist mit allen für die Auswertung wichtigen Angaben zu versehen, wie z. B. technischen Parametern sowie Verhalten und Befinden des Patienten.
Ableitungen Während der EEG-Ableitung werden unterschiedliche Montagen oder Verschaltungen der auf dem Schädel platzierten Elektroden verwendet. Prinzipiell lassen sich die in ⊡ Tab. 11.2 zusammengefassten EEG-Montagen unterscheiden. Ein EEG wird i. d. R. mit einer Empfindlichkeit von 70 µV/cm, einem Papiervorschub bzw. Zeitachse von 30 mm/s, mit einer Zeitkonstanten von 0,3 s (entspricht einem Hochpass mit einer Grenzfrequenz von 0,53 Hz) und einer oberen Grenzfrequenz von 70 Hz registriert. Nur in begründeten Fällen sollte hiervon abgewichen werden. Auf den Gebrauch eines Netzfilters von 50 Hz sollte verzichtet werden.
11
144
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
⊡ Tab. 11.2. Übersicht und Eigenschaften von klinisch verwendeten EEG-Montagen
I
Montagen oder Ableitprogramme
Belegung des Differenz-Verstärkers
Charakteristische Eigenschaften
unipolare oder Referenzableitungen gegen eine Referenz
aktive Elektrode mit negativer Polarität gemeinsame Referenzelektrode am Scheitel oder am Ohr Erdelektrode an Stirn
gemeinsame Potentialanteile werden hervorgehoben bessere Darstellung von generalisierter Aktivität Amplituden und Phasen gut erkennbar und untereinander vergleichbar
Referenzableitungen gegen gemittelte Referenzen – common average
aktive Elektrode mit negativer Polarität gemittelte Referenz aus dem Summensignal aller Elektroden Erdelektrode an Stirn oder Ohrläppchen
s. oben, jedoch sind die gemeinsamen Potentialanteile nicht mehr deutlich hervorgehoben günstig bei artefaktbehafteten Signalen
bipolare Ableitungen wie Querreihen, Längsreihen, Zirkumferenzen etc.
zwei benachbarte aktive Elektroden nebeneinander Erdelektrode an Stirn oder Ohrläppchen
Potentialunterschiede zwischen den Elektroden werden hervorgehoben bessere Darstellung von fokaler Aktivität Gradient unmittelbar vergleichbar
Quellenableitungen – spezielle unipolare Montage mit speziell gemittelten und gewichteten Referenzen
einzelne aktive Elektrode, hier »Quelle« genannt gemittelte Referenz aus dem gewichteten Summensignal aller Elektroden, die um die aktive Elektrode (=Quelle) herum angeordnet sind Erdelektrode an Stirn oder Ohrläppchen
fokale Aktivitäten werden besser hervorgehoben Amplituden und Phasen bleiben gut vergleichbar
⊡ Abb. 11.15. Beispiele für EEG-Schaltungen für ein 16-kanaliges EEG-Gerät
145 11.2 · Elektroenzephalograph
Die konkrete Verschaltung der Elektroden hängt von der Zahl der Registrierkanäle ab. Für ein 16-Kanalgerät sind in der ⊡ Abb. 11.15 Beispiele angegeben.
Provokationsmethoden Häufig werden in der Routinediagnostik Fotostimulation und Hyperventilation als Aktivierungs- oder Provokationsmethode eingesetzt. Eine sehr einfach durchzuführende Provokationsmethode ist die Hyperventilation. Der Patient wird aufgefordert, seine Atmung für die Dauer von 3 min in Frequenz und Amplitude zu steigern, d. h. regelmäßig und tief mit etwa 30 Atemzügen pro Minute zu atmen. Für die 3-minütige Hyperventilation sind die Potentiale in erster Linie aus frontalen, zentralen, okzipitalen und mittleren temporalen Hirnregionen abzuleiten. Die Fotostimulation wird in einem abgedunkelten Raum mit einem Fotostimulator durchgeführt. Die Stärke der Lichtblitze und ihre Frequenz sollte einstellbar sein. Die Fotostimulation ist standardisiert durchzuführen. Die Blitze sind jeweils mindestens 10 s zu applizieren. Die Ableitung erfolgt bei geschlossenen Augen. Während der 2-minütigen Fotostimulation sollten besonders die frontopolaren, frontalen und okzipitalen Hirnregionen erfasst werden. Weitere routinemäßig durchzuführenden Aktivierungsmethoden sind der Schlafentzug (durchwachte Nacht) oder Schlafableitungen (nach Schlafentzug, Mittagsschlaf, seltener medikamentös eingeleiteter Schlaf). Die Dauer der Ableitung beträgt dabei etwa 30–60 min.
11.2.4 EEG-Ableitverfahren
Hinsichtlich der verschiedenen diagnostischen Anwendungen innerhalb der Neurologie haben sich folgende EEG-Ableitverfahren entwickelt: Routine-EEG in der neurologischen Praxis und Klinik, ambulantes 24-hLangzeit-EEG, Video-EEG, portables EEG, Schlaf-EEG und Pharmako-EEG (⊡ Tab. 11.3).
Routine-EEG EEG-Ableitungen sollten in einem ruhigen Raum durchgeführt werden Der Patient sollte auf einem bequemen EEG-Stuhl eine halb sitzende, halb liegende Position einnehmen. Kopf und Nacken müssen so entspannt wie möglich sein, um Muskelpotentiale zu vermeiden, welche die Auswertung oft erschweren. Die Ableitung erfolgt prinzipiell bei geschlossenen Augen. Die EEG-Ableitung sollte 20 min nicht unterschreiten.
Langzeit-EEG Eine Langzeit-EEG-Ableitung wird ambulant mit 8, mitunter auch mit 12 EEG-Kanälen bis zu 24 h lang durchgeführt. Ziel ist das Finden von selten auftretenden Ereignissen, die durch eine konventionelle Registrierung nicht erfasst wurden. Hierbei werden alle EEG-Rohsignale vollständig abgespeichert. Der Patient trägt entweder ein kleines, batteriebetriebenes Datenaufzeichnungsgerät bei sich oder die Daten werden telemetrisch zu einer
⊡ Tab. 11.3. Einsatzbereich, Kanalzahlen und Auswertverfahren bei den klinisch üblichen EEG-Ableitverfahren EEG-Verfahren
Einsatzbereich
Kanalzahl
Ableitdauer (Durchschnitt)
Auswertung
1. Routine-EEG
Praxis Klinik Epilepsie
8–12 16–24 19–32–64
ca. 10 min 20–30 min 20–40 min
visuell
2. Langzeit-EEG
Kliniken, als Ergänzung zum Routine EEG, z. B. bei Anfallspatienten
8–12
max. 24 h
halbautomatische, rechnergestützte Ereignissuchverfahren
3. Video-EEG
Epilepsie, auch vermehrt in Kliniken
19–24
10–60 min, ereignisabhängig
EEG-Signale direkt synchronisiert mit Videobild des Patienten
4. Portables EEG
ambulante Registrierung auf Intensivstation, in der Inneren Medizin und zur Hirntodbestimmung
8–12
10–30 min, auch 1–2 h, mit Darstellung aller EEG-Signale
visuell, bei Hirntodbestimmung, zusätzliche Anforderungen an die Auflösungsgenauigkeit
5. Schlaf-EEG
Schlafstörungen neurologisch-psychiatrischen Ursprungs
12–24 mit Polygraphie
mindestens 8 Nachtstunden
halb- und automatische Schlafstadienerkennung
6. Pharmako-EEG
Medikamentenstudien
12–24
20–30 min, abhängig vom Studienziel
EEG-Mapping, computergestützte Frequenzanalysen
11
146
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Auswertstation übertragen. Alle physiologischen Artefakte wie Sprechen, Kauen, Essen etc. werden dabei mit aufgezeichnet, was eine Menge artefaktbehafteter Signalabschnitte erzeugt und die Interpretation des EEG zusätzlich erschwert.
Pharmako-EEG Ein Spezialgebiet ist die Ableitung des EEG zur Erfassung des Einflusses von Medikamenten auf die Funktion des zentralen Nervensystems (Pharmako-EEG). Hier geht es insbesondere um die Feststellung gleicher oder ähnlicher Veränderungen im EEG bei verschiedenen Probanden. Dabei haben sich unterschiedliche Analyseverfahren bewährt, wie bspw. das Mapping. Mit Hilfe der Frequenzanalysen können problemlos statistische Berechnungen mit den entsprechend quantifizierten Wellenanteilen über die gesamte Ableitdauer durchgeführt werden und die Änderungen im EEG über größere Zeiträume erfasst und quantifiziert werden.
Video-EEG Parallel zur EEG-Routineableitung wird mit einer zur EEG-Registrierung zeitsynchronisierten Videokamera das Patientenbild erfasst und gespeichert. Man verwendet dabei auch Infrarotkamerasysteme, um auch in abgedunkelten Räumen ein Videobild des Patienten aufzeichnen zu können. Die Verbindung von Computer-EEG und Video macht die Synchronisation beider Signale bis auf wenige Millisekunden möglich. Die EEG-Daten laufen in optimaler Auflösung und Flimmerfreiheit synchron zum Videobild über den PC-Monitor und können sogar in andere Montagen umgeschaltet werden. Von besonderer Bedeutung ist das Video-EEG für die Epilepsiediagnostik. Aus dem Videobild kann der Auswerter erkennen, wann und wie ein möglicher epileptischer Anfall beginnt. In Verbindung mit dem zugehörigen EEG ist es ihm möglich, bei einer fokalen Epilepsie den Fokus bzw. den Ausgangspunkt einer epileptischen Aktivierung zu lokalisieren. Die aktuelle Aufnahmezeit kann als Suchkriterium eingegeben werden. So können gleichzeitig beide Informationen dargestellt werden.
Schlaf-EEG Bei neurologisch-psychiatrischen Schlafstörungen wird zu diagnostischen Zwecken das EEG während des Nachtschlafs mindestens 8 h lang aufgezeichnet. Zur Erstellung eines Schlafprofils mit der dazugehörigen Schlafstadienbestimmung sind jedoch noch weitere polygraphische Kanäle notwendig: Augenbewegungen über das EOG, Muskeltonus aus dem Oberflächen-EMG am Kinn, EKG, Atmung und Atemanstrengung. Eine Videoüberwachung des Schlafenden ist häufig üblich.
Portables EEG EEG-Ableitungen auf der Intensivstation sowie Hirntodbestimmungen setzen eine handliche, möglichst kompakte EEG-Einheit voraus. Für die Hirntodbestimmung hat die Deutsche Gesellschaft für Klinische Neurophysiologie spezielle Anforderungen an die eingesetzten Geräte gestellt: Registrierung mindestens 30 min unter Verwendung auch des doppelten Elektrodenabstandes, 0,53–70 Hz Bandbreite, Empfindlichkeit 2 µV/mm, mindestens 8 Kanäle.
11.2.5 Auswertung/ Signalanalyse
EEG-Signalanalyse In Ergänzung zur visuellen Auswertung des EEG durch einen Facharzt hat sich aufgrund der Datenfülle der EEGSignale eine computerisierte Auswertung durchgesetzt. Hier sind insbesondere Frequenzanalyse und die Detektion definierter Merkmale im EEG hilfreich. Eine weitere Methode der EEG-Analyse ist die Dipolanalyse des EEG, das ein räumlich-zeitlich zugeordnetes Dipolmodell für EEG und evozierte Potentiale liefert. Hier wird die Lokalisation möglicher Quellen bioelektrischer Aktivität bestimmt. Die Autokorrelationsfunktion des EEG liefert zum einen die im Signal dominierende Frequenz einer EEG-Epoche, zum anderen ist ihr Abfall ein Maß für die Stochastik des EEG. Die Kreuzkorrelationsfunktion wird zur Bestimmung einer gemeinsamen Frequenz in zwei verschiedenen EEG-Epochen, z. B. zwischen zwei Ableitkanälen, eingesetzt. Auch die zeitvariante Spektralanalyse, die für jede einzelne Welle im EEG Amplitude und Frequenz bestimmt und dies als dreidimensionale Häufigkeitsverteilung darstellen kann, sei hier erwähnt. In der ⊡ Abb. 11.16 ( auch 4-Farbteil am Buchende) sind einige Beispiele für eine Signalanalyse zusammengefasst dargestellt.
Nachträgliche Remontage von Kurvenabschnitten Für die Bewertung des EEG und die Lokalisation pathologischer Wellenformen ist es sehr hilfreich, einen bestimmten Kurvenabschnitt mit verschiedenen Schaltungen oder Montagen auswerten zu können. Die Möglichkeit, denselben Kurvenabschnitt unter verschiedenen »Blickwinkeln« betrachten zu können, gibt dem Arzt die Chance, die zur Befundung optimale Montage zu finden.
Topographische Darstellung der Amplituden- und Frequenzverteilung Das Ergebnis einer topographischen Darstellung des EEG ist das zweidimensionale, farbige Bild (Map) der über der Schädeloberfläche verteilten Hirnaktivität. Häufig werden
147 11.2 · Elektroenzephalograph
⊡ Abb. 11.16. Beispiele für eine Signalanalyse
die Amplituden, Frequenzen und das Leistungsspektrum aus der Frequenzanalyse topographisch dargestellt. Hierfür werden die Signalamplituden zwischen den durch Elektroden bestimmten Ableitpunkten durch Interpolation berechnet. Die Amplituden der so gewonnenen zweidimensionalen Verteilungen werden quantifiziert und farblich codiert. Es entsteht ein farbig abgestuftes Bild der Potentialverteilung über der Schädeloberfläche. Besonders eindrucksvoll ist die Entstehung bspw. eines Fokus oder einer generalisierten Aktivität zu erkennen, wenn die Amplitudenmaps im zeitlichen Abstand von ein paar Millisekunden als Film dargestellt werden. Beim Frequenzmap wird mittels Fast Fourier Transformation (FFT) ein EEG-Signalabschnitt, dessen Amplitude eine Funktion der Zeit ist, in ein Signal gewandelt, dessen Amplitude eine Funktion der Frequenz ist. Das Ergebnis wird analog dem Amplitudenmap farbig dargestellt, wobei den unterschiedlichen Farben die möglichen Wellenfrequenzen zugeordnet sind. Aus dem mittels FFT transformierten Signal wird das Leistungsspektrum berechnet. Es gibt an, mit welcher
Leistung eine bestimmte Frequenz oder EEG-Welle im Signalgemisch enthalten ist. Die Ergebnisse werden meist in Form eines Histogramms dargestellt. Die Hüllkurve dieses Histogramms ist eine sehr übersichtliche Darstellung der Veränderungen der Frequenzanteile während der einzelnen Phasen der Ableitung, zur Abschätzung der Wirkung von Pharmaka oder während der Narkose.
Langzeit-EEG-Analyse Das große Datenaufkommen bei einer ambulanten Langzeit-EEG-Ableitung gestaltet die Interpretation dieser Daten sehr zeitaufwendig. Als Beispiel für eine derartige Analyse sei eine Software genannt, die spezielle Paroxysmen sucht, indem sie die EEG-Rohdaten hinsichtlich der Anzahl von Spitzenwerte, ihrer Fläche und ihrer Signallänge durchsucht. Das Ergebnis dieser Berechnungen ist eine komprimierte Darstellung des Langzeit-EEG, das den Betrachter wichtige paroxysmale Ereignisse im EEG von Artefakten und normalen EEG-Abschnitten problemlos unterscheiden lässt (⊡ Abb. 11.17).
11
148
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Abschließender EEG-Befund
I
Nach der visuellen Begutachtung des EEG durch den Arzt mit oder ohne Zuhilfenahme von rechnergestützten Analyseverfahren wird der Befundtext erstellt. Hierzu werden konventionelle Schreibprogramme verwendet. Der Befund wird gemeinsam mit den EEG-Signalen gespeichert und archiviert.
Artefakte im EEG Während der Ableitung können verschiedene Artefakte auftreten. Hierbei wird zwischen physiologischen und technischen Artefakten unterschieden, die möglichst sofort erkannt, klassifiziert, dokumentiert und behoben werden sollten (⊡ Tab. 11.4). Um die physiologischen Artefakte zu identifizieren, werden häufig EKG, EMG und EOG mitregistriert. In ⊡ Abb. 11.18 und ⊡ Abb. 11.19 ist jeweils ein Beispiel für physiologische Artefakte gegeben. Zum einen werden Muskelaktivitäten insbesondere in den Bereich F7, T3 und T5 eingestreut. Zum anderen wirken sich Augenbewegungen frontopolar aus und finden sich in den Ableitungen Fp1-F3 und Fp1-F7 sowie Fp2-F4 und Fp2-F8.
11.2.6 Spezielle Methoden
Elektrocorticographie (ECoG) Die Elektrocorticographie wird zur genaueren Lokalisation umschriebener Läsionen vor einem neurochirurgischen Eingriff eingesetzt. Dabei werden Elektrodenarrays unmittelbar auf den Cortex platziert. Der Vorteil liegt in der Verminderung von Gewebeschichten, die zwischen dem Entstehungsort der bioelektrischen Aktivität und dem Ableitort liegen. Die registrierten Signale weisen höhere Frequenzen auf.
Magnetenzephalographie (MEG) Jeder von einem Strom durchflossene Leiter ist gleichzeitig auch immer von einem Magnetfeld umgeben. Dies trifft auch auf erregte Nervenzellen zu. Da intrazellulär die Stromdichte größer als außerhalb der Zelle ist, lässt sich über Magnetfeldänderungen aufgrund des Aktionspotentials auf die erregte Zelle schließen. Da das Magnetfeld im Unterschied zum elektrischen Feld nicht durch Knochen- und Gewebsschichten beeinflusst, sondern nur von der Distanz zwischen Entstehungsort und
⊡ Abb. 11.17. Software zur Erkennung paroxysmaler Veränderungen im Langzeit-EEG
⊡ Tab. 11.4. Übersicht über physiologische und technische Artefakte während einer EEG-Ableitung Physiologische Artefakte
Technische Artefakte
EMG-Potentiale durch: Stirnrunzeln, Lidbewegungen, Kauen, Kopf- und Halsbewegungen
Schlechte Übergangsimpedanz der Elektroden durch: schlechten Elektrodensitz, Verrutschen der Elektroden
EKG-Spitzen oder Pulswellen temporal einstreuend
Wackelkontakt in den zuführenden Kabeln durch Bruchstellen
EOG als Augenbewegungen im frontalen EEG
50 Hz-Einstreuungen von außen
Schwitzen – als langsame Schwankungen im EEG erkennbar
Große Induktivitäten, wie benachbarte vorbeifahrende Aufzüge oder nahe gelegene Radio- oder Fernsehsender oder Privatfunk
Atembewegungen – okzipital durch Kopfbewegung im Atemrhythmus
Elektrostatisch aufgeladene Schuhe oder Kunstfaserkleidung
149 11.2 · Elektroenzephalograph
⊡ Abb. 11.18. Muskelaktivität im EEG
⊡ Abb. 11.19. Blinkartefakte im EEG
11
150
I
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
Sensor abhängt, sind lokalisatorische Aussagen über die Quelle möglich. Aus der erfassten Magnetfeldverteilung über dem Schädel lässt sich durch Lösung des inversen Problems mit hinreichender Genauigkeit der Ort ihrer Generierung bestimmen. Damit hat die Magnetenzephalographie im Vergleich zur Elektroenzephalographie den Vorteil der Bestimmung der Quellen von markanten Aktivitäten. Sie wird daher bspw. zur Lokalisation möglicher Foki bei der fokalen Epilepsie, von funktionalen Störungen aufgrund von Raumforderungen oder des Einflusses klar bestimmbarer Faktoren auf das Zentrale Nervensystem wie z. B. Tinnitus eingesetzt. Aber auch die Lokalisation der Erregung von Nervenzellen nach spezifischen Reizen (akustisch, optisch) oder aufgrund mentaler Aktivitäten (Musik hören, denken, sprechen usw.) ist Gegenstand von Unter-
⊡ Abb. 11.20. Spulensystem eines SQUIDS (Supraleitendes Quanteninterferometer) zur Erfassung biomagnetischer Felder
suchungen. In Verbindung mit anderen Verfahren wie MRT, fMRT, PET, SPECT lassen sich so die funktionalen Strukturen des Gehirns bestimmen. Allerdings ist die Magnetenzephalographie ein noch recht aufwändiges Verfahren. Die eingesetzten Sensoren (supraleitende Quanteninterferometer, SQUIDS) sind zur Erzielung der Supraleitung an die Kühlung mit flüssigem Helium gebunden. Die ⊡ Abb. 11.20 zeigt das Spulensystem eines SQIDS.
11.3
Elektromyograph
Elektromyographen sind sehr universell einsetzbare Diagnostiksysteme. Mit ihnen kann die elektrische Aktivität von Muskel und Nerv unter verschiedenen Bedingungen abgeleitet, verstärkt und registriert werden. Die hierfür eingesetzten Verstärker zeichnen sich durch eine hohe Empfindlichkeit, eine große Eingangsimpedanz, eine variable Bandbreite und geringes Rauschen aus. Je nach Ausstattung verfügen Elektromyographen über einen elektrischen, akustischen, visuellen und magnetischen Stimulator. Der prinzipielle Aufbau eines Elektromyographen ist in der ⊡ Abb. 11.21 wiedergegeben. Ein Personal Computer (PC) ist die zentrale Steuer-, Signalverarbeitungs-, Darstellungs- und Speichereinheit eines EMG Gerätes. Er ist mit einem Festplattenlaufwerk als Datenspeicher, PC-Monitor mit Farbgraphik, Tastatur und Laserdrucker als Ausgabeeinheit ausgestattet. Die notwendigen Module wie Verstärker, Analog-/ Digitalwandler und die Reizeinheiten können im PC-Gehäuse integriert sein. Die Funktionen wie Averaging, Signalverzögerung, Programmierung der Ableitprogramme und Auswertung der Signale werden von der Software übernommen. Dabei dient der
⊡ Abb. 11.21. Blockschaltbild eines Elektromyographen mit 4 Stimulatoren (grün), 3 Ausgabegeräten (pink), je 3 Hardware- und Softwarekomponenten (blau) und dem PC als zentrale Einheit
151 11.3 · Elektromyograph
Averager der fortlaufenden Mittelwertbildung, um kleine reizbezogene Signale aus einem Signalgemisch herauszulösen. Die Verzögerungsleitung verzögert Signale, sodass Signalanteile, die vor einem Reiz liegen noch beurteilbar werden. Der Lautsprecher dient der akustischen Beurteilung der erfassten Potentiale. Dies ist zum einen für die unmittelbare Diagnostik wichtig, da einzelne myographische Signalformen charakteristische Klangbilder haben. Zum anderen dient der Lautsprecher als Feedback für den Patienten, der damit die Stärke seiner Willkürinnervation oder Entspannung einschätzen kann. EMG-Geräte finden Anwendung in ▬ niedergelassenen neurologischen Praxen als kompaktes 2-Kanal-Gerät für EMG/EP ▬ neurologischen Abteilungen von Krankenhäusern als 2-Kanal-EMG und 4-Kanal-EP-Gerät ▬ neurologischen Kliniken als 4-Kanal-EMG und als 4–8-Kanal-EP-Gerät ▬ neurologischen Rehabilitationskliniken als 2–4-Kanal-EMG/ EP-Gerät ▬ neurochirurgischen Kliniken zum intraoperativen EP-Monitoring als 4–8-Kanal-EP-Gerät ▬ neurologischen Forschungen als 8-Kanal-EMG/EPGerät ▬ Kliniken der Orthopädie während Wirbelsäulenoperationen mit 4-Kanal-SEP/MEP-Gerät ▬ der Sportmedizin ▬ der HNO als 2-Kanal-EMG-Gerät für Kehlkopf-EMG mit Spezialelektroden
Um den verschiedensten Anforderungen genügen zu können, werden die handelsüblichen EMG-Geräte modular in Systemkomponenten angeboten. Insbesondere hinsichtlich der Anzahl der Kanäle und der Anzahl und Art der Stimulatoren, Software und Speichermedien variieren sie. Die ⊡ Tab. 11.5 gibt hierfür einige Beispiele.
11.3.1 Signal
Aufgrund der mannigfaltigen Möglichkeiten eines Elektromyographen sind eine Vielzahl unterschiedlicher Signale messtechnisch erfassbar. ⊡ Tab. 11.6 gibt eine Übersicht über die verschiedenen Arten von Potentialen und Messwerten, die mit einem EMG-Gerät abgeleitet und ausgewertet werden.
11.3.2 Gerätetechnik
Elektromyographen (⊡ Abb. 11.21 und ⊡ Abb. 11.22) werden hinsichtlich ihrer Kanalzahl und Art der Stimulatoren modular zusammengestellt. Damit entstehen je nach Anforderung spezielle Ableitsysteme. Mit einem EMGGerät können eine Vielzahl von neurophysiologischen Untersuchungen durchgeführt werden, wobei jede Untersuchung verschiedene Reiz-, Ableit-, Darstellungs- und Auswertparameter hat. Diese verschiedenen Parameter sind abgespeichert und vom Anwender änderbar oder
⊡ Tab. 11.5. Elektrodenapplikation, Stimulatoren und Kanalzahl bei den verschiedenen Untersuchungen mit einem EMG-Gerät Untersuchung
Ableitung
Stimulator
Kanalzahl
Nadel-EMG
im Muskel mit Nadelelektrode, nur vom Arzt durchführbar
keiner
1 Kanal
Elektroneurographie und Reflexe
meist Oberflächenelektroden zum Reizen und Ableiten
elektrischer Stimulator zur sensiblen und motorischen Reizung
2 Kanal
Neuromuskulärer Übergang
Oberflächenelektroden zum Reizen und Ableiten
elektrischer Stimulator mit Serienreizung
1 Kanal
VEP – Visuell Evozierte Potentiale
Oberflächenelektroden am Kopf zum Ableiten
Monitor mit Schachbrettmusterumkehr, Streifen, Balken, farbige Stimulation
Praxis: 1 Kanal Neurologie: 1–3 Kanäle Augenklinik: 1–5 Kanäle
AEP – Akustisch Evozierte Potentiale
Oberflächenelektroden am Kopf zum Ableiten
Kopfhörer mit Click, frequenzspezifischen Bursts etc.
Praxis: 1 Kanal Neurologie: 1–2 Kanäle HNO: 2–4 Kanäle in der Audiologie
SEP – Somatosensibel Evozierte Potentiale
Oberflächenelektroden zum Reizen und Ableiten
elektrische Serienreize an Händen oder Füßen
Praxis: 1–2 Kanäle Klinik: 1–4 Kanäle auch 4–8 Kanäle
MEP – Motorisch Evozierte Potentiale
Oberflächenelektroden an Hand oder Fuß zum Ableiten
Magnetstimulator mit Spulen zur kortikalen Reizauslösung
1 Kanal
11
152
Kapitel 11 · Geräte und Methoden der Klinischen Neurophysiologie (EEG, EMG/ENG, EP)
⊡ Tab. 11.6. Signalgrößen und Messwerte der verschiedenen Untersuchungen mit einem EMG-Gerät
I
Untersuchungen
Signalamplituden
Analysezeit
Messwerte
Nadel-EMG: Spontanaktivitäten Leichte Innervation Maximalinnervation
20–500 μV 200 μV–2 mV 500 μV–5 mV
100 ms 100 ms 1s
Potentialdauer Amplitude Entladefrequenz
Elektroneurographie: motorische NLG sensible NLG etc.
10 mV 50–100 μV
20 ms 10 ms
VEP – Visuell Evozierte Potentiale
50–100 μV
200 ms
Latenzen und Amplituden
AEP – Akustisch Evozierte Potentiale: Hirnstammpotentiale ▬ frühe AEP ▬ mittlere AEP ▬ späte AEP
0,1–0,5 μV 20–100 μV 100–500 μV
10 ms 100 ms 0,5–1 s
Latenzen Latenzdifferenz Amplituden
SEP – Somatosensibel Evozierte Potentiale: Armstimulation Beinstimulation
20–100 μV 10–100 μV
100 ms 200 ms
Latenzen Latenzdifferenz Amplituden
MEP – Motorisch Evozierte Potentiale: Armableitung
5–10 mV
10 ms
motorische und sensible Nervenleitgeschwindigkeit, distale Latenzen
Latenzen Amplituden zentrale Überleitungszeit
Elektroden
⊡ Abb. 11.22. 4-Kanal-EMG-Gerät mit integriertem Stimulator. Die Nervenleitgeschwindigkeit kann durch elektrische Stimulation der motorischen Nerven und bipolarer Ableitung von Muskelantwortpotentialen mit Oberflächenelektroden bestimmt werden
neu erstellbar. So kann die Anzahl der Ableitprogramme je nach Ausbaustufe des Gerätes von 20–40 variieren. Kernstück ist ein PC, von dem aus die Untersuchungen gesteuert, die Signale verarbeitet, dargestellt und vermessen sowie abgespeichert und ausgedruckt werden. Für die Darstellung der Signale gilt auch hier die internationale Konvention, nach der die Signale mit negativer Polarität mit einem Ausschlag nach oben dargestellt werden.
Die Standardnadel in der Elektromyographie ist die konzentrische Nadelelektrode. In einer Stahlkanüle befindet sich – von einer Isolierschicht (Araldit) umgeben – eine Platinseele. Verstärkt wird die Potentialdifferenz zwischen dem als indifferente Elektrode dienenden Stahlmantel und der differenten Platinseele. Die Elektroden sind meist 2–6 cm lang und 0,3–0,6 mm dick. Ihre Verwendung richtet sich nach der Größe des zu untersuchenden Muskels. In einigen Fällen werden auch bipolare Nadelelektroden verwendet. Dort befinden sich 2 Nadelseelen dicht nebeneinander. Notwendig ist eine zusätzliche Erdung über eine Erdelektrode, die an der entsprechenden Extremität angebracht wird. Bei der Neurographie und den SEP werden Reiz- und Ableitelektroden benötigt. In beiden Fällen handelt es sich meist um Oberflächenelektroden, zwischen denen eine Erdelektrode anzubringen ist. Nur in seltenen Fällen wird in der Klinik mit Nadelelektroden gereizt und abgeleitet. Diese Nadeln werden paarweise – eine nervennahe und eine nervenferne – appliziert, in diesem Fall erhält man größere und ausgeprägtere Potentiale. Bei den evozierten Potentialen werden in der klinischen Routine Oberflächennapfelektroden am Kopf verwendet, die ähnlich wie EEG-Elektroden angebracht werden. Nur beim intraoperativen Monitoring werden kleine Platinnadelelektroden verwendet. Die ⊡ Abb. 11.23 zeigt eine Übersicht über verschieden Elektrodentypen.
153 11.3 · Elektromyograph
⊡ Abb. 11.23. Elektroden für die Elektromyographie
Verstärker
Stimulatoren
Der für einen Elektromyographen eingesetzte Verstärker ist ein Differenzverstärker mit einem großen Aussteuerungsbereich und einem breiten Frequenzbereich. Pro Kanal gibt es 3 Eingangsbuchsen für den invertierenden und den nichtinvertierenden Eingang sowie für die Erdung. Eine Impedanzmessung der Übergangswiderstände ist vorzusehen, empfiehlt sich aber nur bei Verwendung von Oberflächenelektroden, wie bspw. bei der Ableitung von evozierten Potentialen. Typische technische Daten eines EMG/EP-Kombinationsgerätes sind: ▬ Verstärkerkanäle: 2–4–8 ▬ Vorverstärker: mit optisch isolierten Eingängen, Patientenanschluss über Headbox ▬ Eingangsimpedanz: >200 MΩ ▬ Gleichtaktunterdrückung: >100 dB ▬ Empfindlichkeit: 1–500 μV, 1–10 mV in 14 Stufen einstellbar ▬ Rauschen: 30
auch horizontale und vertikale Ableitung möglich
EMG
M. mentalis oder M. submentalis; bipolar
20
70
EKG
in. Manubrium sterni, dif. 5. Interkostalraum
1000
Atemfluss
Mund und beide Nasenöffnungen
Unterscheidung einer Hypoventilation von normaler Atmung Hypoventilation, normale Atmung und Hyperventilation müssen erkennbar sein
Anstrengung
thorakal und abdominal
Blutgase
SaO2
EMG
M. tibialis anterior
R-Zacke sowie P- und TWelle gut erkennbar Thermistor oder Thermoelement
Induktions-Plethysmographie, Dehnungsmessstreifen, Piezosensoren oder Impedanzmessung Pulsoximetrie, bei analogem Ausschrieb 1 % pro mm 20
⊡ Abb. 12.5. Polysomnographische Ableitung eines Patienten im Schlaflabor mit der Darstellung des Videobildes im oberen Fesnter. Folgende Biosignale sind dargestellt: das EEG C3:A1 und C4:A2, das
70
bipolar, 5 cm Abstand
EOG, das EMG vom Mundgrund, der Flow, die Atemanstrengung, Schnarchgeräusche, die Sauerstoffsättigung, das EKG, die Herzfrequenz, das EMG vom Bein und die Körperlage
177 12.5 · Signalableitung und Signalverarbeitung
12.5.2 Visuelle Auswertung
Der erste Schritt einer Auswertung ist die visuelle Kontrolle der Rohdaten. Damit lässt sich die Qualität der Ableitung und das Auftreten von Artefakten abschätzen. Die gesamte Ableitung wird mit unterschiedlichen Zeitmaßstab dargestellt, um einen schnelleren Überblick über die gesamte Ableitung zu erhalten. In ⊡ Tab. 12.3 ist eine Übersicht über die Kriterien einer visuellen Auswertung polygraphischer Signale zur Diagnostik von Schlafstörungen zu sehen. Zur Beurteilung der Dynamik des Schlafs und der Schlafqualität werden die jeweiligen Schlafstadien und ihr Wechsel erfasst. Dabei wurde die Einteilung der Schlafstadien von Rechtschaffen und Kales zum Standard. In ⊡ Tab. 12.4 sind die wesentlichen Kriterien, an denen sich diese Klassifikation orientiert, zusammengefasst.
12.5.3 Computerisierte Auswertung
Computergestützte Verfahren der Analyse polysomnographischer Signale berücksichtigen sowohl die respiratori-
schen als auch die bioelektrischen Signale. Algorithmen zur Auswertung der Atmung sind in der Lage, Apnoen und Hypopnoen zu erkennen und zwischen obstruktiven und zentralen Atmungsstörungen zu differenzieren (⊡ Abb. 12.6, auch 4-Farbteil am Buchende). Unter Berücksichtigung der Herzfrequenzvariation und der O2-Sättigung lassen sich weitere differentialdiagnostische Aussagen treffen. Insbesondere die übersichtliche Darstellung der Änderung dieser Parameter über den gesamten Ableitungszeitraum ist für den Arzt eine unentbehrliche Hilfe. Obwohl sich die Schlafstadieneinteilung nach Rechtschaffen und Kales zum Standard entwickelt hat und für viele Anwendungen brauchbare Ergebnisse liefert, beruht sie doch auf einer recht willkürlichen Stadienabgrenzung und ist von der Erfahrung des Arztes abhängig. Andere Verfahren zerlegen mittels Fourier-Analyse das Signal in seine Frequenzkomponenten und berechnen die Leistung als Funktion der Zeit. Insbesondere über die langsamen Aktivitäten im d-Bereich lässt sich die Schlafarchitektur erfassen. Damit können funktionelle Aspekte der Schlafregulation untersucht werden [3, 11] (⊡ Abb. 12.7, auch 4-Farbteil am Buchende).
⊡ Tab. 12.3. Kriterien der visuellen Auswertung polygraphischer Signale im Schlaflabor entsprechend den Empfehlungen der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin [14] Signal
Analyse
Atmung
Amplitude und Phasenverschiebung zwischen der thorakalen und abdominalen Atmungstätigkeit ▬ Atmungsamplitude 10 s ⇒ Apnoe ▬ Atmungsamplitude 3–4% ▬ Oxygen Desaturation Index (ODI) = mittlere Sättigung, Entsättigungen pro Stunde Schlaf
EEG
visuelle Bestimmung der Schlafstadien nach den Kriterien von Rechtschaffen und Kales in Stadien Wach, 1, 2, 3, 4, REM und MT (⊡ Tab. 12.4)
EKG
Herzfrequenzvariation, Herzrhythmusstörungen mittlere Herzfrequenz Wach und Schlaf, Zeitpunkt maximale Herzfrequenz
EMG M. tibialis
Quantifizierung periodischer Beinbewegungen (PMS) ▬ Dauer zwischen 0,5 und 5 sec, > doppelte Amplitude ▬ periodisch wenn 4 Ereignisse mit Abständen von 4–90 sec bei einem Mttelwert von 20–40 sec ▬ Frage nach Arousal, PMS-Arousalindex = Zahl der Bewegungen mit Arousal pro Stunde Schlaf, ab 5 pathologisch
EMG Kinn
Schlafstadienklassifikation, Quantifizierung nach phasischer und transienter EMG-Aktivität
EOG
Erkennung REM-Schlaf, Berechnung der mittleren REM-Dichte langsame Augenbewegungen bei Schlafstadium 1
Erektion
Diagnostik der erektilen Impotenz; zeitliche Assoziation zu REM-Episoden
Interaktionen
Zusammenhänge zwischen Schlafphasen, Arousals und anderen EEG-Elementen mit kardiorespiratorischen Ereignissen und Bewegungen
Körperlage
Apnoen und Hypopnoen werden für jeweilige Körperlage gezählt
Temperatur
Diagnostik chronobiologischer Störungen des Schlaf-Wach-Verhaltens; Untersuchungszeit >32 h
12
178
Kapitel 12 · Schlafdiagnostiksysteme
⊡ Tab. 12.4. Einteilung der Schlafstadien entsprechend den Kriterien von Rechtschaffen und Kales nach [19]
I
Stadium und % am Gesamtschlaf
EEG
EOG
EMG
Wach (1%)
W
dominierend alpha-Aktivität (8–13 Hz), beta-Wellen (>13 Hz)
Lidschläge, rasche Augenbewegungen
hoher Tonus, Bewegungsartefakte
Non-REM (5%)
S1
theta-Aktivität, Vertexwellen
langsame, pendelnde Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsartefakte
(49%)
S2
theta-Aktivität, K-Komplexe, Schlafspindeln
keine Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsartefakte
(8%)
S3
Gruppen hoher delta-Wellen >20%50%
keine Augenbewegungen
Abnahme des mittleren Muskeltonus, kaum Bewegungsartefakte
REM (24%)
REM
theta-Aktivität, Sägezahnwellen
konjugierte rasche Augenbewegungen (Sakkaden)
niedriger mittlerer Tonus, phasische Aktivierung
Movement Time (MT)
>50% der Epoche sind durch Bewegungsartefakte gestört, sodass eine Zuordnung zu einem anderen Stadium nicht möglich ist
⊡ Abb. 12.6. Polysomnographische Darstellung insbesondere der respiratorischen Parameter einschließlich ihrer Bewertung durch die Markierung erkannter Apnoen oder Hypopnoen und Entsättigung
179 12.7 · Methodische Hinweise
⊡ Abb. 12.7. Darstellung von Ergebnissen der Auswertung insbesondere der neurophysiologichen Biosignale. Es sind die Klassifikation der Schlafstadien nach Rechtschaffen und Kales, die Frequenzanalyse des
Weitere Verfahren sind Analysen im Zeitbereich durch Erkennen von Wellen und Mustern sowie der Einsatz hybrider Systeme mit analog arbeitenden Filtertechniken. Neuere Verfahren nutzen neuronale Netze, die nach einer Lernphase Biosignale nach vorgegebenen Kriterien beurteilen können. Für die Einteilung in Schlafstadien werden derzeit auch Algorithmen auf der Grundlage der »fuzzy logic« entwickelt. Ein zusätzlicher Parameter ist die Pulswellenlaufzeit (»pulse transit time«, PTT). Diese wird aus dem EKG und dem photooxymetrisch gewonnenen Pulssignal am Finger bestimmt. Die Pulswellenlaufzeit ist die Zeitdifferenz zwischen dem Maximum der R-Zacke und dem Zeitpunkt des Erreichens von 50 % der Amplitude der Pulskurve. Änderungen der Pulswellenlaufzeit korrelieren sowohl mit Blutdruckschwankungen als auch mit der Atemanstrengung. Damit ergibt sich ein weiterer Parameter, mit dem zwischen obstruktiver und zentraler Apnoe unterschieden werden kann [24] (⊡ Abb. 12.8).
EEG zweidimensional als Funktion der Zeit und das zeitliche Auftreten von alpha- und delta-Wellen im EEG wiedergegeben
⊡ Abb. 12.8. Zur Bestimmung der Pulswellenlaufzeit
12
180
Kapitel 12 · Schlafdiagnostiksysteme
12.6
I
Anwendungsbereiche
Die Anwendungsbereiche der Diagnostik von Schlafstörungen sind so vielfältig wie ihre Ursachen. Diese reichen von internistischen, neurologischen und pneumologischen Erkrankungen bis hin zu physiologischen Reaktionen, z. B. nach dem Überqueren von Zeitzonen bei Transmeridianflügen (»jet lag«) [17] oder Schlafstörungen während der Schwangerschaft. Auch altersmäßig umfassen sie alle Bereiche, so z. B. vom plötzlichen Kindstod des Säuglings bis hin zu altersbedingten Schlafstörungen in der Geriatrie. In ⊡ Tab. 12.5 sind die einzelnen Fachgebiete und die jeweiligen Funktionsstörungen aufgeführt. Daraus wird ersichtlich, dass es kaum ein medizinisches Fachgebiet gibt, das nicht direkt oder indirekt mit der Problematik von Schlafstörungen konfrontiert wird.
12.7
Methodische Hinweise
Die methodischen Hinweise, die in diesem Kapitel gegeben werden, beziehen sich auf die Durchführung von polysomnographischen Ableitungen. Für die Fragen der Pflege und Wartung sind die Hinweise der jeweiligen Hersteller von Geräten, Zubehör und Sensorik zu beachten. Da die Art der Sensorik, ihre Eigenschaften, die verwendeten Materialien und ihre Applikation voneinander ab-
weichen können, lassen sich nur wenige allgemeingültige Hinweise geben.
12.7.1 Handhabung/Applikation
Die Auswahl der abzuleitenden Biosignale richtet sich nach dem klinischen Problem. Zu Beginn der Ableitung ist neben der technischen auch eine biologische Eichung durch Kommandobewegungen der Augen, Körperbewegungen, willkürliche Apnoe, Hypopnoe und Hyperventilation durchzuführen. Diese dient der Kontrolle der Funktionsfähigkeit der Ableittechnik und dem Sitz der Sensorik. Zur Ableitung bioelektrischer Signale sollten nur Elektroden aus einem Material miteinander verschaltet werden, entweder Gold oder Silber/Silberchlorid. Die Deutsche Gesellschaft für Schlafforschung und Schlafmedizin empfiehlt die Durchführung von polysomnographischen Untersuchungen an mindestens 2 aufeinanderfolgenden Nächten, wobei die erste der Laboreingewöhnung dient. Dabei sollte möglichst eine kontinuierliche Aufzeichnung der Biosignale auf Papier mit einer Papiergeschwindigkeit von 10 oder 15 mm/s erfolgen. Die DGSM empfiehlt eine Archivierung der abgeleiteten Signale auf optischen, magnetischen oder digitalen Medien, sofern sie jederzeit wieder in analoger Form auf einem Polygraphen ausgeschrieben werden können [14].
⊡ Tab. 12.5. Indikationsbereiche in unterschiedlichen Fachgebieten nach [18] Fachgebiet
Beispiele für Funktionsstörungen und Erkrankungen, die eine Indikation zur Untersuchung auf schlafbezogene Atmungsstörungen darstellen
Andrologie
Potenzstörungen
Endokrinologie
Hypothyreose, Akromegalie, Adipositas permagna
Hämatologie
Polyglobulie
HNO
Erkennbare Obstruktion der oberen Atemwege im Wachzustand des Patienten
Kardiologie
Nächtliche Herzrhythmusstörungen, Hypertonie, Herzinsuffizienz unklarer Genese, dilatative Kardiomyopathie
Neurologie
Neuromuskuläre Erkrankungen, Hypersomnien
Orthopädie
Kyphoskoliose
Pädiatrie
Störungen der Atmungsregulation, SIDS-Überlebende, Kinder mit Verdacht auf Pickwick-Syndrom, Gedeihstörungen, großen Tonsillen und Adenoiden
Pneumologie
Hypoxie / Hyperkapnie mit oder ohne vorbestehende Lungenerkrankung, Rechtsherzinsuffizienz oder globale Herzinsuffizienz unklarer Genese
Psychiatrie
Hypersomnie, Hyposomnie
Psychosomatik
Unklare »Versagenszustände«, Verminderung der Leistungsfähigkeit
Zahn-, Mund- u. Kieferchirurgie
Kraniofaziale Malformationen
181 12.9 · Therapie
12.7.2 Artefakte
Ein wichtiges Problem bei der messtechnischen Erfassung von Biosignalen stellen die Artefakte dar. Diese sind als Störsignal dem interessierenden Signal überlagert und können ein Vielfaches der Amplitude des Nutzsignals haben. Man unterscheidet biologische und technische Artefakte. Letztere lassen sich durch die Wahl des Ableitraums, Verbesserung der Applikation der Sensorik (z. B. Verringerung des Elektrodenübergangswiderstands) oder Veränderungen an der Ableittechnik reduzieren. Biologische Artefakte lassen sich nur bedingt ausschließen, z. B. durch Verlagerung der applizierten Sensorik. Diese Artefakte werden vom erfahrenen Auswerter im Signalgemisch identifiziert, bei computergestützter Auswertung können sie zu Fehldeutungen führen (z. B. langsame Augenbewegungen im frontalen EEG).
12.8
Medizinische Bedeutung der Schlafdiagnostik
Die medizinische Bedeutung von Schlafstörungen ergibt sich zum einen aus der Prävalenz, zum anderen aus den jährlichen indirekten Kosten in Milliardenhöhe, die durch Nichterkennung und Nichtbehandlung entstehen. In Deutschland leiden gegenwärtig etwa 20 Mio. Menschen an Ein- und Durchschlafstörungen, die nicht durch äußere Einflüsse bedingt sind. Bei der Mehrzahl der Betroffenen sind diese Schlafstörungen chronisch. Unter häufiger oder ständiger Tagesmüdigkeit leiden 3,3 Mio. Menschen, woraus sich auch der hohe Anteil tödlicher Unfälle auf Autobahnen erklärt, die Einschlafen als auslösendes Ereignis haben (24%). 2,7 Mio. Menschen nehmen regelmäßig Schlafmittel ein, obwohl fast die Hälfte der Patienten, die täglich Schlafmittel einnehmen, berichtet, dass ihre Beschwerden unverändert anhalten. Ein großer Teil der Schlafmittel einnehmenden Patienten muss als abhängig bezeichnet werden. Eine medizinische Abklärung der Störung und die Einleitung einer kausalen Therapie sind unbedingt erforderlich. Dies wird um so dringlicher, wenn man sich verdeutlicht, dass weit verbreitete und gefährliche Volkskrankheiten wie z. B. Adipositas, arterielle Hypertonie, Herzinsuffizienz, Herzrhythmusstörungen, plötzlicher Herztod und Stoffwechselerkrankungen kausal mit Schlafstörungen verbunden sein können [4,19]. Insgesamt leiden 800.000 Patienten unter Schlafapnoe, von denen bei mehr als 50% der Risikofaktor Bluthochdruck auftritt. Als Ursache für kardiovaskuläre Folge- und Begleiterkrankungen werden 3 wesentliche Pathomechanismen diskutiert: ▬ Blutgasveränderungen, ▬ intrathorakale Druckschwankungen und ▬ konsekutive Weckreaktionen.
Diese können im Verlauf zu Hochdruck im kleinen und großen Kreislauf, Cor pulmonale, Kardiomyopathien, koronaren Herzkrankheiten, Herzrhythmusstörungen und Schlaganfall führen. Die Schlafmedizin konnte zeigen, dass kardiovaskuläre und kardiopulmonale Folgeerkrankungen ausbleiben bzw. reversibel sind, wenn schlafbezogene Atmungsstörungen rechtzeitig diagnostiziert und erfolgreich therapiert werden. In ⊡ Tab. 12.6 sind die Schlafstörungen auf der Grundlage der von der American Sleep Disorders Association veröffentlichten International Classification of Sleep Disorders zusammengefasst. Diese internationale Klassifikation beschreibt die verschiedenen Störungsbilder und bemüht sich um eine ursachenorientierte Einteilung.
12.9
Therapie
Die therapeutischen Verfahren sind so vielgestaltig wie die Schlafstörungen, die mit ihnen behandelt werden. Man kann ein 5-stufiges therapeutisches Schema definieren, das verhaltensmedizinisch-psychotherapeutische, chronobiologische, pharmakologische, apparative und chirurgische Maßnahmen unterscheidet.
12.9.1 Verhaltensmedizinisch-
psychotherapeutische Therapie Hier werden neben Empfehlungen zur Schlafhygiene und der Vermeidung eines schlafstörenden Verhaltens auch Entspannungsübungen eingesetzt.
12.9.2 Chronobiologische Therapie
Sie umfasst Maßnahmen zur Beeinflussung des periodischen Verlaufs biologischer Funktionen wie z. B. mittels Lichttherapie. Damit lässt sich z. B. die Auswirkung einer künstlichen Zeitverschiebung, wie sie beim »jet lag« oder bei Schichtarbeit auftritt, mindern.
12.9.3 Medikamentöse Therapie
Bei primär organischen und chronischen Erkrankungen werden pharmakologische Maßnahmen eingeleitet. Je nach Krankheitsbild werden Stimulanzien, Antidepressiva, Hypnotika und Neuroleptika eingesetzt. Zur medikamentösen Behandlung schlafbezogener Atmungsstörungen bei Patienten mit einem leichten bis mittelschweren Befund kann Theophyllin verwendet werden. Damit ergibt sich eine Therapiemöglichkeit für Patienten, die nicht oder nicht sofort einer nCPAP-Therapie zugeführt werden können [16].
12
182
Kapitel 12 · Schlafdiagnostiksysteme
Tab. 12.6. Internationale Klassifikation der Schlafstörungen nach [12] Dyssomnien
Parasomnien
Schlafstörungen bei organischen/ psychiatrischen Erkrankungen
Schlafstörungen unterschiedlicher Genese
Intrinsische Schlafstörungen Psychophysiologische Schlafstörung, Schlafwahrnehmungsstörung, idiopathische Hyposomnie, Narkolepsie, Rezidivierende Hypersomnie, ideopathische Hypersomnie, Posttraumatische Hypersomnie, obstruktives Schlafapnoe-Syndrom, Zentrales SchlafapnoeSyndrom, zentrales alveoläres Hypoventilationssyndrom, periodische Arm- und Beinbewegungen, restless legs-Syndrom
Aufwachstörungen Schlaftrunkenheit, Schlafwandeln, Pavor nocturnus
Schlafstörungen bei psychiatrischen Erkrankungen Schizophrenie (Psychosen), depressive Erkrankungen, Angsterkrankungen, Panikerkrankungen, Alkoholabhängigkeit
Schlafstörungen unterschiedlicher Genese Kurzschläfer, Langschläfer, Subvigilanzsyndrom, fragmentarischer Myoklonus, nächtliches Schwitzen, Schlafstörungen bei Menses und Menopause, Schlafstörungen während und nach Schwangerschaft, schlafgebundene neurogene Tachypnoe, schlafgebundener Laryngospasmus, Erstickungsanfälle im Schlaf
Extrinsische Schlafstörungen inadäquate Schlafhygiene, umgebungsbedingte Schlafstörungen, höhenbedingte Schlafstörungen, psychoreaktive Schlafstörungen, Schlafmangelsyndrom, Schlafstörung bei Fehlen fester Schlafzeiten, Einschlafstörungen bei Fehlen des gewohnten Schlafrituals, Schlafstörung bei Nahrungsmittelallergie, Schlafstörung mit Zwang zum Essen und Trinken, Schlafstörung bei Hypnotikaabhängigkeit, Schlafstörung bei Stimulanzienabhängigkeit, Schlafstörung bei Alkoholkonsum, toxisch induzierte Schlafstörung
Schlaf-Wach-Übergangsstörungen Stereotype Bewegungsabläufe im Schlaf, Einschlafzuckungen, Schlafsprechen, nächtliche Wadenkrämpfe
Schlafstörungen bei neurologischen Erkrankungen Degenerative Hirnerkrankungen, Demenz, Parkinsonismus, Letale familäre Schlaflosigkeit, Schlafbezogene Epilepsie, Elektrischer Status spilepticus im Schlaf, Schlafgebundene Kopfschmerzen
Störungen des zirkadianen Schlaf-Wachrhythmus Schlafstörungen bei Zeitzonenwechsel (Jet Lag), Schlafstörungen bei Schichtarbeit, unregelmäßiges Schlaf-Wachmuster, verzögertes Schlafphasen-Syndrom, vorverlagertes Schlafphasen-Syndrom, Schlaf-Wachstörungen bei Abweichungen vom 24-Stunden-Rhythmus
REM-Schlaf-abhängige Parasomnien Alpträume, Schlaflähmungen, eingeschränkte Erektion im Schlaf, schmerzhafte Erektion im Schlaf, Asystolie im REM-Schlaf, abnormales Verhalten im REMSchlaf
Schlafstörungen bei internistischen Erkrankungen Afrikanische Schlafkrankheit, nächtliche kardiale Ischämie, chronisch-obstruktive Lungenerkrankung, schlafgebundenes Asthma, schlafgebundener gastroösophagealer Reflux, Peptischer Ulkus, Fibrositis-Syndrom
I
Weitere Parasomnien Bruxismus, Enuresis, Verschlucken im Schlaf, Nächtliche paroxysmale Dystonie, Syndrom des ungeklärten nächtlichen Todes bei Asiaten, Primäres Schnarchen, Schlafapnoe bei Säuglingen und Neugeborenen, Angeborenes zentrales Hypoventilationssyndrom, Plötzlicher Kindstod, Gutartiger Schlafmyoklonus bei Neugeborenen
183 12.11 · Planerische Hinweise
12.9.4 Apparative Therapie
Zur Behandlung schlafbezogener Atmungsstörungen ist eine apparative Therapie häufig das Mittel der Wahl. Dabei werden in erster Linie CPAP-Geräte für eine positive Überdruckbeatmung eingesetzt [8]. Bei hohen Exspirationsdrücken oder als drucklimitiertes Beatmungsgerät bei sowohl zentraler Schlafapnoe als auch zentraler Hypoventilation kann ein BiLEVEL mit der getrennten Steuerung des in- und exspiratorischen Drucks eingesetzt werden [2]. Alternative Möglichkeiten stellen die Esmarch-Prothese dar, durch die der Unterkiefer 2–4 mm nach vorn verlagert werden kann, und das Snore Ex, mit dem die Zunge des Patienten aus dem Mund nach vorn herausgezogen wird. Der therapeutische Effekt dieser Verfahren ist umstritten.
12.9.5 Operative Therapie
Selten gibt es eine klare Indikation zur kieferchirurgischen Operation, die dann gute Erfolge zeigt. Uvulopalatopharyngoplastiken werden zur Stabilisierung des Pharynxlumens eingesetzt. Insbesondere im Kindesalter kann durch Tonsillektomie eine Obstruktion beseitigt werden [13].
12.10
Sicherheitstechnische Aspekte
Voraussetzung des Einsatzes jeglicher medizintechnischer Geräte ist der Nachweis, dass eine Gefährdung für den Patienten, den Anwender und Dritte ausgeschlossen ist. Dies wird in Normen (z. B. VDE-Bestimmung) festgelegt. Grundlegende Bestimmungen sind im Medizinproduktegesetz enthalten. Dieses regelt die Herstellung, das Inverkehrbringen, das Inbetriebnehmen, das Ausstellen, das Errichten, das Betreiben und das Anwenden von Medizinprodukten sowie deren Zubehör. Die Geräte müssen so konzipiert sein, dass auch bei Auftreten eines Fehlers bzw. bei Fehlbedienungen die Sicherheit, Eignung und Leistung der Medizinprodukte nicht gefährdet ist. Neben den applikativen Wünschen muss ein polysomnographisches System die Kriterien der Qualitätssicherung in der Medizin erfüllen.
12.10.1
nungen und lange störungsfreie Betriebszeiten berücksichtigt werden. Letzteres ist eine wesentliche Voraussetzung für den Einsatz von CPAP-Geräten in der Therapie der schlafbezogenen Atmungsstörungen, der mit einem besonderen Service verbunden sein muss. Feste Wartungen in einem Zeitintervall, das etwa 1 Jahr beträgt, sollten zum Standard gehören und neben der Reinigung, dem Auswechseln von Verschleißteilen, dem Nachweis der vollen Funktionsfähigkeit auch der Abstimmung des Verhältnisses von Mensch zu Maschine durch umfassende Betreuung und Beratung des Patienten dienen.
12.10.2
Geräte im Schlaflabor
Die im Schlaflabor verwendeten Geräte werden unter ständiger Kontrolle des Personals am Patienten eingesetzt. Neben den gerätemäßigen Voraussetzungen spielt hier die Fortbildung der Mitarbeiter des Labors durch interne Qualifikation eine wesentliche Rolle. Deshalb schließen die Begutachtungsverfahren der Deutschen Gesellschaft für Schlafforschung und Schlafmedizin zur Qualitätssicherung im Schlaflabor neben einer Kontrolle der räumlichen, apparativen und personellen Ausstattung auch die Qualität in der Diagnose und Therapie mit ein [15].
12.11
Planerische Hinweise
12.11.1
Raumbedarf
Für die Planung eines Schlaflabors muss berücksichtigt werden, dass der Schlafraum für den Patienten und der Raum, in dem die Ableit- und Auswertetechnik steht (Wachstation), voneinander räumlich getrennt sind. Die Größe des Schlafraums sollte 12 m2 nicht unterschreiten. Er sollte über eine Schalldämmung, Verdunklungsmöglichkeit und ggf. Klimaanlage verfügen. Eine Infrarotvideoanlage bestehend aus Kamera, Mikrophon, Infrarotstrahler, Monitor und Rekorder ist für die simultane Aufzeichnung des Videobildes des Patienten zusammen mit den abgeleiteten Biosignalen erforderlich und dient auch der Kontrolle des Patienten. Zur Verständigung mit dem Patienten während der Ableitung ist eine Gegensprechanlage erforderlich.
Ambulante Geräte 12.11.2
Medizintechnische Geräte dürfen die Gesundheit und den Schutz von Patienten, Anwendern und Dritten nicht gefährden. Dies betrifft in einem besonderen Maß die Medizintechnik, die der Patient im Rahmen einer Therapie oder ambulanten Diagnostik von Schlafstörungen zu Hause einsetzt. Hier müssen zusätzlich Bedienbarkeit, Übersichtlichkeit, ein Ausschluss möglicher Fehlbedie-
Zeitbedarf
Der Zeitbedarf für eine Schlafuntersuchung ist je nach Fragestellung sehr unterschiedlich und reicht von 20 min (MSLT) bis zu mehreren Tagen (Epilepsiediagnostik und Diagnostik chronobiologischer Schlafstörungen). Die Vorbereitung des Patienten und das Anlegen der Sensorik dauert im Durchschnitt eine halbe bis eine ganze Stunde.
12
184
Kapitel 12 · Schlafdiagnostiksysteme
12.11.3
I
Personal
Ein Schlaflabor wird von einem verantwortlichen Leiter geführt, der das diagnostische Spektrum der Schlafstörungen beherrscht. Ist er kein Arzt, sondern z. B. Psychologe, muss ein verantwortlicher Arzt zur Erfüllung der medizinischen Belange ernannt werden. Empfehlenswert ist der Einsatz von einem Arzt (z. B. für Ambulanz, Befundung, interventionelle Therapie und Rufbereitschaft) sowie zwei Assistent(inn)en (z. B. für Einbestellung, Tagtest, Auswertung, Anlegen und Pflegen der Sensorik) je Ableitplatz. Eine Nachtwache sollte nicht mehr als drei Patienten überwachen, davon maximal zwei CPAP-Einstellungen oder maximal ein Problemfall. Während der Nacht muss ein diensthabender Arzt im Hintergrund zur Verfügung stehen.
Literatur 1. Ayappa I, Norman RG, Hosselet JJ, Rapoport DM (1998) Relative occurrence of flow limitation and snoring during continuous positive airway pressure titration. Chest 114: 685–690 2. Becker H, Brandenburg U, Peter JH, Schneider H, Weber K, von Wichert P (1993) Indikation und Applikation der BiLEVEL-Therapie. Pneumologie 47: 184–188 3. Borbely AA (1992) Die Beeinflussung des Schlafs durch Hypnotika. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 1–44 4. Buysse DJ et al. (1994) Clinical diagnoses in 216 insomnia patients using the international classification of sleep disorders. Sleep 17: 630–637 5. Clarenbach P (1992) Schlafstörungen im Rahmen neurologischer Erkrankungen. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 329–356 6. Duchna HW, Schäfer D, Wiemann J (1994) Schlaflabor-Diagnostik. In: Raschke K, Konermann M, Schäfer T, Schläfke ME, Sturm A, Schultze-Werninghaus G (Hrsg) Schlafbezogene Atmungsstörungen im Kindes- und Erwachsenenalter. MMV Medizin, München, S 69–76 7. Ferber R et al. (1994) Portable recording in the assessment of obstructive sleep apnea. Sleep 17: 378–392 8. Fietze I, Warmuth R, Quispe-Bravo S, Reglin B (1993) Befunde bei Patienten mit obstruktivem Schlafapnoesyndrom unter nCPAPTherapie. Pneumologie 47: 170–174 9. Fischer J et al. (1991) Empfehlungen zur Diagnostik und Therapie nächtlicher Atmungs- und Kreislaufregulationsstörungen. Pneumologie 45: 45–48 10. Hajak G, Rüther E, Hauri PJ (1992) Insomnie. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 67–119 11. Hirshkowitz M, Moore CA (1994) Issues in computerized polysomnography. Sleep 17: 105–112 12. Lund R, Clarenbach P (1992) Schlafstörungen: Klassifikation und Behandlung. Arcis, München 13. Mayer-Brix J, Schwarzenberger-Kesper F, Kusek E, Küsel M, Penzel T (1991) Schnarchen und schlafbezogene Atmungsstörungen bei Kindern – Klinik, Differentialdiagnosen und Indikationen zur Adenotonsillenektomie. Arch Otorhinolaryngol (Suppl): 79–114 14. Penzel T et al. (1993) Empfehlungen zur Durchführung und Auswertung polygraphischer Ableitungen im diagnostischen Schlaflabor. Z EEG-EMG 24: 65–70
15. Penzel T, Berger M, Clarenbach P, Peter JH (1994) Zur Qualitätskontrolle von Schlaflabors in der Bundesrepublik Deutschland. WMW Sonderheft: 120–124 16. Peter JH et al. (1992) Empfehlungen zur ambulanten Diagnostik der Schlafapnoe. Med Klin 87: 310–317 17. Peter JH, Köhler D, Knab B, Mayer G, Penzel T, Raschke F, Zulley J (Hrsg) Weißbuch Schlafmedizin. Roderer, Regensburg (1995) 18. Peter JH, Amed G, Stephan S, Jung W, Ockenga A, Himmelmann H, von Wichert P (1987) Therapie der Schlafapnoe mit abendlich eingenommenem retardiertem Theophyllin (EUPHYLONG). Prax Klin Pneumol 41: 433–437 19. Pollmächer T, Lauer C (1992) Physiologie von Schlaf und Schlafregulation. In: Berger M (Hrsg) Handbuch des normalen und gestörten Schlafs. Springer, Berlin Heidelberg New York Tokio, S 1–44 20. Sadeh A, Hauri PJ, Kripke DF, Lavi P (1995) The role of actigraphy in the evaluation of sleep disorders. Sleep 18: 288–302 21. Sanner B, Konermann M, Wiemann J (1994) Apparative Therapie schlafbezogener Atmungsstörungen im Erwachsenenalter. In: Raschke K, Konermann M, Schäfer T, Schläfke ME, Sturm A, Schultze-Werninghaus G (Hrsg) Schlafbezogene Atmungsstörungen im Kindes- und Erwachsenenalter. MMV Medizin, München, S 99–104 22. Schäfer T (1994) Plötzlicher Kindstod – Ursache, Prävention, Heimmonitoring. In: Raschke K, Konermann M, Schäfer T, Schläfke ME, Sturm A, Schultze-Werninghaus G (Hrsg) Schlafbezogene Atmungsstörungen im Kindes- und Erwachsenenalter. MMV Medizin, München, S 137–143 23. Schwartz AR, Smith PL, Gold AR (1997) Clinical application of quantitative measures of pharyngeal collapsibility. ADSA News 4: 11–12 24. Smith RP, Argod J, Pepin JL, Levy PA (1999) Pulse transit time: an appraisal of potential clinical applications. THORAX 54: 452–457 25. Stefan H (1991) Epilepsien, Diagnose und Behandlung. Ed. Medizin, VCH, Weinheim Basel Cambridge New York, S 79–89 26. Teschler H, Wessendorf TE (1999) Automatisches CPAP. In: Schulz (Hrsg) DGSM Kompendium Schlafmedizin, Therapie von Atmungsstörungen. Ecomed Verlag, Landsberg, S 1–7
13 X
185 xxxx · xxxx
Nystagmographie K.-P. Hoffmann 13.1 Funktion und Anwendung 13.2 Augenbewegungen 13.2.1 13.2.2 13.2.3 13.2.4 13.2.5
– 185
– 186
Sakkaden – 186 Folgebewegungen – 186 Nystagmen – 186 Konvergenzbewegungen – 187 Torsionsbewegungen – 187
13.3 Technik und Methodik
– 187
13.3.1 Frenzel-Brille – 187 13.3.2 Elektronystagmographie (ENG), Elektrookulographie (EOG) – 187 13.3.3 Photoelektronystagmographie (PENG), Infrarotokulographie (IROG) – 188 13.3.4 Magnetookulographie (MOG) – 188 13.3.5 Elektromagnetische Technik (Search-coil-System) – 188 13.3.6 Videookulographie (VOG) – 188
13.1
Funktion und Anwendung
Die Nystagmographie ist eine Methode zur messtechnischen Erfassung, Analyse und Bewertung von spontanen und durch externe Reize ausgelösten Augenbewegungen. In ⊡ Abb. 13.1 ist stark vereinfacht der prinzipielle Aufbau des okulomotorischen Systems dargestellt. Seine primäre Funktion ist es, die stabile Positionierung der Abbilder
13.4 Verfahren 13.4.1 13.4.2 13.4.3 13.4.4 13.4.5
– 189
Spontannystagmus – 189 Sakkaden – 189 Folgebewegungen – 189 Optokinetischer Nystagmus – 190 Vestibulärer Nystagmus – 190
13.5 Signalableitung und Signalverarbeitung – 190 13.6 Medizinische Bedeutung
– 191
13.7 Sicherheitstechnische Aspekte 13.8 Raumplanung Literatur
– 192
– 192
– 192
der visuellen Welt auf der Netzhaut und damit sowohl einen ungestörten Sehvorgang als auch eine konstante Raumwahrnehmung zu ermöglichen. Es müssen einerseits die interessierenden Bildabschnitte auf der Stelle des schärfsten Sehens, der Fovea centralis (ca. 0,8° des zentralen Gesichtsfeldes) binokulär zentriert und fixiert werden. Andererseits gilt es, bei Eigen- und Umweltbewegungen auftretende retinale Bildverschiebungen zu vermeiden. Hierzu stehen prinzipiell schnelle
⊡ Abb. 13.1. Vereinfachte Darstellung der Regelung von Augenbewegungen nach [19]
186
I
Kapitel 13 · Nystagmographie
und langsame Augenbewegungen zur Verfügung mit den okulomotorischen Systemen Sakkaden, langsame Folgebewegung, vestibulärer und optokinetischer Nystagmus, Konvergenzbewegungen sowie Fixation. Dabei ist die Fixationsphase von Mikrosakkaden gekennzeichnet [12]. Erst die Genauigkeit der sensomotorischen Verknüpfung einschließlich der Möglichkeit der Kompensation von Störungen sichert die Aufrechterhaltung des binokulären räumlichen Sehens [10]. Diese funktionellen Leistungen der Okulomotorik werden durch die zentrale Integration der propriozeptiven, vestibulären und optischen Afferenzen ermöglicht [19]. Daher wird die Nystagmographie interdisziplinär insbesondere in den Fachgebieten Neurologie und Hals-Nasen-Ohren-Heilkunde eingesetzt und hat sich bereits in der Mitte des vorigen Jahrhunderts zu einer routinemäßig durchgeführten Diagnostikmethode etabliert.
13.2
Augenbewegungen
Eine schematische Darstellung der wesentlichen Formen von Augenbewegungen ist in ⊡ Abb. 13.2 zusammengefasst. Es handelt sich dabei um Sakkaden, Folgebewegungen, Nystagmus und Konvergenzbewegung.
13.2.1 Sakkaden
Sakkaden sind schnelle Augenbewegungen, die dem Erfassen eines neuen Fixationspunktes dienen. Unter zerebellärer Kontrolle werden sie in der paramedianen pontinen Formatio reticularis generiert. Ihre maximale Geschwindigkeit nimmt mit der Größe der Bewegung zu und kann bis zu 700°/s betragen. Die Dauer liegt zwischen 30 und 120 ms. Weitere Parameter einer Sakkade sind die Latenz und die Überschwingweite, welche als prozentuale
⊡ Abb. 13.2. Schematische Darstellung von Augenbewegungen
Abweichung vom Fixationsort nach einer Sakkade beschreibbar ist. Wird durch eine Sakkade das neue Blickziel nicht ganz erreicht, folgt nach 100–300 ms eine Korrektursakkade [2, 8]. Sakkaden lassen sich in intern getriggerte Willkürsakkaden (z. B. Erinnerungssakkaden, Antisakkaden, Suchsakkaden), durch externe Reize getriggerte automatisch ablaufende Reflexsakkaden (z. B. visuell oder akustisch induziert) und spontane scheinbar zufällige Sakkaden unterscheiden.
13.2.2 Folgebewegungen
Mit Folgebewegungen wird das Auge konjugiert und langsam einem bewegten Sehziel nachgeführt. Die Konturen des Objektes können zusätzlich durch Sakkaden abgetastet werden. Die Winkelgeschwindigkeiten liegen durchschnittlich bei 30–50°/s. Sie dienen der Verfolgung und Stabilisierung eines bewegten Sehziels auf der Retina [9].
13.2.3 Nystagmen
Als Nystagmus wird eine unwillkürliche rhythmische, in zwei Phasen ablaufende okuläre Oszillation bezeichnet. Es lassen sich zum einen der Rucknystagmus mit einer langsamen und einer die Richtung des Nystagmus bezeichnenden schnellen Phase und zum anderen der Pendelnystagmus mit in beiden Richtungen gleich schnellen Augenbewegungen unterscheiden. Der optokinetische Nystagmus (OKN), auch als vestibulookulärer Reflex (VOR) bezeichnet, ist ein durch großflächige Reize ausgelöster Rucknystagmus. Ein Beispiel hierfür ist der sogenannte. Eisenbahnnystagmus, der beim Betrachten von Sehzielen während der Eisenbahnfahrt beobachtbar ist. Die langsame Phase entspricht der Bewegung des Zuges (Folgebewegung), die schnelle Phase einem Fixationswechsel (Sakkade). Eine vestibuläre Reizung kann von einem vestibulookulären Reflex gefolgt werden. Ein vestibulärer Nystagmus tritt bspw. nach kalorischer oder mechanischer Reizung des Labyrinths auf. Letzterer lässt sich durch eine Drehbeschleunigung auslösen. Während der Drehung schlägt der Nystagmus in Drehrichtung, nach Beendigung in Gegenrichtung. Weitere physiologische Nystagmen sind der Zervikalnystagmus bei Drehung der Halswirbelsäule, der audiokinetische Nystagmus bei bewegten Schallquellen, der arthrokinetische Nystagmus bei passiven Arm- und Beinbewegungen sowie der Einstellungs- oder Endstellennystagmus. Pathologische Nystagmen treten infolge von Läsionen im okulomotorischen System auf. Zu ihnen gehören der Blickrichtungsnystagmus, der vestibuläre Spontannystag-
187 13.3 · Technik und Methodik
mus, der Kopfschüttelnystagmus, der Lagerungsnystagmus, der muskelparetische Nystagmus, der periodisch alternierende Nystagmus usw. [2, 3].
13.2.4 Konvergenzbewegungen
Interretinale Bildfehler, die bei einer Fixation möglicherweise auftreten können, werden durch Konvergenzbewegungen ausgeglichen. Diese sind sehr langsam (10°/s) und von geringer Amplitude (maximal 15°) [2].
13.3.1 Frenzel-Brille
Die Frenzel-Brille ermöglicht die Beobachtung von Augenbewegungen. Durch konvexe Linsen und die Beleuchtung der Augen wird zum einen die Fixation ausgeschlossen, zum anderen die Beurteilung der Augenbewegung bei Lupenvergrößerung möglich [2]. Diese Methode erlaubt nur qualitative Aussagen. Aufgrund der einfachen Handhabung bei ausreichender Beurteilbarkeit ist sie weit verbreitet.
13.3.2 Elektronystagmographie (ENG), 13.2.5 Torsionsbewegungen
Drehbewegungen um die Sehachse mit einer Amplitude bis 10° und Geschwindigkeiten bis 200°/s werden als Torsionsbewegungen bezeichnet. Sie können spontan auftreten oder aber optokinetisch durch den Anblick einer Rollbewegung der Umwelt bzw. vestibulär bei Körperund Kopfkippungen [2].
13.3
Technik und Methodik
Der geübte Kliniker kann eine differenzierte Untersuchung von Augenbewegungen, insbesondere die Erkennung von Augenfehlstellungen, auch ohne aufwendige technische Hilfsmittel durchführen. Die quantitative Erfassung mit der Messung von Latenz und maximaler Geschwindigkeit, Verlaufsbeobachtungen, das Erkennen von spontanen Augenoszillationen sowie die Erfassung von Augenbewegungen bei geschlossenen Lidern ist nur mit geeigneter Technik möglich.
Elektrookulographie (EOG) Die Elektronystagmographie ist die in der klinischen Praxis am weitesten verbreitete Methode der messtechnischen Erfassung von Augenbewegungen. Die Signalquelle ist das korneoretinale Bestandspotential aufgrund bestehender Konzentrationsdifferenzen verschiedener Ionen im Pigmentepithel der Retina. Bei Bewegung des Auges lässt sich somit in unmittelbarer Nähe des Auges ein elektrisches Potential ableiten, dessen Änderung dem Kosinus des Winkels zwischen Ableitebene und Dipolachse proportional ist. Diese Potentialänderungen sind mittels Ag/AgClElektroden bipolar für beide Augen getrennt erfassbar (⊡ Abb. 13.3). Die mit dieser Methode gewonnenen Spannungsänderungen lassen sich mit hinreichender Genauigkeit bis 20° als eine lineare Beziehung annehmen [1, 7, 8]. Für die elektronystagmographische Methode ist nur ein geringer technischer Aufwand erforderlich. Neben den Elektroden und einem Registrierteil sind Verstärker in einem Frequenzbereich von 0,1–30 Hz für Folgebewegungen und DC bis 1000 Hz für Sakkaden erforderlich.
⊡ Abb. 13.3. Elektrookulographie. Links: Schematische Darstellung der Messtechnischen Erfassung, rechts: Applikation der Ag/AgCI-Elektroden zur bipolaren Ableitung horizontaler und vertikaler Augenbewegungen [8]
13
188
I
Kapitel 13 · Nystagmographie
Messungen in horizontaler und vertikaler Richtung sind sowohl am geöffneten als auch am geschlossenen Auge, beispielsweise während des Schlafs, möglich. Die Auflösung liegt bei 1°. Das gewonnene Signal ist durch eine Reihe von Artefakten behaftet, wie z. B. Lidartefakt, Änderung des Bestandspotentials während der Hell-Dunkeladaptation des Auges, Grundliniendrift durch Änderungen des Hautwiderstands und Muskelartefakte. Aufgrund der uneingeschränkten und einfachen Anwendbarkeit stellt die Elektronystagmographie unverändert die Methode der Wahl für die klinische Routinediagnostik dar.
nete Methode benutzt als Sensor supraleitende Quanteninterferometer. Die Magnetookulographie arbeitet völlig berührungslos. Ihre Auflösung ist derzeit noch geringer als die der Elektrookulographie. Sie ist technisch und finanziell sehr aufwändig, setzt magnetisch abgeschirmte Räume und zum Erzielen der Supraleitung eine Kühlung mit flüssigem Helium voraus. Sie wird daher nur zu Forschungszwecken eingesetzt.
13.3.5 Elektromagnetische Technik
(Search-coil-System) 13.3.3 Photoelektronystagmographie (PENG),
Infrarotokulographie (IROG) Bei der photoelektrischen Methode werden meist ringförmig angeordnete, Infrarotlicht emittierende Dioden zur diffusen Beleuchtung des Auges eingesetzt. Iris und Sklera reflektieren dieses Licht unterschiedlich stark. Dadurch treten an auf den Limbus gerichteten Phototransistoren bei Bewegung des Auges Spannungsdifferenzen auf, deren Wert dieser Bewegung proportional ist (⊡ Abb. 13.4). Diese Methode ist wenig störanfällig und für eine rechnergestützte Auswertung gut geeignet. Die Messung auch sehr kleiner Augenbewegungen bis zu 0,1° ist möglich. Nachteilig wirken sich Bewegungen des Lides und Veränderungen der Pupillenweite aus. Auch kann nur am geöffneten Auge gemessen werden [1, 18].
Eine Kontaktlinse mit einer Spule aus dünnem Draht wird auf das Auge gesetzt. Der Kopf des Patienten befindet sich in einem alternierenden Magnetfeld. Eine Augenbewegung erzeugt in der Spule eine induzierte Spannung, die dem Sinus des Winkels zwischen Spule und Richtung des Magnetfelds proportional ist. Je nach Lage der Spule sind sowohl horizontale als auch vertikale Augenbewegungen, aber auch Torsionsbewegungen registrierbar [2]. Das System liefert ein driftfreies, rauscharmes Signal mit einer Auflösung von wenigen Bogenminuten. Aufgrund des Einsatzes einer Kontaktlinse und der damit verbundenen Unannehmlichkeiten für den Patienten hat sich die elektromagnetische Technik in der Klinik nicht durchgesetzt.
13.3.6 Videookulographie (VOG) 13.3.4 Magnetookulographie (MOG)
Jeder von einem Strom durchflossene Leiter ist von einem Magnetfeld umgeben. Daher ist es möglich, bioelektrische Potentialänderungen über deren Magnetfeldänderungen zu registrieren. Diese als Magnetookulographie bezeich-
⊡ Abb. 13.4. Photoelektronystagmographie, Schematische Darstellung der messtechnischen Erfassung
Miniaturvideokameras auf der Grundlage von infrarotlichtempfindlichen CCD-Sensoren ermöglichen Bildwiederholungsfrequenzen von 250–500 Hz. Dies ist ausreichend, um aus dem Videobild des Auges seine Bewegung zu ermitteln. Die notwendige Illumination des Auges wird durch mindestens zwei auf das Auge gerichtete infrarotlichtemittierende Leuchtdioden (Wellenlänge von 850– 940 nm) erzielt. Die Pupille als der Ort der geringsten Lichtreflexion ist als dunkelster Ort im Bild detektierbar. Der Pupillenmittelpunkt ergibt sich als Schnittpunkt der maximalen Strecken in horizontaler und vertikaler Richtung. Seine Bewegung repräsentiert die entsprechende Augenbewegung (⊡ Abb. 13.5). Darüber hinaus lassen sich Torsionsbewegungen registrieren. Voraussetzungen hierfür sind auf das Auge projizierte Leuchtmarken und die Analyse der Bewegung definierter markanter Muster der Iris. Erforderlich sind hierfür Bildverarbeitungssysteme [1, 3, 17]. Aufgrund der vielfältigen Möglichkeiten handelt es sich bei der Videookulographie um ein modernes Verfahren, das in der letzten Zeit an Bedeutung gewonnen hat. In der zeitlichen Auflösung besteht derzeit gegenüber der Elektrookulographie noch ein gewisser Nachholbedarf.
189 13.4 · Verfahren
⊡ Abb. 13.5. Videookulographie. Links: Schematische Darstellung der messtechnischen Erfassung, rechts: Aufbau eines Messplatzes mit Fixierung des Kopfes. In diesem Beispiel wurde simultan über Elektro-
den das Elektrookulogramm mit registriert. Kopfbewegungen werden durch Kinnstützen minimiert
Neue klinische Möglichkeiten ergeben sich durch die Registrierung von Torsionsbewegungen. Messungen am geschlossenen Auge sind allerdings nicht möglich.
13.4
Verfahren
Die Untersuchungsverfahren richten sich nach der klinischen Fragestellung, den vorhandenen okulomotorischen Störungen und den entsprechenden Generierungsgebieten. Qualitative Aussagen sind dabei durch einfache klinische Tests möglich, wie z. B. die Bewegung eines Fingers durch den Arzt verbunden mit der Bitte an den Patienten, diesen zu fixieren, oder Veränderungen der Lage des Patienten. Dabei werden die so provozierten Augenbewegungen beobachtet. Im Folgenden sollen einige wesentliche gerätetechnische Untersuchungsmethoden kurz vorgestellt werden.
13.4.1 Spontannystagmus
Bei geschlossenen Augen lässt sich das Auftreten von Spontannystagmen untersuchen. Die Augenbewegungen werden meist elektrookulographisch erfasst.
⊡ Abb. 13.6. Elektrookulographisch registrierte Sakkaden mit unterschiedlichen Amplituden. Es ist zu erkennen, dass die maximale Geschwindigkeit mit der Amplitude der Augenbewegung zunimmt nach [8]
dass der Patient auf ein akustisches Signal hin den Fixationswechsel ausführen soll oder zu dem verlöschenden Leuchtpunkt schauen soll. Ein Registrierbeispiel mit unterschiedlichen Amplituden ist in ⊡ Abb. 13.6 dargestellt.
13.4.3 Folgebewegungen 13.4.2 Sakkaden
Sakkaden werden durch zwei vorgegebene Fixationspunkte, beispielsweise zwei im Wechsel aufleuchtende Leuchtdioden, provoziert. Der Patient soll zu dem jeweils aufleuchtenden Punkt sehen. Variationen bestehen darin,
Der Patient wird aufgefordert, einem sich mit einer Geschwindigkeit von 10–40°/s z. B. auf einem Monitor bewegenden Leuchtpunkt mit den Augen zu folgen (⊡ Abb. 13.7). Verstärkungsfaktor (Gain), Kohärenz, Phase und Geschwindigkeitsasymmetrie werden bestimmt [9].
13
190
Kapitel 13 · Nystagmographie
I
⊡ Abb. 13.8. Elektrookulographisch erfasste Nystagmen. Die optokinetische Stimulation erfolgte mit vertikalen Streifenmustern (Streifenbreite 3,5°) die sich mit einer Geschwindigkeit von 20°/s horizontal über einen Monitor bewegten. Die Bewegungsrichtung wechselte. Erkannte Nystagmen sind für das rechte Auge gekennzeichnet
⊡ Abb. 13.7. Elektrookulographisch erfasste Folgebewegungen des rechten und linken Auges mit verschiedenen Geschwindigkeiten eines sich sinusförmig bewegenden Fixationspunktes 10 °/s oder 0,15 Hz (oben), 20°/s oder 0,3 Hz (Mitte) und 30°/s oder 0,45 Hz (unten). Es ist zu erkennen, dass mit Erhöhung der Geschwindigkeit die glatten Folgebewegungen zerfallen und der Anteil sakkadischer Augenbewegungen zunimmt
13.4.4 Optokinetischer Nystagmus
Ein optokinetischer Nystagmus lässt sich durch eine rotierende Trommel, auf der z. B. Streifen aufgebracht wurden, provozieren. Projiziert man auf einen Fernseher sich horizontal bewegende Muster, so lassen sich ebenfalls Nystagmen (⊡ Abb. 13.8) auslösen. Die Geschwindigkeit und Größe der Muster sind variabel.
13.4.5 Vestibulärer Nystagmus
Die kalorische Vestibularisprüfung besteht darin, dass der äußere Gehörgang mit warmem Wasser (44°C) oder kaltem Wasser (30°C) gespült wird. Damit können beide Labyrinthe seitengetrennt untersucht werden. Der Patient liegt dabei mit leicht erhobenem Kopf. So kommt laterale horizontale Bogengang in eine vertikale Stellung.. Die Spülung mit warmem Wasser führt zu Thermokonvektionsströmen, die eine Auslenkung von Kupula und Stereozilien nach sich ziehen und die Auslösung eines Nystagmus be-
wirken. Es wird gemessen, ob der Nystagmus symmetrisch von beiden Ohren ausgelöst wird. Diese Methode wird zur klinischen Prüfung des Vestibularisapparats eingesetzt. Ein rotierender Drehstuhl (⊡ Abb. 13.9) wird zur Prüfung des vestibulookulären Reflexes eingesetzt. Häufig eingesetzte Methoden sind der Drehpendeltest, der Drehstoptest und der Rotationstest. Beim Drehpendeltest wird der Stuhl sinusförmig mit definierten Amplituden und Geschwindigkeiten bewegt. Beim Drehstoptest wird der Patient nach einer ausreichenden Adaptation an eine konstante Drehbewegung innerhalb von 1–2 s gestoppt. Der postrotatorische Nystagmus wird nachgewiesen. Bei einem Rotationstest wird der Patient erst beschleunigt, dann mit konstanter Geschwindigkeit weiter bewegt (Plateauphase) und dann allmählich gebremst. Der perrotatorische Nystagmus wird nachgewiesen [2].
13.5
Signalableitung und Signalverarbeitung
Die Signalableitung richtet sich nach der eingesetzten Methodik. Die Signalverarbeitung ist insbesondere von dem benutzten Verfahren und der jeweiligen klinischen Fragestellung abhängig. Neben dem Vergleich der Bewegung des rechten und linken Auges beim Blick nach rechts bzw. links und dem Vergleich mit dem Vorgabesignal tritt die direkte Berechnung von Parametern in den Vordergrund. Für die Sakkaden und Nystagmen ist dabei die Berechnung von Geschwindigkeiten von Bedeutung. Aber auch Latenz, Überschwingweite und Dauer einer Sakkade ermöglichen diagnostikrelevante Aussagen [15]. Für Folgebewegungen spielen der Gain als Ausdruck des Verhältnisses zwischen Antwortamplitude und Reizamplitude, die Bestimmung des Zerfalls der glatten Folgebewegungen, die Phasenbeziehung zwischen Stimulus und
191 13.6 · Medizinische Bedeutung
⊡ Abb. 13.9. Messplatz zur Untersuchung des Nystagmus nach optokinetischer Stimulation mittels bewegter Muster auf einem Fernseher und vestibulärer Stimulation durch Erzeugung verschiedener Bewegungen eines Drehstuhls (Werksfoto Jeager Tönnies GmbH Würzburg)
Augenbewegung, Korrelations- und Kohärenzfunktionen eine wichtige Rolle. Die Berechnung der genannten Parameter wird hierbei sowohl im Zeitbereich als auch nach Fourier-Transformation im Frequenzbereich durchgeführt. Die Ergebnisdarstellung erfolgt getrennt sowohl für beide Augen als auch für die jeweilige Blickrichtung häufig als Funktion der Amplitude der Augenbewegung. Für die Videookulographie kommt eine Reihe von Bildverarbeitungsverfahren zur Anwendung, um die Augenposition zu bestimmen. Die Anforderungen an die Signalverarbeitung steigen ständig und erweitern das Spektrum nystagmographischer Untersuchungsmethoden und verbessern die diagnostischen Aussagemöglichkeiten. Insbesondere die Beschreibung des okulomotorischen Systems durch mathematische Modelle und verschiedene Formen der digitalen Filterung ermöglichen neue Ansätze [4–6, 11].
13.6
Medizinische Bedeutung
Das okulomotorische System ist eines der bestuntersuchten Systeme des Menschen. Die Analyse von Augenbewegungsstörungen bei Patienten erlaubt eine Charakterisierung und präzise lokalisatorische Zuordnung, wie sie bislang nur durch moderne bildgebende Verfahren erreicht werden konnte [13]. Die hauptsächliche Information liegt neben der lokalisatorischen Aussage insbesondere in der Beschreibung einer funktionellen Einschränkung aufgrund einer Läsion, einer Raumforderung, einer systemischen Erkrankung oder der Wirkung von Pharmaka und Substanzen [2]. Dabei ist zu beachten, dass immer gleichzeitig der Versuch einer Kompensation mit erfasst wird [10]. Der Einsatz der Nystagmographie reicht von neurologischen Erkrankungen (wie z.B. der multiplen Sklerose und Raumforderungen) über Muskelerkrankungen (wie
⊡ Abb. 13.10. Analyse sakkadischer Augenbewegungen. Es ist der Verlauf der Geschwindigkeit der Augenbewegung dargestellt. Die Grenzbereiche sind grau unterlegt
z.B. die Myasthenie) bis hin zu vestibulären Symptomen (wie z. B. Schwindel) [2, 12, 14, 16]. In ⊡ Tab. 13.1 sind einige Lokalisationen von Läsionen und ihr Einfluss auf Augenbewegungen wiedergegeben. Weitere Anwendungen der Analyse von Augenbewegungen sind auf dem Gebiet der Diagnostik von Lesestörungen, zur Bestimmung der Schlafstadien in der Schlafdiagnostik, aber auch zur Steuerung von Vorgängen über die Augen beispielsweise bei Querschnittsgelähmten zu finden. Für psychologische Untersuchungen werden Augenbewegungen beispielsweise beim Betrachten von Bildern erfasst (⊡ Abb. 13.10).
13
192
Kapitel 13 · Nystagmographie
⊡ Tab. 13.1. Störungen von horizontalen Augenbewegungen durch verschiedene Hirnläsionen nach [2]
I
Fixation
Sakkaden
Folgebewegungen
Optokinetischer Nystagmus
Frontales Großhirn
Flüchtiger kontraversiver corticaler blickparetischer Nystagmus
Sakkadenparese kontraversiv mit Blickdeviation ipsiversiv
–
Kontraversiv (nach Richtung der schnellen Phase)
Occipitales Großhirn
–
Blickstörung durch Hemianopsie
Ipsiversiv
Kontraversiv
Pontomesencephaler Hirnstamm
Ipsiversiv
Sakkadenverlangsamung oder -parese ipsiversiv mit kontraversiven Blickdeviationen
Ipsiversiv
Ipsiversiv
Kleinhirn
Ipsiversiv
Sakkadendysmetrie
Ipsiversiv
Kontraversiv
13.7
Sicherheitstechnische Aspekte
Es handelt sich bei der Nystagmographie um eine nichtinvasive Diagnostikmethode, die in medizinisch genutzten Räumen angewendet wird. Es ergeben sich daraus keine weiteren speziellen sicherheitstechnischen Aspekte.
13.8
Raumplanung
Der Raumbedarf ist abhängig von der genutzten Methode und unterscheidet sich je nachdem, ob ein Drehstuhl eingesetzt wird oder nicht. Für routinemäßige Anwendungen der Elektronystagmographie ist der Raumbedarf vergleichbar anderer Diagnostikmethoden, wie bspw. der Elektrokardiographie oder Elektromyographie.
Literatur 1. Allum JHJ, Honegger F, Troescher M (1998) Principles underlying real-time nystagmus analysis of horizontal and vertical eye movements recorded with electro-, infrared-, or video-oculographic techniques. J Vestib Res 8: 449–463 2. Brandt B, Büchele W (1983) Augenbewegungsstörungen. Thieme, Leipzig 3. Eckert AM, Gizzi M (1998) Video-oculography as part of the ENG battery. Br J Audiol 32: 411–416 4. Enderle JD (1999) Physiological Modeling. In: Enderle JD, Blanchard SM, Bronzino JD (eds) (1999) Introduction to biomedical engineering. Academic Press, London New York, S 279–368 5. Gangemi PF, Messori A, Baldini S, Parigi A, Massi S, Zaccara G (1991) Comparison of two nonlinear models for fitting saccadic eye movement data. Comp Meth Progr Biomed 34: 291–297 6. Hacisalihzade SS, Allen JS, Stark LW (1993) Computer analysis of eye movements. Comp Meth Progr Biomed 40: 181–187 7. Hess CW, Müri R, Meienberg O (1986) Recording of horizontal saccadic eye movements. Neuroophthalmology 6: 189–198 8. Hoffmann KP, Plewe A, Mühlau G, Kästner R (1991) Die sakkadischen Augenbewegungen: methodische Aspekte und Möglichkeiten der klinischen Anwendung. Z EEG-EMG 22: 172–177
9. Hoffmann KP, Both R, Kästner R, Weese R (1992) Zur klinischen Anwendung quantitativ ausgewerteter horizontaler Folgebewegungen des Auges. Z EEG-EMG 23: 190–194 10. Hoffmann KP, Mühlau G, Müller C, Both R, Jahns M, Zahlten W (1993) Adaptive mechanisms of saccadic system in diagnostic use. Electromyogr Clin Neurophys 33: 131–135 11. Juhola M (1988) Detection of nystagmus eye movements using a recursive digital filter. IEEE Trans Biomed Eng 35: 389–395 12. Martinez-Conde S, Macknik SL, Troncoso XG, Dyar TA (2006) Neuron 49: 297–305. 13. Marx P (1984) Augenbewegungsstörungen in Neurologie und Ophthalmologie. Springer, Berlin Heidelberg New York Tokio 14. Mumenthaler M (1986) Neurologie. Thieme, Stuttgart New York 15. Murata A, Furukawa N (2005) Hum Factors 47: 598–612 16. Pawlak-Osinska K, Kazmierczak H, Kazmierczak W (2005) Int Tinnitus 11: 52–3 17. Scherer H, Teiwes W, Clarke AH (1991) Measuring three dimensions of eye movement in dynamic situations by means of videooculography. Acta Otolaryngol 111: 182–187 18. Schmid-Priscoveanu A, Allum JHJ (1999) Die Infrarot- und die Videookulographie – Alternativen zur Elektrookulographie? HNO 47: 472–478 19. Trincker L (1977) Taschenbuch der Physiologie III/2. Fischer, Jena
14 Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung S. Hoth 14.1 Die Grundlagen der Audiometrie – 193
14.3 Objektive Audiometrie
14.1.1 Der Schall und seine Bestimmungsgrößen – 194 14.1.2 Aufbau und Funktion des Hörsystems – 196 14.1.3 Hörstörungen – 201
14.3.1 Impedanzaudiometrie – 217 14.3.2 Otoakustische Emissionen – 220 14.3.3 Akustisch evozierte Potentiale – 227
14.2 Psychoakustik und subjektive Audiometrie – 203 14.2.1 Der Zusammenhang zwischen Reiz und Empfindung – 204 14.2.2 Zeitverhalten des Hörsystems – 205 14.2.3 Tonschwellenaudiometrie – 206 14.2.4 Überschwellige Hörprüfungen – 210 14.2.5 Sprachaudiometrie – 211 14.2.6 Prüfung des binauralen Hörens – 215
14.1
Die Grundlagen der Audiometrie
Unser Gehör ist wichtig, komplex und empfindlich. Diese drei Eigenschaften bestimmen die Aufgabe der Audiometrie. Weil das Gehör wichtig ist, werden zuverlässige Verfahren zu seiner Untersuchung benötigt. Diese Verfahren sollen nach Möglichkeit auch dann anwendbar sein, wenn der Untersuchte über seine Empfindungen und Wahrnehmungen keine Auskunft zu erteilen vermag. Für die mit Hilfe der Hörprüfungen festgestellten Funktionsdefizite müssen wirksame Gegenmaßnahmen verfügbar sein. Daher sind Audiometrie und Hörprothetik untrennbar miteinander verbunden. Weil das Gehör komplex ist, können prinzipiell viele Funktionsdefizite auftreten und es wird kaum möglich sein, alle Fehlleistungen mit einer einzigen Funktionsprüfung zu erkennen. Daher gibt es nicht den »Hörtest«, sondern ein aus vielen Verfahren bestehendes Methodeninventar. Und schließlich treten viele der möglichen Funktionsdefizite auch tatsächlich auf, weil das Hörorgan empfindlich ist. Seine Strukturen müssen empfindlich sein, weil sie andernfalls für den Nachweis von Schwingungen geringer Intensität nicht geeignet wären. Die Evolution hat dem Rechnung getragen, indem sie dieses empfindliche Messinstrument soweit wie möglich in den härtesten Knochen, den unser Organismus aufweist (und der bezeichnenderweise den Namen Felsenbein trägt), eingebettet hat. Dies wiederum erschwert die körpereigene Versorgung des nicht nur empfindlichen, sondern auch energiebedürfti-
14.4 Hörprothetik 14.4.1 14.4.2 14.4.3 14.4.4
– 217
– 232
Versorgungsbedürftige Hörstörungen – 232 Hörgeräte: Technik und Anpassverfahren – 233 Implantierbare Hörsysteme – 240 Das Cochlea-Implantat – 241
Literatur
– 246
gen Sinnesorgans mit den nötigen Ressourcen, und dies wiederum fördert seine Anfälligkeit. Die Aufgabe der Audiometrie besteht in der Beantwortung der folgenden Fragen: ▬ Liegt eine Hörstörung vor? ▬ Durch welche Parameter lässt sie sich beschreiben? ▬ Welche Komponente des Hörsystems ist von der Störung betroffen bzw. für sie verantwortlich? ▬ Wie stark ist der Betroffene von der Hörstörung beeinträchtigt? ▬ Welche Möglichkeiten bestehen zur Behebung der Hörstörung? Eine Hörstörung kann viele Ursachen haben: Fremdkörper, Verletzungen, Entzündungen, Frakturen, veränderter Innenohrdruck, Vergiftung, Alterung, Mangelversorgung, defekte Sinneszellen, Schädigung oder Degeneration von Neuronen, Tumoren, Schlaganfälle und zentrale Ausfälle anderer Ursache. Sie kann zu diversen Funktionseinbußen führen: herabgesetzte Empfindlichkeit, gestörte Intensitätsverarbeitung, verminderte Frequenzselektion, verändertes Zeitverhalten, verringerte Diskriminationsleistung. Die heutigen konservativen, operativen und apparativen Mittel versetzen uns leider noch nicht in die Lage, alle Funktionsdefizite des Gehörs auszugleichen. Eine vollkommene Wiederherstellung des normalen Hörvermögens (restitutio ad integrum) ist nur in wenigen Fällen möglich; in der Mehrzahl der Fälle kann die ausgefallene Funktion nur teilweise kompensiert oder substituiert werden. Die Verfahren zur Untersuchung des Gehörs orientieren sich einerseits am Bedarf und andererseits an den
194
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Möglichkeiten. Der Betroffene1 wird ebenso wie der Arzt, von dem er Hilfe erwartet, daran interessiert sein, so viel wie möglich über die vorliegende Hörstörung zu erfahren. Daneben aber besteht das allgemeine ethisch begründete Prinzip, demzufolge die Kenntnis einer Gesundheitsstörung zu ihrer Behebung verpflichtet; daher macht es keinen Sinn, über das Funktionsdefizit eines Organs viel Information zusammenzutragen, wenn die Behebung des Defizits nicht möglich ist. Die praktische Audiometrie beschränkt sich deshalb darauf, die Funktion des Gehörs zu dokumentieren, soweit dem Betroffenen eine Ersatzfunktion angeboten werden kann, und die organische Ursache einer Hörstörung herauszufinden, soweit dies therapeutische Konsequenzen hat. Bezüglich der Funktionsprüfung werden bevorzugt psychoakustische und somit subjektive Verfahren eingesetzt, in Hinblick auf die Klärung der organischen Ursache hingegen sind objektive Messungen im Vorteil. Die Vielfalt des methodischen Inventars ist die große Stärke der heutigen Audiometrie (und sie rechtfertigt den Umfang der Buchbeiträge, die über dieses Thema geschrieben werden).
14.1.1 Der Schall und seine
Bestimmungsgrößen Es kann davon ausgegangen werden, dass der Leser dieses Buches eine durchaus fundierte Vorstellung von Schall hat. Trotzdem ist eine exakte Definition nützlich und notwendig. Da es sich bei Schall um eine fundamentale, allgemein bekannte und vielfach beschriebene Erscheinung handelt, soll den bestehenden Definitionen keine neue hinzugefügt werden. In einem Fachlexikon der Physik ist Schall definiert als »Schwingungen und Wellen im Frequenzbereich zwischen 16 Hz und 20 kHz, die über das menschliche Ohr Ton-, Klang- oder Geräuschempfindungen hervorrufen«. Bemerkenswert hieran ist der Umstand, dass die Definition ganz wesentlich auf einer Sinneswahrnehmung des Menschen beruht und die Akustik somit sehr eng mit der Erfahrungswelt des Menschen verknüpft ist. Wenn dieser Bezug zwischen Physik und Sinnesorgan auch nicht einzigartig ist – denn auch das Licht wird in der physikalischen Optik als »sichtbare elektromagnetische Strahlung« definiert – so deutet beides doch auf die Bedeutung des Hörens und Sehens hin und es zeigt, dass die physikalische Untersuchung und Beschreibung vieler Naturvorgänge lediglich die Fortsetzung der Beobachtung mit Hilfe unserer Sinnesorgane ist. Entstehung und Ausbreitung von Schall sind an materielle Medien gebunden. Diese Medien können aus
1
Hier und auf den folgenden Seiten dieses Beitrages stehen die Artikel vor personenbezogenen Substantiven in keiner Relation zum Geschlecht der respektiven Person.
gasförmiger, flüssiger oder fester Materie bestehen. Schall stellt eine Störung des Gleichgewichtszustandes dieses Mediums dar: Während im Gleichgewicht die Zustandsgrößen Dichte, Druck und Geschwindigkeit der Moleküle im statistischen Sinne vom Ort unabhängig sind, beruhen Schallerzeugung und -ausbreitung darauf, dass dieser Zustand durch eine lokale Störung aus dem Gleichgewicht gebracht wird. Die Störung kann z. B. darin bestehen, dass jemand in die Hände klatscht oder dass eine Lautsprechermembran sich hin- und herbewegt. Die zwischen den Molekülen herrschenden abstoßenden und anziehenden Kräfte sorgen dafür, dass die Störung nicht auf den Ort ihrer Entstehung beschränkt bleibt, sondern sich auf Nachbarorte auswirkt und sich infolgedessen von der Quelle weg ausbreitet. Am Ursprungsort wird der Druck erhöht oder verringert. Das entspricht einer Kraft auf die atomaren oder molekularen Teilchen. Gemäß dem grundlegenden Newton‘schen Bewegungsgesetz hat dies eine Beschleunigung und somit eine Auswirkung auf die Teilchengeschwindigkeit zur Folge. Weil die Geschwindigkeit mit einer (örtlich begrenzten) Strömung von Materie einhergeht und weil bei der Strömung von Teilchen ihre Gesamtzahl erhalten bleiben muss (Kontinuitätsbedingung), ergibt sich aus der Druckänderung zwanglos eine ihr proportionale Änderung der Dichte. Die Einführung von Näherungen (kleine Auslenkungen aus der Gleichgewichtslage, kein Wärmeaustausch zwischen den bewegten und den benachbarten Bereichen) führt letztendlich zu einer Formel, die in Mathematik und Physik als Differentialgleichung bezeichnet wird, weil sie mathematische Ausdrücke enthält, die die zeitliche Änderung und die Ortsabhängigkeit von Parametern des Mediums beschreiben. Das Aufschreiben dieser Gleichung (Hoth 1999) führt für unsere Zwecke nicht weiter als die Beschreibung ihrer Lösungen. Letztere bestehen aus mathematischen Ausdrücken, die eine Ausbreitung der Störung in alle Raumrichtungen mit fester Geschwindigkeit beschreiben. Das Ausmaß der Störung bzw. der Abweichung vom Gleichgewichtszustand wird durch die Zustandsgrößen Druck, Dichte und Schnelle (s.unten) beschrieben. Die Gradienten dieser Größen verlaufen parallel zur Ausbreitungsrichtung: Schallwellen sind Longitudinalwellen (im Gegensatz zu den transversalen Lichtwellen). Für die graphische Wiedergabe der Welle wird eine der Zustandsgrößen über der Zeitachse (für einen festen Ort) oder über einer Ortsachse (für einen festen Zeitpunkt) aufgetragen. Die zwei Darstellungen sind gleichwertig, weil die bereits erwähnte Schwingungsdifferentialgleichung (und daher auch ihre Lösungen) nur von (x–c·t), nicht jedoch explizit vom Ort x und der Zeit t abhängt (c = Schallgeschwindigkeit; s.unten). Zur Beschreibung der Schallwelle dienen ihre Kenngrößen Amplitude bzw. Intensität, Wellenlänge bzw. Wellenzahl sowie Frequenz bzw. Periode.
14
195 14.1 · Die Grundlagen der Audiometrie
Die Amplitude bezeichnet den aktuellen, von Ort und Zeit abhängigen Wert des Schalldrucks, der Teilchendichte oder der Schallschnelle. An den Orten (und zu den Zeiten), wo der Druck maximal ist, ist auch die Dichte maximal (Verdichtung) und die dem Druck ausgesetzten Teilchen befinden sich in Ruhe: Die Schallschnelle, d. h. die Geschwindigkeit, mit der sich die einzelnen Moleküle infolge der Druckschwankungen um ihre Ruhelage bewegen, weist hier eine Nullstelle auf. Dementsprechend geht auch ein Minimum des Druckes oder der Dichte (Verdünnung) mit einer Nullstelle der Schallschnelle einher. Hingegen ist die Schallschnelle groß, wenn Druck bzw. Dichte den Gleichgewichtswert annehmen und ihr Gradient bzw. die zeitliche Änderung maximal sind. Die Schallschnelle ist kleiner als die Schallgeschwindigkeit (s.unten), welche ihrerseits in der Größenordnung der thermischen Geschwindigkeit liegt. Die Amplitude wird mit dem unspezifischen Symbol a dargestellt; es steht für den Schalldruck (in µPa=10-6 N/m2), die Dichte (in g/m3) oder die Geschwindigkeit (in m/s) bzw. für die Abweichung dieser Bestimmungsgrößen vom thermischen Gleichgewichtswert. Zur Definition von Wellenlänge und Frequenz muss zunächst auf den Begriff der Phase eingegangen werden. Er bezeichnet den augenblicklichen Zustand der Schwingung bzw. Welle. Dieser Zustand kann z. B. ein Druck- oder Dichtemaximum sein, ein Minimum der Schallschnelle oder ein steigender Nulldurchgang der Amplitude. Die Wellenlänge λ gibt nun an, in welchem Abstand sich eine solchermaßen bestimmte und eindeutig definierte Phase der Welle wiederholt. In Luft liegen die Wellenlängen von Schall zwischen 17 mm und 20 m. Der (mit 2π multiplizierte) Kehrwert der Wellenlänge wird als Wellenzahl bezeichnet; er entspricht der Zahl der in der Längeneinheit enthaltenen Wellenlängen. Die Phasen von Druck bzw. Dichte einerseits und Schnelle andererseits sind gegeneinander um 90° verschoben. Die Frequenz f ist ein Maß dafür, wie oft sich eine bestimmte Phase wiederholt; ihre Dimension ist »Anzahl pro Zeiteinheit« (Maßeinheit 1 Hertz = 1 Hz= 1/s = 1 Schwingung pro Sekunde). Ihr Kehrwert, die Periode, liegt für Schall zwischen ca. 63 ms (bei 16 Hz) und 50 µs (bei 20 kHz). Die mit 2π multiplizierte Frequenz wird als Kreisfrequenz ω bezeichnet. Die Geschwindigkeit der Ausbreitung einer Wellenphase ist die von Temperatur und Druck sowie den elastischen Deformationseigenschaften des schallübertragenden Mediums abhängige Schallgeschwindigkeit c. Bei Raumtemperatur beträgt sie in Luft ca. 340 m/s (in Wasser ca. 1490 m/s). Frequenz f und Wellenlänge λ sind über die Schallgeschwindigkeit miteinander verknüpft. Die maßgebliche Beziehung f=c/λ ergibt sich unmittelbar aus der oben erwähnten Bindung zwischen den Variablen c und t: Wenn der Abstand λ der Wellenberge und die Geschwindigkeit c, mit der die Welle sich ausbreitet, bekannt
sind, dann kann die Häufigkeit f, mit der die Wellenberge beim Beobachter eintreffen, bestimmt werden. Die Schallwelle ist mit einem Energietransport verbunden, der üblicherweise auf die Zeit- und Flächeneinheit bezogen und als Intensität (Energiestromdichte oder Leistungsdichte) in der Einheit W/m2 angegeben wird. Bei der Frequenz 2 kHz beträgt die Intensität an der Hörschwelle etwa 10 12 W/m2 (diese Bezugsintensität I0 entspricht dem Referenzschalldruck p0=20 µPa), an der Schmerzschwelle etwa 1 W/m2. Die im Verhältnis dieser Zahlen zum Ausdruck kommende Größe des Dynamikbereiches begründet die Verwendung eines logarithmischen Maßstabes für den Schallpegel L. Die Einheit des Schallpegels ist das Dezibel (dB):
L p p2 I = 20 ⋅ lg = 10 ⋅ lg 2 = 10 ⋅ lg dB p0 I0 p0
(1)
Werden für p0 bzw. I0 die oben angegebenen physikalischen Bezugsgrößen eingesetzt, so ergibt sich der Schalldruckpegel in dB SPL (sound pressure level). Die Zahl vor dieser Maßeinheit gibt dann an, wie viele »Zehntel Größenordnungen« zwischen der betrachteten Intensität und dem entsprechenden Referenzwert liegen. Für den zugehörigen Schalldruck p ergibt sich eine halb so große Maßzahl, weil die Intensität zum Quadrat des (effektiven) Schalldruckes proportional ist:
I=
2 peff
Z
2 = Z ⋅ veff
(2)
Die Proportionalitätskonstante ist der Kehrwert der Impedanz der Schallwelle, die ihrerseits dem Quotienten aus Schalldruck p und Schallschnelle v entspricht. In Luft beträgt die akustische Impedanz 430 Ns/m3, in Wasser 1,46×106 Ns/m3. An der Grenzfläche zwischen Luft und Wasser liegt daher ein großer Impedanzsprung vor, der für das Hörsystem der landlebenden Wirbeltiere eine große Rolle spielt, weil er die Notwendigkeit des Mittelohrapparates als Impedanzwandler begründet. Eine sinusförmige Schallschwingung enthält nur eine einzige Frequenz und wird als ein reiner Ton empfunden. Da sich mit Hilfe der Fourier-Transformation alle zeitabhängigen Vorgänge in Anteile verschiedener Frequenzen zerlegen lassen (Ohm’sches Gesetz der Akustik), stellen Sinustöne gewissermaßen die Elementarbausteine der Akustik dar. Aus ihm sind Klänge (d. h. akustische Signale, die aus wenigen Komponenten diskreter Frequenzen bestehen), Geräusche (d. h. breitbandige Signale, deren Eigenschaften stationär oder zeitabhängig sein können), Sprache (d. h. meist bedeutungstragende Signale mit schnellen Änderungen von Frequenz und Pegel) und Schallpulse (d. h. auf kurze Zeitspannen begrenzte Signale mit steilen Flanken) zusammengesetzt. Die Definition des Schalldruckpegels von Signalen, die sich aus vielen Frequenzen zusammensetzen, erfordert in Hinblick auf den Schalldruck p in Gleichung (1) die Berechnung eines
196
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Effektivwertes peff, der bei Sinustönen mit dem durch √2 dividierten Maximalwert identisch ist (dasselbe gilt sinngemäß für den Effektivwert veff der Schallschnelle). Bei nichtstationären Signalen hängt der Effektivwert von der verwendeten Zeitkonstanten ab und es werden zusätzlich die Spitzenpegel angegeben. Alle genannten Signale (Töne, Klänge, Geräusche, Schallpulse und Sprachsignale) werden in der Audiometrie als Reize zur Prüfung des Gehörs verwendet. Bei einigen von ihnen wird für Spezialanwendungen die Amplitude oder die Frequenz moduliert. Sprachsignale weisen eine natürliche Amplitudenmodulation auf, deren Frequenz der Silbendauer entsprechend bei etwa 4 Hz liegt. Demgemäß wird in der Audiometrie außer stationären Geräuschen (stochastische nichtperiodische Prozesse) auch ein sprachsimulierendes Rauschen angewendet, dessen Frequenzspektrum den Sprachbereich abdeckt und dessen Einhüllende mit 4 Hz moduliert ist. Zu den impulsartigen Signalen ist zu bemerken, dass ihre physikalische Amplitude zur Erzielung einer von der Signaldauer unabhängigen Lautstärkeempfindung an die Signaldauer angepasst werden muss. Ihre Intensität wird durch die Spitzenpegel charakterisiert, da die Angabe von Effektivwerten wenig sinnvoll ist. Die Ausbreitung von Schall wird durch Körper, deren Impedanz von der des Ausbreitungsmediums verschieden ist, beeinträchtigt. Die Auswirkung der Hindernisse hängt von ihrer Dimension ab: Ein im Vergleich zur Wellenlänge großes Hindernis wirft einen geometrischen Schatten, wohingegen die Schallwellen um kleine Hindernisse gebeugt werden und auf der der Quelle abgewandten Seite Interferenzmuster bilden können. Breitbandige Signale werden somit durch einen Körper gegebener Größe in frequenzabhängiger Weise beeinflusst: Niederfrequente Wellen, deren Wellenlänge in der Größenordnung der Ausdehnung des Hindernisses liegt, sind auch auf der Rückseite mit unverminderter Amplitude vorhanden, hochfrequente Anteile werden hingegen abgeschirmt. Dieser Effekt spielt beim räumlichen Hören und beim Hören der eigenen Stimme eine Rolle. Wenn die Wellenlänge im Vergleich zu den Abmessungen des Hindernisses klein (bzw. die Frequenz genügend groß) ist, können Beugungsphänomene vernachlässigt und die Wechselwirkung zwischen Schallfeld und Mediumgrenze durch die Reflexionsgesetze beschrieben werden. In Räumen, die ganz oder teilweise durch Wände begrenzt werden, können durch die Überlagerung von einfallender und reflektierter Welle Eigenschwingungen entstehen, die von den Randbedingungen abhängen (stehende Wellen). Im Fall zweier fester Enden (verschwindende Schallschnelle an den ideal schallharten Grenzflächen) werden die Resonanzbedingungen nur von Wellen erfüllt, die an den Wänden Knoten der Schallschnelle (bzw. Schwingungsbäuche des Schalldrucks) aufweisen. Diese Auswahlbedingung ist nur für Räume erfüllt, deren
Ausdehnung mit einem ganzzahligen Vielfachen der halben Wellenlänge übereinstimmt. Dieselbe Bedingung gilt bei zwei freien Enden (Knoten des Schalldrucks bzw. Bauch der Schallschnelle im Fall von ideal schallweichen Abschlüssen). Viele Blasinstrumente (gedeckte Pfeifen) sowie auch der offene Gehörgang des unversorgten Ohres weisen ein freies und ein festes Ende auf. Die Wellenlängen stehender Wellen sind dann durch die Bedingung gegeben, dass die Raumdimension mit einem ungeradzahligen Vielfachen eines Viertels der Wellenlänge übereinstimmt. Für den Gehörgang mit einer Länge von etwa 2,5 cm liegt die niedrigste Resonanzfrequenz bei etwa 3,4 kHz. Die Existenz von Gehörgangsresonanzen infolge stehender Wellen beeinflusst die Ergebnisse akustischer Messungen im Gehörgang (Impedanzaudiometrie, OAE-Messung, in situ- Messung) und sie wirkt sich auf das Klangbild von Hörgeräten aus. Die genannten Randbedingungen (freier und fester Abschluss) sind hier jedoch nur näherungsweise erfüllt, da weder Gehörgangswände und Trommelfell als ideal schallhart noch die Öffnung des Gehörganges als ideal schallweich angesetzt werden dürfen und die Impedanz des Trommelfells zudem von der Frequenz abhängt. Daher genügen die tatsächlich auftretenden Resonanzfrequenzen nicht exakt den angegebenen Regeln. Voraussetzung für die Entstehung stehender Wellen ist eine vollständige Reflexion der einfallenden Schallwelle an der Mediumgrenze. Sie ist dadurch gekennzeichnet, dass der durch die Impedanzen Z1 und Z2 der aneinander grenzenden Medien bestimmte Reflexionskoeffizient r=
ζ −1 mit ζ = Z 2 Z1 PLW ζ +1
(3)
den Wert 1 annimmt. Die auf die Grenzfläche zwischen zwei Medien unterschiedlicher Impedanz auftreffende Schallwelle wird zu einem Anteil r =1−α reflektiert, der restliche Anteil α (= Absorptionsgrad) dringt in das Medium ein. Im Zusammenhang mit dem Hören spielt v. a. die Grenzfläche zwischen Luft (in der Paukenhöhle) und Wasser (im Innenohr) eine große Rolle. Wegen der unterschiedlichen Impedanz der zwei Medien weist diese Grenzfläche einen großen Reflexionskoeffizienten auf. Das Mittelohr hat die Aufgabe, diesen Impedanzsprung zu überwinden. Mit Hilfe der Impedanzaudiometrie kann die Funktion dieses Impedanzwandlers überprüft werden.
14.1.2 Aufbau und Funktion des Hörsystems
An der Verarbeitung der akustischen Information im Gehör sind zahlreiche anatomische Strukturen und komplexe physiologische Vorgänge beteiligt. Das eigentliche Sinnesorgan für die Wahrnehmung von Schallwellen ist das Corti-Organ im Innenohr (Schnecke, Cochlea). Hierhin gelangt der Schall über die Luft, das Außenohr, den
197 14.1 · Die Grundlagen der Audiometrie
äußeren Gehörgang, das Trommelfell und das Mittelohr (Gehörknöchelchen). Vom Innenohr aus wird die im Schallsignal enthaltene Information über die neuralen Strukturen der Hörbahn (Hörnerv, Hinterhirn, Mittelhirn, Thalamus, Hirnrinde und Assoziationsfelder) weitergeleitet, verarbeitet, registriert, gedeutet und eingeordnet. Die Hörbahnen beider Ohren kreuzen sich in ihrem Verlauf, so dass die Information in beiden Hirnhälften vorliegt und für höhere Leistungen des Gehörs, wie das Richtungshören oder die Störschallunterdrückung, genutzt werden kann. Die peripheren Teile des Gehörs sind in ⊡ Abb. 14.1 dargestellt. Außenohr und äußerer Gehörgang dienen der Schallzuführung; sie bewirken eine richtungs- und frequenzabhängige Verstärkung, sie üben eine Schutzfunkti-
⊡ Abb. 14.1. Querschnitt durch Außenohr, Gehörgang, Mittelohr, Innenohr und Hörnerv. Die Paukenhöhle ist über die Tube (Eustach’sche Röhre) mit dem Nasenrachenraum verbunden (nach Boenninghaus 1996)
on aus und sie tragen zur Unterdrückung von Strömungsgeräuschen (Wind) bei. Über Trommelfell, Mittelohr und Gehörknöchelchen (Ossikel) werden die Schallschwingungen der Cochlea zugeleitet. Dem aus Trommelfell und Gehörknöchelchenkette bestehenden Apparat kommt hierbei die wichtige Aufgabe zu, die niedrige akustische Impedanz der Luft an die hohe Impedanz der Flüssigkeit im Innenohr anzupassen. Die Sinneszellen im Innenohr stehen mit afferenten (aufsteigenden) und efferenten (absteigenden) Fasern des Hörnerven in Verbindung. Sie werden durch die vom Schall ausgelösten Bewegungen zur Ausschüttung eines chemischen Botenstoffes (Neurotransmitter) veranlasst, der in den aufsteigenden Nervenfasern Aktionspotentiale auslöst. Diese stellen die Elementarquanten der diskret kodierten auditorischen Information dar, welche im Gehirn analysiert und verwertet wird. Der in zweieinhalb Windungen angelegte, mit dem Liquorraum in Verbindung stehende Innenraum der Cochlea hat eine Länge von ca. 32 mm (bei Frauen) bzw. 37 mm (bei Männern). Er ist in Längsrichtung durch die Reissner’sche Membran und die Basilarmembran in drei flüssigkeitsgefüllte Hohlräume unterteilt (⊡ Abb. 14.2): die mit Perilymphe gefüllte Scala tympani (Paukentreppe), die endolymphhaltige Scala media (Ductus cochlearis, Schneckengang) und die wiederum mit Perilymphe gefüllte Scala vestibuli (Vorhoftreppe). Letztere wird gegen den Mittelohrraum (Paukenhöhle) durch die Membran des ovalen Fensters begrenzt, an welcher der Stapes als das letzte unter den Gehörknöchelchen angreift. An der Schneckenspitze (Apex) sind Pauken- und Vorhoftreppe durch eine kleine Öffnung (Helicotrema, Schneckentor) miteinander verbunden. Dadurch wird bei statischen Druckschwankungen und langsamen Schwingungen ein Druckausgleich über die Membran des runden Fensters, die die Scala tympani gegen die Paukenhöhle abgrenzt, ermöglicht. Das auf der Basilarmembran angeordnete Corti-Organ enthält als funktionelle Elemente etwa 3400 Gruppen
⊡ Abb. 14.2. Querschnitt durch das Innenohr und Vergrößerung des Ductus cochlearis mit Corti-Organ und Haarzellen (nach Boenninghaus 1996)
14
198
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
von Haarsinneszellen, welche die eigentlichen Rezeptoren für Schallschwingungen darstellen. Sie sind mit elektroakustischen Wandlern (Mikrophonen) vergleichbar. Unter den Haarzellen werden zwei Sorten unterschieden: Die schlanken äußeren Haarzellen sind in drei bis fünf Reihen angeordnet und vorwiegend mit efferenten (absteigenden) Hörnervenfasern verbunden, die bauchigen inneren Haarzellen sind näher an der Schneckenachse aufgereiht, fast vollständig von Stützzellen umgeben und nahezu ausschließlich afferent (d. h. von aufsteigenden Fasern) innerviert. Am oberen Ende (apikaler Pol) beider Haarzelltypen befinden sich jeweils etwa 50–120 Sinneshärchen (Stereozilien). Die Stereozilien der äußeren Haarzellen sind in der aufliegenden Deckmembran (Membrana tectoria) verankert, die der inneren Haarzellen schweben frei in der Endolymphe des Schneckenganges. Die Haarsinneszellen des menschlichen Ohres sind ausdifferenziert, sie können sich nicht durch Zellteilung reproduzieren. Die durch den Verlust der Haarzellen bedingten Hörschäden sind daher irreversibel. In jüngerer Zeit ist es zwar im Tierversuch gelungen, Haarzellen aus Stammzellkulturen zu züchten, der Anwendung beim Menschen stehen jedoch derzeit noch große methodische Hindernisse im Weg. Dies begründet die Unabwendbarkeit einer apparativen Hilfe bei Innenohrschäden. An ihrem unteren Ende (basalen Pol) sind die Haarzellen über synaptische Verbindungen mit den Fasern des Hörnervs verbunden. Hier ist der Eingang des zentralen auditorischen Systems (Hörbahn), welches sich aus hintereinander geschalteten Neuronen zusammensetzt, die die Information vom Innenohr bis zum auditorischen Cortex leiten. Die Fasern des ersten afferenten Neurons verlaufen zunächst gebündelt in der Schneckenachse (Ganglion spirale) und enden nach Verlassen des inneren Gehörgangs im ersten Kerngebiet des Hirnstamms, dem Nucleus cochlearis (Cochleariskern). Von hier bestehen Verbindungen zum oberen Olivenkomplex (Oliva superior). Dieses Kerngebiet ist mit den Cochleariskernen beider Seiten verbunden. Eine weitere Kreuzung der Hörbahn erfolgt zwischen dem Colliculus inferior (Vierhügelgebiet) im Tectum mesencephali (»Dach« des Mittelhirns) und dem Corpus geniculatum mediale (medialer Kniehöcker), einer weiteren Schaltstelle der Hörbahn im Thalamus (Zwischenhirn). Von hier ziehen die als Hörstrahlung (Radiatio acustica) bezeichneten Verbindungen zum jeweiligen Gyrus temporalis (Hirnwindung des Schläfenlappens), dem Sitz des auditorischen Cortex. Die Funktionsabläufe in den beschriebenen Strukturen können hier wegen ihrer Komplexität nur in ihren Grundzügen beschrieben werden. Über den äußeren Gehörgang gelangen die Schallwellen an das Trommelfell und versetzen es in Schwingungen. An dieser nur etwa 0.1 mm dicken und 60 mm2 großen trichterförmigen Membran ist das erste der drei Gehörknöchelchen, der Hammer (Malleus), befestigt. Er führt mit dem Trom-
melfell ähnliche Schwingungsbewegungen aus wie die Luft im äußeren Gehörgang und leitet sie über das zweite Gehörknöchelchen, den Amboss (Incus) an das dritte Gehörknöchelchen, den Steigbügel (Stapes) weiter. Dieser ist mit seiner Fußplatte an der Membran des ovalen Fensters befestigt, hinter der sich der perilymphatische Raum (die Vorhoftreppe oder Scala vestibuli) des Innenohres befindet. Die Gehörknöchelchen sind über zwei Muskeln (Musculus stapedius und Musculus tensor tympani) mit der Paukenhöhle und untereinander mit leichtgängigen Gelenken verbunden. Die Aufgabe des Mittelohres besteht darin, den Wirkungsgrad bei der Übertragung der Schallschwingungen von der Luft in die Perilymphe des Innenohres zu erhöhen. Eine direkte Anregung des Innenohres durch den Luftschall wäre wegen des durch die Grenzfläche gegebenen Impedanzsprunges mit einem Intensitätsverlust von etwa 40 dB verbunden. Die Wirkung des aus Trommelfell, Gehörknöchelchen und Paukenhöhle zusammengesetzten Impedanzwandlers beruht im Wesentlichen darauf, dass der Schalldruck durch das Verhältnis der Flächen von Trommelfell und Stapesfußplatte vergrößert und die Schallschnelle infolge der unterschiedlich großen Hebelarme verringert wird. Die quantitative Auswirkung dieser Effekte lässt sich durch Modellberechnungen abschätzen, die Ergebnisse schwanken jedoch wegen der unterschiedlichen Modellannahmen ganz erheblich. Experimentell lässt sich feststellen, dass die (frequenzabhängige) Eingangsimpedanz des Ohres bei Aufnahme der Schallenergie am Trommelfell um einen Faktor 30 bis 75 geringer ist als die der Cochlea. Dies hat zur Folge, dass etwa 60% der Schallenergie ins Innenohr übertragen werden, verglichen mit etwa 2%, die das Innenohr ohne die Mitwirkung des Mittelohres erreichen würden. Die Bewegung der Membran des ovalen Fensters erzeugt in der Perilymphe eine Schwingung, die auch die aus Basilarmembran, Corti-Organ, zähflüssiger Endolymphe und Reissner-Membran zusammengesetzte cochleäre Trennwand erfasst und sich entlang der Schneckenwindung ausbreitet. Wegen der ortsabhängigen Eigenschaften von Flüssigkeitssäule (der Querschnitt der Schneckengänge nimmt von der Schneckenbasis zur Spitze ab) und Basilarmembran (ihre Steifigkeit nimmt von der Basis zur Spitze ab, die Breite zu) hängen Ausbreitungsgeschwindigkeit und somit Wellenlänge der Schwingung vom Ort ab und es entsteht eine Wanderwelle, die nur an einer, von der Frequenz des Schalles abhängigen Stelle ein eng umgrenztes Amplitudenmaximum ausbildet (⊡ Abb. 14.3). Die auf Dispersion beruhende Tonotopie des Innenohres, d. h. die Abbildung der Tonhöhenskala auf die Basilarmembran, ist somit auf die mechanischen Eigenschaften des Innenohres zurückzuführen. Sie hat zur Folge, dass hohe Frequenzen nahe des ovalen Fensters (also an der Schneckenbasis) und niedrige Frequenzen an der Schneckenspitze (Apex) verarbeitet werden.
199 14.1 · Die Grundlagen der Audiometrie
⊡ Abb. 14.3. Schwingung der cochleären Trennwand bei einer Frequenz von 200 Hz. Es sind Momentaufnahmen der Wanderwelle für zwei verschiedene Zeitpunkte sowie die Einhüllende gezeigt (nach von Békésy 1960)
Auf der Basilarmembran befinden sich die Haarsinneszellen des Cortischen Organs, deren Sinneshaare (Stereozilien) durch die Scherbewegung zwischen Basilar- und Tektorialmembran ausgelenkt werden. Durch die Auslenkung der Stereozilien, deren Durchmesser etwa 0,5 µm beträgt, werden am apikalen Ende (bzw. an der apikalen Zellmembran) der Haarzelle Kaliumkanäle geöffnet. Der Einstrom von Kalium-Ionen aus der Endolymphe depolarisiert die Zellmembran (Rezeptorpotential), wodurch sich in der lateralen Zellwand Calciumkanäle öffnen. Das einströmende Calcium führt bei der äußeren Haarzelle (outer hair cell, OHC) zu aktiven Bewegungen, die die Auslenkungsamplitude in einem eng umgrenzten Bereich vergrößert, und in der inneren Haarzelle (inner hair cell, IHC) zur Ausschüttung eines chemischen Botenstoffes (Neurotransmitter). Nach diesen Vorgängen findet eine schnelle Repolarisation der Zellmembran statt. Die hierfür benötigte Energie bezieht die Haarzelle aus der elektrochemischen Potentialdifferenz zwischen Endo- und Perilymphe, die von der Stria vascularis aufrechterhalten wird. Der ausgeschüttete Transmitter überwindet innerhalb von etwa 0,5 ms den etwa 20 nm schmalen synaptischen Spalt durch Diffusion und regt mit Hilfe von speziellen Rezeptoren in der zugehörigen afferenten Hörnervenfaser die Erzeugung eines Aktionspotentials an (Exzitation). Werden die Sinneshärchen in umgekehrter Richtung (vom größten Zilium weggerichtet) ausgelenkt, so wird der einwärts gerichtete Kaliumstrom blockiert und das Zellpotential erhöht (Hyperpolarisation). Es werden keine Bewegungen der äußeren Haarzellen angeregt, die Transmitterausschüttung der inneren Haarzellen wird gehemmt und die Entladungsrate des Hörnervs reduziert sich auf Werte unterhalb der Spontanrate (Inhibition). Durch das Wechselspiel von anregenden und hemmenden Auslenkungen der Stereozilien wirken die Haarzellen wie ein Gleichrichter (half wave rectification) des akustischen Ein-
gangssignals. Für eine Koordinierung der Zilienbewegungen sorgen dünne (Ø ca. 50 Å) elastische filamentförmige Verbindungen zwischen den einzelnen Sinneshärchen (tip links). Dieser Mechanismus einer kollektiven Bewegung des Zilienbündels trägt u. a. dazu bei, dass die kleinsten zu einer Hörempfindung führenden Auslenkungen (sie liegen im Bereich weniger Ångström) nicht bereits durch thermische Bewegungen hervorgerufen werden. Solange die Reizfrequenz die durch die zelluläre Refraktärzeit gesetzte Grenze von etwa 1 kHz nicht überschreitet, laufen die beschriebenen Vorgänge in jeder mit einer Depolarisation einhergehenden Phase der Schallschwingung ab. Somit ist die Information über die Frequenz des Schallsignals sowohl im Entstehungsort als auch in der Entstehungsrate der Aktionspotentiale einer einzelnen Hörnervenfaser enthalten. Die Grenzen der Frequenzauflösung werden also von der Schärfe des Wanderwellenmaximums und der zentralnervösen Unterscheidung von Zeitmustern mitbestimmt. Für ersteres, nämlich die Abbildung einzelner Frequenzen auf verschiedene Bereiche der Basilarmembran, gibt die auf der passiven Wanderwelle beruhende Theorie allerdings nur eine lückenhafte Erklärung. Erst durch die frequenzselektiven aktiven Kontraktionen der äußeren Haarzellen wird das durch den akustischen Reiz entstandene Amplitudenmaximum der Wanderwelle in einem sehr schmalen Bereich der Basilarmembran um mehrere Größenordnungen verstärkt und so das Frequenzselektionsvermögen und zugleich die Empfindlichkeit des Gehörs erhöht (⊡ Abb. 14.4). Messbar und diagnostisch nutzbar sind diese zellulären Vorgänge in Form der otoakustischen Emissionen. Das Innenohr ist in den härtesten Knochen des Skeletts, das Felsenbein, eingebettet. Das schützt es einerseits sehr gut gegen mechanische Beschädigung, andererseits kann es dadurch auch von Knochen- bzw. Körperschall erreicht und angeregt werden. Dieses Phänomen hat für die natürliche Funktion des Ohres wenig Bedeutung, es wird aber in der Audiometrie für die Prüfung des Innenohres unter Umgehung der Schallzuführung über das Mittelohr ausgenützt. Beim Aufsetzen der schwingenden Stimmgabel oder des Knochenleitungshörers auf den Schädelknochen, aber auch (in geringerem Maße) bei der Verwendung eines normalen (Luftleitungs-)Kopfhörers werden Perilymphe und Basilarmembran durch den Knochen in Schwingung versetzt und dadurch ein Höreindruck hervorgerufen. Die mechanischen Vorgänge im Innenohr (Entstehung und Ausbreitungsrichtung der Wanderwelle) laufen hierbei genauso ab wie bei Luftleitungsanregung. Grundsätzlich werden vom Knochenschall beide Innenohren erreicht, und zwar mit nahezu gleicher Intensität unabhängig vom Ort der Anregung. Hierdurch entsteht das sogenannte Überhören eines einseitig dargebotenen akustischen Reizes auf das Gegenohr. Der Hörnerv (Nervus acusticus) besteht aus etwa 30.000 Nervenfasern. Die meisten dieser Nervenfasern
14
200
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.4. Mit Hilfe des kernphysikalischen Mößbauer-Effektes gemessene Schallpegel für konstante Auslenkungsgeschwindigkeit (0,04 mm/s) eines Punktes der Basilarmembran in Abhängigkeit von der Frequenz des anregenden Schalls. Der Vergleich der an einem gesunden (gefüllte Kreise) und einem geschädigten (offene Kreise) Meerschweinchenohr erhaltenen Ergebnisse beweist die Existenz eines vulnerablen frequenzselektiven Prozesses, der die Empfindlichkeit im Bereich der charakteristischen Frequenz um etwa 40 dB erhöht (nach Sellick et al. 1982)
sind afferent, d. h. sie leiten Information von den Sinneszellen ans Gehirn. Von diesen wiederum sind etwa 95% mit den äußeren Haarzellen verbunden, die inneren Haarzellen werden vorwiegend efferent (absteigend) innerviert. Afferente und efferente Fasern des Hörnervs ziehen von den Haarzellen in radialer Richtung zur Schneckenachse (Modiolus), wo sie sich zu dem in Achsenrichtung verlaufenden Strang des Hörnervs vereinigen. Dieser durchquert gemeinsam mit dem Gleichgewichtsnerven (Nervus vestibularis) den etwa 2 cm langen inneren Gehörgang und tritt im Kleinhirnbrückenwinkel in den Hirnstamm ein. Die kleinste Einheit der neuralen Informationsübertragung ist das Aktionspotential. Es stellt eine eng umgrenzte depolarisierte Zone dar, die sich mit hoher Geschwindigkeit entlang der Fortsätze (Dendriten und Axone) der Nervenzelle (Neuron) ausbreitet. In der Zellmembran dieser Zone sind für kurze Zeit Ionenkanäle geöffnet, die nur für Na+-Ionen durchlässig sind. Durch die einströmenden Kationen wird die zwischen –60 mV und –80 mV liegende Potentialdifferenz zwischen Zellplasma und Umgebung aufgehoben und sogar umgekehrt. Die Depolarisation bewirkt die Schließung der Na+-Kanäle und die Öffnung von K+-Kanälen, wodurch das Ruhepotential wiederhergestellt
wird. Wesentliche Voraussetzung für eine schnelle Ausbreitung des Aktionspotentials entlang der Nervenfaser ist die bei den Typ-1-Neuronen der afferenten Hörbahn vorhandene und in regelmäßigen Abständen unterbrochene elektrische Isolation der Faser durch die sie einhüllenden Schwann’schen Zellen (Myelin-Scheide). Das Aktionspotential wird ausgelöst, indem der Botenstoff (Transmitter), der die Nervenzelle über ihren Anschluss (Synapse) an die Sinneszelle erreicht, sich an spezifische Rezeptorproteine heftet, die Öffnung von Ionenkanälen in der postsynaptischen Membran veranlasst und ein Generatorpotential (exzitatorisches postsynaptisches Potential, EPSP) erzeugt. Wenn sich genügend solcher EPSP überlagern und der Schwellenwert von etwa 10 mV überschritten ist, öffnen sich die Na+-Kanäle und es entsteht das Aktionspotential. Doch auch ohne den Reiz durch eine Haarsinneszelle entstehen ständig in unregelmäßiger Folge Aktionspotentiale (Ruhe- oder Spontanaktivität). Die Depolarisation der Haarzelle hat eine Erhöhung, ihre Hyperpolarisation eine Verringerung dieser spontanen Entladungsrate zur Folge. Bei Auslenkung der Basilarmembran zur Scala tympani erhöht sich die Erzeugungsrate von Aktionspotentialen, bei Auslenkung in der Gegenrichtung wird sie verringert. Die Phase des Reizes und somit auch seine Frequenz finden sich infolgedessen in der Nervenaktivität wieder. Wegen der nach jedem Aktionspotential eintretenden Refraktärzeit der einzelnen Nervenfaser funktioniert dieses Codierungsprinzip nur für niedrige Reizfrequenzen (die Grenze liegt bei etwa 1 kHz). Statistisch sind jedoch auch bei hohen Frequenzen Phase und Frequenz des Reizes in der Gesamtaktivität der dem jeweiligen Frequenzbereich zugeordneten Nervenfasern verschlüsselt, da sich in jeder Sogphase des Schallsignals die Wahrscheinlichkeit für die Entstehung von Aktionspotentialen erhöht. Die Zahl der pro Zeiteinheit auftretenden Aktionspotentiale entspricht jedoch nur im statistischen Mittel der Frequenz des Reizes. Die Auswertung des zeitlichen Abstandes zwischen den Entladungen in einer Häufigkeitsverteilung (post stimulus time histogram) zeigt, dass dieser Abstand eine Streuung um seinen Mittelwert, der der Periode des Reizes entspricht, aufweist. Neuronale Vorgänge erfolgen nicht streng deterministisch, sondern stochastisch. Der Hörnerv als erstes Neuron der Hörbahn weist eine tonotope Organisation auf, d. h. ebenso wie in der Cochlea besteht eine feste Zuordnung zwischen einem Ort bzw. einer Faser und der Frequenz des Reizes. Dieses Prinzip setzt sich in den Zielregionen des Hörnerven, dem dorsalen und ventralen Cochleariskern, bis hinauf zum primären auditorischen Cortex fort. In den Kerngebieten verläuft die Informationsübertragung zwischen zwei Neuronen auf ähnliche Weise wie sie oben für die Verbindung zwischen Sinneszelle und Neuron beschrieben wurde. Die Schnittstelle zwischen dem auslaufenden Fortsatz (Axon) eines Neurons und dem einlaufenden Ast (Dendrit) des
201 14.1 · Die Grundlagen der Audiometrie
nachgeschalteten Neurons wird als axodendritische Synapse bezeichnet. Zwischen dem prä- und dem postsynaptischen Aktionspotential verstreicht jeweils die bereits erwähnte Synapsenzeit von etwa 0,5 ms. Bereits im Hirnstamm (in den Olivenkernen) lässt sich bei monauraler und binauraler Stimulation eine unterschiedliche Aktivität nachweisen. Dadurch können die von beiden Seiten eintreffenden Signale hinsichtlich der für das Richtungshören wichtigen interauralen Laufzeit- und Intensitätsdifferenzen ausgewertet werden. Die Reizung eines jeden Ohres führt wegen der mehrfach kreuzenden Nervenverbindungen zur Aktivierung des primären Hörzentrums (Heschl’sche Querwindung) in den Schläfenlappen beider Hirnhälften. Hier findet die Extraktion von komplexen Merkmalen des Schallsignals, die z. B. für Sprache typisch sind, statt. Im sensorischen Sprachzentrum (Wernicke’sches Areal) v. a. der linken Hirnhemisphäre werden die akustischen Erinnerungsbilder von Wörtern gespeichert. Der Diskrimination von Sprache und ihrer semantischen, syntaktischen und grammatikalischen Analyse entsprechen noch spätere Verarbeitungsschritte in den Assoziationsfeldern, die einen großen Teil der Großhirnrinde ausmachen. Mit Hilfe der elektrischen Reaktions-Audiometrie können von der Kopfhaut strukturierte reizevozierte Potentialmuster abgeleitet werden, die die Vorgänge vom Hörnerv bis zur Hirnrinde widerspiegeln und in der audiologischen Diagnostik genutzt werden.
cke, im Hörnerven oder im Gehirn liegt – als Mittelohroder Schalleitungsschwerhörigkeiten, sensorische, neurale und zentrale Hörstörungen bezeichnet (⊡ Abb. 14.5). Sensorisch (endocochleär) und neural (retrocochleär) bedingte Hörstörungen werden häufig unter dem Begriff »Schallempfindungsschwerhörigkeit« oder »sensorineurale Schwerhörigkeit« zusammengefasst. Mögliche Ursachen für das Auftreten von Schalleitungs- oder Mittelohrschwerhörigkeiten (konduktive Hörstörung oder Transmissionsschwerhörigkeit) sind: ▬ Tubenventilationsstörungen, d. h. ein behinderter Druckausgleich der Paukenhöhle über die Eustach’sche Röhre; ▬ Unterdruck in der Paukenhöhle infolge Sauerstoffverbrauch durch entzündliche Prozesse; ▬ Verletzungen des Trommelfells; ▬ Chronische Mittelohrknocheneiterung (Cholesteatom); ▬ Mittelohrentzündungen (Otitis media) mit der Folge einer Ansammlung von Flüssigkeit oder schleimigem Sekret (Mittelohrerguss) in der Paukenhöhle; ▬ Otosklerose, d. h. eine Wucherung von Knochengewebe an der Stapesfußplatte mit der Folge, dass die Schwingungsübertragung über das ovale Fenster beoder verhindert ist; ▬ Frakturen (Knochenbrüche) oder Luxationen (Trennung der Gelenkverbindungen) in der Gehörknöchelchenkette; ▬ Missbildungen unterschiedlicher Art.
14.1.3 Hörstörungen
Mittelohrbedingte Hörstörungen können wegen der Anregung des Innenohres über Knochenleitung niemals eine vollständige Taubheit zur Folge haben. Denn auch bei einem vollständigen Funktionsausfall des Mittelohrapparates – etwa infolge einer Luxation der Gehörknöchelchenkette – versetzt der Luftschall bei genügend hoher Intensität mit einem Verlust von etwa 50 dB den Schädelknochen und somit die Endolymphe in Schwingungen. Die meisten Mittelohrschwerhörigkeiten können konservativ oder operativ behoben werden. In den wenigen Fällen, wo dies nicht möglich ist, kann der betroffene Patient mit einem speziellen Hörgerät versorgt werden, welches den Schall in Vibrationen umwandelt und diese
Im Hörsystem können infolge seiner komplexen Anatomie und Physiologie viele Funktionsstörungen auftreten, deren Ursachen in einer oder mehreren Komponenten des Gesamtsystems liegen. Unter diesen Komponenten kommen dem Außenohr und dem äußeren Gehörgang für das Hören und die Audiometrie nur wenig Bedeutung zu. Störungen in diesem Bereich können durch Missbildungen, Verengungen (Stenosen), Ohrsekret (Cerumen), Wucherungen oder Fremdkörper verursacht werden. Weiter zentral lokalisierte Hörstörungen werden – je nachdem, ob ihre Ursache im Mittelohr, in der Schne-
⊡ Abb. 14.5. Einteilung der Hörstörungen gemäß dem Ort der Schädigung
14
202
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
als Körperschall auf den Knochen hinter der Ohrmuschel überträgt (Knochenleitungshörgerät). Sehr vielfältig sind die Ursachen und Erscheinungsformen von endocochleären, sensorischen oder Innenohrschwerhörigkeiten: ▬ Erblich (hereditär) bedingter Hörverlust, häufig bei mittleren Frequenzen besonders stark ausgeprägt; ▬ Langsam fortschreitende Zunahme des Hörverlustes v. a. bei hohen Frequenzen (Presbyakusis), wahrscheinlich verursacht durch verschiedene Noxen (Lärm, Medikamenteneinwirkung, unzureichende Blutversorgung, Alterung); ▬ Durch Lärm- oder Knalltrauma hervorgerufene Haarzellschädigung mit Auswirkung v. a. auf das Hörvermögen bei hohen Frequenzen; ▬ Körpereigene Zerstörung von Haarzellen als Folge bakterieller Infektionskrankheiten (z. B. Meningitis); ▬ Haarzellschädigung durch ototoxische Antibiotika, Aminoglykoside (Zytostatika) oder Entwässerungsmittel (Diuretika); ▬ Akut (innerhalb weniger Minuten) und ohne erkennbare äußere Ursache auftretender Hörverlust (Hörsturz), möglicherweise verursacht durch metabolische Erschöpfung oder Mangelversorgung des Innenohres mit Sauerstoff; häufig Therapieerfolge durch durchblutungsfördernde Infusionen; ▬ Anfallsartig auftretender hydrostatischer Überdruck (Hydrops) im Endolymphraum der Cochlea (Morbus Menière) mit Auswirkung auf das Hörvermögen v. a. bei niedrigen Frequenzen; ▬ Missbildungen unterschiedlicher Art. Viele der aufgezählten Innenohrerkrankungen gehen mit subjektiv wahrgenommen Ohrgeräuschen, denen kein realer akustischer Reiz gegenübersteht (Tinnitus), und Schwindel (Vertigo) einher. Bei allen erwähnten Krankheitsbildern kann der Hörverlust bis zur völligen Taubheit gehen. Innenohrbedingte Schwerhörigkeiten werden, solange ein verwertbares Resthörvermögen vorliegt, mit Hilfe von Hörgeräten korrigiert. Wenn jedoch selbst die maximale mit Hörgeräten mögliche Verstärkung des Schalls nicht ausreicht, stellt das Cochlea-Implantat die einzige Möglichkeit zur Wiederherstellung eines Hörvermögens und der lautsprachlichen Kommunikation dar. Eine weitere häufige Begleiterscheinung endocochleärer Hörstörungen ist der pathologische Lautheitsanstieg (auch als Lautheitsausgleich oder Recruitment bezeichnet). Hierunter versteht man die Erfahrung des Hörgeschädigten, dass schwache akustische Reize gar nicht oder nur sehr leise wahrgenommen werden, während hohe Schallintensitäten als sehr laut oder gar schmerzhaft empfunden werden. Aller Erfahrung nach tritt dieses Phänomen eines stark eingeschränkten Dynamikbereiches nicht bei konduktiven und retrocochleären Hörstörungen auf.
Deshalb ermöglicht ein Test, der ein solches Recruitment nachweist, die Bestätigung einer sensorischen Störung. Die physiologische Erklärung für den pathologischen Lautheitsanstieg beruht auf der aktiven Schallverstärkung durch die äußeren Haarzellen. Diese führt bei niedrigen Schallintensitäten zu einer Erhöhung der Empfindlichkeit (⊡ Abb. 14.6). Sind nun, wie es bei den meisten Innenohrschäden der Fall ist, vorwiegend die äußeren Haarzellen geschädigt oder zerstört, so werden schwache Reize nicht mehr wahrgenommen, während die Verarbeitung starker Reize durch die unversehrten inneren Haarzellen nicht beeinträchtigt ist. Das zu einem festen Eingangssignalbereich gehörende Intervall von Ausgangssignalen wird dadurch erheblich vergrößert und der Dynamikbereich folglich eingeengt. Eine besonders häufig vorkommende und gut untersuchte recruitmentpositive Hörstörung ist die Lärmschwerhörigkeit. Die Beschallung eines Ohres mit hoher Intensität führt zunächst zu einer vorübergehenden Schwellenabwanderung (temporary threshold shift, TTS), d. h. einer Schwerhörigkeit geringen Ausmaßes, die sich nach kurzer Zeit (innerhalb von Minuten bis Stunden) wieder zurückbildet. Personen, die einer dauerhaften Lärmbelastung ausgesetzt sind, fallen tonaudiometrisch zunächst durch eine signifikant schlechtere Hörschwelle im Bereich um 4 kHz auf (C5-Senke in ⊡ Abb. 14.8, E). Dies ist das typische Anzeichen einer beginnenden Lärmschwerhörigkeit. Es bildet sich nicht mehr vollständig zurück (permanent threshold shift, PTS). Hält die Lärmbelastung weiter an, so nimmt der Hörverlust zu und der betroffene Frequenzbereich dehnt sich aus. Auch bei vorwiegend tieffrequenter Beschallung ergibt sich nach langjähriger Schädigung als
⊡ Abb. 14.6. Der pathologische Lautheitsanstieg lässt sich auf das Zusammenwirken von inneren und äußeren Haarsinneszellen zurückführen. Die letzteren bewirken eine Verstärkung des cochleären Ausgangssignals bei niedrigen Reizpegeln und vergrößern somit die Empfindlichkeit (durchgezogene Linie). Sind die äußeren Haarzellen funktionsunfähig oder zerstört, so ergibt sich die gestrichelte lineare Eingangs/Ausgangs-Kennlinie der inneren Haarzellen
203 14.2 · Psychoakustik und subjektive Audiometrie
typisches Audiogramm ein Hochtonabfall (⊡ Abb. 14.8, E). Dies lässt sich möglicherweise damit erklären, dass die Wanderwelle unabhängig von der Schallfrequenz immer zunächst die basalen Bereiche des Corti-Organs passieren muss und somit die für die hohen Frequenzen zuständigen Haarzellen grundsätzlich stärker beansprucht werden. Bei neuralen oder retrocochleären Hörstörungen liegt ein Funktionsdefizit in der Fortleitung oder Verarbeitung der Information im Hörnerv oder in der Hörbahn vor. In vielen Fällen ist die Beeinträchtigung des Hörvermögens nur Begleiterscheinung oder Folge von Erkrankungen, die weder ausschließlich noch primär das Gehör betreffen: ▬ Kompression des Hörnervs durch Gefäßschlingen; ▬ Tumoren im inneren Gehörgang oder Kleinhirnbrückenwinkel (z. B. Akustikusneurinom); ▬ Multiple Sklerose (soweit Hörbahnanteile von der Entmarkung betroffen sind); ▬ Diffuse Hirnstammschädigungen mit Nervenzellverlusten ohne ausgeprägte Herde; ▬ Mangelversorgung der für die auditorische Informationsverarbeitung relevanten Hirnstammbereiche, verursacht z. B. durch Gefäßausstülpungen (Aneurysmen) oder Infarkte.
Übertragung denkbar. Daher wird die auditorische Neuropathie im Schrifttum auch als perisynaptische Audiopathie oder auditorische Synaptopathie bezeichnet. Zentrale Hörstörungen sind durch Einschränkungen bei höheren Diskriminationsleistungen (Richtungsgehör, Sprachverstehen im Störgeräusch) des Hörsystems gekennzeichnet. Sie können z. B. durch Hirnblutungen verursacht sein. Liegt keine organische Schädigung vor, so spricht man von einer rein kognitiven Auditiven Wahrnehmungsund Verarbeitungsstörung (AVWS, engl. central auditory processing disorder, CAPD) vor. Sie ist definiert als das Auftreten von Störungen in der vorbewussten und bewussten Analyse von Zeit-, Frequenz- und Intensitätsbeziehungen akustischer Signale sowie in der binauralen Interaktion. Die diagnostische Aufgabe besteht darin, Auffälligkeiten in der Verarbeitung von Schall und insbesondere von Sprache unter Störschallbedingungen in Abwesenheit von nachweisbaren organischen Defekten und bei normaler nonverbaler Intelligenz zu erfassen. Eine Hörgeräteversorgung ist bei kognitiven Hörstörungen nicht angemessen, da im Sinnesorgan kein Schaden vorliegt und somit von einer Erhöhung des Schallpegels kein Gewinn zu erwarten ist.
Neurale Hörstörungen gehen häufig mit Funktionsdefiziten des Innenohrs einher, da raumfordernde Prozesse im inneren Gehörgang auch die arterielle Versorgung der Cochlea beeinträchtigen können. Darüber hinaus sind viele unspezifische Begleitsymptome (Tinnitus, Schwindel, Beeinträchtigung der motorischen und sensorischen Gesichtsnerven) möglich. Die Versorgung der neural bedingten Schwerhörigkeit mit Hörgeräten kann zwar in Hinblick auf die Schwerhörigkeit erfolgreich sein, sie kann aber, soweit eine normale Innenohrfunktion vorliegt, nicht als angemessene Therapie bezeichnet werden. Hörnervenund Hirnstammtumoren müssen, da sie lebenswichtige Funktionen des Hirnstamms beeinträchtigen könnten, operativ entfernt werden. Der neurochirurgische Eingriff kann eine postoperative Taubheit zur Folge haben. Wegen der Beschädigung oder Durchtrennung des Hörnervs ist in solchen Fällen auch von der Versorgung mit einem Cochlea-Implantat keine Wiederherstellung des Hörvermögens zu erwarten. Allenfalls die derzeit noch experimentelle Implantation von Hirnstammelektroden kann wieder zu auditorischen Sinneseindrücken verhelfen. Begrifflich ist auch die auditorische Neuropathie den neuralen Hörstörungen zuzurechnen, wenngleich der pathophysiologische Hintergrund dieser Erkrankung noch im Unklaren liegt. Eine auditorische Neuropathie liegt vor, wenn die Innenohrfunktion ausweislich der otoakustischen Emissionen normal und die Funktion der peripheren Hörbahn ausweislich der frühen akustisch evozierten Potentiale pathologisch verändert ist. Zur Erklärung dieser Konstellation wären auch Störungen der Funktion der inneren Haarzellen oder der synaptischen
14.2
Psychoakustik und subjektive Audiometrie
Die Lehre von den Schallreizen und den durch sie ausgelösten Empfindungen wird als Psychoakustik bezeichnet. Ein großer Teil der heute vorliegenden Erkenntnisse über das Leistungsvermögen des Gehörs wurde mit Hilfe von psychoakustischen Untersuchungsmethoden gewonnen. Die im Detail sehr unterschiedlichen Verfahren haben miteinander das Prinzip gemeinsam, dass das Gehör eines Probanden mit den für die jeweilige Fragestellung geeigneten Signalen stimuliert wird und seine subjektiven Empfindungen2 registriert und in Abhängigkeit von den Reizparametern ausgewertet werden. Auf diese Weise können Wahrnehmungsschwellen, Lautstärke- und Tonhöhenempfindungen, Unterscheidungsschwellen, Maskierungsphänomene und die sprachliche Diskriminationsleistung quantitativ erfasst werden. Die Tatsache, dass die Messgröße in der Psychoakustik eine subjektive Wahrnehmung ist, bringt es mit sich, dass immer das gesamte Gehör vom peripheren Sinnesorgan bis hinauf zu den Assoziationszentren der Großhirnrinde zum Messergebnis beiträgt. Neben vielen für rein wissenschaftliche Zwecke eingesetzten Testverfahren ist auch ein großer Teil der diagnostisch angewendeten Hörprüfungen, nämlich die sogenannten subjektiven Hörtests, der Psychoakustik zuzurechnen. 2
In der experimentellen Psychologie werden Empfindungen und Wahrnehmungen voneinander abgegrenzt; die komplexe Wahrnehmung ergibt sich demnach aus Verarbeitung und Assoziation der elementaren, durch Qualität und Intensität definierten Empfindungen.
14
204
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
14.2.1 Der Zusammenhang zwischen
Reiz und Empfindung
I
Mit der in Abschn. 14.1 definierten dB SPL-Skala werden die Schallpegel aller Frequenzen auf den Referenzwert 20 µPa bezogen. Dieser Schalldruck entspricht der Hörschwelle junger normalhörender Probanden bei 2 kHz, nahe der größten Empfindlichkeit des Gehörs (die bei ca. 3 kHz vorliegt), der Schallpegel 0 dB SPL entspricht somit bei dieser Frequenz der unteren Wahrnehmungsgrenze. Töne der meisten anderen Frequenzen werden erst bei höheren Pegeln wahrgenommen. Dies zeigt die in ⊡ Abb. 14.7 wiedergegebene Abhängigkeit des gerade wahrnehmbaren Schallpegels (also der absoluten Hörschwelle) von der Tonfrequenz. Die mittlere normale Hörschwellenkurve verbindet die als gleich laut empfundenen Pegel von Tönen unterschiedlicher Frequenz, sie stellt somit eine Isophone dar. Werden bei höheren Schallintensitäten Paarvergleiche von zwei Tönen unterschiedlicher Frequenz durchgeführt (wobei der 1000 Hz-Ton als Referenz gilt), so erhält man das in ⊡ Abb. 14.7 gezeigte Isophonenfeld. Es ist die Grundlage für die Einführung des Lautstärkepegels LN mit der Einheit phon als Maß für die subjektiv empfundene Lautstärke von reinen Sinustönen: Der in phon gemessene Lautstärkepegel eines Tones ist gegeben durch den in dB SPL ausgedrückten Schallpegel des gleich laut erscheinenden 1000 Hz-Tones. Die Hörschwelle entspricht der 3-phon-Linie3, die Unbehaglichkeitsschwelle der 110-phon-Linie. Gelegentlich wird die 75-phon-Linie als Isophone angenehm lauten Hörens bezeichnet. 3
… nicht etwa die 0 phon -Linie, denn die mittlere Normalschwelle bei 1000 Hz beträgt etwa 3 dB SPL.
⊡ Abb. 14.7. Die Kurven gleicher Lautstärke (Isophonen) des normalhörenden Ohres definieren die Hörschwelle (unterste Kurve) und den Lautstärkepegel LN (phon) für Sinustöne. Darauf aufbauend wird die Lautheit für f=1 kHz bei L=40 dB SPL willkürlich mit N=1 sone gleichgesetzt. Bei höheren Pegeln entspricht eine Zunahme um 10 dB einer Verdoppelung der Lautheit, bei Pegeln unterhalb von 40 dB gilt dieses Potenzgesetz nicht. Als Hörfeld wird der Bereich zwischen Wahrnehmungs- und Unbehaglichkeitsschwelle bezeichnet. Das Sprachfeld (schattierte Zone) nimmt nur einen Teil dieses Bereiches ein
Die Phonskala gibt die Frequenzabhängigkeit der subjektiven Lautstärkeempfindung realistisch wieder, nicht jedoch die Empfindung von Intensitätsunterschieden: Ein Zuwachs des Lautstärkepegels um 10 phon entspricht, zumindest bei Schallpegeln über 40 dB SPL, in etwa einer Verdoppelung der Lautstärkeempfindung. Für die Schaffung einer Skala, deren Maßzahl zur subjektiven Empfindung proportional ist (und dies auch bei niedrigen Pegeln), sind rein physikalische Messgrößen untauglich, es muss auf psychometrische Methoden zurückgegriffen werden. Mit Hilfe der vergleichenden Skalierung ergibt sich die in der Einheit sone gemessene Verhältnislautheit N. Da dieser Maßeinheit in der Audiologie nur wenig Bedeutung zukommt, wird für eine nähere Beschreibung auf die weiterführende Literatur verwiesen (s. z. B. Hoth 1999 und dort angegebene Originalliteratur). Ebenso wie Intensität und Lautstärke sind auch Frequenz und Tonhöhe zusammengehörende Paare von Reiz- und Empfindungsgrößen. Und ebenso wie für die empfundene Lautstärke die psychoakustische Messgröße Lautheit eingeführt wird, dient die Bezeichnung Tonheit zur quantitativen Beschreibung der empfundenen Tonhöhe. Die Einheit dieser Messgröße ist das mel, zu deren Definition zunächst dem Ton mit der Frequenz 131 Hz (in der Musik als c0 bezeichnet) die Tonheit z=131 mel zugeordnet wird. Für Frequenzen unterhalb von 500 HZ wird die Maßzahl für die Tonhöhe in mel mit der durch die Einheit Hz geteilten Frequenz gleichgesetzt, da in diesem Bereich eine Verdoppelung der Frequenz (Oktave) als gleich große Zunahme empfunden wird. Die Fortsetzung der Tonheits-Skala zu hohen Frequenzen ergibt sich aus der Forderung, dass die Tonheiten für jeweils zwei Töne, die subjektiv als halb bzw. doppelt so hoch empfunden werden, sich um einen Faktor 2 unterscheiden (Zwicker u.
205 14.2 · Psychoakustik und subjektive Audiometrie
Feldtkeller 1967). Aufgetragen über der Frequenz nimmt die Tonheit bei niedrigen Frequenzen zunächst konstant um 1 mel pro Hz und bei hohen Frequenzen mit kleinerer Steigung zu. Neben der Beschreibung von Qualität (Tonhöhe) und Quantität (Lautstärke) der Empfindung ist die Fähigkeit zur Erkennung von Unterschieden oder Änderungen von Frequenz oder Intensität eines Schallsignals ein wichtiger Gegenstand psychoakustischer Messungen, wohingegen die praktische Audiometrie diesen Leistungsmerkmalen des Gehörs nur wenig Beachtung schenkt. Die Empfindlichkeit des Gehörs wird durch die ebenmerklichen Unterschiede (just noticeable differences, jnd) beschrieben. Ebenmerkliche Unterschiede können mit verschiedenen Methoden bestimmt werden. Beim Modulationsverfahren wird der untersuchte Reizparameter (Amplitude oder Frequenz) eines kontinuierlich dargebotenen Tones sinusförmig moduliert und der Proband nach dem kleinsten noch feststellbaren Modulationshub gefragt. Die auf diese Weise gefundenen Änderungsschwellen werden als Modulationsschwellen bezeichnet. Etwas andere (i. Allg. niedriger liegende) Änderungsschwellen ergeben sich, wenn das Ohr nacheinander mit zwei Tönen stimuliert wird, die durch eine Pause voneinander getrennt sind. Die auf diese Weise ermittelten Schwellen werden als Unterschiedsschwellen bezeichnet. Die gleichzeitige Darbietung zweier Reize ergibt wegen der Überlagerung der cochleären Anregungsbereiche völlig andere Schwellenwerte: die Mithörschwelle im Falle der Amplitudendiskrimination bzw. die Frequenzunterscheidungsgrenze bei der Tonhöhenunterscheidung. Die geringe audiometrische Relevanz von Unterscheidungs- oder Auflösungsvermögen in Bezug auf Frequenz und Intensität des Reizes erklärt sich daraus, dass die Kenntnis von Defiziten bei diesen Diskriminationsleistungen wenig diagnostische und praktisch keine therapeutischen Konsequenzen hat. Unabhängig davon, ob die Diskriminationsleistung mit gleichzeitig vorliegenden, nacheinander dargebotenen oder modulierten Signalen bestimmt wird, ist sie bei grundsätzlich bei hohen Reizpegeln höher als in Schwellennähe und bei mittleren Frequenzen (1 kHz) besser als bei niedrigen und hohen Frequenzen. Als orientierende Werte seien hier für die Amplitudenmodulationsschwelle eine ebenmerkliche Pegeldifferenz von 0.3 dB und für die Frequenzmodulationsschwelle eine ebenmerkliche Frequenzdifferenz von 3 Hz angegeben (experimentelle Werte bei 1 kHz und 60 dB SPL). Wie sich soeben im Zusammenhang mit der Diskrimination von Reizen gezeigt hat, kann die Wahrnehmung eines akustischen Signals durch die gleichzeitige Darbietung eines zweiten Signals beeinflusst werden. Aus alltäglicher Erfahrung ist bekannt, dass ein Nutzsignal durch Störschall »übertönt« werden kann. In der Psychoakustik und Audiologie spricht man von Verdeckung oder Maskierung. Wird die Hörschwelle nicht in ruhiger Umgebung
sondern vor einem Geräuschhintergrund bestimmt, so spricht man von der Mithörschwelle. Sie spielt bei einigen Hörprüfungen eine wichtige Rolle. Die Mithörschwelle unterscheidet sich von der absoluten oder Ruhehörschwelle umso mehr, je näher die Frequenzen der zwei konkurrierenden Signale beieinander liegen. Für ein vertieftes Verständnis der Phänomene ist die Betrachtung der am Hörvorgang beteiligten nichtlinearen Effekte sowie eine Auseinandersetzung mit dem Konzept der Frequenzgruppen erforderlich. Im Rahmen dieser Übersicht muss hierfür an die weiterführende Literatur verwiesen werden (s. z. B. Zwicker u. Fastl 1990). In der praktischen Audiometrie spielen die mit Verdeckung und Maskierung zusammenhängenden Phänomene bei der Vertäubung des nicht geprüften Ohres in der Tonaudiometrie, der Feststellung von Recruitment-Äquivalenten in der Überschwelligen Audiometrie, der Untersuchung des Sprachverstehens im Störgeräusch in der Sprachaudiometrie und dem Design spezieller Reizparadigmen in der objektiven Audiometrie (z. B. bei der notch noise BERA und der TECAP-Messung) eine Rolle.
14.2.2 Zeitverhalten des Hörsystems
Zur vollständigen Beschreibung von akustischen Signalen gehört neben Frequenz und Intensität als dritte Dimension die Zeit. Alle in Abschn. 14.2.1 auf die Lautstärkeempfindung bezogenen Ausführungen sind in ihrer Gültigkeit auf Dauerreize beschränkt. Einige der Aussagen sind nicht auf Reize kurzer Dauer oder veränderliche, nicht-stationäre Signale übertragbar. So hängt bspw. die subjektiv empfundene Lautstärke eines Reizes von seiner Dauer ab: Kurze Reize werden bei gleichem Schalldruck weniger laut empfunden als Dauerreize. Oberhalb der bei etwa 200 ms liegenden Grenze ist die empfundene Lautstärke eines akustischen Reizes von seiner Dauer unabhängig (Integrationsvermögen des Gehörs), unterhalb dieser Grenze muss zur Erzielung gleicher Lautstärke der Reizpegel jeweils um rund 10 dB erhöht werden wenn die Reizdauer auf ein Zehntel verkürzt wird. Pulsartige Reize werden daher weniger laut empfunden als es ihrem Schalldruck entspricht. Da das Ausmaß von Gehörschäden durch die physikalische Intensität und nicht durch die empfundene Lautstärke bestimmt ist, wird das Schädigungspotential von impulsartigem Schall somit durch die subjektive Bewertung unterschätzt. Der Schallpegel von Impulsen wird sowohl durch den Spitzenwert des Schalldrucks angegeben (dB SPL p.e. = peak equivalent) als auch durch den für die Wahrnehmung relevanten und i.a. viel kleineren Wert (dB HL = hearing level). Es sei noch erwähnt, dass diese Aspekte schon allein in Hinblick auf die relevante Zeitskala völlig verschieden sind von denen der weiter unten behandelten Adaptation, bei der gerade eine lange Reizdauer der Hörbarkeit entgegenwirkt.
14
206
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Die meisten bedeutungstragenden akustischen Signale weisen schnelle zeitliche Änderungen von Frequenz und Intensität auf. Die gilt besonders für die Sprache, bei der ein Großteil der Information in den Übergängen (Transienten) zwischen den Vokalen oder zwischen Vokal und Konsonant enthalten ist. Die Fähigkeit zur Analyse von Zeitstrukturen ist daher für das Gehör des Menschen sehr wichtig. Dies spiegelt sich darin wider, dass viele Neurone der Hörbahn nur auf zeitliche Änderungen des Reizes ansprechen. Durch die psychoakustische Messung des Zeitauflösungsvermögens kann die funktionelle Integrität der an der Zeitstrukturanalyse beteiligten Komponenten des Hörsystems getestet werden. Ein Maß für das Zeitauflösungsvermögen ist der ebenmerkliche Zeitabstand zwischen zwei Rauschimpulsen. Er lässt sich messen, indem einer Versuchsperson nacheinander zwei Pulse weißen Rauschens begrenzter Dauer (200 ms) vorgespielt werden, von denen einer durch eine Pause variabler Länge unterbrochen ist, und sie entscheiden lässt, welcher der zwei Reize als ein Paar von Impulsen zu erkennen war (gap detection threshold). Im Falle einer richtigen Antwort wird die Pausendauer verkürzt, andernfalls verlängert. Nach einer festen Anzahl von Umkehrungen wird aus den dazugehörigen Zeitabständen der Mittelwert berechnet. Die auf diese Weise ermittelten ebenmerklichen Lücken betragen bei Normalhörenden etwa 5 ms. Ähnliche Werte erhält man, wenn die Aufgabe darin besteht, von zwei Reizen unterschiedlicher Dauer den kürzeren zu erkennen (temporal difference limen). Zum Zeitverhalten des Gehörs gehört auch seine Reaktion auf länger anhaltende Stimulation. Diese Reaktion besteht darin, dass die Intensität der Empfindung im Laufe der Zeit nachlässt. Die hierfür verantwortlichen physiologischen Vorgänge sind nicht im Detail bekannt. Empirisch wird zwischen Adaptation und Ermüdung unterschieden. Die Abgrenzung geschieht anhand der auftretenden Zeitkonstanten und der Abhängigkeit von der Reizstärke: Als Adaptation wird das Nachlassen der Empfindungsstärke bei geringen Reizpegeln bezeichnet. Es tritt innerhalb weniger Minuten ein, ebenso wie die normale Empfindlichkeit wenige Minuten nach Ende der Stimulation wiederkehrt. Der Adaptation liegen vermutlich neuronale Mechanismen zugrunde. Hierfür spricht die Beobachtung, dass die neuronale Feuerungsrate bei Beschallung mit niedriger Intensität mit denselben Zeitkonstanten abnimmt. Die bei sehr intensiver Beschallung eintretende Empfindlichkeitseinbuße wird als Hörermüdung (auditory fatigue) bezeichnet. Sie erholt sich nach der Schallexposition nur sehr langsam, d. h. sie wirkt sich wie eine vorübergehende Schwellenabwanderung (temporary threshold shift, TTS) aus. Die Ermüdung ist wohl auf eine Reduktion des Sauerstoffgehalts und eine Ansammlung metabolischer Endprodukte in der Endolymphe zurückzuführen, die sogar zu Haarzellschäden führen können.
Weiter oben ist ausgeführt worden, dass die Hörschwelle für Töne durch die Anwesenheit eines Störgeräusches angehoben wird. Nach Abschalten des Störgeräusches sinkt die Schwelle wieder auf ihren Normalwert ab. Diese Absenkung erfolgt aber nicht simultan sondern verzögert. Infolge der Nachverdeckung (oder Nachmaskierung) wird die Ruhehörschwelle in Abhängigkeit vom Störgeräuschpegel erst nach etwa 200 ms erreicht (Zwicker u. Feldtkeller 1967). Bei innenohrbedingten Hörstörungen sind diese Zeiten länger, d. h. die Fähigkeit, in die Lücken eines nichtstationären, amplitudenmodulierten Störgeräusches »hineinzuhören«, geht verloren. Dies ist einer der Gründe dafür, dass es Patienten mit Schallempfindungsschwerhörigkeit schwerer fällt als Normalhörenden, z. B. eine Durchsage in einer von pulsartigem Lärm und Nachhall erfüllten Bahnhofshalle zu verstehen.
14.2.3 Tonschwellenaudiometrie
Historischer Vorgänger der heutigen Tonaudiometrie war die Prüfung des Gehörs mit Hilfe von Stimmgabeln. Sie liefert zwar keine quantitativen Ergebnisse, doch lässt sich mit ihrer Hilfe die Frequenzabhängigkeit einer Hörstörung und ggf. eine Progredienz feststellen. Zu einem anderen Zweck hat die Stimulation des Gehörs mit Stimmgabeln noch heute einen festen Platz in der Audiometrie: Die schwingende Stimmgabel führt, wenn ihr unteres Ende auf den Schädelknochen aufgesetzt wird, zu einer Reizung des Innenohres über Knochenleitung. Es zeigt sich nun, dass bei einseitigen Hörstörungen eine krankheitsspezifische Lateralisation des Höreindrucks auftritt (Weber-Test): Im Falle einer Innenohrschwerhörigkeit hört der Proband die auf Stirn oder Scheitel aufgesetzte Stimmgabel im gesunden Ohr, hingegen wird der Ton bei Schalleitungsstörungen auf die kranke Seite lateralisiert. Zur Erklärung dieses bisher nicht befriedigend gedeuteten Phänomens werden verschiedene Effekte vorgeschlagen: Erstens ist die Abstrahlung der dem Innenohr zugeführten Schallenergie bei Schalleitungsstörungen infolge der unterbrochenen Luftleitungsverbindung behindert und zweitens könnte das deprivierte Innenohr an geringere Schallintensitäten adaptiert und daher empfindlicher sein als das gesunde Ohr. In einem weiteren Stimmgabelversuch wird die Schallzuführung über Knochenleitung mit der über Luftleitung verglichen (Rinne-Test): Der Fuß der schwingenden Stimmgabel wird zunächst auf den Warzenfortsatz (Mastoid) aufgesetzt. Sobald sie vom Patienten nicht mehr wahrgenommen wird, hält der Untersucher die Zinken der Stimmgabel vor den Gehörgangseingang. Der innenohrschwerhörige Patient kann im Gegensatz zum Patienten mit konduktiv bedingter Hörstörung den Ton nun wieder hören. Weber- und Rinne-Test dienen somit als Orientierungshilfen zur qualitativen Unterscheidung zwischen Schalleitungs- und Schallempfindungs-
207 14.2 · Psychoakustik und subjektive Audiometrie
schwerhörigkeiten. Bei kombinierten Mittelohr- und Innenohrstörungen sind die Ergebnisse beider Tests nicht eindeutig interpretierbar, ebenso wie der Weber-Test bei beidseitiger Hörstörung nicht aussagekräftig ist. Der für das Erreichen der normalen Hörschwelle erforderliche Schalldruckpegel ist in hohem Maße von der Frequenz abhängig (⊡ Abb. 14.7): Bei 50 Hz liegt er um 40 dB höher als bei 2 kHz. Für die Audiometrie ist die Verwendung einer Skala, in der die Hörschwelle des Normalhörenden von der Frequenz abhängt, nicht sehr praktisch. Deshalb sind die für die Hörschwellenbestimmung verwendeten Geräte (Audiometer) so geeicht, dass jeder Ton unabhängig von seiner Frequenz vom Normalhörenden gerade eben wahrgenommen wird, wenn der Pegelsteller auf 0 dB steht. Diese frequenzabhängige Transformation hat die Folge, dass die Hörschwellenkurve des normalhörenden Ohres einer horizontalen Linie im Frequenz-Pegel-Diagramm entspricht. Die solchermaßen geeichten Schallpegel werden in der Einheit dB HL (hearing level) angegeben. Die Angabe L=40 dB HL bedeutet also unabhängig von der Frequenz, dass der Pegel des Tons 40 dB oberhalb der Normalschwelle liegt. Physikalisch hat ein 40 dB HL-100 Hz-Ton einen um etwa 20 dB höheren Pegel (bzw. einen 10-mal höheren Schalldruck) als ein 40 dB HL-1 kHz-Ton. Außer der dB SPL- und der dB HL-Skala wird in der Audiometrie – und zwar zur Angabe überschwelliger Schallpegel – häufig die Einheit dB SL (sensation level) verwendet. Diese Maßeinheit hängt somit vom Messobjekt (also dem untersuchten Ohr) ab. Ein 1000 Hz-Ton mit einem Pegel von 10 dB SL liegt definitionsgemäß 10 dB oberhalb der 1000 Hz- Hörschwelle des untersuchten Ohres. Auf ein anderes Ohr bezogen ist demselben Ton i. Allg. ein anderer dB SL-Pegel zugeordnet. Vor allem in der überschwelligen Audiometrie und bei der Angabe von Reflexschwellen ist diese Pegelangabe gebräuchlich und nützlich. Die Ermittlung der Hörschwelle – d. h. des niedrigsten gerade noch wahrnehmbaren Schallpegels – ist mit einigen Schwierigkeiten verbunden. Eine der Schwierigkeiten beruht darauf, dass das wesentliche Merkmal des niedrigsten eben wahrnehmbaren Pegels die maximal ungewisse Wahrnehmung ist und es daher dem Patienten schwer fällt, zuverlässige Angaben über seine Hörempfindung zu machen. Auch wenn die Voraussetzung eines ausreichend ruhigen Untersuchungsraumes (Einhaltung der Störschallpegelgrenzwerte nach DIN ISO 8253) erfüllt ist, fordert die Hörschwellenmessung vom Patienten viel Kooperationsbereitschaft, Konzentration und Geduld. Die Genauigkeit der Ergebnisse hängt entscheidend von diesen Faktoren ab. Bei ungenügender Kooperationsfähigkeit oder -bereitschaft ist die Durchführung subjektiver Hörprüfungen nicht möglich. Ein weiteres Problem bei der Schwellenermittlung besteht darin, dass die Schwelle eines Ohres bestimmt werden soll, der Patient aber i. Allg. zwei
hörende Ohren hat. Dem wird dadurch Rechnung getragen, dass die Reize über Kopfhörer und nicht im freien Schallfeld angeboten werden. Trotzdem kann der Prüfton im gegenseitigen Ohr wahrgenommen (übergehört) werden, ohne dass Patient und Untersucher sich dessen bewusst sind. Hier kann jedoch durch die Vertäubung des Gegenohres in den meisten Fällen die richtige Schwelle gefunden werden. In der praktischen Audiometrie kann die Hörschwellenermittlung nicht nach den strengen, in der experimentellen Psychoakustik gültigen Maßstäben erfolgen. Für diagnostische Zwecke wird eine Genauigkeit von ±5 dB als ausreichend angesehen. Dementsprechend beträgt bei den meisten Audiometern die minimale Schrittweite für die Variation des Ausgangspegels 2,5 dB. Bei -10 dB HL beginnend erhöht der Untersucher den Pegel des kontinuierlichen oder gepulsten Testtons bis der Patient eine Hörempfindung anzeigt, z. B. durch Betätigung der Antworttaste. Der in diesem Moment wirksame Reizpegel liegt i. Allg. bereits einige dB über der Hörschwelle. Dies wird entweder durch eine pauschale Korrektur berücksichtigt oder die Schwelle durch Verringerung der Intensität zunächst wieder unterschritten und durch mehrmalige Wiederholung dieser Prozedur genauer eingegabelt. Das Reintonaudiogramm enthält die Schwellen bei den Frequenzen 100 Hz bis 10 kHz in Oktav- oder Halboktavabständen, für die Untersuchung des erweiterten Hochtonbereiches wird die Frequenz in kleineren Schritten bis 16 kHz erhöht. Konventionsgemäß wird der Reizpegel im Tonaudiogramm nach unten aufgetragen, sodass die Hörschwellenkurve eines normalhörenden Ohres weiter oben liegt als die eines Schwerhörigen (⊡ Abb. 14.8). Die mit dem dB HL-Wert identische Differenz zwischen gemessener Hörschwelle und Normalwert wird auch als Hörverlust (hearing loss) bezeichnet. Neben der beschriebenen Luftleitungskurve (LL) gehört zum Tonschwellenaudiogramm auch die Hörschwelle bei Reizung über Knochenleitung (KL). Auf den Warzenfortsatz (das Mastoid) hinter der Ohrmuschel wird ein Vibrationshörer (Knochenhörer) aufgesetzt. Wenn Kontaktfläche und Andruckkraft den vorgesehenen Werten entsprechen, wird eine definierte Schallintensität über den Knochen in das Innenohr übertragen. Auf diese Weise kann die Innenohrfunktion unter Umgehung der Schallzuführung über Gehörgang, Trommelfell und Mittelohr geprüft werden. Die Kalibrierungen von Luft- und Knochenhörer sind derart aufeinander abgestimmt, dass die zwei Schwellenkurven bei intakter physiologischer Schalleitung miteinander übereinstimmen. Die Knochenleitungsschwelle kann nur für Frequenzen oberhalb 250 Hz zuverlässig gemessen werden, da bei niedrigen Frequenzen vor Erreichen der ohnehin tiefer liegenden Leistungsgrenze der KL-Reiz nicht nur gehört, sondern auch gefühlt wird (⊡ Abb. 14.8, F). Auch bei hohen Frequenzen oberhalb 6 kHz ist die Bestimmung der Knochen-
14
208
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.8. Reintonaudiogramme bei Normalgehör (A), TieftonMittelohrschwerhörigkeit (B), kombinierter Schallleitungs- und Schallempfindungsschwerhörigkeit (C), pancochleärer Schallempfindungsschwerhörigkeit (D), zwei Stadien einer lärmbedingten Innenohr-
schwerhörigkeit (E) und Taubheit bzw. Hörrestigkeit mit Fühlwerten für Knochenleitung im Tieftonbereich (F) (left corner audiogram). Außer in Bild E sind jeweils die Schwellen für Luft- und Knochenleitung eingezeichnet
leitungsschwelle problematisch, weil der Knochenhörer mit steigender Frequenz zunehmend auch Luftschall abstrahlt, der das Ohr über die Schallleitungskette erreicht und anregt. Zusätzlich zu diesen Effekten ist bei allen Frequenzen die auf das Innenohr übertragene Reizstärke wegen der individuellen Variabilität von Andruckkraft und Hautdicke weitaus weniger reproduzierbar als bei der Luftleitung. Die Genauigkeit der KL-Schwellenbestimmung beträgt unter den für Routineuntersuchungen typischen Bedingungen nur etwa ±10 dB. Der Vergleich von Luft- und Knochenleitungsschwelle gestattet – ähnlich wie der Rinne’sche Stimmgabelversuch – Rückschlüsse auf das Vorliegen von Mittelohrschwerhörigkeiten. Liegt die Schwelle für KL-Reizung deutlich günstiger als die Luftleitungsschwelle (air-bone-gap), so muss die Schallzuführung über Trommelfell und Gehörknöchelchen durch eine pathologische Veränderung des Mittelohres beeinträchtigt sein (⊡ Abb. 14.8, B und C). Die Frequenzabhängigkeit der als Schalleitungs- oder Mittelohrkomponente bezeichneten Schwellendifferenz gibt nähere Auskunft über die Art der Erkrankung: Hat sich infolge einer Mittelohrentzündung in der Paukenhöhle Flüssigkeit angesammelt oder Sekret am Trommelfell abgelagert, so ist die Reibung im Mittelohr oder die Masse des Schalleitungs-
apparates erhöht und die LL-Schwelle ist vorwiegend bei hohen Frequenzen angehoben. Im Falle einer Versteifung der Gehörknöchelchenkette werden hingegen niedrige Frequenzen schlechter übertragen. Frakturen oder Luxationen der Gehörknöchelchenkette wirken sich auf den gesamten Frequenzbereich aus, ebenso wie ein Mittelohrblock bei fortgeschrittener Otosklerose (einer durch verhärtete Knochenwucherung im ovalen Fenster bedingten Fixation des Steigbügels). Der in der Differenz zwischen Luft- und Knochenleitungsschwelle zum Ausdruck kommende mittelohrbedingte Hörverlust kann niemals mehr als 50 dB betragen, weil erstens die schallverstärkende Wirkung des Mittelohrapparates auf diesen Wert begrenzt ist und zweitens jeder genügend intensive Luftschall auch die Entstehung von Körperschall bewirkt. Letzteres wird in den folgenden Absätzen näher ausgeführt. Die Reizung des Gehörs über Knochenleitung ist nicht seitenspezifisch, denn sie versetzt unabhängig vom Ort der Anregung den ganzen Schädelknochen in Schwingung. Auch wenn der Knochenhörer auf das Mastoid aufgesetzt wird, betragen Übertragungsverluste zur Gegenseite maximal 10 dB, so dass beide Innenohren mit nahezu der gleichen Intensität stimuliert werden. Doch auch bei Reizgebung über Luftleitung geht ein gewisser
14
209 14.2 · Psychoakustik und subjektive Audiometrie
Anteil der Schwingungsenergie in Knochenschall über und stimuliert damit das Gegenohr gleichermaßen wie das Prüfohr. Für die in der Audiometrie vorwiegend angewendeten geschlossenen supraauralen Kopfhörer liegt die Überhördämpfung bei etwa 50 dB, d. h. erst bei Prüftonpegeln LP≥50 dB HL wird Knochenschall erzeugt und mit der Intensität LP−50 dB auch im gegenseitigen Innenohr wirksam. Wenn dieses Innenohr die bessere Hörleistung aufweist, wird der langsam lauter werdende Prüfton zuerst hier wahrgenommen. Aufmerksame Patienten werden bei der Schwellenbestimmung zwar angeben, dass die Wahrnehmung auf der Gegenseite erfolgte, aber damit ist noch nicht die Schwelle des Prüfohres bestimmt. Das Mithören des Gegenohres kann verhindert werden, indem es durch ein über Luftleitung dargebotenes Geräusch künstlich schwerhörig gemacht (vertäubt) wird. Hierzu werden meist Schmalbandgeräusche (Terzbandrauschen) verwendet, die den übergehörten Sinuston verdecken (maskieren) und sich vom Prüfreiz im Charakter genügend unterscheiden, um nicht mit ihm verwechselt zu werden. Die Vertäubung geschieht immer über Luftleitung, da ein über Knochenleitung angebotenes Rauschen beide Ohren gleichermaßen ausschalten würde. Die Vertäubung des Gegenohres erfüllt nur dann ihren Zweck, wenn der im nicht geprüften Innenohr wirksame Pegel des Maskierers den übergehörten Pegel des Prüftones (LP−50 dB) übertrifft. Damit ist für den minimalen Vertäubungspegel LV eine untere Grenze definiert. Da der über Luftleitung angebotene Maskierer das vertäubungsseitige Mittelohr passieren muss, ist diese Grenze nur dann hoch genug, wenn dieses Mittelohr eine normale Funktion aufweist (auf dem Vertäubungsohr also kein Schalleitungsverlust vorliegt). Ist dies nicht der Fall, so liegt der Vertäubungspegel möglicherweise (aber nicht zwangsläufig) unter der Luftleitungsschwelle des Vertäubungsohres und er muss um den Betrag der (vertäubungsseitigen) Mittelohrdämpfung DV erhöht werden, um den Verlust auszugleichen und eine ausreichende Verdeckungswirkung zu erzielen: LV ≥ LP − 50dB + DV
(4)
Die in DV zum Ausdruck kommende Mittelohrkomponente des Vertäubungsohres kann maximal 50 dB betragen. In diesem Fall ergibt sich LV≥LP. Da DV zum Zeitpunkt der Untersuchung nicht als bekannt vorausgesetzt werden kann und ein zu niedriger Vertäubungspegel meistens schwerer wiegt als eine zu starke Vertäubung, kann man in der Praxis vom Extremfall einer maximalen Mittelohrkomponente auf dem Vertäubungsohr ausgehen (DV=50 dB) und erhält so die sehr praktikable und in den meisten Fällen richtige Vertäubungsregel: falls LP ≥ 50 dB LV ≈ L P IDOOV (für Prüfung in Luftleitung)
Vertäubungs- und Prüftonpegel sind also einander gleich und werden bei der Schwellenbestimmung gemeinsam erhöht. Es ist wichtig darauf hinzuweisen, dass die in den Gleichungen (4) und (5) empfohlenen Vertäubungspegel Minimalwerte sind, bei denen die Verdeckungswirkung gerade beginnt. Wird der Prüfton noch immer übergehört, so kann der Vertäubungspegel vorsichtig um einige dB erhöht werden. Wenn aber das Prüfohr einen mittelohrbedingten Hörverlust aufweist, besteht die Gefahr der Übervertäubung, d. h. der mit 50 dB Verlust auf den Knochen übergehende Maskierer überschreitet die Knochenleitungsschwelle des Prüfohres obwohl dessen Luftleitungsschwelle noch oberhalb von LP liegt4. Der Patient muss daher angewiesen werden, nur auf die Prüftöne zu achten und das Rauschen im Gegenohr (evtl. auch im Prüfohr) zu ignorieren. Etwas andere Vertäubungsregeln müssen bei der Ermittlung der Knochenleitungsschwelle angewendet werden. Hier geht der Prüfton nahezu ohne Verluste auf das Gegenohr über, d. h. es liegt immer – und nicht erst oberhalb von 50 dB – auch im gegenseitigen Innenohr ein Reiz des Pegels LP vor. Die Hörempfindung entsteht dann im besser hörenden Innenohr. Der für die Kopfhörerkapsel des Gegenohres eingestellte Vertäubungspegel muss daher so hoch gewählt werden, dass er im Innenohr mindestens den Wert LP ergibt, d. h. LV≥LP bei intaktem Mittelohr und LV≥LP+50 dB bei vollständiger Schalleitungsstörung auf der Vertäubungsseite. Die allgemeine Regel lautet also hier:
LV ≥ L P + DV
Während bei der Luftleitungsmessung auf der Vertäubungsseite ein vollständiger Mittelohrverlust von 50 dB angenommen werden kann, um eine allgemeingültige und möglichst einfache Vertäubungsregel zu erhalten, ist dies bei der Knochenleitung nicht möglich, denn dann würde sich nach LV ≥ LP + 50 dB ein Vertäubungspegel ergeben, der das Prüfohr mit mindestens der Intensität des Prüftones maskiert (Übervertäubung). Der minimale Vertäubungspegels muss also unter dieser Grenze bleiben. Zugleich muss er den Prüftonpegel übertreffen, denn der Verschluss des vertäubungsseitigen Gehörgangs durch den Kopfhörer erhöht die Empfindlichkeit des dazugehörigen Innenohres (Verschlusseffekt5). Es kann also kein fester Wert, sondern nur ein Bereich für den richtigen Vertäubungspegel angegeben werden: L P + 20 dB ≤ LV ≤ L P + 50 dB (für Prüfung in Knochenleitung)
4
5
(5)
(6)
(5)
Aus diesem Grund kann eine beidseitige Mittelohrkomponente von 50 dB tonaudiometrisch nicht exakt bestimmt werden. Wegen dieses Effektes muss auch darauf geachtet werden, dass der Gehörgang des Prüfohres bei der KL-Messung offen bleibt.
210
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Es muss noch einmal betont werden, dass die Regeln (5) und (7) zwar in vielen, aber nicht in allen Fällen richtig sind. Ein ohne Einschränkung gültiges Kriterium für die richtige Wahl des Vertäubungspegels ergibt sich daraus, dass der Schwellenwert isometrisch mit dem Vertäubungspegel ansteigt, solange infolge zu schwacher Vertäubung nicht die Hörschwelle des Prüfohres sondern die Mithörschwelle des Gegenohres gemessen wird. Erst bei genügend hohen contralateralen Maskiererpegeln stabilisiert sich die Schwellenabgabe des Patienten, d. h. sie steigt mit zunehmendem Vertäubungspegel nicht weiter an. Bei diesem Vorgehen ist – wie bei der Vertäubung ganz allgemein – immer darauf zu achten, dass die Unbehaglichkeitsschwelle des Vertäubungsohres nicht überschritten wird.
14.2.4 Überschwellige Hörprüfungen
Alle Hörtests, bei denen mit Hilfe von Schallsignalen oberhalb der (individuellen) Hörschwelle versucht wird, einen pathologischen Lautheitsanstieg nachzuweisen, werden unter dem Begriff »Überschwellige Tests« zusammengefasst. Die einfachste und zuverlässigste Feststellung eines Recruitments lässt sich durchführen, wenn ein Patient nur einseitig von einer Hörstörung betroffen ist, das andere Ohr also normal hört. Der hierzu eingesetzte Fowler-Test6 ist ein interauraler Lautheitsvergleich. Dem Patienten werden Töne gleicher Frequenz und veränderlicher Intensität abwechselnd auf beiden Ohren dargeboten. Bei jedem Paarvergleich wird der Pegel auf dem besser hörenden Ohr so lange nachgeregelt, bis der Patient die Töne auf beiden Ohren mit gleicher Lautstärke wahrnimmt. Diese Pegel werden in die Audiogramme eingezeichnet und durch Linien miteinander verbunden. Verlaufen die Verbindungslinien bei allen Pegeln parallel, so liegt kein Lautheitsausgleich vor, bei zusammenlaufenden Linien ist der Recruitment-Test hingegen positiv: Hier empfindet der Patient hohe Schallintensitäten auf der schwerhörigen und der normalhörenden Seite als gleich laut. Dieser Befund ist gleichbedeutend mit der für endocochleäre Hörstörungen pathognomonischen Feststellung, der Patient habe auf der hörgeschädigten Seite einen eingeschränkten Dynamikbereich. Ebenfalls zum Nachweis des Recruitments – aber ohne die Beschränkung auf einseitig normalhörende Patienten – dient der SISI-Test (short increment sensitivity index). Testgröße ist der (prozentuale) Anteil richtig erkannter 1 dB-Inkremente, mit denen ein überschwelliger Dauerton rechteckförmig moduliert ist. Der Zusammenhang zwischen dieser Testgröße und einem pathologi-
6
In der angelsächsischen Literatur heißt dieser Test ABLB (alternate binaural loudness balance).
schen Lautheitsanstieg ist offensichtlich: Aufgrund der abschnittsweise steileren Eingangs/Ausgangs-Kennlinie entspricht eine gegebene Pegeldifferenz beim haarzellgeschädigten Ohr einer stärkeren Zunahme der subjektiv empfundenen Lautheit als beim Normalohr (⊡ Abb. 14.6) und ist daher besser erkennbar. Für die Durchführung des SISI-Tests wird eine Prüffrequenz gewählt, bei der der Hörverlust mindestens 40 dB beträgt. Bei geringeren Hörverlusten ist die Anwendung des Tests nicht sinnvoll, weil nur ein stark ausgeprägter Funktionsausfall von äußeren Haarzellen einen pathologischen Lautheitsanstieg zur Folge hat. Der Dauerton wird 20 dB überschwellig eingestellt. In regelmäßigen Abständen von 5 s wird sein Pegel für 0,2 s erhöht. Zur Konditionierung des Patienten werden zunächst 5 dB-Inkremente angeboten, dann beginnt der eigentliche Test mit 1 dB-Inkrementen. Erkennt der Patient über 70% dieser Inkremente, so wird das als Hinweis auf ein Recruitment und somit eine cochleär bedingte Schwerhörigkeit gewertet. Negative Testergebnisse (unterhalb von 30%) sprechen gegen eine Innenohrschädigung und weisen daher auf eine neurale Ursache der Schwerhörigkeit hin (z. B. eine Verarmung von Hörnervenfasern). Erkennungsraten zwischen 35% und 65% sollten zurückhaltend interpretiert werden, sie könnten auf ungenügende Kooperation des Patienten oder auf die Wahl ungeeigneter Testparameter (Frequenz und Intensität des Reizes) zurückzuführen sein. Die Wahrnehmungsgrenze für Intensitätsänderungen lässt sich auch mit dem in der Durchführung etwas verschiedenen, aber in seinen Aussagen und Ergebnissen sehr ähnlichen Lüscher-Test bestimmen. Hier wird nicht gezählt, wie oft ein kleiner und fest vorgegebener Pegelunterschied vom Patienten richtig erkannt wird, sondern der ebenmerkliche Pegelunterschied wird direkt bestimmt, indem die Inkremente des wiederum auf 20 dB SL eingestellten Dauertones von 4 dB ausgehend bis hinab zu 0,2 dB solange verringert werden, bis der Patient keine Lautstärkeschwankungen mehr wahrnimmt. Die Geräuschaudiometrie nach Langenbeck ist ein weiteres Verfahren, mit dem ein Recruitmentäquivalent nachgewiesen werden kann. Bei diesem Test wird für mehrere Frequenzen die Mithörschwelle eines Sinustones im schmalbandigen Störgeräusch ermittelt. Die Wahrnehmung eines Tones im gleichzeitig vorliegenden Störgeräusch stellt eine Leistung dar, die der Wahrnehmung kleiner und kurzzeitiger Lautstärkeerhöhungen sehr ähnlich ist. Daher kann durch die Messung der Mithörschwelle eine ausgeprägte Empfindlichkeit für Pegelunterschiede nachgewiesen werden. Das Prinzip des Langenbeck-Tests besteht darin, diese Mithörschwelle bei mehreren Frequenzen mit unterschiedlich stark ausgeprägtem Hörverlust zu messen. Dadurch können die Pegelunterscheidungsschwellen geschädigter und ungeschädigter Bereiche desselben Innenohres miteinander verglichen werden. Für den Test geeignet sind Ohren mit sensorineuraler Hoch-
211 14.2 · Psychoakustik und subjektive Audiometrie
tonsenke oder Hochtonabfall, soweit im Tieftonbereich eine annähernd normale Hörschwelle vorliegt. Der Pegel des maskierenden Breitband- oder Schmalbandrauschens wird je nach Audiogramm auf einen festen Wert zwischen 45 und 75 dB eingestellt. Niedrigere Pegel sind aus physiologischen Gründen (Arbeitsbereich der äußeren Haarzellen) nicht sinnvoll, höhere Geräuschpegel können eine Hörermüdung und dadurch verfälschte Ergebnisse zur Folge haben. Dem Terzbandrauschen wird ein zunächst unhörbarer Sinuston niedriger Frequenz beigemischt. Bei langsamer Erhöhung des Testtonpegels wird die vom Patienten angegebene Wahrnehmungsschwelle registriert. Nach Erhöhung der Tonfrequenz (wie auch der Mittenfrequenz des Rauschens) wird eine weitere Mithörschwelle bestimmt. Nähert sich die Frequenz dem von der Hörstörung betroffenen Bereich, so wirkt sich das im Fall eines pathologischen Lautheitsanstiegs nicht auf die Lage der Mithörschwelle aus. Dieses Einmünden der Mithörschwelle in die Ruhehörschwelle ist das Merkmal einer sensorisch bedingten Hörstörung. Im Fall einer neural bedingten Hörstörung hingegen weicht die Mithörschwelle der Ruhehörschwelle aus, d. h. die Mithörschwelle ist in dem von der Hörstörung betroffenen Frequenzbereich angehoben. Dies ist zu erwarten und plausibel, wenn der retrocochleären Störung eine derart ausgeprägte Verarmung von Hörnervenfasern zugrunde liegt, dass die Kapazität zur Informationsübertragung bereits bei der Verarbeitung von hörschwellennahen Reintönen erschöpft ist. Der diagnostische Nutzen von SISI- und LangenbeckTest besteht darin, dass sie auf Recruitmentäquivalente empfindlich sind und dadurch das Fehlen einer natürlichen Dynamikkompression anzeigen. Sie erteilen aber keine qualitative Auskunft über das Ausmaß dieser Fehlfunktion – im Gegensatz zum Fowler-Test, dessen Nachteil aber darin besteht, dass er nur bei einseitig normalhörenden Patienten anwendbar ist. Seit einigen Jahren steht nun ein quantitativer und bei allen Patienten anwendbarer Recruitment-Test zur Verfügung: die unter diversen Bezeichnungen (u. a. »Würzburger Hörfeldskalierung«, »KU-Lautheitsskalierung« und »Hörfeldaudiometrie«) bekannt gewordene direkte Skalierung der Kategoriallautheit nach Heller, Moser und Hellbrück7. Bei diesem Verfahren skaliert der Patient seine subjektive Lautstärkeempfindung, indem er den angebotenen Reizen verbale Kategorien zuordnet, die von »Nicht gehört« bis »Zu laut« reichen (⊡ Abb. 14.9) und in einer numerischen Skala weiter unterteilt werden können. Mittenfrequenz und Pegel der Schmalbandpulse decken möglichst das ganze Hörfeld ab und werden randomisiert angeboten. Der Untersucher erhält für jede geprüfte Frequenz eine Pegel-LautheitsKennlinie. Aus der Gesamtheit dieser psychometrischen
7
Die kategoriale Lautheit ist von der in Abschn. 14.2.1 beschriebenen Verhältnislautheit zu unterscheiden..
⊡ Abb. 14.9. Lautstärkeskalierung bei einem normalhörenden und einem innenohrschwerhörigen Patienten (schematisch). Die 7 verbalen Lautstärkekategorien entsprechen 50 numerischen KU-Einheiten (Kategorien-Unterteilung)
Funktionen lassen sich Isophonen konstruieren und als individuelles Hörfeld in das Audiogramms eintragen. Der Schnittpunkt der einzelnen Pegel-Lautheits-Funktion mit der Abszisse entspricht der Hörschwelle, der mit »Zu laut« bewertete Pegel der Unbehaglichkeitsschwelle. Liegt ein pathologischer Lautheitsanstieg vor, so verläuft die Kennlinie sehr steil, d. h. der horizontale Abstand zwischen der individuellen Kurve und dem Normalwert nimmt mit zunehmendem Pegel ab. Dieser horizontale Abstand entspricht dem pegel- und frequenzabhängigen Verstärkungsbedarf, der somit unmittelbar als Ausgangswert für die Einstellung von Verstärkung und Kompression eines Hörgerätes genutzt werden kann. Das Vorliegen einer pathologisch veränderten Adaptation wird geprüft, indem das Ohr mit schwach überschwelligen Dauertönen stimuliert und der niedrigste Pegel aufgesucht wird, bei dem der Ton mindestens 30 s lang hörbar bleibt (Schwellenschwundtest nach Carhart). Liegt dieser Pegel bis zu 10 dB über der Hörschwelle, so wird die Adaptation noch als normal gewertet. Liegt der Schwellenschwund zwischen 15 und 25 dB, so spricht dies gemeinsam mit anderen Indikatoren (Recruitment) für eine Innenohrschädigung (pathologische Adaptation). Schwellenabwanderungen von mindestens 30 dB werden als Hörermüdung bezeichnet (obwohl es sich um ein Adaptationsphänomen handelt) und als Hinweis auf eine neurale Hörstörung gewertet.
14.2.5 Sprachaudiometrie
Das Verstehen von Sprache stellt höchste Anforderungen an die Leistungsfähigkeit des Hörsystems. Sprachsignale weisen sich daher nicht a priori als besonders geeignete
14
212
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Reize für Hörprüfungen aus. Wegen ihrer Komplexität würde die Verwendung von Sprachreizen bei vielen Hörstörungen und Fragestellungen eher zu einer Verschleierung als zu einer Aufklärung der Krankheitsursache beitragen. Wenn die Aufgabe eines Hörtests jedoch darin besteht, die in der sprachlichen Kommunikation auftretende Behinderung zu beurteilen oder die durch eine Hörprothese erreichte Wiederherstellung der lautsprachlichen Kommunikationsfähigkeit zu überprüfen, so ist die Verwendung von Sprache als Testmaterial unerlässlich. Die Komplexität der Sprache bringt noch eine weitere Schwierigkeit mit sich: Anders als bei den elementaren Reizen, die in anderen Bereichen der Audiometrie verwendet werden, wirken sich in der Sprachaudiometrie nicht nur das Hörvermögen, sondern auch die intellektuellen Fähigkeiten sowie die Muttersprache und der Wortschatz des Probanden sehr stark auf das Untersuchungsergebnis aus. Es kann keinen universellen Sprachdiskriminationstest geben, mit dem einerseits der Effekt des binauralen Hörens auf die Spracherkennungsleistung junger normalhörender Probanden und andererseits die Fortschritte eines gehörlos geborenen und spät versorgten CI-Trägers (vgl. Abschn. 14.4) erfasst werden können. Daher gehören zur Sprachaudiometrie sehr viele Tests, die sich in ihrem Anwendungsbereich und ihrer Aussagekraft unterscheiden. Gemeinsames Merkmal aller Sprachtests ist, dass mit ihnen die Fähigkeit des Probanden zur Erkennung (Perzeption) von sprachlichen Lauten geprüft wird8. Wenn die Sprachperzeption in irgendeiner Form von Schallpegeln abhängt, so lässt sich – ebenfalls bei allen Sprachtests – eine psychometrische Diskriminationsfunktion definieren, die die Testergebnisse wiedergibt und den Vergleich verschiedener Testverfahren ermöglicht. Die Fähigkeit zur Perzeption und Diskrimination von Sprache kann nur bei Berücksichtigung ihrer akustischen Eigenschaften in audiologische Zusammenhänge eingebettet werden. Daher folgt hier eine kurze Beschreibung der physikalischen Merkmale der Signale, die von den menschlichen Organen zur Phonation (Erzeugung von Stimme) und Artikulation (Erweiterung der Stimme zur informationstragenden Sprache) erzeugt und vom Hörsystem empfangen und verwertet werden. Die einfachsten Grundelemente der Sprache (Phoneme) sind die Vokale, die durch einen periodischen, aus dem Grundton (er entspricht der Stimmhöhe) und zwei oder mehr Obertönen (Formanten) zusammensetzten Schwingungsverlauf gekennzeichnet sind. Die Lage der Formanten ist für jeden Vokal charakteristisch, sie variiert nur geringfügig mit der Stimmhöhe und von Sprecher zu Sprecher. Der Formant F1 liegt im Bereich um 500 Hz, F2 zwischen 1 und 2 kHz und die hö-
8
Meistens kommt es hierbei nur auf die linguistische und nicht die semantische Erkennung an (obwohl die semantische Erkennung eines Testwortes seine korrekte linguistische Wiedergabe sehr unterstützt).
heren, für das Verstehen der Vokalen weniger bedeutsamen Formanten F3 und F4 zwischen 2 und 4 kHz. Die Konsonanten können nicht durch so einfache Merkmale beschrieben werden. Soweit charakteristische Frequenzen definiert werden können, liegen diese im Bereich der Formanten F3 und F4. Anders als die immer mit einer Phonation einhergehenden Vokale können Konsonanten stimmlos und stimmhaft sein. Stimmlose Konsonanten (f, ss, p, t, k) entstehen bei nicht schwingenden Stimmlippen durch Verengungen im Ansatzrohr, die zur Beschleunigung der Luftströmung und damit zur Wirbelbildung Anlass geben. Bei stimmhaften Konsonanten (l, m, n, r) überlagern sich diese Mechanismen mit der Stimmlippenschwingung. In der Phonetik werden die Konsonanten weiterhin nach ihrem Artikulationsort (Bilabiale, Dentale, Velare etc.) und der Artikulationsart (Plosive, Frikative, Liquide etc.) unterschieden. Viele Konsonanten entsprechen einem frequenzmäßigen Übergang zum vorangegangenen oder nachfolgenden Vokal (Transienten). Ein und derselbe Konsonant kann, je nachdem, mit welchem Vokal er als Anlaut, Inlaut oder Auslaut in Verbindung steht, ganz verschiedene Frequenzen enthalten. Transienten und Formanten sind im Spektrogramm (auch als Sonagramm bezeichnet) erkennbar, einem Diagramm zur Darstellung von Frequenz und Intensität des Sprachsignals in Abhängigkeit von der Zeit (⊡ Abb. 14.10). Anwendung finden die in der Abbildung gezeigten Diagramme sowohl in der technischen als auch in der phoniatrischen (stimmärztlichen) Sprachanalyse. Frequenz und Intensität der Sprachbestandteile können grob ins Tonaudiogramm übertragen werden, um die Auswirkung von Schwerhörigkeit auf das Sprachverstehen abzuschätzen (⊡ Abb. 14.11). Bei einem Hochtonhörverlust wird die Erkennung vieler Konsonanten (v. a. der Zischlaute) am stärksten in Mitleidenschaft gezogen. Bei ausgeprägten Tieftonschwerhörigkeiten werden nur die Grundtöne, die der für das Sprachverständnis nicht sehr wichtigen Stimmhöhe entsprechen, nicht richtig wahrgenommen. Betrifft die Schwerhörigkeit alle Frequenzen gleichermaßen und beträgt der Hörverlust 40 bis 50 dB, so werden zwar die Vokale und sehr starke Zischlaute, nicht aber die leisen Konsonanten richtig verstanden. Das bei vielen Innenohrschwerhörigkeiten auftretende pathologische Lautheitsempfinden hat die Folge, dass leise Sprachelemente gar nicht oder zu schwach, die lauteren Anteil hingegen deutlich oder gar als unangenehm laut wahrgenommen werden. Die Probleme, die sich für den Schwerhörigen aus der Zeitabhängigkeit von Sprachsignalen – insbesondere aus den schnellen Übergängen zwischen lauten Vokalen und leisen Konsonanten – ergeben, können in diesem Diagramm nicht dargestellt werden. Für die Sprachaudiometrie wird Testmaterials verwendet, dessen Auswahl sich an der Zielsetzung orientiert: Eine rudimentäre Perzeptionsleistung lässt sich nur prüfen, wenn das Testmaterial genügend Redundanz ent-
14
213 14.2 · Psychoakustik und subjektive Audiometrie
⊡ Abb. 14.10. Oszillogramm (oben) und Spektrogramm (unten) des Wortes »Straße« (männlicher Sprecher)
⊡ Abb. 14.11. Projektion des für Umgangssprache relevanten Frequenzund Pegelbereiches (»Sprachfeld« nach Fant) ins Tonaudiogramm
hält, wie es z. B. bei semantisch sinnvollen Sätzen der Fall ist. Das andere Extrem sind nahezu redundanzfreie einsilbige Testwörter. Zwischen diesen Extremen liegen die im Freiburger Sprachverständlichkeitstest nach DIN 45621 verwendeten Zahlwörter, bei denen die Antworten des Probanden einem bekannten und sehr begrenzten Antwortinventar entstammen. Liegt das Sprachmaterial fest, so kann der Schwierigkeitsgrad des Tests noch dadurch beeinflusst werden, dass Antwortalternativen angeboten werden. Um den Test bei einem Probanden mehrmals durchführen zu können ohne die Verfälschung der Ergebnisse durch Lerneffekte befürchten zu müssen, muss das Material in äquivalente Testlisten aufgeteilt sein (die z. B. jeweils 10 Alltagssätze oder 20 einsilbige Testwörter
enthalten). Unabhängig von der Zielsetzung sollte das Testmaterial eine sprachstatistisch repräsentative Verteilung der Phonemhäufigkeit aufweisen. Die Darbietung einer Gruppe bzw. Liste der auf einem Tonträger gespeicherten Test-Items geschieht über Kopfhörer oder Lautsprecher, wahlweise mit einem gleichzeitig dargebotenen definierten Störgeräusch. Der Proband wird aufgefordert, das item (Wort oder Satz) nachzusprechen oder aus vorgegebenen Antwortalternativen auszuwählen, der Untersucher zählt die Anzahl richtiger Antworten. Das Untersuchungsergebnis besteht in der (prozentualen) Angabe richtig wiedergegebener Testworte in Abhängigkeit vom absoluten oder relativen (auf den Störgeräuschpegel bezogenen) Sprachpegel. Der Zusammenhang zwischen Reizpegel (bzw. Pegeldifferenz) und dem Anteil richtiger Antworten (Sprachverständlichkeitsindex) wird als Diskriminationsfunktion (performance-intensity function) bezeichnet. Sie zeigt einen stufenförmigen Verlauf und lässt sich mit ausreichender Genauigkeit durch zwei Parameter beschreiben: den Pegel (bzw. das Signal/Rausch-Verhältnis) L50, bei der die Wahrscheinlichkeit für eine richtige Antwort 50% beträgt, und die Steigung s50 an dieser Stelle (⊡ Abb. 14.12). Für die mathematische Beschreibung wird häufig die folgende logistische Modellfunktion verwendet: 1
p( L ) = 1+ e
−
L − L50 u
mit u = PLW
1 4 s 50
(8)
Im deutschsprachigen Raum wird für die praktische Audiometrie heute noch immer vorwiegend der im Jahre 1957 von Hahlbrock eingeführte Freiburger Test angewendet. Das Testmaterial besteht aus zweistelligen Zahlen und einsilbigen Wörtern, die in phonetisch ausgeglichenen Gruppen (10 aus je 10 Zahlwörtern bzw. 20 aus je 20 Einsilbern bestehende Listen) angeordnet sind und von einem geschulten Sprecher aufgesprochen wurden.
214
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.12. Die Zunahme des Anteils richtig wiedergegebener TestItems mit steigendem Reizpegel bzw. Signal/Rausch-Verhältnis wird durch eine sigmoide psychometrische Funktion beschrieben (⊡ Gl. 8)
Unterhalb eines gewissen Sprachpegels (10 dB SPL für Zahlwörter und 15 dB SPL für Einsilber) wird vom Normalhörenden keines der Testwörter richtig verstanden. Mit zunehmender Lautstärke nimmt der Anteil richtig verstandener Worte zu und erreicht schließlich 100% bei etwa 30 dB SPL (Zahlwörter) bzw. 50 dB SPL (Einsilber). Ein 50%-iges Zahlwörterverständnis erzielen Normalhörende durchschnittlich bei einem Schallpegel von 18,5 dB, die Steigung s50 beträgt hier etwa 5%/dB. Wegen der großen Redundanz der Zahlwörter verläuft die Diskriminationskurve sehr steil. Aus demselben Grund beeinflussen Hörstörungen nur die Lage, nicht jedoch die Gestalt der Diskriminationskurve. Die Auswirkung einer Hörstörung lässt sich also durch die Differenz aus dem beim Schwerhörigen bestimmten L50 und dem Normalwert vollständig beschreiben. Diese Differenz wird als Hörverlust für Sprache bezeichnet. Weil die richtige Wahrnehmung der niedrigen Vokalfrequenzen für das Zahlwörterverstehen bereits ausreicht, korreliert dieser Sprachhörverlust gut mit der im Tieftonbereich vorliegenden Hörschwelle. Ein reiner Hochtonverlust wirkt sich hingegen auf die Diskriminationskurve für Zahlwörter nahezu nicht aus. Die Einsilberkurve ist gegenüber der Zahlwörterkurve zu höheren Pegeln verschoben und sie verläuft flacher. Beides ist darauf zurückzuführen, dass für die richtige Erkennung der Testwörter nicht nur die lauten Vokale, sondern auch die leiseren Konsonanten wichtig sind. Hörstörungen wirken sich hier nicht nur auf die Lage, sondern auch auf die Gestalt der Diskriminationskurve aus. Es ist daher nicht sinnvoll, sie durch ihre Verschiebung zu charakterisieren. Besonders bei ausgeprägten Hochtonhörverlusten verläuft die Kurve wegen der erschwerten Erkennung der hohen Konsonanten sehr flach. Häufig wird dann bis zum Erreichen der Unbehaglichkeitsschwelle kein 100%-iges Einsilberverstehen erzielt, d. h. es liegt ein Diskriminationsverlust vor. In seltenen Fällen nimmt die
Sprachdiskrimination, nachdem sie einen Maximalwert erreicht hat, zu höheren Pegeln wieder ab (roll-off). Diskriminationsverlust und die bei einem Sprachpegel von 65 dB SPL erhaltene Sprachverständlichkeit sind die wichtigsten mit dem Einsilbertest erhaltenen Messgrößen. Der standardisierte Freiburger Sprachverständlichkeitstest wird insbesondere bei der Indikation von Hörgeräten und die spätere Erfolgskontrolle sowie als Maß für die Berechnung der MdE (Minderung der Erwerbsfähigkeit) bei berufsbedingt erworbenen Hörstörungen eingesetzt. Er weist einige Nachteile auf, die zur Entwicklung weiterer Sprachtests geführt haben: ▬ Bei hochgradig Schwerhörigen oder mit einem Cochlea-Implantat versorgten Patienten liefert er keine verwertbaren Ergebnisse. ▬ Die Testlisten sind phonetisch nicht ausgewogen und in Hinblick auf den Schwierigkeitsgrad nicht miteinander äquivalent. ▬ Die Prüfung des Sprachverstehens im Störgeräusch ist nicht standardisiert. ▬ Der Proband muss mit der deutschen Sprache vertraut sein. ▬ Der Testablauf ist nicht automatisierbar, da die Antwort des Patienten vom Untersucher ausgewertet wird. ▬ Die Antwort des Probanden wird nur als richtig oder falsch bewertet, eine Auswertung der Phonemverwechslungen ist nicht möglich. ▬ Das Fehlen eines Ankündigungsreizes hat eine unangemessen hohe Quote falscher Antworten zur Folge. Wegen dieser Nachteile sind in jüngerer Zeit neue Sprachverständlichkeitstests entwickelt und erprobt worden. Dadurch konnten einige Lücken des bisherigen Testinventars geschlossen werden. Die Problematik bei der Untersuchung des Sprachverstehens resthöriger Patienten besteht darin, dass der Zahlwörtertest in vielen Fällen zwar zu bewältigen ist aber keiner realistischen Hörsituation entspricht, wohingegen der Einsilbertest sich als zu schwierig erweist. Für diesen Einsatzbereich ist nur ein geschlossener Test (bei dem der Proband das Test-item aus einer Liste von möglichen Antworten bezeichnet) oder ein offener Test mit redundantem Sprachmaterial (z. B. bedeutungstragende Sätze) geeignet. Dem zuletzt genannten Konzept entspricht der Oldenburger Satztest (Wagener u. Kollmeier 2005), dessen Testmaterial aus Sätzen besteht, die aus 5 Wörtern (Eigenname, Verb, Zahlwort, Adjektiv und Objekt) zusammengesetzt sind (z. B. »Doris malt neun nasse Sessel«). Jedes der 5 Wörter entstammt einem Vorrat aus 10 Alternativen, aus denen die Sätze nach dem Zufallsprinzip zusammengestellt werden. Dadurch wird die Wiedererkennung eines Testsatzes unwahrscheinlich und die Zahl der verwendbaren Testlisten vergrößert. Die Diskriminationsfunktion des Oldenburger Satztests weist an der Sprachverständlichkeitsschwelle L50 eine Steigung von 17 bis 20%/dB auf, so
215 14.2 · Psychoakustik und subjektive Audiometrie
dass die Sprachverständlichkeitsschwelle auch im Störgeräusch mit hoher Genauigkeit bestimmt werden kann. Allgemein kann bei allen Sprachverständlichkeitstests die Untersuchungsdauer durch die Optimierung von Testmaterial und -strategie reduziert werden. Der Zeitbedarf ist proportional zur Zahl von Testlisten, die für die Aussage des Tests geprüft werden müssen. Sprachtests mit redundantem Testmaterial (Zahlwörter- und Satztests) sind durch eine steile Diskriminationskurve gekennzeichnet, die sich bei Hörstörungen nur verschiebt, aber nicht verformt. Es muss daher im Idealfall nur eine Testliste geprüft werden, wenn der gewählte Schallpegel so liegt, dass L50 zuverlässig bestimmt werden kann. Weist das Testmaterial wenig Redundanz auf (Einsilbertests), so ist die psychometrische Kurve flacher und sie wird bei Hörstörungen nicht nur verschoben, sondern auch verformt. Um sie zu rekonstruieren, müssen mindestens zwei Testlisten geprüft werden. Unabhängig von den Details der Diskriminationskurve ist der Untersucher meistens daran interessiert, möglichst keine Messungen in Bereichen mit 0 oder 100% Sprachdiskrimination durchzuführen. Normalwerte und die oben genannten Zusammenhänge zwischen Ton- und Sprachgehör helfen zunächst bei der Auffindung von sinnvollen Startpegeln in der Nähe des Wendepunktes L50. Durch eine adaptive Pegelsteuerung kann der Zielpunkt noch genauer und schneller erreicht werden. Hierbei wird der Darbietungspegel eines jeden Test-items gemäß den vorhergehenden Antworten erhöht oder verringert, d. h. die bevorstehende Testaufgabe wird schwieriger gestaltet, wenn die vorgehende richtig gelöst wurde (und sinngemäß umgekehrt). Neben der Sprachdiskrimination in Ruhe ist auch die Untersuchung der für viele Hörgeschädigte und Hörgeräteträger problematischen sprachlichen Kommunikation im Störgeräusch und der Störbefreiungseffekt durch das binaurale Hören Gegenstand der Sprachaudiometrie. Der Freiburger Einsilbertest ist wegen der geringen Redundanz des Testmaterials für die Messung der Diskrimination in Abhängigkeit vom Signal/Rausch-Verhältnis wenig geeignet. Es ist aber eine Modifikation dieses Tests ausgearbeitet und erprobt worden, bei der die einsilbigen Testwörter in dreifacher Wiederholung dargeboten werden (»Dreinsilbertest« nach Döring). Dies erhöht die Sprachverständlichkeit in dem Maße, dass die Detektion auch im Störschall gelingt. Wenn die schwierigste Hörsituation des Patienten, nämlich einem von Stimmengewirr überlagerten Gespräch zu folgen, realistisch nachgebildet werden soll, müssen Störgeräusch und Nutzsignal spektral aufeinander abgestimmt sein. Das mit dem Dreinsilbertest kombinierte Störgeräusch wird synthetisch durch 32-fache zeitlich versetzte Überlagerung der einsilbigen Testwörter des Freiburger Tests erzeugt. Es entspricht in seinem Spektrum und seiner Zeitstruktur den Eigenschaften einer (männlichen) Stimme und enthält infolge der Überlagerung keine semantische Information. Aus
der Messung des Sprachverständlichkeitsindex bei verschiedenen Signal/Rausch-Verhältnissen S/N (fester Störgeräuschpegel, variabler Nutzsignalpegel) ergibt sich die Diskriminationskurve. Wird der Test mit Normalhörenden im freien Schallfeld durchgeführt, so liegt der Wendepunkt dieser Kurve bei S/N50 = 0 dB in der 0°-Situation (Nutz- und Störsignal von vorne) bzw. bei S/N50=–11 dB in der ±45°-Situation (Nutz- und Störsignalquelle lateral vorne um 90° voneinander getrennt). Weitere Verfahren zur Untersuchung der Sprachperzeption im Störgeräusch sind neben dem oben ausführlich beschriebenen Oldenburger Satztest der aus 10 Testlisten zu je 10 Sätzen bestehende Göttinger Satztest nach Wesselkamp und Kollmeier mit dem Stimmengewirr nach Sotschek als Störschall und der aus 30 Listen zu je 20 Sätzen bestehende Innsbrucker Satztest nach Hochmair, Schulz und Moser (HSM-Test) mit sprachsimulierendem CCITT-Rauschen. Das Spektrum des international genormten CCITT-Rauschens ist an die mittlere Häufigkeitsverteilung mehrerer Sprachen (bei Übertragung weiblicher und männlicher Stimmen über Telefonleitungen) angepasst. Es weist seine höchste Intensität bei 800 Hz auf. Die zeitlich modulierte Variante des CCITT-Rauschens wird als Fastl-Rauschen bezeichnet. Für die Modulation wird nicht eine feste Frequenz verwendet, sondern ein Bandpassrauschen, dessen Maximum entsprechend der mittleren Silbenlänge bei 4 Hz liegt. Bisherigen Erfahrungen zufolge ist der schnell und von einem ungeschulten Sprecher aufgesprochene Göttinger Satztest gut für die die Anwendung bei Hörgeräteträgern geeignet, während der HSM-Test aufgrund der langsamen und gut artikulierten Aufsprache einen niedrigeren Schwierigkeitsgrad aufweist und in erster Linie für die Anwendung bei CITrägern konzipiert ist.
14.2.6 Prüfung des binauralen Hörens
Alle bisher geschilderten Eigenschaften des Gehörs sind das Ergebnis psychoakustischer Untersuchungen bei Stimulation eines Ohres. Ohne Zweifel ist das beidohrige (binaurale) Hören als die natürliche Hörsituation anzusehen. Es unterscheidet sich vom monauralen Hören zunächst durch eine niedrigere Wahrnehmungsschwelle. Die binaurale Hörschwelle liegt (wegen der Verdoppelung der genutzten Schallenergie) um durchschnittlich 3 dB niedriger als die monaurale Schwelle. Bei überschwelligen Reizen ist der Unterschied zwischen ein- und beidohrigem Hören noch größer. Er entspricht etwa 10 dB, d. h. die Hinzunahme des zweiten Ohres bewirkt eine Verdoppelung der Lautheit. Dieser Effekt wird als binaurale Lautheitssummation bezeichnet. Auch die Fähigkeit zum räumlichen Hören und zur Lokalisation von Schallquellen ist größtenteils eine Folge der beidohrigen Erfassung und Verarbeitung der akustischen
14
216
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Signale. Zusätzlich spielt aber auch die Ohrmuschel eine Rolle: Ihrer akustischen Funktion nach stellt sie ein Filter dar, dessen Übertragungsfunktion von Richtung und Entfernung der Schallquelle abhängt. Räumliche Merkmale des Schallfeldes werden durch Reflexion, Abschattung, Streuung, Beugung, Interferenz und Resonanz in zeitliche Merkmale umkodiert, deren zentralnervöse Repräsentation einen bei Stimulation über Kopfhörer nicht entstehenden Eindruck von Räumlichkeit hervorruft. Für einen anderen Aspekt des räumlichen Hörens, nämlich das Richtungshören, ist das Vorliegen zweier Eingangssignale, der gekreuzte Verlauf der Hörbahn und die Verwertung der Differenzen zwischen beiden Signalen (binauraler Prozessor) Voraussetzung. Die Lage der Ohrmuscheln an beiden Seiten des Kopfes hat zur Folge, dass die zwei bei seitlicher Beschallung eintreffenden Eingangssignale Pegel-, Laufzeit- und Klangfarbenunterschiede aufweisen. Die unterschiedliche Klangfarbe ergibt sich daraus, dass die Abschattung durch den Kopf nur für hohe Frequenzen wirksam ist. Aus demselben Grund treten auch vorwiegend bei hohen Frequenzen, die nicht um den Kopf gebeugt werden, interaurale Pegelunterschiede auf. Sie tragen zur Lateralisation des Hörereignisses bei, sowie sie mehr als 1 dB betragen. Weiterhin erreichen die Schallwellen von Quellen, die sich außerhalb der Medianebene befinden, die zwei Ohren zu unterschiedlichen Zeiten (bzw. es liegen zu gleichen Zeiten unterschiedliche Phasen vor). Die experimentell bestimmte Untergrenze für die Verwertung dieser interauralen Laufzeitdifferenzen liegt unter 30 µs. Zeit- und Pegeldifferenzen ermöglichen eine Richtungsbestimmung mit einer Genauigkeit von 3 bis 5°. Diese Quellenortung ist allerdings nicht eindeutig: Alle Quellen, die sich auf der Oberfläche des in ⊡ Abb. 14.13 gezeigten Kegels (cone of confusion) befinden, weisen näherungsweise dieselben interauralen Differenzen auf. Sie unterscheiden sich lediglich in der Klangfarbe. Tatsächlich werden bei Richtungshörtests in der Horizontalebene am häufigsten die Schallereignisorte verwechselt, die in Hinblick auf die interauralen Zeit- und Pegeldifferenzen gleichwertig sind. Ein Sonderfall hiervon ist die Verwechslung von vorne und hinten. Auch die Bestimmung der Elevation, d. h. die Ortung von Schallquellen, die sich in der Medianebene befinden (Öffnungswinkel des Kegels gleich 180°), geschieht ohne Zuhilfenahme interauraler Differenzen und ist dementsprechend unsicher. Interaurale Laufzeitdifferenzen sind für die Ortung von Schallquellen nur dann verwertbar, wenn das Signal zeitlich genügend scharf begrenzt ist. Diese Voraussetzung ist bei Dauertönen oder beim Auftreten von Echos nicht erfüllt. In diesen Fällen verschmilzt der Höreindruck beider Ohren zu einem einzigen Hörereignis. Dass die Quellen von Dauerreizen oder ein von Echos begleitetes kurzes Signal trotzdem lokalisiert werden können liegt daran, dass der Ort solcher Hörereignisse in erster Linie von der Schalldruckänderung bestimmt wird, die als erste den Hö-
⊡ Abb. 14.13. Bei seitlichem Schalleinfall trifft das Signal in beiden Ohren zu verschiedenen Zeiten und mit unterschiedlicher Intensität ein. Es gibt viele Schallereignisorte, die in Hinblick auf diese Differenzen gleichwertig sind. Sie liegen auf dem Mantel eines Kegels (cone of confusion), dessen Spitze in der Kopfmitte liegt und dessen Achse mit der Verbindungslinie der Ohren zusammenfällt. Dies gilt allerdings nur, wenn der Kopf durch eine Kugel ohne Ohrmuscheln und mit einander diametral gegenüberliegenden Gehörgangseingängen approximiert wird. Dies ist eine sehr grobe und realitätsferne Näherung
rer erreicht (Gesetz der ersten Wellenfront). Dieser für das Hören in geschlossenen Räumen wichtige Mechanismus versagt natürlich, sowie sich stehende Wellen bilden. Das beidohrige Hören trägt entscheidend zur Wahrnehmung und Erkennung von Signalen im Störgeräusch bei. Ein Sinuston ist im Rauschen besser (d. h. bei geringerem Signal/Rausch-Abstand) erkennbar, wenn beide Signalquellen räumlich voneinander getrennt sind. Experimentell lässt sich der Effekt des binauralen Hörens auf die Verdeckung (Maskierung) eines Signals einfach nachbilden, indem über Kopfhörer zunächst ein Ohr mit einem Gemisch aus Testton und breitbandigem Rauschen beschallt wird. Die Versuchsperson regelt den Testtonpegel soweit herunter, dass sie den Ton gerade nicht mehr wahrnimmt. Bietet man nun dasselbe Rauschen zugleich am anderen Ohr an (alternativ hierzu kann die Phase des Rauschens im monaural dargebotenen Signalgemisch umgekehrt werden), so wird das Rauschen zwar subjektiv lauter, der Testton wird aber wieder hörbar und die zugehörige (binaurale) Mithörschwelle liegt niedriger als im monauralen Fall (binaural masking level difference, BMLD). Auf ähnliche Weise lässt sich die binaurale Schwelle für das Verstehen eines Testwortes ermitteln und mit der monauralen Schwelle vergleichen (binaural intelligibility level
14
217 14.3 · Objektive Audiometrie
difference, BILD). Je nach der räumlichen Anordnung von Nutz- und Störsignalquelle beträgt die Schwellendifferenz bei Normalhörenden etwa 10 dB. Die durch BMLD und BILD beschriebene Verbesserung der Signalerkennung hängt eng mit der Fähigkeit zum Sprachverstehen im Störgeräusch zusammen (Cocktailparty-Effekt), welche ein funktionsfähiges binaurales System voraussetzt. Bereits durch eine geringfügige einseitige Schwerhörigkeit kann die Funktion des empfindlichen binauralen Systems beeinträchtigt werden. Die Messung der ein- und beidohrigen Diskriminationsschwellen eignet sich daher zur quantitativen Beschreibung der Fähigkeit, im Störgeräusch einer Unterhaltung zu folgen. Es hat sich gezeigt, dass BMLD und BILD bei schwerhörigen Patienten und auch bei älteren normalhörenden Probanden herabgesetzt sind.
14.3
Objektive Audiometrie
In Abgrenzung zur subjektiven Audiometrie, die sich psychoakustischer Methoden bedient, wird die Gesamtheit der Verfahren, bei denen eine mit dem Hörvorgang einhergehende physiologische Reaktion zum Zwecke der Funktionsprüfung des Gehörs gemessen wird, als objektive Audiometrie bezeichnet. Die registrierten Signale unterliegen in weit geringerem Maße der Aufmerksamkeit und aktiven Mitarbeit des Probanden als dies bei den subjektiven Verfahren der Fall ist. Unter den Reaktionen auf akustische Reize sind für audiometrische Zwecke die physikalischen Eigenschaften des Trommelfells (Impedanzaudiometrie), die vom Innenohr ausgesandten Schallschwingungen (otoakustische Emissionen) und die in Hörnerv, Hörbahn und Hirnrinde ablaufenden elektrischen Vorgänge (akustisch evozierte Potentiale) verwertbar. Weil alle für die objektive Audiometrie verwendeten Signale von Störeinflüssen überlagert sind, lässt sich mit ihnen nur eine begrenzte Messgenauigkeit erzielen. Für die Hörschwellenbestimmung ist ihre Anwendung daher in erster Linie bei kooperationsunfähigen oder -unwilligen Patienten interessant. Ist hingegen eine ausreichende Mitarbeit des Patienten sichergestellt, so gibt es keine zuverlässigere, genauere und schnellere Methode als die Befragung nach den subjektiven Hörempfindungen. Die objektiven Verfahren liefern aber differentialdiagnostische Aussagen, die sich mit subjektiven Verfahren nicht gewinnen lassen. In Hinblick auf die Lokalisation der Ursache einer Hörstörung stellt die objektive Audiometrie somit keinen Ersatz, sondern eine Ergänzung zur subjektiven Audiometrie dar.
dieser Impedanz in Abhängigkeit von Luftdruck und Sondentonfrequenz gibt Auskunft über die physikalischen Eigenschaften von Trommelfell, Mittelohr und Gehörknöchelchen, die Messung der Impedanz während akustischer Stimulation mit Tonpulsen ermöglicht die Beobachtung physiologischer Reaktionen. An der Grenzfläche zwischen zwei Medien unterschiedlicher Schallimpedanzen Z0 und Z1 werden Schallwellen reflektiert. Die Messung der Impedanz beruht auf der Beziehung zwischen Reflexionskoeffizient r und der normierten Impedanzdifferenz: r=
( Z1 − Z 0 ) 2 (Z1 + Z 0 ) 2
(9)
Die Impedanz des Mittelohres hängt von der Masse M (Trommelfell, Ossikel, evtl. Sekret), der Reibung R (Paukenhöhle und Innenohr), der Elastizität k (Trommelfell, Mittelohrsehnen, Paukenluft) und der Schallfrequenz f (bzw. Kreisfrequenz ω) ab (⊡ Abb. 14.14): 2
Z=
k· § R 2 + ¨ ωM − ¸ ω¹ ©
(10)
Abgesehen von der Frequenz sind alle Größen, die in die Berechnung der Impedanz eingehen, für den Zustand des Mittelohres charakteristisch. Diesem Umstand verdankt die Impedanz ihre diagnostische Bedeutung. Den zahlenmäßig größten und diagnostisch bedeutendsten Beitrag zur Impedanz liefert bei den üblichen Testfrequenzen der Elastizitätsterm. Der Zusammenhang zwischen Impedanz und Schallfrequenz wird in der praktischen Tympanometrie wenig ausgenutzt, da die Impedanz nahezu ausschließlich mit einer Prüffrequenz von 220 Hz gemessen wird. Dies hat seinen wichtigsten Grund darin, dass bei höheren Frequenzen stehende Wellen entstehen können (λ/4-Resonanz) und das Messergebnis dadurch von der Geometrie des Gehörgangs beeinflusst wird. Bei manchen Geräten stehen außer
14.3.1 Impedanzaudiometrie
Gegenstand der Impedanzaudiometrie ist die Messung des akustischen Widerstands, den das Trommelfell der eintreffenden Schallwelle entgegenstellt. Die Messung
⊡ Abb. 14.14. Vektorielle Berechnung der komplexen Impedanz Z aus den reellen Komponenten (ω M und k/ω) und dem imaginären Anteil R
218
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
220 Hz noch höhere Prüftonfrequenzen (z. B. 600 Hz) zur Verfügung. Mit diesen lassen sich mehr Information über die physikalischen Vorgänge im Mittelohr gewinnen und die Auswirkungen von operativen Veränderungen besser objektivieren, Messungen an verschiedenen Patienten sind aber nicht immer miteinander vergleichbar. In der Audiometrie wird selten die Impedanz (in der zugehörigen Einheit »akustisches Ohm« = kg/m2s), sondern meistens ihr Kehrwert (die Admittanz) angegeben. Da die Impedanz den Widerstand des Mittelohres beschreibt, entspricht die Admittanz der Bereitwilligkeit (compliance) des Mittelohres, den Schall ans Innenohr weiterzuleiten. Eine große Admittanz entspricht daher einem geringen Schallwellenwiderstand und somit einer hohen Nachgiebigkeit des Trommelfells. Die Maßeinheit für die compliance ist m2s/kg. Da diese Einheit nicht besonders anschaulich ist, hat sich die Beschreibung der compliance durch ein äquivalentes Volumen eingebürgert (dessen Einheit das cm3 oder ein ml ist). Der Gehörgang und seine Abgrenzung zum Mittelohr wird hierbei als ein Luftvolumen aufgefasst, das allerdings veränderlich ist: Wenn der Schall reflektiert wird, verhält sich das gesamte System wie ein kleines Luftvolumen (mit starren Wänden), wenn der Schall absorbiert wird, entspricht es einem größeren Luftvolumen. Die Messung der Trommelfellimpedanz geschieht indirekt über die Messung des reflektierten Anteils eines Prüftones bekannter Intensität, der in den Gehörgang eingestrahlt wird. Die wesentlichen Bestandteile eines Gerätes zur Messung der Mittelohrimpedanz sind: ▬ Ein Lautsprecher für die Erzeugung des Prüftones; ▬ Ein Mikrophon für die Messung der Intensität des reflektierten Schalls; ▬ Eine Pumpe und ein Manometer für Veränderung bzw. Messung des Luftdrucks im Gehörgang; ▬ Eine Vorrichtung zur Ausgabe der Messergebnisse (Zeigerinstrument, XY-Schreiber oder Display). Die Verbindung zwischen Messgerät und Patient wird über eine Sonde hergestellt, die mit Hilfe eines Anpassstückes variabler Größe luftdicht in den Gehörgang eingesetzt wird (⊡ Abb. 14.15).
Tympanogramm Im Tympanogramm ist die compliance als Funktion des vom Gerät eingestellten und gemessenen Luftdrucks im Gehörgang aufgetragen (⊡ Abb. 14.16). Bei Überdruck wird das Trommelfell nach innen gewölbt und stärker als bei Normaldruck gespannt, es ist daher weniger schwingungsfähig und reflektiert einen großen Teil des Testtones. Die Folge ist eine verringerte Elastizität und somit nach (9) eine erhöhte Impedanz bzw. eine geringe compliance. Bei Unterdruck ist das Trommelfell ebenfalls stärker gespannt als bei Normaldruck, denn der (unveränderte)
⊡ Abb. 14.15. Die Impedanz-Messsonde mit den drei Schlauchleitungen für Lautsprecher, Mikrophon und Luftpumpe/ Manometer muss den Gehörgang luftdicht abschließen (nach Stange 1993)
⊡ Abb. 14.16. Bei normaler Mittelohrfunktion ergeben sich bei Anwendung von Über- oder Unterdruck im Gehörgang für die compliance des Trommelfells sehr niedrige Werte. Bei Normaldruck (keine Druckdifferenz zwischen Gehörgang und Paukenhöhle) liegt maximale compliance vor (schematische Darstellung)
Druck in der Paukenhöhle wölbt das Trommelfell nach außen; somit ergibt sich auch bei Unterdruck eine niedrige compliance. Die günstigsten Schwingungseigenschaften weist das Trommelfell auf, wenn der äußere Druck gleich dem Druck im Mittelohr ist. Das ist i. d. R. bei normalem Atmosphärendruck der Fall. Daher hat ein normales Tympanogramm sein compliance-Maximum bei Normaldruck (p=0). Die maximalen bei Routinemessungen angewendeten Druckdifferenzen betragen ±30 hPa. Das wichtigste Merkmal eines Tympanogramms ist das compliance-Maximum, welches durch seine Lage, seine Höhe und einen Formparameter quantitativ beschrieben werden kann. Die Höhe des Gipfels variiert bei verschiedenen Individuen sehr stark. Liegt die maximale compliance signifikant oberhalb des Normalwertes, so liegt ein narbig schlaffes Trommelfell, eine Schenkelchenfraktur oder ein Ambossdefekt vor. Sehr flache compliance-Gipfel
219 14.3 · Objektive Audiometrie
werden beobachtet, wenn das Mittelohr mit Sekret gefüllt ist (Paukenerguss) oder wenn das Trommelfell durch eine Narbe versteift ist. Die Verschiebung des Maximums zu positiven oder negativen Werten zeigt einen Über- oder Unterdruck in der Paukenhöhle an. Ein Überdruck kann infolge einer Tubenfunktionsstörung auftreten, ein Unterdruck stellt sich bei sauerstoffverbrauchenden entzündlichen Mittelohrerkrankungen – z. B. einer beginnenden Otitis media ohne Erguss – ein. Variationen des Mittelohrdrucks im Bereich ±10 hPa sind ohne diagnostische Bedeutung. Wenn im Mittelohr ein zähflüssiger Erguss vorliegt, lagert sich Sekret am Trommelfell ab und beeinträchtigt seine Beweglichkeit. Das Tympanogramm weist dann keinen compliance-Gipfel auf, es verläuft flach mit einem leichten Anstieg zu negativen Drucken. Ein ähnliches Bild ergibt sich bei einem perforierten Trommelfell, weil dann nicht die vom Luftdruck beeinflusste Admittanz des Trommelfells, sondern die druckunabhängige Admittanz des größeren, aus Gehörgang und Mittelohr zusammengesetzten Volumens gemessen wird. Flache Tympanogramme können auch auf Fehler bei der Messung (z. B. eine verschmutzte oder an der Gehörgangswand anliegende Sondenöffnung) hinweisen.
⊡ Abb. 14.17. Kurze Zeit nach der Einwirkung eines genügend starken Tonpulses ist bei normalem Gehör infolge des Stapediusreflexes die Impedanz beider Trommelfelle vorübergehend erhöht
Stapediusreflex Das zweite Anwendungsgebiet der Impedanzaudiometrie ist der Nachweis des Stapediusreflexes. Er erfolgt über die Registrierung einer zeitlichen Änderung der Impedanz während der akustischen Stimulation eines Ohres (⊡ Abb. 14.17). Die Impedanzänderung entsteht dadurch, dass der am Steigbügelköpfchen ansetzende Musculus stapedius und der am Hammergriff ansetzende Musculus tensor tympani durch starke akustische Reize zu Kontraktionen veranlasst werden. Dies hat eine Versteifung der Gehörknöchelchenkette und damit eine Erhöhung der Trommelfellimpedanz zur Folge. Die Muskelkontraktion – und somit die Impedanzänderung – folgt der Reizgebung mit einer geringen Verzögerung (Latenzzeit etwa 10 ms); sie hält für die Dauer des Reizes an. Die bei starker Beschallung eintretende reflexartige Kontraktion des am Stapes oberhalb der Schenkelchen angreifenden Stapediusmuskels behindert die Schwingungsbewegungen des Steigbügels und schützt somit das Innenohr vor zu hohen Schallintensitäten. Für das Verständnis des Reflexablaufs und zur Interpretation der Befunde muss der Reflexbogen betrachtet werden (⊡ Abb. 14.18). Der Stapediusreflex ist ein akustikofazialer Reflex, d. h. zum auslösenden (afferenten) Zweig gehören Mittelohr, Innenohr und Hörnerv; den ausführenden (efferenten) Schenkel bildet der motorische Gesichtsnerv (Nervus facialis), der die Mittelohrmuskeln innerviert. Afferenter und efferenter Schenkel des Reflexbogens sind in den Hörnerven- und Fazialiskernen des Hirnstamms miteinander verschaltet. Da der ausführende Zweig die Mittelohrmuskeln beider Ohren innerviert, bewirkt eine monaurale Beschallung eine beidseitige Impedanzänderung: Der Stapediusreflex kann durch ipsilaterale und durch kontralaterale Reizung ausgelöst werden. In den meisten praktisch vorkommenden Fällen ist die Frage zu klären, ob auf einem Ohr der Reflex auslösbar ist, d. h. es geht in erster Linie um das Reizohr. Es gibt jedoch auch Fragestellungen, bei denen das Interesse dem Sondenohr gilt. Bei der Registrierung des ipsilateralen Stapediusreflexes wird von dem mit der Gehörgangssonde verbundenen Hörer außer dem Impedanzprüfton von 220 Hz für begrenzte Zeit (1 s) ein reflexauslösender Ton mit der
⊡ Abb. 14.18. Verlauf des ipsilateralen (links) und contralateralen (rechts) akustikofazialen Reflexbogens bei der Auslösung des Stapediusreflexes (schematische Darstellung). Die Abkürzung MO steht für Mittelohr
14
220
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
vom Untersucher gewählten Frequenz (500 Hz, 1 kHz, 2 kHz oder 4 kHz) und Intensität (Pegel zwischen 70 und 110 dB HL) abgegeben. Zur Messung des contralateralen Stapediusreflexes wird auf der Reizseite ein Kopfhörer aufgesetzt, auf der Sondenseite wird die Messsonde im Gehörgang plaziert. Die Messung des Reflexes geschieht immer bei dem Druck, bei welchem im Tympanogramm das compliance-Maximum liegt. Beginnend bei etwa 70 dB HL wird durch Erhöhung des Reiztonpegels nach der Reflexschwelle gesucht. Diese ist definiert als der niedrigste Reizpegel, bei dem eine für den Reflex typische Impedanzzunahme registrierbar ist. Sie liegt bei Normalhörenden zwischen 70 und 90 dB HL, bei Schwerhörigen unter Umständen höher. Ein geringer Prozentsatz der Normalhörenden weist keinen Reflex auf. Der Stapediusreflex wird grundsätzlich nur von Reizen ausgelöst, die mit einer großen subjektiven Lautheit einhergehen. Die Reflexschwelle korreliert daher nicht direkt mit dem Pegel des Reizes (dB HL), sondern eher mit dem auf die individuelle Hörschwelle des untersuchten Ohres bezogenen Pegel (dB SL). Bei Mittelohrschwerhörigkeiten ist die Reflexschwelle daher um den Betrag des Hörverlustes angehoben. Beträgt der Hörverlust mehr als etwa 30 dB, so kann kein Reflex ausgelöst werden, denn dazu wäre ein Reizpegel von mindestens 110 dB HL (≥70 dB über der Schwelle) erforderlich. An dem von einer Mittelohrschwerhörigkeit betroffenen Ohr ist der Reflex somit nicht auslösbar – und (aus anderen Gründen) in den meisten Fällen auch nicht registrierbar. Bei Innenohrschwerhörigkeiten ist die Reflexschwelle regelmäßig erst dann erhöht, wenn der Hörverlust mehr als 50 dB beträgt. Dies hat zur Folge, dass die Reflexschwelle bei vielen sensorischen Hörstörungen näher an der Hörschwelle liegt als beim Normalhörenden. Hierin manifestiert sich die eingeengte Dynamik des haarzellgeschädigten Ohres (Metz-Recruitment). Innenohrschwerhörigkeiten wirken sich nur auf der Reizseite, nicht aber auf der Sondenseite aus. Die Auswirkung neural bedingter Hörstörungen auf den Stapediusreflex hängt davon ab, ob die Störung peripher der Reflexverbindung im Hörnerv oder weiter zentral im Hirnstamm lokalisiert ist. Im ersten Fall fehlt der Reflex oder es zeigt sich eine pathologische Reflexermüdung (decay), im zweiten Fall ist der Stapediusreflex nicht beeinträchtigt. Es können sich sowohl am Reizohr als auch am Sondenohr auffällige Befunde ergeben. In sehr vielen Fällen wird die Interpretation der Befunde durch die Auswirkung zusätzlich vorhandener cochleärer Hörstörungen erschwert.
14.3.2 Otoakustische Emissionen
Schallwellen, die im Innenohr entstehen und über Gehörknöchelchen und Trommelfell in den äußeren Gehörgang abgestrahlt werden, werden als otoakustische
Emissionen (OAE) bezeichnet. Es wird unterschieden zwischen spontanen Emissionen (SOAE), die ohne Einwirkung eines akustischen Reizes vorhanden sind, und evozierten Emissionen (EOAE), die während oder nach einem akustischen Reiz auftreten. Die OAE werden auf die nichtlinearen und aktiven Vorgänge der cochleären Schallvorverarbeitung zurückgeführt, die sich bereits in der Mikromechanik der Basilarmembran manifestieren und für die hohe Empfindlichkeit, den großen Dynamikbereich und das gute Frequenzauflösungsvermögen des Gehörs verantwortlich sind. Quelle der cochleären Emissionen sind mikroskopische Bewegungen der äußeren Haarsinneszellen (outer hair cells, OHC). Im Präparat kultivierte OHC können durch chemische, elektrische und mechanische Reize zu aktiven Kontraktionen angeregt werden. Es wird angenommen, dass die OHC beim physiologischen Hörvorgang in einem der Reizfrequenz entsprechenden eng umgrenzten Bereich der Cochlea stimulierte Kontraktionen und Elongationen ausführen, wodurch einerseits das Auslenkungsmaximum der Basilarmembran erhöht und eingeengt wird und andererseits eine sekundäre Wanderwelle kleiner Amplitude entsteht, welche sich retrograd ausbreitet und über das Trommelfell zu messbaren Schalldruckschwankungen im Gehörgang führt. Die evozierten Emissionen können somit als Nebenprodukt eines nichtlinearen, rückgekoppelten – und dadurch zu Eigenschwingungen neigenden – mechanischen Systems gedeutet werden. Der Nichtlinearität der biologischen Transduktionsfunktion entsprechend können quadratische und kubische Effekte auftreten, die sich durch die zugehörigen Verzerrungen des Eingangssignals nachweisen lassen. Zur Gewinnung audiologischer Diagnosen werden fast ausschließlich die EOAE genutzt. Sie sind bei nahezu 100% der Normalhörenden nachweisbar. Wegen ihrer geringen Intensität und der unvermeidlichen Anwesenheit von Störgeräuschen sind zu ihrem Nachweis ein empfindliches Mikrophon und eine aufwändige Signalverarbeitung erforderlich. Eine weitere Schwierigkeit besteht darin, dass zur Auslösung der EOAE ein akustischer Reiz notwendig ist, dessen Intensität die der Emissionen um Größenordnungen übertrifft und der außer den OAE ein passives Echo von Trommelfell und Gehörgangswänden hervorruft, welches sich dem physiologischen Signal überlagert. Die EOAE werden in poststimulatorische (verzögerte) transitorisch evozierte otoakustische Emissionen (TEOAE) und perstimulatorische Emissionen eingeteilt (⊡ Abb. 14.19). Bei letzteren wird weiterhin danach differenziert, ob die Frequenz der Emission mit der des Stimulus übereinstimmt (stimulus frequency otoacoustic emissions, SFOAE) oder ob sich die Frequenzen von Reizund Antwortsignal unterscheiden (Verzerrungsprodukte oder distortion product otoacoustic emissions, DPOAE). Die sehr zuverlässig nachweisbaren TEOAE sind in der
221 14.3 · Objektive Audiometrie
audiologischen Diagnostik bereits fest etabliert. Hingegen ist der Nachweis der SFOAE schwierig, daher werden unter den perstimulatorischen OAE ausschließlich die DPOAE zu diagnostischen Zwecken genutzt. Nur die zwei in der praktischen Audiometrie genutzten Spezialfälle otoakustischer Emissionen – nämlich TEOAE und DPOAE – werden in den zwei Abschnitten dieses Kapitels ausführlicher beschrieben. Es besteht bisher keine Klarheit darüber, ob die Entstehungsmechanismen für TEOAE und DPOAE verschieden sind und ob somit die verzögerten und die simultanen Emissionen unterschiedliche Information über die Innenohrfunktion liefern. Wahrscheinlich handelt es sich bei den verschiedenen Emissionstypen nur um zwei auf verschiedene Weise gemessene Aspekte desselben aktiven und nichtlinearen cochleären Verstärkers. Die unterschiedliche Nachweistechnik wirkt sich aber auf die praktische Anwendung und die Informationsausbeute aus, denn bei vergleichbaren Stimuluspegeln sind die DPOAE mit größerer Empfindlichkeit, d. h. auch bei stärker ausgeprägtem Hörverlust, nachweisbar als die TEOAE.
Transitorisch evozierte otoakustische Emissionen Zur Messung der transitorisch evozierten otoakustischen Emissionen (TEOAE) wird das im Gehörgang vorliegende akustische Signal im unmittelbaren Anschluss an eine vorübergehende Stimulation aufgezeichnet. Das aktive physiologische Echo wird von Stimulus, Umgebungsge-
räuschen und passiven (mechanischen) Echosignalen überlagert. Die Amplitude dieser Konkurrenzsignale übertrifft das Messsignal i.a. um mehrere Größenordnungen. Um die verzögerte Emission dennoch nachzuweisen, muss mit Hilfe von analoger und digitaler Signalverarbeitung das Signal/Rausch-Verhältnis verbessert werden. Die wichtigsten hierbei angewendeten Prinzipien sind eine wirksame akustische Abschirmung und die Selektion und Mittelung vieler Signalabschnitte. Bei den meisten Anwendungen der TEOAE erfolgt die akustische Reizung mit einer zeitlichen Folge von Clicks, d. h. einzelnen rechteckförmigen Signalen einer Dauer von etwa 100 µs, die in regelmäßigen oder unregelmäßigen Intervallen von mindestens 20 ms dargeboten werden. Zeitverlauf und Spektrum eines Clickreizes sind in ⊡ Abb. 14.20 dargestellt. Auf der Aufzeichnung des Reizes und seines Frequenzspektrums im Gehörgang beruhen Kontrolle und eventuelle Korrektur der Sondenanpassung. Im Idealfall weist der Clickreiz ein weißes Spektrum auf, d. h. alle Frequenzen sind mit gleicher Intensität vertreten. Eine solche Konstellation ist zum einen das Kriterium für ein abgeschlossenes und resonanzfreies Gehörgangsrestvolumen, zum anderen ist sie auch Voraussetzung für die Funktionsprüfung der gesamten cochleären Trennwand mit einem einzigen Reiz. Die in den Gehörgang eingebrachte Sonde (⊡ Abb. 14.21) enthält einen magnetischen Hörer, über den ein Kurzzeitreiz (Click oder Tonpuls) dargeboten wird, sowie ein empfindliches Elektretmikrophon für die Registrierung des Schalldrucksignals. Die analoge Verarbeitung des
⊡ Abb. 14.19. Einteilung und Nomenklatur der otoakustischen Emissionen
⊡ Abb. 14.20. Zeitverlauf (links) und Frequenzspektrum (rechts) des Clickreizes. Das im Gehörgang registrierte Spektrum enthält ein sehr breites Frequenzgemisch mit nahezu frequenzunabhängiger Intensität (Hoth u. Lenarz 1997)
14
222
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
⊡ Abb. 14.21. Gehörgangssonde für Reizgebung und OAE-Messung (Madsen Capella, GN Otometrics)
(aber variable) Amplitudengrenze überschreiten, werden von der weiteren Verwertung ausgeschlossen. Das kommt einer Unterbrechung der Messung zu Zeiten ungünstiger Signal/Rausch-Verhältnisse gleich. Die zugelassenen, d. h. von der Artefaktunterdrückung nicht verworfenen Signalabschnitte werden punktweise addiert und ergeben so eine zeitabhängige Mittelwertkurve. Durch die Signalmittelung werden alle reizkorrelierten Signalanteile gegenüber stochastischen Anteilen in ihrer Amplitude angehoben. Dies beruht auf der Gültigkeit unterschiedlicher Additionsgesetze: Die nach jeder Reizung in unveränderter Weise auftretenden Signalamplituden überlagern sich bei der Addition linear, während sich bei den stochastischen Anteilen die Varianzen addieren. Falls die Voraussetzungen einer stabilen deterministischen Reizantwort und einer stationären Störgeräuschquelle erfüllt sind, verbessert sich somit bei N Additionen (bzw. Mittelungsschritten) das Signal/Rausch-Verhältnis um den Faktor √N (⊡ Abb. 14.22). Die durch die Signalmittelung erzielte Verbesserung des Signal/Rausch-Verhältnisses ist nicht mit einer selektiven Verstärkung der physiologischen Reizantwort gleichbedeutend, da auch die relative Amplitude aller anderen reizkorrelierten Signalanteile, wie z. B. des akustischen Reizes und seines zeitlich abklingenden Echos, verstärkt wird. Um die passiven (mechanischen) von den aktiven (physiologischen) Antworten zu trennen, wird eine besondere Reizsequenz angewendet (»nichtlinearer Stimulus-Block« ⊡ Abb. 14.23).
⊡ Abb. 14.22. Durch Mittelung bzw. Summation werden unveränderliche (stabile) Signale in größerem Maße verstärkt als Rauschen: Während die Signalamplitude linear mit der Zahl von Summationen zunimmt, wächst das Rauschen nur entsprechend einer Wurzelfunktion. Beträgt die effektive Amplitude des ungemittelten Rauschens das 10-fache der (ungemittelten) Signalamplitude, so sind Signal- und
Rauschamplitude nach 100 Summationen gleich groß (links). Wird derselbe Sachverhalt in einer doppeltlogarithmischen Darstellung betrachtet (rechts), so tritt die Umkehrung von negativem zu positivem Signal/Rausch-Abstand noch deutlicher hervor. Der Übergang von Summation zu Mittelung bewirkt lediglich eine Maßstabskorrektur, jedoch keine Änderung der Größenverhältnisse (Hoth u. Lenarz 1997)
nach dem Reiz registrierten Mikrophonsignals besteht aus einer Bandpassfilterung im Bereich von etwa 300 Hz bis etwa 10 kHz und einer linearen Verstärkung. Das verstärkte Signal wird mit einer auf die obere Grenzfrequenz abgestimmten Abtastrate analog/digital-gewandelt und dem Rechner zugeführt. Der erste Schritt der digitalen Signalverarbeitung besteht in der Auswahl der geeigneten Signalabschnitte nach Maßgabe eines Amplitudenkriteriums (Artefaktunterdrückung): Signalabschnitte, die mit mindestens einem Momentanwert eine vorgegebene
223 14.3 · Objektive Audiometrie
⊡ Abb. 14.23. Ausnützung der Nichtlinearität der TEOAE zur Trennung von den in linearer Weise von der Reizamplitude abhängenden nichtphysiologischen Signalkomponenten mit Hilfe einer aus Reizen unterschiedlicher Amplitude bestehenden Sequenz (Hoth u. Lenarz 1997)
Die Wirkungsweise der »nichtlinearen Reizsequenz« beruht ebenfalls auf der Gültigkeit unterschiedlicher Additionsgesetze – allerdings für Antworten, die durch unterschiedlich starke Reize ausgelöst wurden: Während die Amplitude der physiologischen Reizantwort mit zunehmender Reizamplitude ein Sättigungsverhalten aufweist, wächst die Amplitude der mechanischen Antwort in guter Näherung linear mit der Reizamplitude. Daher können die passiven Signalkomponenten von k Reizen durch einen Reiz der k-fachen Amplitude kompensiert werden. Für die nichtlinearen aktiven Komponenten ist diese Kompensation nur unvollständig. Bei der Verwendung einer »nichtlinearen«, d. h. zur Kompensation linearer Signalanteile geeigneten Reizsequenz besteht das Nutzsignal aus dem nicht kompensierten Anteil. Verglichen mit der konventionellen Reizung verliert zwar die cochleäre Emission an Amplitude, gegenüber dem mechanischen Reizecho tritt sie jedoch deutlicher hervor. Das Ergebnis einer TEOAE-Messung besteht aus einer oder zwei Kurven, die den gemittelten zeitabhängigen Verlauf des im Gehörgang vorliegenden poststimulatorischen Schalldrucks wiedergeben (⊡ Abb. 14.24). Die Transformation dieser Kurven in den Frequenzbereich liefert das Spektrum der TEOAE. Wenn das Summationsergebnis in zweifacher Ausfertigung vorliegt, z. B. indem bereits während des Mittelungsvorganges zwei bis auf die Reststörung miteinander gleichwertige Teilmittelwertkurven gebildet wurden, können für Signal und Rauschen getrennte Spektren (Kreuzleistungsspektren) berechnet und die Informationsausbeute dadurch erhöht werden. Weiterhin ermöglicht die Verfügbarkeit zweier Teilmittelwertkurven A(t) und B(t) die Berechnung eines Korrelationskoeffizienten (Reproduzierbarkeit) und die Abschätzung der Varianz des Restrauschens. Aus dem Gesamtmittelwert (A+B)/2 kann die effektive Amplitude der Emission als Wurzel aus der Varianz (root mean
square, RMS) und aus der mittleren Abweichung (A-B)/2 die effektive Amplitude des Restrauschens geschätzt werden. Zusätzlich zu diesen Daten gehören zur Dokumentation einer TEOAE-Untersuchung die Darstellung von Zeitverlauf und Spektrum des im Gehörgang registrierten Reizes, die Zahl von Mittelungsschritten und Artefakten, die Lage der Amplitudenschranke, die Reizintensität und die Stabilität der Reizbedingungen. Für Auswertung und Beurteilung von TEOAE-Messungen muss zunächst die Frage nach dem Vorhandensein von Signalen cochleären Ursprungs beantwortet werden. Dies ist gleichbedeutend mit der Abgrenzung der verzögerten Emissionen gegenüber gemitteltem Störgeräusch (Restrauschen) und passiv entstandenen Echosignalen (Reizartefakt). Ein wichtiges Hilfsmittel stellt hierbei die durch den Korrelationskoeffizienten ausgedrückte Reproduzierbarkeit dar: Weist sie einen großen Zahlenwert auf, so kann es sich bei dem gemessenen Signal nicht um reines Restrauschen handeln. Die Auswirkung des (trotz nichtlinearer Reizsequenz noch immer vorhandenen) Reizartefaktes lässt sich durch die Ausblendung einzelner Zeitbereiche abschätzen: Wenn eine hohe Reproduzierbarkeit lediglich in den ersten wenigen Millisekunden nach dem Reiz vorliegt, ist ein cochleärer Ursprung des Signals unwahrscheinlich. Mit der zuverlässigen und eindeutigen Unterscheidung zwischen Störeinflüssen und Signalanteilen cochleären Ursprungs ist der wesentliche Teil der in den TEOAE enthaltenen Information bereits genutzt. Empirisch gewonnenen Daten zufolge weist ein Ohr, an dem verzögerte Emissionen nachgewiesen werden können, zumindest in einem Bereich des Audiogramms eine annähernd normale Hörschwelle auf. Die Inzidenz von eindeutig nachweisbaren TEOAE nimmt mit zunehmendem innenohrbedingtem Hörverlust stufenförmig von 100% auf 0% ab. Die Lage der Stufe ist von der Reizintensität
14
224
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
abhängig; für einen Reizpegel von L=80dB SPL liegt die 50%-ige Inzidenz bei HVmin=32 dB (Hoth u. Neumann 2006). Hierbei bezeichnet HVmin den minimalen im Frequenzbereich 1–4 kHz auftretenden Hörverlust, d. h. die günstigste Hörschwelle; diese Variablenwahl trägt dem Umstand Rechnung, dass für das Auftreten von TEOAE bereits eine eng umgrenzte normale Innenohrfunktion hinreichend ist. Bereiche mit stärker ausgeprägten Hörstörungen tragen zur cochleären Antwort nicht bei. Die Auswertung des Frequenzspektrums und der in einzelnen Frequenzbändern berechneten Reproduzierbarkeit der Emission ermöglicht eine Eingrenzung des von der Hörstörung betroffenen Frequenzbereiches. Die bisher beschriebenen Zusammenhänge zwischen Hörschwelle und TEOAE beziehen sich auf den Spezialfall rein sensorischer (endocochleärer) Hörstörungen. Selbstverständlich wirken sich auch Schalleitungsstörungen auf Nachweisbarkeit und Amplitude der TEOAE aus. Die behinderte Schallübertragung des Mittelohrapparates hat eine Abschwächung von Reiz und Emission zur Folge. Ist die Mittelohrkomponente genügend stark ausgeprägt (20 dB oder mehr) und sind alle Frequenzen von ihr betroffen, so sind keine TEOAE mehr nachweisbar. Rein retrococh-
leäre Hörstörungen wirken sich auf die TEOAE nicht aus. Charakteristisch für rein neurale Hörstörungen ist somit die Befundkonstellation einer schlechten Hörschwelle mit annähernd normalen Emissionen. Da viele Ursachen retrocochleärer Hörstörungen – z. B. raumfordernde Prozesse im Kleinhirnbrückenwinkel – mit cochleären Folgeschäden einhergehen, tritt diese Konstellation aber nicht zwingend auf. Insbesondere bei großen oder schon längere Zeit bestehenden Tumoren liefert die TEOAE-Messung keinen Hinweis auf die neurale Genese der Hörstörung, d. h. nachweisbare Emissionen sind auf die Frequenzbereiche annähernder Normalhörigkeit beschränkt. Die Messung der TEOAE ermöglicht keine quantitative und frequenzspezifische Bestimmung der Hörschwelle. Das Spektrum einer jeden verzögerten Emission weist unregelmäßige und individuell verschiedene Spitzen und Kerben auf, denen kein Hörverlust im Audiogramm gegenübersteht. Erst wenn in einem sehr breiten Frequenzintervall keine Emissionen auftreten, kann dies als Hinweis auf eine angehobene Hörschwelle für diese Frequenzen interpretiert werden. Eine Besonderheit ist allerdings beim isolierten Tieftonhörverlust zu beachten: Es fehlen in diesem Fall nicht grundsätzlich die Emis-
⊡ Abb. 14.24. Transitorisch evozierte otoakustische Emissionen, gemessen an einem normalhörenden Ohr. Das primäre Messergebnis sind die zwei Teilmittelwertkurven A (t) und B (t) (großer Kasten). Hier-
aus werden Spektren, Emissionsamplitude, Reproduzierbarkeit und Restrauschen berechnet. Außerdem sind die Reiz- und Geräuschbedingungen angegeben
225 14.3 · Objektive Audiometrie
sionen niedriger Frequenz, sondern die tieffrequenten Anteile mit langer Latenz (da die apikalen Antworten der Cochlea erst zu späteren Zeiten erfolgen). Dies kann aus der zeitabhängigen Schalldruckkurve oder aus den daraus berechneten Spektrogrammen abgelesen werden und es lässt sich durch Fensterung und Bandpassfilterung der gemessenen Antwort bestätigen. Bei Verwendung eines breitbandigen Reizes (Click) sind somit im Spektrum der cochleären Emissionen alle Frequenzen enthalten, bei denen die Cochlea eine annähernd ungestörte Funktion aufweist. Hörstörungen, bei denen der Hörverlust die Grenze von etwa 30 dB überschreitet, haben das Verschwinden der verzögerten Emissionen zur Folge. Die vollständige Abwesenheit eines physiologischen Echos bedeutet somit, dass der Hörverlust bei allen Frequenzen diesen Wert überschreitet. Umgekehrt kann aus der Anwesenheit von Emissionen geschlossen werden, dass zumindest ein Teil der Haarzellen eine annähernd normale Funktion aufweist und somit der minimale Hörverlust weniger als etwa 30 dB beträgt. Die Gültigkeit dieser Aussagen ist auf den Frequenzbereich zwischen 1 und 4 kHz begrenzt, Hörverluste außerhalb dieser Grenzen können mit den TEOAE nicht erfasst werden.
Otoakustische Distorsionsprodukte Die Nichtlinearität der cochleären Signalverarbeitung hat zur Folge, dass das Innenohr zwei genügend nah beieinander liegende Frequenzen nicht unabhängig voneinander verarbeiten kann. Wird es mit einem Gemisch zweier Reintöne angeregt, so entstehen bei der physiologischen Verarbeitung Sekundärtöne mit Frequenzen, die im Reiz nicht enthalten sind. Diese Verzerrungen sind sowohl subjektiv wahrnehmbar als auch in Form akustischer Aussendungen des Innenohres im Gehörgang messbar.
a
Hierauf beruht die Messung der DPOAE (distortion product otoacoustic emissions). Aus der mathematischen Betrachtung der nichtlinearen Verzerrungen mit Hilfe einer Potenzreihenentwicklung ergeben sich unter Verwendung der für trigonometrische Funktionen gültigen Rechenregeln die Formeln für die im Ausgangssignal eines nichtlinearen Systems neben den Primärfrequenzen f1 und f2 enthaltenen Frequenzen. Nach steigenden Frequenzen geordnet führen die symmetrischen (quadratischen) Verzerrungen zu Beiträgen mit den Frequenzen f2 – f1, 2f1, f2 + f1 und 2f2, die antisymmetrischen (kubischen) Verzerrungen liefern Signalkomponenten mit den Frequenzen 2f1 – f2, 2f2 – f1, 3f1, 2f1 + f2, 2f2 + f1 und 3f2. Viele dieser theoretisch möglichen Kombinationstöne sind an den Ohren von Versuchstieren und Menschen gemessen worden. Für die Funktionsprüfung des Gehörs beschränkt man sich wegen ihrer relativ guten Nachweisbarkeit auf die kubischen Distorsionsprodukte mit den Frequenzen 2f1 – f2 und 2f2 – f1, und unter diesen wiederum meist auf das erstere, also den Ton, dessen Frequenz um den Differenzbetrag der Primärfrequenzen unterhalb der beiden Reiztöne liegt (⊡ Abb. 14.25a,b). Bei den perstimulatorischen DPOAE kann die Antwort nicht im Zeitbereich, sondern nur im Frequenzbereich vom Reiz getrennt werden. Der Signalnachweis kann weitgehend automatisiert werden, da sich die Frequenz der cochleären Emission mit Hilfe der oben genannten Relationen exakt aus den Reizfrequenzen vorhersagen lässt. Die Auslösung messbarer Distorsionsprodukte gelingt am besten mit einem Reiz, der aus zwei überschwelligen Sinusdauertönen annähernd gleicher Intensität mit den Frequenzen f1 und f2 = 1.2 · f1 zusammengesetzt ist. Um den Nachweis von Verzerrungseffekten physiologischen Ursprungs zu ermöglichen, müssen technisch bedingte Nichtlinearitäten soweit wie möglich
b
⊡ Abb. 14.25a,b. a Im Gehörgang gemessenes Spektrum bei Stimulation mit zwei Sinustönen. Mit zunehmender Zahl von Mittelungen ragen die den kubischen Differenztönen entsprechenden Verzerrungen immer deutlicher aus dem Geräuschuntergrund heraus. b Darstellung der Amplitude des Distorsionsproduktes in dB SPL in Abhängigkeit von der
Reizfrequenz f2 in kHz (DP-gram) bei Stimulation eines normalhörenden Ohres mit zwei Primärtönen gleicher Intensität (L1=L2=67 dB SPL). Die schattierte Fläche im unteren Teil des Diagramms entspricht dem Restrauschen, ihre oberen Grenzen sind gegeben durch den um eine bzw. zwei Standardabweichungen vermehrten mittleren Geräuschpegel
14
226
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
eingeschränkt werden. Aus diesem Grund werden die zwei Sinustöne über getrennte Wandler ans Ohr gebracht. Die DPOAE-Gehörgangssonde enthält daher zwei Hörer und ein Mikrophon. Vor Beginn der Messung werden die im Restvolumen des Gehörgangs vorliegenden akustischen Bedingungen überprüft, indem die Übertragungsfunktion des Gehörgangs bei Anregung mit breitbandigen Clickreizen registriert wird. Im Idealfall erhält man einen geradlinigen horizontalen Verlauf des Schallpegels über einen breiten Frequenzbereich, bei größeren Schwankungen muss die Sondenlage kontrolliert und korrigiert werden. Werden die Wandler zu verschiedenen Zeiten angesteuert und die Antworten getrennt aufgezeichnet, so lässt sich nicht nur die Gehörgangsantwort, sondern zugleich die Funktion der zwei Hörer und der dazugehörigen Sondenbohrungen überprüfen. Während der DPOAE-Messung werden zeitlich begrenzte und auf die Phase der Reiztöne synchronisierte Abschnitte des Mikrophonsignals aufgezeichnet und summiert. Die phasengerechte Summation bewirkt eine relative Verstärkung von Reiz und cochleärer Antwort gegenüber dem nicht synchronisierten Störgeräusch. Im Spektrum des aktuellen Mittelungsergebnisses treten dadurch die Linien, welche den Frequenzen der Distorsionsprodukte entsprechen, zunehmend deutlicher aus dem Geräuschuntergrund hervor (⊡ Abb. 14.25a). Die Amplitude des Distorsionsprodukts mit der Frequenz 2f1–f2 wird aus dem Spektrum abgelesen und für mehrere Reizfrequenzen gemeinsam mit der Amplitude des jeweils aus einem schmalen Frequenzband berechneten Hintergrundgeräusches dargestellt (⊡ Abb. 14.25b). Die frequenzselektive Reizung mit zwei Sinustönen regt nur eng umgrenzte Bereiche der Basilarmembran an. Dem konstanten Frequenzverhältnis f2/f1≈1,2 entspricht ein fester, von den Reizfrequenzen unabhängiger Abstand zwischen den aktivierten Bereichen. Er beträgt etwa 1,3 mm und entspricht bei Frequenzen oberhalb von 500 Hz einer Frequenzgruppenbreite. Das Verzerrungsprodukt entsteht in der Überlappungszone der zwei primär angeregten Bereiche. Wegen der Asymmetrie des Wanderwellenmaximums liegt diese Zone nicht exakt in der Mitte, sondern näher an dem Ort, an dem die höhere der zwei Frequenzen (f2) verarbeitet wird. Dementsprechend ist die Korrelation zwischen der Emissionsamplitude ADP und der bei f2 bestimmten Hörschwelle HV(f2) sehr viel deutlicher als zwischen ADP und HV(f1). Ein weiterer Hinweis auf die Entstehung des Distorsionsproduktes an dem der Frequenz f2 zugeordneten Ort wurde mit Suppressionsexperimenten erhalten: Es zeigt sich, dass die Unterdrückung der DPOAE durch Beschallung mit einer variablen Frequenz dann die größte Wirkung hat, wenn diese Frequenz gleich f2 ist. Die Breite der Überlappungszone nimmt mit steigendem Reizpegel zu. Hieraus ergeben sich zwei Konsequenzen: Erstens erteilt die Messung
der DPOAE zumindest bei hohen Reizpegeln keine sehr frequenzspezifische Auskunft über die Hörschwelle, und zweitens müssen Frequenzverhältnis oder Pegeldifferenz der Primärtöne gezielt verändert werden, wenn die DPOAE mit schwellennahen Reizen gemessen werden sollen. Für den Zusammenhang zwischen DPOAE-Parametern und Hörverlust gelten Regeln, die denen bei den TEOAE sehr ähnlich sind: ▬ Die mit den Frequenzen f1 und f2 = 1,2 · f1 ausgelösten DPOAE treten bei normalhörenden Ohren mit einer Inzidenz von annähernd 100% auf. ▬ Die Emissionsamplitude nimmt mit zunehmendem Hörverlust statistisch ab. ▬ Beträgt der Hörverlust bei der Frequenz f2 mehr als etwa 50 dB, so sind im statistischen Mittel keine DPOAE mehr nachweisbar. ▬ Inzidenz und Amplitude der DPOAE werden durch rein retrocochleäre Hörstörungen nicht beeinflusst. ▬ Schalleitungsschwerhörigkeiten bewirken zunächst eine Dämpfung der niedrigen Frequenzen, bei stärkerem Hörverlust verschwinden die DPOAE vollständig. Diese Regeln gelten für alle Reiztonpaare, für die f2 zwischen 1 und 4 kHz liegt. Bei niedrigeren Frequenzen liegt die Inzidenz nachweisbarer Emissionen selbst bei normalhörenden Ohren deutlich unterhalb 100%, bei höheren Frequenzen wird die DPOAE-Messung häufig durch technisch bedingte Verzerrungen verfälscht. Die derzeitige Anwendung der OAE in der praktischen Audiometrie geht davon aus, dass mit ihrer Hilfe zwar keine exakte Bestimmung, aber eine Eingrenzung der Hörschwelle in die Kategorien geringgradiger, mittelgradiger und hochgradiger Innenohrhörstörungen zulassen. Diese Eingrenzung gelingt durch die Kombination von TEOAE und DPOAE, da bei standardisierten Messbedingungen die ersteren nur nachgewiesen werden können, wenn das untersuchte Ohr bei keiner Frequenz einen Hörverlust oberhalb 30 dB aufweist, die letzteren hingegen bis zu einer um etwa 50 dB angehobenen Hörschwelle erhalten bleiben. Insbesondere für die gegenüber Störeinflüssen sehr robusten TEOAE ist die Eignung zu einer zuverlässigen und objektiven, evtl. auch in Hinblick auf die Auswertung automatisierbaren Hörprüfung vielfach erwiesen, wodurch dieses Verfahren die optimalen Voraussetzungen für ein screening zur Früherkennung kindlicher Hörstörungen aufweist. Ob mit den OAE über dichotome Aussagen hinaus quantitative Ergebnisse z. B. in Hinblick auf die frequenzspezifische objektive Hörschwellenbestimmung gewonnen werden können, ist derzeit noch nicht abzusehen. Viele aktuelle Arbeiten konzentrieren sich auf die Frage, ob mit Hilfe der Reizpegelabhängigkeit der Amplitude (»Wachstumsfunktion«) oder anderer signalanzeigender Parameter der OAE die Hörschwelle quantitativ bestimmt werden kann. Die Ergebnisse sind ermutigend, jedoch für die praktische Anwendung noch nicht abgesichert.
227 14.3 · Objektive Audiometrie
14.3.3 Akustisch evozierte Potentiale
Akustisch evozierte Potentiale (AEP) sind elektrische Spannungen physiologischen Ursprungs, die durch einen mit auditorischen Empfindungen einhergehenden akustischen oder elektrischen Reiz ausgelöst und mit Hilfe von Elektroden gemessen werden können. Die Gesamtheit der Verfahren zur Untersuchung von Eigenschaften des Gehörs mit Hilfe der AEP wird als electric response audiometry (ERA) oder »Elektrische Reaktions-Audiometrie« bezeichnet. Es handelt sich um objektive Funktionsprüfungen, die eine quantitative Hörschwellenbestimmung ermöglichen. Schon allein aufgrund dieses Merkmals kommt der ERA innerhalb des audiometrischen Testinventars eine große Bedeutung zu. Noch größerer Nutzen wird jedoch darüber hinaus aus der Tatsache gezogen, dass mit Hilfe der ERA differential- oder topodiagnostische Aussagen, insbesondere zur Unterscheidung zwischen sensorisch und neural bedingten Hörstörungen, gewonnen werden können. Die Schwierigkeit bei der Messung der AEP besteht darin, dass ein Signal sehr kleiner Amplitude (das AEP) in Anwesenheit eines starken Rauschens (dem spontanen EEG) nachgewiesen werden muss. Die Amplitude der Störeinflüsse kann – v. a. wenn zum EEG noch Muskelpotentiale und externe elektromagnetische Störsignale hinzukommen – je nach Frequenzbereich um einige Größenordnungen über der Amplitude des Nutzsignals liegen. Die Messung der AEP erfordert daher zunächst eine weitgehende Einschränkung vermeidbarer Störungen. Die folgenden Maßnahmen tragen zur Verbesserung des Signal/Rausch-Verhältnisses bei: ▬ Entspannte und bequeme Lagerung des Patienten ▬ Akustische und elektrische Abschirmung ▬ Lineare EEG-Verstärkung mit hoher Gleichtaktunterdrückung ▬ Filterung des EEG-Signals ▬ Artefaktunterdrückung ▬ Signalmittelung. Die Messung der AEP beruht auf der Ableitung des EEG während akustischer Stimulation. Der Patient sollte während der Messung entspannt sitzen oder liegen. Soweit die Potentiale von der Vigilanz unabhängig sind (wie dies bei den peripher entstehenden Komponenten der Fall ist), lassen sich die Messbedingungen durch Spontanschlaf, Sedierung oder Narkose verbessern. Die akustische Stimulation erfolgt über Kopfhörer, seltener über Freifeldlautsprecher, Knochenhörer oder Einsteckhörer. Die akustischen Reize weisen bei den meisten praktischen Anwendungen eine kurze Dauer auf oder sie sind zeitlich moduliert. Die EEG-Aktivität wird über Oberflächenelektroden registriert, die auf die Kopfhaut geklebt werden. Wenn ein akustisch und elektrisch abgeschirmter Raum verfügbar ist, werden Patient, Wandler und EEG-Ver-
stärker darin untergebracht. Außerhalb der Abschirmung befinden sich der Untersucher und die restliche Apparatur, die im Wesentlichen aus einem Reizgenerator, einem Analog/Digital-Wandler und einem Rechner besteht.
Transiente Potentiale Ein großer Teil der elektrischen Reaktionen des Hörsystems ist nur als verzögerte und zeitlich begrenzte (transiente) Antwort auf den Beginn eines zeitlich begrenzten Reizes registrierbar. Messung und Reizgebung EEG-Analyse sind aufeinander synchronisiert, wobei die Intervalle zwischen zwei Reizen konstant oder randomisiert sein können. Die Registrierung eines EEG-Abschnitts beginnt gleichzeitig mit oder kurz vor der Reizgebung. Die Mittelung vieler reizkorrelierter Signalabschnitte ergibt eine zeitabhängige Potentialkurve, die außer den AEP das in der Amplitude reduzierte EEG-Rauschen (Restrauschen) enthält. Die gehördiagnostischen Aussagen ergeben sich aus der Auswertung der mit Reizen unterschiedlicher Qualität (z. B. Frequenz) und Intensität gemessenen Potentialkurven und den aus ihnen abgelesenen Bestimmungsgrößen. Für das Zustandekommen messbarer evozierter Potentiale müssen viele Nervenaktionspotentiale mit einem hohen Synchronisationsgrad erzeugt werden. Dies gelingt nur mit Reizen, die mit schnellen Änderungen einhergehen. Die Änderungen können prinzipiell jedes auditorisch differenzierbare Merkmal des Reizes betreffen. Am häufigsten ist dieses Merkmal die Intensität bzw. der Schalldruck des Reizes, und die Änderung wird durch das Ein- oder Ausschalten des Reizes herbeigeführt. Die üblichen transitorischen Reize sind der breitbandige Click und der frequenzselektive Tonpuls. Grundsätzlich schließen sich hohe Frequenzselektivität und kurze Reizdauer gegenseitig aus. Potentiale, die eine hohe Synchronisation erfordern, liefern aus diesem Grund wenig frequenzspezifische Information. Umgekehrt lässt sich mit den frequenzselektiven Reizen keine genaue Auskunft über die Zeitabhängigkeit (Latenz) der Potentiale gewinnen. Die transienten AEP setzen sich aus vielen einzelnen vertexpositiven und -negativen Potentialgipfeln zusammen, die in verschiedenen Teilen der aufsteigenden Hörbahn entstehen und entsprechend ihrer Latenzzeit in drei Gruppen eingeteilt werden: Als frühe akustisch evozierte Potentiale (FAEP) bezeichnet man die Komponenten im Zeitbereich von 1–10 ms, die mittleren AEP (MAEP) schließen sich mit Latenzen bis 50 ms an und ihnen folgen die späten AEP (SAEP) mit Latenzen bis 500 ms. Die Messmethoden werden mit BERA (brainstem electric response audiometry) für die frühen, MLRA (middle latency response audiometry) für die mittleren und CERA (cortical electric response audiometry) für die späten AEP bezeichnet. Die genannten Namen der Untersuchungsverfahren weisen teilweise auf die anatomische Lokalisati-
14
228
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
on der Potentialgeneratoren hin. Die Zuordnung ist nicht eindeutig geklärt, doch kann als sicher angesehen werden, dass das Potential J1 im Hörnerven, die FAEP J3 und J5 im Hirnstamm, die MAEP im Thalamus (Zwischenhirn) und im primären auditorischen Cortex und die SAEP in der Hörrinde generiert werden. Außer den bisher genannten Potentialen sind noch spätere elektrische Reizantworten bekannt, die den Ablauf von auditiven Wahrnehmungs- oder Diskriminationsprozessen widerspiegeln. Zu ihnen zählt eine vertexnegative Welle mit einer Latenz von etwa 200 ms (N200). Sie lässt sich beobachten, wenn in eine Reihe gleichartiger Töne seltene abweichende Reize eingebettet werden (mismatch negativity, MMN). Wird der Proband aufgefordert, die seltenen Reize mitzuzählen oder mit einer motorischen Reaktion anzuzeigen, so entsteht eine positive Halbwelle (event related potential, ERP) mit einer Latenz von etwa 300 ms (P300). Da der Nachweis dieser Potentiale eine aktive Mitarbeit des Probanden erfordert, werden sie für die objektive Audiometrie wenig verwendet. In sehr langsamen Spannungsänderungen (contingent negative variation, CNV) und noch späteren Vorgängen (N400) spiegeln sich die Erwartung eines durch eine Warnung angekündigten Reizes und die Verarbeitung der semantischen Information in Sprachsignalen wider. Auf die Unterschiede in Reizgebung und Signalverarbeitung ist es zurückzuführen, dass nicht alle AEP mit einer einzigen Messung erfasst werden können. Prinzipiell ist das Vorgehen bei der Messung früher, mittlerer und später Potentiale aber das gleiche, so dass sich mit einer Apparatur durch Veränderung einiger Reiz- und Messparameter (Reiztyp, Reizpause, EEG-Verstärkung, Filtergrenzen, Abtastrate und Zahl der Mittelungen) alle Potentiale messen lassen. Das EEG-Signal wird mit Hilfe von Elektroden erfasst, die üblicherweise an Vertex und Mastoid befestigt werden. Die Erdungselektrode befindet sich an der Stirn. Das verstärkte, gefilterte und A/D-gewandelte EEG-Signal wird im Rechner einer Artefaktkontrolle unterworfen, die der Auswahl der unterhalb einer vorgegebenen Amplitudenschranke liegenden EEG-Abschnitte dient. Die Summation von N Signalabschnitten (N≈2000 für FAEP, N≈600 für MAEP und N≈50 für SAEP) verstärkt die reizkorrelierten Signalanteile (z. B. die AEP) linear, die stochastischen Anteile hingegen im Fall stationärer Bedingungen näherungsweise proportional zu √N und verbessert somit das Signal/ Rausch-Verhältnis gemäß dem durch G =10 · log N dB gegebenen Störbefreiungsgewinn (vgl. ⊡ Abb. 14.22). Sind die Störungen nicht stationär, so lässt sich die Signalqualität durch die gewichtete Mittelung verbessern, wobei die Kehrwerte von Varianz oder Maximalamplitude der einzelnen Abschnitte als Gewichte dienen. Qualität und Zuverlässigkeit der Messergebnisse lassen sich durch das Verhältnis der Varianzen von Gesamtantwort und Restrauschen (response to noise ratio,
SNR), durch den aus zwei Teilmittelwertkurven berechneten Korrelationskoeffizienten oder durch einen visuellen Vergleich der Teilmittelwerte untereinander abschätzen. Zur Auswertung der AEP gehören die Identifizierung der einzelnen Potentialkomponenten und die Ermittlung ihrer Koordinaten (Latenz und Amplitude). Ersteres dient der Hörschwellenbestimmung, letzteres ermöglicht die Differentialdiagnostik von Hörstörungen. Die Gesamtheit der frühen Potentiale aus Hörnerv und Hirnstamm (FAEP) wird mit der BERA untersucht. Die häufig auch als Hirnstammaudiometrie bezeichnete Methode umfasst den post-Stimulus-Zeitbereich von 1 bis etwa 12 ms. Die FAEP lassen sich wegen ihrer kleinen Amplitude (100 nV bis 0,5 µV) nur durch einen hohen Synchronisationsgrad, wie er z. B. durch den Clickreiz erzeugt wird, mit genügend großer Amplitude messen. Eine frequenzspezifische Bestimmung der Hörschwelle ist daher nicht möglich. Die frühen Potentiale sind sehr stabil gegenüber Vigilanzschwankungen und pharmakologischen Einflüssen, daher ist ihre Ableitung auch im Schlaf oder in Narkose möglich. Sie sind regelmäßig ab Geburt vorhanden, allerdings in den ersten Lebensmonaten in einer modifizierten Form, die wegen der noch nicht abgeschlossenen Hörbahnreifung hinsichtlich Morphologie und Latenzen vom Potentialmuster des Erwachsenen abweicht. Die FAEP setzten sich aus mehreren Potentialkomponenten zusammen, die in verschiedenen Stationen der aufsteigenden Hörbahn in Hörnerv und Hirnstamm entstehen und entsprechend ihrer zeitlichen Aufeinanderfolge mit J1 bis J5 bezeichnet werden (⊡ Abb. 14.26). Das vollständige Potentialmuster ist nur bei weit überschwelliger Stimulation zu beobachten. Die Amplituden der Potentiale nehmen mit zunehmender Reizintensität zu, ihre Latenzzeiten nehmen hingegen ab (d. h. Reize geringerer Intensität gehen mit einer längeren cochleären Verarbeitungszeit einher). Diese Zusammenhänge werden in einem Kennliniendiagramm dargestellt, in welchem auch etwaige Abweichungen vom Normalverlauf gut erkennbar sind. Die mangelnde Frequenzspezifität der durch breitbandige Clickreize ausgelösten FAEP begrenzt den infolge ihrer sonstigen günstigen Eigenschaften (Unabhängigkeit von Reifungszustand und Vigilanzniveau) breiten Einsatzbereich. Dies war Motiv für intensive Bemühungen um eine frequenzspezifische Audiometrie mit Hilfe früher Potentiale. Einer der zahlreichen Ansätze beruht auf der Stimulation mit kurzen Tonpulsen und gleichzeitiger Maskierung mit kerbgefiltertem Breitbandrauschen (notch noise BERA). Die mit diesem Verfahren erhaltenen Reizantworten können für Frequenzen zwischen 500 Hz und 4 kHz in vielen Fällen bis in die Nähe der Hörschwelle nachgewiesen werden. Den Eigenschaften der cochleären Wanderwelle entsprechend sind die Latenzzeiten der Antworten länger für niedrige als für hohe Frequenzen. Dieselben physiologischen Mechanismen sind der Grund
229 14.3 · Objektive Audiometrie
⊡ Abb. 14.26. FAEP bei Normalgehör (gemessen an einer 15-jährigen Patientin). Es sind links die Potentialkurven und rechts die Tabelle mit Latenz- und Amplitudenwerten sowie die daraus erzeugten Kennlinien gezeigt
dafür, dass die neuronale Aktivität bei niedrigen Frequenzen weniger gut synchronisiert ist und dies wiederum begrenzt die Genauigkeit der Hörschwellenbestimmung. Die wichtigsten Einsatzgebiete der BERA sind die objektive Bestimmung der Hörschwelle bei Säuglingen, Kleinkindern und Kindern sowie die topodiagnostische Unterscheidung zwischen sensorischen und neuralen Hörstörungen. Die Hörschwelle wird visuell aus den Messkurven oder – bei ausreichender Messqualität – aus der Amplitudenkennlinie abgelesen. Für die Gewinnung differentialdiagnostischer Aussagen werden Latenzen und Amplituden gemessen und in Abhängigkeit vom Reizpegel aufgetragen. Über den Vergleich mit den Normalkennlinien, die Berechnung von Latenzdifferenzen, insbesondere der cochleo-mesencephalen Latenzdifferenz (»Hirnstammlaufzeit«) t5–t1, und die Auswertung von Seitendifferenzen kann zwischen konduktiven, sensorischen und neuralen Läsionen unterschieden werden. Verlängerte Latenzen aller Potentiale treten bei mittelohrbedingten Hörstörungen auf. Bei innenohrbedingten Hörstörungen werden – je nachdem, welcher Frequenzbereich von der Störung betroffen ist – Latenzverlängerungen allenfalls bei schwellennahen Reizen beobachtet,
im überschwelligen Reizpegelbereich liegen hingegen häufig normale Latenzen vor. Die BERA weist im Hinblick auf den Nachweis von raumfordernden Prozessen im Kleinhirnbrückenwinkel eine hohe Sensitivität auf. Sie leistet somit etwas, was mit subjektiven Verfahren grundsätzlich nicht oder nur mit geringer Zuverlässigkeit möglich ist. Ergänzt wird sie durch die Untersuchung des Stapediusreflexes und die Funktionsprüfung des Gleichgewichtsorgans. Wenn eine oder mehrere dieser Untersuchungen den Verdacht auf das Vorliegen einer retrocochleären Störung erhärten, wird der Befund mit Hilfe von bildgebenden Verfahren (Computer- und Kernspintomographie) überprüft. Die akustisch evozierten Potentiale mittlerer Latenz (MAEP) werden in der audiologischen Diagnostik wenig genutzt. Hinsichtlich ihrer Eigenschaften (z. B. Amplitude, Reifungsabhängigkeit und Vigilanzeinfluss) und ihrer diagnostischen Aussagekraft (z. B. Frequenzspezifität) liegen sie zwischen den frühen und den späten AEPKomponenten. Sie erreichen jedoch weder die den FAEP eigene hohe Stabilität gegenüber Vigilanzzustand und pharmakologischen Einflüssen, noch können sie sich in der Zuverlässigkeit der frequenzspezifischen Hörschwel-
14
230
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
lenbestimmung mit den SAEP messen. Daher wird in der Praxis selten die MLRA, sondern je nach Fragestellung entweder die BERA oder die CERA angewendet. Die mit der CERA erfassten späten oder Hirnrindenpotentiale liegen im Zeitbereich 100 bis 500 ms post Stimulus. Ihre Potentialmaxima und -minima bei etwa 100, 200 und 300 ms werden mit N1, P2 und N2 bezeichnet (⊡ Abb. 14.27). Die Amplitude des Potentialkomplexes nimmt mit steigendem Reizpegel zu, die Latenz der einzelnen Komponenten hängt nur in Schwellennähe vom Reizpegel ab. Latenz und Amplitude können sich im Schlafzustand und bei Vigilanzschwankungen stark verändern. Daher sind nur bei wachen und aufmerksamen Patienten zuverlässige Ergebnisse zu erwarten. Bei Säuglingen und Kleinkindern ist die CERA aus diesen Gründen und wegen der nicht abgeschlossenen Reifung der cortikalen Hörbahn nicht einsetzbar. Hirnrindenpotentiale können mit nahezu allen zeitlich begrenzten akustischen Reizen ausgelöst werden. Typischerweise werden Tonpulse definierter Frequenz mit einer Dauer von etwa 100 bis 500 ms verwendet. Wird der
Pegel dieser Reize verändert, so kann für jede Frequenz aus der Anwesenheit der Potentiale die Hörschwelle bestimmt und somit ein objektives Tonaudiogramm geschrieben werden. Die Genauigkeit beträgt hierbei etwa ±10 dB. Da die bewusste Wahrnehmung nicht der Aktivität im primären auditorischen Cortex sondern in den höheren Assoziationszentren entspricht, kann der subjektive Hörvorgang auch mit den SAEP nicht nachgewiesen werden. Hierzu sind allenfalls andere Untersuchungsverfahren, die noch spätere Reizantworten erfassen und eine aktive Mitarbeit des Patienten erfordern, in der Lage.
Steady state responses Während die Messung der bisher behandelten transienten Potentiale eine Pause zwischen den akustischen Reizen erfordert, wird mit den auditory steady state responses (ASSR) das Hörsystem im eingeschwungenen Zustand untersucht. Der akustische Reiz liegt ohne Unterbrechung vor, während das EEG registriert und analysiert wird. Weil die perstimulatorische Analyse des EEG-Sig-
⊡ Abb. 14.27. Mit der CERA an einem 51-jährigen normalhörenden Probanden bei vier Frequenzen und verschiedenen Reizpegeln gemessene SAEP. Links neben jeder Kurve sind Reiz- und Vertäubungspegel, am rechten Rand jeweils die Effektivamplituden des Gesamtmittelwertes im Zähler und im Nenner der (durch 2 dividierten) Differenz der Teilmittelwerte angegeben
231 14.3 · Objektive Audiometrie
nals eine andere Vorgehensweise verlangt, unterscheidet sich die Messung der ASSR in methodischer Hinsicht grundsätzlich von der konventionellen ERA. Durch die Mittelung oder statistische Auswertung wird hier nicht eine zeitabhängige Kurve rekonstruiert, sondern ein mit der physiologischen Reizverarbeitung zusammenhängendes Merkmal des EEG-Signals herausgearbeitet. Zeitlich unveränderliche Reize sind hierfür allerdings ungeeignet, denn sie führen zu einer zwar stochastischen aber stationären und dadurch vor dem Hintergrund des EEG nicht nachweisbaren neuronalen Aktivität. Unter mehreren Varianten der ASSR haben die Antworten auf amplitudenmodulierte Reize (amplitude modulation following responses, AMFR) in jüngerer Zeit besondere Bedeutung gewonnen. Akustischer Reiz und Signalnachweis sind in ⊡ Abb. 14.28 schematisch dargestellt. Die Amplitude eines Dauertones, dessen Trägerfrequenz fT im Bereich von 250–8000 Hz liegt, wird mit einer Modulationsfrequenz fM zwischen 40 und 120 Hz moduliert. Der Modulationshub beträgt 80–100%. Häufig wird zugleich auch die Frequenz fT moduliert, zur Wahrung der Frequenzspezifität allerdings mit einer wesentlich kleineren Modulationstiefe von typischerweise 10%. Der modulierte Reiz führt zu einer Synchronisation der Aktivität von Neuronengruppen, wahrscheinlich in den zwischen Mittelhirn und Thalamus liegenden Abschnitten der Hörbahn. Daher findet sich die Modulationsfrequenz im EEG-Signal wieder, das entweder lateral (Vertex gegen Mastoid) oder – insbesondere bei der simultanen Stimulation beider Ohren – medial (Vertex gegen Okziput) abgeleitet wird. Zur Detektion dieser Frequenz wird das verstärkte und schmalbandig gefilterte Elektrodensignal in den Frequenzbereich transformiert und in der Umgebung der Modulationsfrequenz hinsichtlich Amplitude und Phase analysiert. Die neuronale Reizantwort gilt als nachgewiesen, wenn die Amplitude der Frequenz fM nach Maßgabe statistischer Tests signifikant aus dem Untergrund des gemittelten Spektrums herausragt oder die auf die Modulation des Reizes bezogene Phase dieser Frequenz eine signifikante Abweichung von der Zufallsverteilung aufweist. Grundsätzlich gilt für hohe mehr als für niedrige Modulationsfrequenzen, dass die Amplitude der Reizantwort vom Vigilanzzustand und von der altersabhängigen organischen und funktionellen Reifung der Hörbahn unabhängig ist. Ziel und Anspruch der Methode bestehen darin, eine frequenzspezifische, objektive und automatische Bestimmung der Hörschwelle bei Kindern zu ermöglichen. Hierfür haben sich Modulationsfrequenzen im Bereich von 90 Hz als geeignet herausgestellt weil die von ihnen evozierte EEG-Aktivität in geringerem Maße als die Antworten auf niedrige Frequenzen von Vigilanz und Reifung abhängen. Da die Identifikation der AMFR auf der im EEG repräsentierten Modulationsfrequenz des Reizes beruht, kann die Stimulation mit mehreren unterschiedlich modulierten Trägerfrequenzen und sogar auf beiden
Ohren zur gleichen Zeit erfolgen, soweit die verwendeten Reizpegel eine gegenseitige Maskierung ausschließen. Das diagnostische Potential der AMFR kann gegenwärtig noch nicht abschließend bewertet werden. In der experimentellen Audiologie werden derzeit effektive Reizparadigmen erprobt und statistische Verfahren für den Signalnachweis hinsichtlich ihrer Leistungsfähigkeit verglichen. Für die praktische Anwendung existieren bereits einige Systeme, die die für den amplitudenmodulierten Reiz charakteristische EEG-Aktivität detektieren und die Reizantwortschelle mit Hilfe adaptiver Algorithmen aufsuchen.
⊡ Abb. 14.28. Schematische Darstellung des Reizes und des Signalnachweises bei der Registrierung von AMFR. Das Spektrum des amplitudenmodulierten Reizes (oben) weist drei Linien bei den Frequenzen fT–fM, fT und fT+fM auf (Mitte). Die Modulationsfrequenz fM findet sich im Spektrum des EEG-Signals wieder (unten)
14
232
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
14.4
I
Hörprothetik
Viele Hörstörungen können mit apparativer Hilfe zumindest teilweise kompensiert werden. Zu den technischen Hörhilfen gehören das konventionelle schallverstärkende Hörgerät (HG) sowie (teil)implantierbare Hörsysteme und das Cochlea-Implantat (CI). Da weder Hörgeräte noch ein CI das normale Hörvermögen wiederherstellen können, wird von der Möglichkeit einer apparativen Korrektur nur dann Gebrauch gemacht, wenn alle in Frage kommenden konservativen und operativen Maßnahmen zu keinem befriedigenden Erfolg führen. Wie bei jeder medizinisch indizierten Therapie muss auch in der Hörprothetik das Auftreten unerwünschter Nebenwirkungen gegen den zu erwartenden Behandlungserfolg abgewogen werden. Bei Hörgeräten, die ja die Aufgabe haben, das geschädigte Ohr mit einer erhöhten Intensität zu beschallen, besteht grundsätzlich die Gefahr einer Lärmschädigung des versorgten Ohres. Die CI-Versorgung ist mit den allgemeinen Risiken einer Operation verbunden und sie kann zum Verlust eines eventuell noch vorhandenen Restgehörs führen. Hieraus wird deutlich, dass der HNO-Arzt in die Entscheidung zur prothetischen Versorgung und die Überwachung des Versorgungserfolges eingebunden sein muss. Die Auswahl des geeigneten Hörgerätes und seine individuelle Anpassung an das Ohr sind hingegen Sache des Hörgeräte-Akustikers. Ausgenommen von dieser vertraglich vereinbarten Arbeitsteilung sind die CI-Versorgung, die nur an hierfür spezialisierten Zentren durchgeführt werden kann, und die HG-Versorgung von Kindern, in die außer HNO-Arzt und HG-Akustiker auch Pädaudiologen und Fachpädagogen einbezogen sind.
14.4.1 Versorgungsbedürftige Hörstörungen
Als Fundament für die Abwägung verschiedener Therapiemöglichkeiten benötigt der HNO-Arzt einen möglichst vollständigen audiometrischen Befund. Unter Ausschöpfung der in Abschn. 14.2 und Abschn. 14.3 beschriebenen diagnostischen Möglichkeiten muss Klarheit darüber gewonnen werden, welche Komponente des Gehörs ein Funktionsdefizit aufweist und somit für die Schwerhörigkeit verantwortlich ist. Hieraus ergeben sich Möglichkeit bzw. Notwendigkeit einer Korrektur mittels einer Hörhilfe sowie Hinweise auf die optimale Versorgungsart. Entsprechend der in ⊡ Abb. 14.5 gezeigten Klassifikation muss zwischen mittelohrbedingten, sensorischen, neuralen und zentralen Schwerhörigkeiten unterschieden werden. Mittelohrschwerhörigkeiten können in vielen Fällen konservativ (d. h. mit Hilfe von Medikamenten) oder operativ (d. h. durch einen ohrchirurgischen Eingriff) behoben werden. Störungen des Innenohres lassen sich in den meisten Fällen auf einen Funktionsausfall der äußeren Haarzellen zurückführen; zur Wiederherstellung
ihrer Funktion bestehen heute weder konservative noch operative Möglichkeiten. Hinter retrocochleären (neuralen) Hörstörungen verbergen sich häufig ernste Krankheitsbilder, wie z. B. Multiple Sklerose oder Nerven- bzw. Hirnstammtumoren. Die Behandlung dieser Erkrankung nimmt für die betroffenen Patienten vor der Behandlung der Hörstörung die höhere Priorität ein. Ein Hörgerät kommt somit als Mittel zur Korrektur einer Hörstörung in Betracht, wenn ▬ eine Mittelohrschwerhörigkeit ausgeschlossen oder nicht korrigierbar ist; ▬ eine Innenohrschwerhörigkeit vorliegt; ▬ bei neuralen oder zentralen Schwerhörigkeiten keine konservative oder operative Korrektur möglich ist; Die audiologischen Kriterien für eine Hörgeräteversorgung sind in den einschlägigen Bestimmungen folgendermaßen festgelegt: ▬ Im Fall einer beidseitigen Schwerhörigkeit muss der Hörverlust auf dem besser hörenden Ohr bei mindestens einer der Prüffrequenzen zwischen 500 und 3000 Hz die Grenze von 30 dB überschreiten. ▬ Im Fall einer einseitigen Schwerhörigkeit muss der Hörverlust auf dem besser hörenden Ohr bei mindestens zwei Prüffrequenzen innerhalb des angegebenen Bereiches oder bei 2000 Hz die Grenze von 30 dB überschreiten. ▬ Das Einsilberverstehen darf bei 65 dB die Grenze von 80% nicht überschreiten. Die beidseitige Schwerhörigkeit begründet den Anspruch auf eine beidohrige (binaurale) HG-Versorgung, da die andernfalls verbleibende einseitige Schwerhörigkeit das Richtungshörvermögen und die sprachliche Kommunikation im Störgeräusch und in halliger Umgebung beeinträchtigt und zur Entstehung von subjektiven Ohrgeräuschen (Tinnitus) führen kann. Dies gilt für alle technischen Hörhilfen einschließlich CI. Bei schallverstärkenden konventionellen oder implantierbaren Hörsystemen ist darüber hinaus zu beachten, dass die beidohrige Versorgung mit einem kleineren Schädigungsrisiko verbunden ist, da das Hören mit zwei Ohren den nutzbaren Schallpegel um 3 dB erhöht und somit ein geringerer Verstärkungsbedarf besteht. Der Versorgungserfolg wird bei konventionellen schallverstärkenden Hörgeräten auch von der Bauform mitbestimmt. In den meisten Fällen werden heute hinter dem Ohr (HdO) oder im Ohr (IdO) getragene Hörgeräte verwendet. Bei letzteren werden weiter die vollständig im Gehörgang untergebrachten CIC-Geräte (completely in the canal) und die größeren, teilweise in der Ohrmuschel getragenen Concha-Geräte unterschieden. Von kosmetischen und praktischen Aspekten abgesehen weist das IdO-Gerät im Vergleich zum HdO-Gerät den Vorteil auf, dass die natürliche Verstärkung und richtungsabhängige
233 14.4 · Hörprothetik
Filterung des Außenohres weiterhin genutzt werden kann. Dies reduziert den Verstärkungsbedarf und es verbessert das Richtungshörvermögen und das Sprachverstehen im Störgeräusch. Darüber hinaus wird das Schallsignal weniger verzerrt, da für die Schallzuführung kein Schallschlauch erforderlich ist.
14.4.2
Hörgeräte: Technik und Anpassverfahren
Das konventionelle schallverstärkende HG ist ein elektronisches Hilfsmittel, welches den akustischen Reiz in verstärkter Form bereitstellt. Seine wesentlichen Bestandteile sind ein Schallaufnehmer (Mikrophon), ein Verstärker mit den notwendigen Korrektur- bzw. Stellorganen, eine Energiequelle (Batterie) zum Betrieb des Verstärkers und ein Schallgeber (Hörer). Als zusätzliche Bestandteile können Schallschlauch, Ohrpassstück (Otoplastik), akustische Filter, eine Induktionsspule (Telefonspule), eine Eingangsbuchse und eine Fernbedienung vorhanden sein. Der prinzipielle Aufbau und das Funktionsprinzip eines Hörgerätes sind in ⊡ Abb. 14.29 gezeigt. Das Schallsignal wird vom Mikrophon in eine zeitabhängige elektrische Spannung gewandelt. Liegt die akustische Information zusätzlich als elektrisches Signal vor (z. B. bei Telefon, Fernseher oder Stereoanlage), so können zwei Wandlungen umgangen werden, indem das elektrische Signal entweder über eine Induktionsspule oder eine Eingangsbuchse direkt in das Hörgerät eingespeist wird. Das elektrische Signal wird um einen Faktor, der von Frequenz und Intensität abhängen kann, verstärkt, optional gefiltert und begrenzt und schließlich dem Ausgangswandler (Hörer) zugeführt. Dieser strahlt es mit einem erhöhten Schalldruck ab, es wird entweder direkt oder über einen Schlauch dem Trommelfell zugeführt und steht somit dem schwerhörigen Ohr in höherer Intensität zur Verfügung. Gegebenenfalls müssen Einrichtungen zur Unterdrückung der akustischen Rückkopplung vorgesehen werden. Die hohen Anforderungen an ein Hörgerätemikrophon hinsichtlich Abmessungen, Wirkungsgrad, Übertragungseigenschaften, Empfindlichkeit, Energiebedarf und Temperaturunabhängigkeit erfüllt das mit einem Feldeffekttransistor als Impedanzwandler betriebene Elektretmikrophon. Sein Wirkprinzip entspricht dem eines Konden-
⊡ Abb. 14.29. Vereinfachte Darstellung der wesentlichen Komponenten eines Hörgerätes
satorwandlers, wobei die Ladung der Kondensatorflächen nicht von einer externen Spannung sondern von einer dauerpolarisierten Folie aufrechterhalten wird. In den meisten Hörgeräten werden omnidirektionale Mikrophone (Druckempfänger) verwendet. Eine Richtwirkung ergibt sich durch den Kopf und die Lage der Einsprechöffnung hinter dem Ohr, in der Ohrmuschel oder im Gehörgang. Richtmikrophone mit zwei Öffnungen (Druckgradientenempfänger) oder Arrays aus mehreren Mikrophonen werden bei Bedarf eingesetzt, um die akustische Fokussierung und die Störgeräuschunterdrückung zu verbessern. Die Verstärkung des elektrischen Mikrophonsignals wird mit der Eingangs/Ausgangs-Kennlinie des Verstärkers, d. h. durch den funktionalen Zusammenhang zwischen Eingangspegel LE und Ausgangspegel LA beschrieben. Der Verstärkungsfaktor ist i. Allg. von Frequenz und Pegel des Eingangssignals abhängig. Ist dies nicht der Fall, so stellen sich die Verstärkerkennlinien bei allen Frequenzen in der doppeltlogarithmischen Darstellung als Geraden dar, die mit der Steigung ΔLA/ΔLE=1 dB / dB parallel zur Winkelhalbierenden verlaufen (⊡ Abb. 14.30a). Die zu unterschiedlichen Verstärkungsfaktoren gehörenden Kennlinien sind dann parallel zueinander verschoben. Aus der Kennlinie eines linearen Verstärkers lässt sich der Verstärkungsfaktor in dB als Differenz LA–LE an einem einzigen Punkt ablesen. Das Ausgangssignal eines jeden Verstärkers ist in seiner Amplitude dadurch begrenzt, dass die Betriebsspannung eine obere Leistungsgrenze vorgibt. Bei Hörgeräten besteht ein weiterer begrenzender Effekt darin, dass bei zu hohen Ausgangspegeln die Rückkopplungsneigung nicht mehr beherrscht werden kann. Diesen zwangsläufigen und unkontrollierbaren Amplitudenbegrenzungen wird mit Hilfe einer Schaltung aus Dioden, welche die Spannungsspitzen oberhalb einer vorgegebenen Grenze abschneidet (peak clipping, PC) zuvorgekommen. Im Kennlinienfeld hat die PC ein waagerechtes Abknicken der Verstärkerkennlinien zur Folge (⊡ Abb. 14.30, B). Im Gegensatz zu anderen Begrenzungsverfahren wird die PC ohne zeitliche Verzögerung wirksam. Außer der oberen Begrenzung des Ausgangsschallpegels ist noch eine ungewollte aber zwangsläufige untere Begrenzung wirksam, die ihren Ursprung im Eigenrauschen von Verstärker und Wandlern hat. Dieses Eigenrauschen wird teilweise mitverstärkt, so dass es einem minimalen Eingangsschallpegel äquivalent ist. Schallsignale, deren Pegel unterhalb dieser Grenze liegen, können nicht sinnvoll übertragen werden, da sie ganz oder teilweise vom Eigenrauschen überdeckt sind. Die Begrenzung des Ausgangssignals schützt den Hörgeräteträger vor Schallintensitäten, die oberhalb seiner Unbehaglichkeitsschwelle liegen. Die bei vielen Innenohrhörstörungen fehlende natürliche Dynamikkompression vermag sie aber nicht auszugleichen. Besser lässt sich der pathologische Lautheitsanstieg durch einen Verstärkungsfaktor kompensieren, der bei kleinen Schallpegeln
14
234
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.30. Die Dynamikkennlinien eines linearen Verstärkers lassen sich in doppeltlogarithmischer Darstellung durch Geraden darstellen, die parallel zur Winkelhalbierenden verlaufen und deren Lage vom Verstärkungsfaktor abhängt (A). Mit Hilfe einer PC-Schaltung wird der maximale Ausgangspegel auf vorgegebene Werte begrenzt (B). Die AGC/I bewirkt eine Dynamikkompression im Pegelbereich oberhalb der Regelschwelle. Wird die Grundverstärkung verringert, so setzt die Regelung bei einem niedrigeren Ausgangspegel ein (C), anders
als bei der AGC/O, wo die Regelschwelle unabhängig von der Grundverstärkung bei einem festen Ausgangspegel liegt (D). Bei niedrig liegender Regelschwelle kann ein Bypass für eine lineare unverstärkte Wiedergabe bei hohen Pegeln sorgen (E). Durch die Kombination zweier AGC-Schaltungen kann eine pegelabhängige Kompression mit niedriger Einsatzschwelle realisiert werden (F). Nähere Erläuterungen insbesondere der Abkürzungen finden sich im Text
groß ist und oberhalb einer um 50 dB liegenden Grenze mit zunehmendem Pegel kontinuierlich heruntergeregelt wird. Die einfachste Regelung der Verstärkung besteht darin, dass der Hörgeräteträger den Pegelsteller betätigt, sowie er den Schall als zu laut oder zu leise empfindet. Mit diesem Vorgehen kann aber weder präzise noch schnell genug auf Schallpegeländerungen reagiert werden. Daher sind viele Hörgeräte mit einer automatischen Verstärkungsregelung (automatic gain control, AGC) ausgestattet. Sie bewirkt eine Verringerung des Verstärkungsfaktors bei zunehmendem Schallpegel und somit eine Kompression des akustischen Dynamikbereiches. Anders als die Begrenzungsschaltungen wirken die mit einer AGC verbundenen Regelkreise aber nicht simultan, sondern nur mit einer gewissen zeitlichen Verzögerung. Die Ein- und Ausschwingzeiten der Verstärkungsregelung müssen größer sein als die Periode der niedrigsten zu verstärkenden Frequenz, da sonst die Amplitude innerhalb einer einzelnen Schallwelle geregelt und das Signal verzerrt wird. Die untere Grenze liegt somit bei etwa 10 ms. Im eingeschwungenen Zustand müssen Si-
nusschwingungen aller Frequenzen als Sinusschwingungen übertragen werden. Bei langsamen Änderungen des Schalldrucks treten keine Ein- und Ausschwingvorgänge auf (statischer Grenzfall), anders als bei schnellen Änderungen, wie sie z. B. in Sprachsignalen vorkommen (dynamisches Verhalten). Sie können zu kurzzeitigen Schallspitzen führen, die den maximal zulässigen Ausgangspegel überschreiten. Um diese zu verhindern, wird die AGC mit einer PC-Schaltung kombiniert. Bei sehr langen Regelzeiten (>200 ms) spricht die Regelung nur auf langsame Änderungen an, sie leistet somit das, was der HG-Träger durch eine manuelle Anpassung des Lautstärkereglers erreichen würde (automatic volume control, AVC). Regelzeiten unterhalb von 20 ms ermöglichen die Kompression einzelner Silben. Dies erhöht die Sprachverständlichkeit, da die Nachverdeckung von Sprachelementen mit hohem Pegel (z. B. Vokale) auf unmittelbar darauf folgende Sprachelemente mit niedrigerem Pegel (z. B. Frikative) verringert wird (Silbenkompressor). Die Auswirkung der Verstärkungsregelung auf die statische Dynamikkennlinie des Hörgerätes ist aus
235 14.4 · Hörprothetik
⊡ Abb. 14.30, C und D ersichtlich. Je nachdem, ob das Eingangs- oder das Ausgangssignal für den Regelvorgang herangezogen wird, unterscheidet man zwischen der eingangsgeregelten (AGC/I) und der ausgangsgeregelten (AGC/O) AGC. In beiden Fällen weicht die Dynamikkennlinie oberhalb des Einsatzpunktes (Regelschwelle oder Kniepunkt) nach unten von der linearen Verstärkungsgeraden ab. Unterhalb des Einsatzpunktes arbeitet der Verstärker also linear, oberhalb des Einsatzpunktes wird die Verstärkung in Abhängigkeit vom Pegel immer geringer. Die Kompression c=ΔLE /ΔLA ergibt sich aus der Steigung der statischen Verstärkerkennlinie. Der Zweck der Verstärkungsregelung besteht darin, hohe Schallpegel am Ohr des HG-Trägers, also am Ausgang des Verstärkers, zu verhindern. Unter diesem Gesichtspunkt ist nur die Regelung nach Maßgabe des Ausgangssignals (AGC/O) sinnvoll. Diese ist aber mit wesentlich längeren Regelzeiten verbunden als eine eingangsgeregelte AGC, sodass die AGC/I oftmals vorteilhafter ist. Wie in ⊡ Abb. 14.30 zu erkennen ist, regelt aber die AGC/I den Ausgangspegel bei verschieden starken Grundverstärkungen in gleichem Maße, obwohl der HG-Träger bei kleineren Pegeln möglicherweise keine Kompression benötigt. Beide AGC-Schaltungen weisen also Vor- und Nachteile auf und es muss im Einzelfall ausprobiert werden, ob die Unabhängigkeit von der Grundverstärkung oder möglichst kurze Regelzeiten für den schwerhörigen Patienten Vorrang haben. Spezielle Anforderungen an das dynamische Verhalten können mit speziellen Analogschaltungen oder – wesentlich flexibler – mit digitaler Signalverarbeitung erfüllt werden. Beispielsweise wird zur Erzielung einer Tieftonkompression eine zweikanalige AGC/I eingesetzt, um die vorwiegend niederfrequenten Störgeräusche zu dämpfen und dadurch u. a. den vom HG-Träger gehörten Pegel der eigenen Stimme zu reduzieren. Wie bei der konventionellen AGC/I nimmt die Verstärkung mit zunehmendem Eingangsschalldruckpegel ab, ebenso wie die Betonung der hohen Frequenzen. Bei hohen Eingangspegeln (über 80 dB) verbleibt nur noch eine leichte Verstärkung im Bereich von 3 kHz, die die verlorengegangene Gehörgangsresonanz ausgleichen soll. Der Einsatzpunkt der Regelung liegt bei 40 dB, das Kompressionsverhältnis beträgt 2:1 (⊡ Abb. 14.30, E). Der Hochtonbereich wird in solchen zweikanaligen Geräten linear verstärkt. Die Erhöhung der Sprachverständlichkeit beruht darauf, dass die Aufwärtsmaskierung der im Bereich hoher Frequenzen liegenden Sprachsignalanteile durch die schon bei kleinen Pegeln einsetzende Kompression des Tieftonbereiches vermieden wird. Eine noch effektivere Nutzung des Restdynamikbereiches lässt sich mit Hörgeräten erreichen, deren Kompressionsverhältnis im gesamten Dynamikbereich einstellbar ist (wide oder full dynamic range compression, WDRC oder FDRC). Unterhalb der bei LE=45 dB liegenden Re-
gelschwelle arbeitet der Verstärker linear, im Regelbereich bis 85 dB kann das Kompressionsverhältnis zwischen 1 und 3 individuell eingestellt werden. Bei noch höheren Pegeln wird eine konventionelle AGC mit festem Kompressionsverhältnis wirksam (⊡ Abb. 14.30, F). Zusammengefasst besteht das wichtigste Merkmal von Ausgangspegelbegrenzung und automatischer Verstärkungsregelung darin, dass die Verstärkung mit zunehmender Schallintensität immer schwächer wird. Das entspricht einem nichtlinearen System und hat zwangsläufig Verzerrungen des übertragenen Signals zur Folge. Eine Kompression des Dynamikbereiches ohne die Nebenwirkung nichtlinearer Signalverzerrungen ist nicht realisierbar. Die Folge der Verzerrungen sind harmonische Obertöne, die sich nachteilig auf die Klangqualität und das Sprachverstehen auswirken. Sie sind der Preis, der dafür gezahlt werden muss, dass ein Recruitment nur mit Hilfe einer geregelten Verstärkung kompensiert werden kann. Durch die bisher beschriebenen Verstärkereigenschaften wird in erster Linie die Pegelabhängigkeit des Verstärkungsbedarfs berücksichtigt. Im Allgemeinen sind jedoch der Hörverlust und daher der Korrekturbedarf auch von der Frequenz abhängig. Dies kann dadurch berücksichtigt werden, dass der Frequenzgang durch einstellbare Filter beeinflusst und näherungsweise an den individuellen Verstärkungsbedarf des Schwerhörigen angepasst wird. Effektiver kann die Frequenzabhängigkeit des eingeschränkten Hörvermögens durch eine mehrkanalige Signalverarbeitung berücksichtigt werden. Bei komprimierenden Geräten ist dies auch dann vorteilhaft, wenn die Verstärkung nicht von der Frequenz abhängt, denn andernfalls bewirkt ein schmalbandiges Geräusch genügender Intensität die Reduktion der Verstärkung im gesamten Frequenzbereich. In Mehrkanalgeräten wird das Eingangssignal durch eine Filterbank in mehrere Anteile aufgespaltet. Grundverstärkung, Einsatzpunkt der AGC und evtl. auch das Kompressionsverhältnis sind für jeden Kanal getrennt programmierbar und gespeichert. Das Ausgangssignal wird durch Summation der einzeln verarbeiteten Anteile rekonstruiert. Mehrkanalige Hörgeräte wurden früher als digital gesteuerte Analoggeräte realisiert, bei denen mehrere Speicher für unterschiedliche Hörprogramme zur Verfügung standen. In volldigitalen Hörgeräten erfolgt die Verarbeitung des digitalisierten Signals in einem Signalprozessor. Den Möglichkeiten der Signalverarbeitung ist hier nur durch die Forderung, dass der zugrunde liegende Algorithmus in Echtzeit realisiert werden muss, eine (sehr hoch liegende) Grenze gesetzt. Digitale Hörgeräte ermöglichen eine vielkanalige nichtlineare Verstärkung mit flexibler Einstellung der Parameter. Darüber hinaus enthalten sie optional Systeme zur Störgeräuschunterdrückung, zur passiven oder aktiven Rückkopplungsunterdrückung (feedback cancelling) und zur automatischen Einstellung des der jeweiligen akustischen Situation am
14
236
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
besten entsprechenden Hörprogramms mit Hilfe lernfähiger neuronaler Netze. Das digital verarbeitete Signal wird D/A-gewandelt und dem Endverstärker zugeführt. Aus dem verarbeiteten elektrischen Signal muss am HG-Ausgang wiederum eine akustische Schwingung erzeugt (elektroakustische Wandlung im Hörer) und dem Ohr zugeführt werden. Wie bei den Mikrophonen müssen für den Hörer kleine Abmessungen, ein hoher Wirkungsgrad, ein konstantes Übertragungsmaß innerhalb eines großen Frequenzbereiches und eine lineare Übertragungscharakteristik gefordert werden. Diese Forderungen widersprechen einander teilweise (bspw. nimmt die Wiedergabequalität im Tieftonbereich grundsätzlich mit den Abmessungen ab) und sind daher nicht immer gleichzeitig zu erfüllen. Hörgerätehörer beruhen fast ausschließlich auf dem elektromagnetischen Prinzip, d. h. der Veränderung der magnetischen Induktion durch Bewegung einer Metallmembran (Anker) im Feld eines von einer Spule umwickelten Permanentmagneten. Mit Ausnahme des selten verwendeten Taschengerätes besteht bei allen Hörgerätetypen das Problem der akustischen Rückkopplung. Ihm liegt der Effekt zugrunde, dass Schallwellen, die in einem elektroakustischen System verstärkt wurden, bei Wiedereintritt in den Eingangskanal einer nochmaligen Verstärkung zugeführt werden (feedback). Ist der Faktor für diese Schleifenverstärkung größer als 1, so gibt der Lautsprecher einen Pfeifton von sich, dessen Intensität nur durch die Aussteuerungsgrenze des Verstärkers begrenzt ist. Um dies zu vermeiden, muss entweder die Verstärkung reduziert oder der Wiedereintritt des Ausgangsschalls in das Mikrophon verhindert werden. Ersteres ist selten möglich oder sinnvoll, da die notwendige Verstärkung durch das Ausmaß der Hörstörung und nicht durch die Rückkopplungsneigung festgelegt ist. Für letzteres sind mehrere Maßnahmen denkbar: die Verwendung von Richtmikrophonen, die akustische Trennung des Ausgangs vom Eingang mit Hilfe einer CROS9-Versorgung oder die akustische Isolation durch ein Ohrpassstück (die Otoplastik), welches den Gehörgang teilweise oder vollständig abdichtet und somit die Verbindung zwischen dem verstärktem Schall in der Trommelfellebene und der Mikrophonöffnung über (HdO) bzw. in (IdO) der Ohrmuschel unterbricht. Bei vielen modernen digitalen Hörsystemen wird die akustische Rückkopplung durch Filterung oder aktive Kompensation vermieden und die Otoplastik dadurch entbehrlich (offene Anpassung). Zur Anfertigung des individuell angepassten Ohrpassstückes nimmt der HG-Akustiker mit Hilfe eines schnell härtenden Zweikomponentenkunststoffs einen Ohrabdruck ab, nach welchem die eigentliche Otoplastik wahl-
9
contralateral routing of signals: das Mikrophon befindet sich auf der Seite des unversorgten Ohres.
weise aus durchsichtigem Hartkunststoff (Acrylat) oder weichem Silikon hergestellt wird. Bei IdO-Geräten sind Ohrpassstück und Gerätegehäuse miteinander identisch. Beim HdO-Gerät wird die Verbindung zwischen HG und Ohrpassstück durch einen Schlauch hergestellt, der am Tragehaken des Hörgerätes und auf dem Ansatzstutzen des Ohrpassstückes befestigt ist. Der Schall wird durch eine Bohrung im Ohrpassstück dem vor dem Trommelfell freibleibenden Gehörgangsrestvolumen zugeführt. Bohrung und Schlauch haben Verzerrungen des Schallsignals zur Folge. Hiervon werden v. a. die hohen Frequenzen betroffen, wohingegen niedrige Frequenzen nahezu ohne Abschwächung übertragen werden. Die besten Übertragungseigenschaften ergeben sich bei einem Schlauchdurchmesser von 2,4–3.0 mm. Durch zusätzliche Bohrungen können die akustischen Eigenschaften des Ohrpassstückes weiter beeinflusst werden: ▬ Die Hochtonbohrung (Frequenzausgleichsbohrung) mit einem Durchmesser zwischen 0,8 und 2,0 mm wirkt als Tiefpass und verbessert die Hochtonverstärkung. ▬ Eine trichterförmige Aufweitung des Schallaustrittsöffnung (Libby- bzw. Bakke-Horn), erhöht die Verstärkung im Bereich zwischen 2 kHz und 4 kHz um bis zu 30 dB. ▬ Die offene Otoplastik, d. h. die Anbringung einer Zusatzbohrung mit über 2,5 mm Durchmesser, führt zum Verschwinden der Tieftonverstärkung, so dass im Falle einer reinen Hochtonschwerhörigkeit die niedrigen Frequenzen weiterhin mit dem natürlichen Gehör verarbeitet werden können. Die Möglichkeiten zur Beeinflussung der Akustik über Zusatzbohrungen sind umso mehr begrenzt, je größer die erforderliche Schallverstärkung ist. Hochgradige Hörstörungen erfordern auch heute noch einen akustisch dichten Abschluss des Gehörgangsrestvolumens und können auch nicht mit der aktuell eingeführten externen Hörertechnologie versorgt werden. Liegt hingegen der Hörverlust unter der zwischen 80 und 100 dB verlaufenden Grenze, so kann der Ausgangswandler im Gehörgang untergebracht und dort mit einem Fixierschirm oder einer pilzförmigen Dichtung gehalten werden. Ein großer Vorteil des externen Hörers besteht in dem geringeren Verlust bei den Höhen und der dadurch besseren Klangqualität. Die Beschreibung der Eigenschaften einzelner Komponenten lässt keine zuverlässigen Rückschlüsse auf das akustische Verhalten des Gesamtsystems zu. Um das Übertragungsverhalten des Hörgerätes beurteilen zu können, müssen akustische Messungen am Kuppler – d. h. einem Hohlraum, der Geometrie und Akustik des Gehörgangs nachbildet – oder in situ – d. h. als Sondenmessung im Gehörgang des versorgten Ohres – durchgeführt werden. Das Ergebnis solcher Messungen sind Kurven, aus denen die Wiedergabeeigenschaften des Hörgerätes bei verschie-
237 14.4 · Hörprothetik
denen Frequenzen und Pegeln abgelesen werden können. Die wichtigste dieser Kurven ist die normale akustische Wiedergabekurve. Sie entsteht durch die Messung des Ausgangsschallpegels LA bei Einspeisung von Sinustönen variabler Frequenz und fester Intensität; der Eingangspegel LE beträgt 60 dB SPL, das HG ist so eingestellt, dass der Ausgangspegel bei der Bezugs-Prüffrequenz (i. d. R. 1600 Hz, bei Hochtongeräten 2500 Hz) um 15 dB unterhalb des Ausgangspegels liegt, der bei einem Eingangspegel von 90 dB SPL und maximal eingestellter Verstärkung gemessen wurde. Die akustischen Wiedergabekurven LA(f) zu anderen Eingangspegeln (50 bis 100 dB SPL) werden ohne Veränderung dieser Geräteeinstellung gemessen. Das hierbei entstehende akustische Wiedergabekurvenfeld (⊡ Abb. 14.31) gibt einen Überblick über das frequenz- und pegelabhängige Verhalten des Hörgerätes. In den Datenblättern eines Hörgerätes wird zusätzlich zu den mit unveränderter HG-Einstellung gemessenen Wiedergabekurven oftmals noch die Kurve des größten erreichbaren Schallpegels gezeigt. Sie wird standardgemäß bei der höchsten Verstärkerposition und einem über alle Frequenzen konstanten Eingangsschallpegel von 90 dB SPL gemessen (OSPL90-Kurve). Ein weiteres häufig verwendetes Diagramm ist die Kurve der maximalen Verstärkung (Auftragung des im linearen Arbeitsbereich des HG bei einem Eingangsschallpegel von 50 dB SPL und mit maximaler Verstärkung gemessenen Verstärkungsfaktors in Abhängigkeit von der Frequenz). Die vollständige graphische Darstellung der Eigenschaften eines Hörgerätes stellt ein vieldimensionales Problem dar, da der Ausgangsschallpegel LA vom Eingangsschallpegel LE, der Schallfrequenz f und der Hörgeräteeinstellung (z. B. Verstärkungsfaktor v=LA–LE und Kompressionsverhältnis c=ΔLE/ΔLA) abhängt. Aus einer vollständigen LA(f)-Kurvenschar (⊡ Abb. 14.31) können LA(LE)-Kurven (⊡ Abb. 14.30) konstruiert werden, von denen jede einzelne für eine feste Frequenz und eine bestimmte Hörgeräteeinstellung gültig ist. Aus dem Wiedergabekurvenfeld kann unmittelbar abgelesen werden, ob und in welchem Bereich von Eingangspegeln sich das Hörgerät linear verhält. Eine ideale
lineare Signalverarbeitung ist durch einen glatten Frequenzgang LA(f) gekennzeichnet, der sich bei Änderung des Eingangspegels LE um die Pegeldifferenz ΔLE vertikal verschiebt. Hierzu gleichwertig ist die Forderung, dass die Dynamikkennlinien LA(LE) eines linearen Hörgerätes bei allen Frequenzen und im ganzen Pegelbereich die Steigung 1 dB/dB aufweisen. Obwohl (oder gerade weil) es keine Hörgeräte mit dieser Eigenschaft gibt, hat es sich eingebürgert, ein HG dann als »linear« zu bezeichnen, wenn die bei verschiedenen Eingangspegeln gemessenen Wiedergabekurven durch eine reine Verschiebung ineinander überführt werden können (selbst dann, wenn die Verschiebung von der zugehörigen Differenz der Eingangspegel verschieden ist). Ein in dieser Nomenklatur »nichtlineares« Hörgerät weist bei verschiedenen Eingangspegeln Wiedergabekurven auf, die nicht zueinander parallel verlaufen. Eine möglichst lückenlose Kenntnis der Hörgeräteeigenschaften ist die erste von drei Säulen der Hörgeräteversorgung. Die zweite Säule ist die Gesamtheit der audiometrischen Daten. Die Anpassung des Hörgerätes verknüpft als dritte Säule die zwei Datensätze miteinander, wobei ein Parametersatz des fertig eingestellten Hörgerätes entsteht. Die Aufgabe dieses Gerätes besteht darin, den Frequenzund Intensitätsbereich des normalen Hörens (v. a. den Sprachbereich) auf das eingeschränkte Hörfeld des zu versorgenden Ohres abzubilden (⊡ Abb. 14.32). Die wichtigsten Kenngrößen des Hörgerätes sind die wirksame akustische Verstärkung, das Kompressionsverhältnis und der maximale Ausgangspegel. Wie an ⊡ Abb. 14.32 zu erkennen ist, können alle diese Größen von Frequenz und Pegel abhängen. Außer diesen Parametern ist für ein gutes Sprachverstehen natürlich das Zeitverhalten des Hörgerätes von großer Bedeutung. Dieses spielt v. a. bei der Verstärkungsregelung eine Rolle. Die aus Hörschwelle, Unbehaglichkeitsschwelle, Hörfeldskalierung und Sprachaudiogramm bestehenden audiometrischen Daten bestimmen die Vorauswahl und Voreinstellung des Hörgerätes. Der frequenzabhängige Verstärkungsbedarf kann aus der Hörschwelle abgeschätzt werden. Die naheliegende Vorstellung, dass der Verstärkungsbedarf dem Ausmaß
⊡ Abb. 14.31. Messung des akustischen Wiedergabekurvenfeldes eines Hörgerätes mit dem links gezeigten 2 cm3-Kuppler. Jede Wiedergabekurve LA(f) wird bei festem Eingangsschallpegel LE gemessen, die Einstellung der Hörgeräteparameter ist für alle Kurven gleich. Durch Bildung von Querschnittsflächen konstanter Frequenz entstehen die Dynamikkennlinien LA(LE)
14
238
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Iw
⊡ Abb. 14.32. Projektion der Sprachfläche in das Hörfeld des Schwerhörigen mit Hilfe eines Hörgerätes. Die miteinander verbundenen Kreise zeigen die Hörschwelle an
des Hörverlustes gleich ist (Spiegelung des Audiogramms), erweist sich aber schon aufgrund des mitverstärkten Eigenrauschens in den meisten Fällen als unbrauchbar. Die Signalverstärkung muss i. Allg. geringer sein als die Hörschwellenverschiebung. Dem einfachsten unter den präskriptiven Verfahren zufolge sollte die im 2 cm3-Kuppler gemessene Verstärkung v dem halben Hörverlust HV entsprechen: v=HV/2. Eine Verfeinerung dieser Regel ist die Berger-Formel, mit der der Verstärkungsbedarf ebenfalls allein aus der Hörschwelle berechnet wird, indem der Hörverlust durch eine frequenzabhängige Zahl N dividiert wird: v( f ) =
HV ( f ) + C ( f ) N( f )
(11)
Der zwischen 1,5 und 2,0 liegende Nenner N(f) hängt dergestalt von der Frequenz ab, dass sich bei mittleren Frequenzen eine etwas höhere Verstärkung ergibt als bei tiefen und hohen Frequenzen. Diese Mittenanhebung wird durch die zusätzliche additive Korrektur C(f) unabhängig vom Hörverlust noch weiter betont. Die für HdO-Geräte vorgeschlagene Formel (11) muss für IdO-Geräte etwas modifiziert werden, um dem geringeren Verstärkungsbedarf Rechnung zu tragen. Bei der Zielkurvenkonstruktion nach einem anderen präskriptiven Verfahren (prescription of gain and output, POGO) hängt nur der hörverlustunabhängige Term von der Frequenz ab: v( f ) =
HV ( f ) + C ( f ) N
(11)
Beim NAL-Verfahren10 schließlich geht in die Berechnung der bei einer vorgegebenen Frequenz benötigten Verstärkung v(f) nicht nur der bei dieser Frequenz bestimmte Hörverlust HV(f) ein, sondern mit geringerem Gewicht auch der über 3 Frequenzen (0,5, 1 und 2 kHz) gemittelte
10
National Acoustics Laboratories, Sydney.
Hörverlust. Die nach Berger-, POGO- und NAL-Formel für eine vorgegebene Schwellenkurve berechneten Zielfrequenzgänge können erheblich voneinander abweichen. Dies macht auch deutlich, dass die Hörschwelle allein kein zuverlässiges Kriterium zur Berechnung des individuellen Verstärkungsbedarfs darstellt. Bei den bisher genannten Verfahren wird der aus audiometrischen Daten abgeleitete Verstärkungsbedarf für die Voreinstellung des Hörgerätes herangezogen und das Hörgerät anhand dieser Vorgabe mit Hilfe einer Kupplermessung (s.unten) eingestellt. Dieses Vorgehen beinhaltet zwei Fehlerquellen: den bei der Tonaudiometrie verwendeten Wandler und die Simulation des Gehörgangs durch ein genormtes Kupplervolumen. Beide entsprechen nicht den Verhältnissen im Gehörgang des versorgten Ohres. Besonders groß ist die Abweichung bei Kindern, deren Gehörgang klein und im Wachstum begriffen ist. Es ist das Ziel der DSL-Methode (desired speech level) nach Seewald, den Einfluss dieser Fehlerquellen zu begrenzen. Der Ansatz besteht darin, die Hörschwelle unter Verwendung eines Sondenmikrophonsystems (oder alternativ mit Hilfe eines Einsteckhörers) durch die Schalldruckpegel im Gehörgang zu beschreiben. Unter Verwendung der individuellen Ohr-Kuppler-Transferfunktion (real ear to coupler difference, RECD) oder mit Hilfe pauschaler Korrekturfaktoren können die Vorgaben für die Hörgerätewiedergabe zur Erzielung der gewünschten schwellenbezogenen Sprachschallpegel bestimmt werden. Damit soll sichergestellt werden, dass das Sprachsignal breitbandig hörbar ist, angenehm klingt und unverzerrt ist. Der Erfolg hängt wesentlich von der Durchführung häufiger Kontrollen der Ohr-Kuppler-Transferfunktion und der entsprechenden Korrektur der Verstärkung ab. Die alleinige Orientierung an der Hörschwelle ist für eine angemessene Einstellung des Hörgerätes im gesamten überschwelligen Pegelbereich ungünstig. Eine korrekte Einstellung erfordert die Einbeziehung zumindest der Unbehaglichkeitsschwelle, besser aber des gesamten Hörfeldes, welches sich mit Hilfe der subjektiven
14
239 14.4 · Hörprothetik
Skalierung der Kategoriallautheit erfassen lässt. Aus den bei verschiedenen Frequenzen gemessenen Lautstärkezuwachsfunktionen lässt sich durch Vergleich mit der Normalkurve für jeden Pegel der Verstärkungsbedarf ablesen (⊡ Abb. 14.33). Die Hörfeldaudiometrie berücksichtigt somit als einziges Verfahren konsequent die von Frequenz und Pegel abhängige subjektive Lautstärkeempfindung und liefert nicht nur den Verstärkungs-, sondern auch den Kompressionsbedarf. Die voreingestellte Verstärkung des Hörgerätes kann durch Messungen am Ohrsimulator (Kuppler) in der Messbox überprüft und kontrolliert werden. Diese Messungen des Ausgangspegels bei definierten Eingangssignalen liefern sehr exakte und gut reproduzierbare Ergebnisse, sie sind aber, da der Kuppler als künstliches Ohr nur einen statistischen Mittelwert repräsentieren kann, für die Verhältnisse im Gehörgang des Hörgeschädigten nicht immer relevant. Um die Wiedergabeeigenschaften des Hörgerätes am Trommelfell zu erfassen, müssen Sondenmikrophonmessungen im Gehörgang durchgeführt werden (in situ-Messung). Im Gegensatz zu den Kupplermessungen erfassen sie die Arbeitsweise des Hörgerätes unter dem Einfluss von Schallzuführung, Otoplastik, Gehörgangsrestvolumen und Mittelohrimpedanz. Bei vielen in situ-Messgeräten wird nicht das Mikrophon, sondern ein mit ihm verbundener Sondenschlauch in den Gehörgang gebracht. Die in situ-Messung wird sowohl ohne als auch mit HG durchgeführt (⊡ Abb. 14.34a, b). Das Sondenmikrophon registriert das im Gehörgang vorliegende Schallsignal während der Darbietung von Rausch- oder Sinusreizen definierter Frequenz und Intensität. Ein Echtzeitanalysator verarbeitet das Mikrophonsignal zu Wiedergabekurven LA(f) oder Dynamikkennlinien LA(LE). Zu Beginn der in situ-Messung wird die Außenohrübertragungsfunktion gemessen, indem der Sondenschlauch in das offene Ohr des Patienten gelegt wird. Über der Frequenz aufgetragen ergibt sich eine Kurve, die im Bereich zwischen 2 und 5 kHz verschiedene Maxima aufweist (dunkle Fläche in ⊡ Abb. 14.34c). Bei einem Eingangssignal frequenzunabhängiger Intensität spiegelt diese Kurve die natürliche Verstärkungswirkung von Außenohr und Gehörgang wider (open ear gain, OEG). Im nächsten Schritt der in situ-Anpassung wird die im Gehörgang vorliegende Schallintensität bei eingesetztem Ohrpassstück mit eingeschaltetem Hörgerät gemessen (helle Fläche in ⊡ Abb. 14.34c). Die Differenz zwischen den mit und ohne HG gemessenen Frequenzgängen entspricht der frequenzabhängigen wirksamen akustischen Verstärkung (insertion gain, IG). Die in situ-Messung ist in Hinblick auf die Ermittlung von Frequenzgang und Dynamikverhalten als eine vorteilhafte Alternative zur Kupplermessung anzusehen; dies gilt insbesondere für die HG-Anpassung bei Kindern, deren Gehörgang durch einen Kuppler schlecht
⊡ Abb. 14.33. Ermittlung des pegelabhängigen Verstärkungsbedarfs für eine Frequenz (Terzbandrauschen) aus dem Vergleich zwischen der Lautstärkeskalierungsfunktion eines Schwerhörigen (Messwerte) mit dem schattierten Normalbereich. Die bei den Kategorien »leise« 15 KU), »mittellaut« (25 KU) und »laut« (35 KU) erforderliche Verstärkung entspricht der Länge der horizontalen Pfeile (nach Steffens 1996)
a
b
c
⊡ Abb. 14.34a–c. In situ-Messung mit Sondenschlauch im Gehörgang a ohne und b mit HG (nach Kießling et al. 1997). c Die Sondenmessung ergibt die Außenohrübertragungsfunktion (dunkel schattiert) bei offenem Gehörgang (open ear gain) und die in-situ-Verstärkung (hell schattiert) mit Hörgerät. Die Differenz beider Kurven (mittlere Linie) entspricht der wirksamen akustischen Verstärkung (insertion gain)
240
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
14.4.3 Implantierbare Hörsysteme
Otoplastik und die Stigmatisierung des Hörgeräteträgers durch die sichtbar getragene Prothese zu nennen. Gemeinsames Merkmal aller (voll- oder teil-)implantierbaren Hörsysteme ist die direkte mechanische Übertragung des aufbereiteten Schallsignals durch vibratorische Anregung der Gehörknöchelchen. Im Vergleich zur akustischen Stimulation werden hierdurch zwei Wandlungen vermieden und das Signal dadurch weniger verfälscht. Dies wirkt sich v. a. im Bereich hoher Frequenzen und somit auf die Klangqualität aus. Bei einem teilimplantierbaren Hörsystem bilden Mikrophon, Signalprozessor und Energiequelle die externen Teile. Zur Übertragung der Information an die implantierten Teile sowie zu ihrer Energieversorgung dient eine transkutane Hochfrequenzverbindung. Das retroaurikulär implantierte Verstärkermodul steuert ein am langen Ambossschenkel befestigtes magnetisches Schwingungssystem (floating mass transducer, FMT) oder einen hydromechanischen Antrieb, der im operativ erweiterten Mittelohrraum implantiert und über eine Koppelstange mit dem Ambosskörper verbunden ist (Otologics MET™). Der etwas irreführend auch als VORP (vibratory ossicular replacement prosthesis) bezeichnete FMT (Med-El Vibrant Soundbridge®, ⊡ Abb. 14.35) besteht aus einem kleinen Zylinder, dessen Wand eine stromführende Spule enthält, mit der eine bewegliche magnetische Masse entlang der Zylinderachse angetrieben wird. Die Schwingung dieser Masse überträgt sich auf den Amboss, und dessen Bewegung setzt sich wie beim natürlichen Hörvorgang über den Steigbügel ins Innenohr fort. Bei vollimplantierbaren Systemen sind neben Verstärker und Ausgangswandler auch Mikrophon, Signalprozessor und Energiequelle implantiert. Das Mikrophon befindet sich unter einer dünnen Hautschicht im Gehörgang. Dies begünstigt eine natürliche Klangwirkung, da die richtungsabhängige Filterwirkung von Außenohr und Gehörgang anders als bei den meisten anderen technischen Hörhilfen weiterhin genutzt wird. Das Mikrophonsignal wird der im Mastoid implantierten Prozessoreinheit zugeführt, deren Ausgangssignal einen piezoelektrischen Wandler treibt. Dieser versetzt über eine in der Nähe des Hammer/Amboss-Gelenkes endende Koppelstange die Gehör-
Die bisher beschriebenen konventionellen schallverstärkenden Hörgeräte sind mit einer Reihe von Nachteilen verbunden, unter denen einige durch Implantation des Hörgerätes oder einiger seiner Komponenten unter die Körperoberfläche ausgeglichen werden können. Zur Beschreibung dieser Nachteile und zur Abgrenzung der Einsatzbereiche implantierbarer Hörsysteme muss zwischen akustischen, audiologischen, medizinischen und kosmetischen Aspekten unterschieden werden. In dieser Reihenfolge sind als Nachteile des konventionellen Hörgeräts die akustische Rückkopplung, die schlechte Übertragung hoher Frequenzen, die gelegentlich (insbesondere bei Neigung zu Gehörgangsentzündungen) auftretende Unverträglichkeit der
⊡ Abb. 14.35. Aufbau (links) und audiologischer Indikationsbereich (rechts) eines teilimplantierbaren Hörsystems (Med-El Vibrant Soundbridge®)
approximiert werden kann und interindividuell stark variiert. Hinsichtlich der Beurteilung des Ohrpassstückes und seiner Übertragungseigenschaften ist die in situ-Messung sogar konkurrenzlos. Sie ermöglicht die Erfassung der Effekte von Zusatzbohrungen, die der Akustiker zur Beeinflussung des Klangeindrucks anbringt, und ist somit ein unentbehrliches Werkzeug für die systematische Durchführung von Manipulationen an der Otoplastik. Trotz dieser Vorteile kann ein HG nicht allein auf der Basis der in situ-Messung angepasst werden, da auch die exakte Messung des Schalls am Trommelfell keine Auskunft über das subjektive Klangempfinden des Patienten und v. a. über sein Sprachverstehen geben kann. Für die Feineinstellung des Hörgerätes und die Kontrolle des Anpasserfolges sind nur Skalierungsverfahren und Sprachaudiometrie geeignet. Die Hörschwellenkurve des versorgten Ohres (Aufblähkurve) ist in dieser Hinsicht wenig aussagekräftig, weil sich bei der Reizung mit Sinustönen im abgeschlossenen Gehörgangsrestvolumen stehende Wellen ausbilden können. Da die Aufblähkurve außerdem nur die statische Wiedergabe eingeschwungener Sinustöne, nicht aber das dynamische Verhalten des Hörgerätes bei der Verarbeitung von Sprachsignalen beschreiben kann, dient sie bei der Beurteilung des Versorgungserfolges lediglich zur groben Orientierung. Der im Sprachverstehen erzielte Gewinn einer Hörgeräteversorgung wird anhand des im freien Schallfeld gemessenen Sprachaudiogramms definiert. Die Versorgung gilt als erfolgreich, wenn die mit dem Freiburger Test ermittelte Verständlichkeit für einsilbige Testwörter bei 65 dB um mindestens 20% besser ist als ohne Hörhilfe bzw. wenn die Verständlichkeit bei 65 dB so gut ist wie das ohne HG erzielbare Optimum. Zusätzlich ist die Sprachdiskrimination bei 80 dB in Ruhe und bei 60 dB im Störgeräusch (z. B. mit dem Göttinger oder dem Oldenburger Satztest) zu prüfen. Bei beidohriger Versorgung kann der binaurale Diskriminationsgewinn mit Hilfe des BILD-Verfahrens nachgewiesen werden.
241 14.4 · Hörprothetik
knöchelchenkette in Bewegung. Das System deckt seinen Energiebedarf aus Batterien, die sich im implantierten Hauptmodul befinden und transkutan durch eine temporär mit einem Kopfbügel getragene Spule induktiv aufgeladen werden. Das hier beschriebene erste anwendungsreife vollimplantierbare System TICA® (totally integrated cochlea amplifier) ist allerdings wegen nicht beherrschbarer akustischer Rückkopplung nach einer ersten klinischen Erprobungsphase wieder vom Markt genommen worden. Bei einem weiteren vollimplantierbaren Hörsystem (EnvoyTM medical) wird der Ort der Schallaufnahme noch konsequenter dem natürlichen Hörvorgang angenähert: Als Mikrophonmembran dient das Trommelfell, wo das Schallsignal mit einem piezoelektrischen Sensor vom Hammer (Malleus) abgegriffen und dem retroaurikulär implantierten Elektronikmodul zugeleitet wird. Das verstärkte Signal wird über einen zweiten Piezowandler auf den Steigbügel (Stapes) übertragen. Zur Vermeidung der Rückkopplung muss der Amboss (Incus) entfernt oder seine Verbindung zum Hammer durchtrennt werden. Hingegen erfordert der fully-implantable ossicular stimulator (Otologics MET™ FIMOS), bei dem sich das Mikrophon unter der Haut am Hinterkopf befindet, keine Unterbrechung der Gehörknöchelchenkette. Hier wird die Vibration mit Hilfe eines elektromagnetischen Wandlers auf den Ambosskörper übertragen. Um die Wertigkeit der implantierbaren Hörsysteme zu beurteilen, müssen die zu Beginn dieses Abschnittes genannten Aspekte getrennt voneinander betrachtet werden. Der überzeugende und allen genannten Systemen gemeinsame Vorteil besteht in der überlegenen Klangqualität, die auf die direkte mechanische Anregung des Innenohres zurückzuführen ist. Die akustische Rückkopplung ist mit digitaler Technik in vielen Fällen gut beherrschbar, so dass heute auch mit konventionellen schallverstärkenden Hörgeräten oftmals eine offene Anpassung möglich ist. Dadurch verliert die Problematik der Gehörgangsokklusion ganz erheblich an Gewicht. Teilimplantierbare Systeme sind audiologisch zumindest im Vergleich zum IdO-Gerät durch die ungünstige extraaurikuläre Plazierung des Mikrophons im Nachteil. Der kosmetische Aspekt und die stigmatisierende Wirkung des konventionellen Hörgeräts sollten nicht über-
bewertet werden, da nur vollimplantierbare Systeme wirklich unsichtbar sind. In diesem Zusammenhang ist noch zu erwähnen, dass die Vorteile des freien Gehörganges, der fehlenden akustischen Rückkopplung und der Unsichtbarkeit in einem weiteren System (auric RetroX) vereint sind, bei dem ein retroaurikulär angeordnetes digitales Hochtonhörgerät den verstärkten Schall über ein implantiertes Titanhülsensystem direkt in den Gehörgang abgibt. Der Zweck der beschriebenen implantierbaren Hörsysteme besteht in der alternativen Versorgung von Innenohrschwerhörigkeiten. Demgegenüber ist das knochenverankerte Hörsystem BAHA® (bone anchored hearing aid) für die Zielgruppe nicht korrigierbarer Mittelohrschwerhörigkeiten und zur Lösung von Gehörgangsproblemen (z. B. Gehörgangsatresie) konzipiert. Es besteht aus einem Knochenleitungshörgerät, das auf eine in den Schädelknochen hinter dem Ohr implantierte Titanschraube aufgesteckt wird. Der Schall wird vom integrierten Mikrophon aufgenommen und in eine vibratorische Anregung des Knochens umgesetzt, so dass das Außenohr, der Gehörgang und das Mittelohr nicht in die Übertragungskette einbezogen sind. Der Körperschall regt beide Innenohren mit annähernd gleicher Intensität an. In Abhängigkeit von der Frequenz bestehen jedoch kleine Seitendifferenzen, so dass einem beidseitig mit BAHA-Systemen versorgten Patienten eine zumindest rudimentäre Richtungsinformation zur Verfügung steht.
14.4.4 Das Cochlea-Implantat
Bei Taubheit, an Taubheit grenzender Schwerhörigkeit oder Restgehör ist weder mit konventionellen schallverstärkenden Hörgeräten noch mit den beschriebenen implantierbaren Hörgeräten ein Versorgungserfolg zu erzielen. Unter bestimmten Voraussetzungen ist jedoch eine (Re-)Habilitation der betroffenen Patienten mit dem Cochlea-Implantat (CI) möglich. Das CI stimuliert die distalen Hörnervenendigungen oder das Ganglion spirale mit Hilfe von intracochleär implantierten Elektroden (⊡ Abb. 14.36). Die Parameter der elektrischen Reizpulse werden in einem Sprachprozessor aus dem akustischen
⊡ Abb. 14.36. Komponenten eines CI-Systems (nucleus® freedomTM). Implantiert sind die verkapselte Empfänger- und Dekodierschaltung und die Elektrodenträger. Hinter dem Ohr trägt der Patient den Sprachprozessor und die magnetisch gehaltene Sendespule. Rechts sind das Implantat (oben) und der Sprachprozessor mit Spule (unten) gezeigt (Reproduktion mit freundlicher Genehmigung von T. Steffens, Regensburg)
14
242
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
Signal berechnet und in Form von Hochfrequenzpulsen durch die Haut hindurch (transkutan) an das Implantat übertragen. Die artifizielle elektrische Reizung des Hörnervs ist prinzipiell verschieden vom natürlichen Hörvorgang, bei dem die Aktionspotentiale des Hörnervs infolge der von den Neurotransmittern erzeugten und sich überlagernden elementaren Generatorpotentiale entstehen. Befinden sich die von den inneren Haarzellen kommenden afferenten Radiärfasern des Hörnerven in einem elektrischen Feld, so entstehen ebenfalls Aktionspotentiale, die durch einen rechteckförmigen Zeitverlauf der zwischen zwei Elektroden liegenden Spannung synchronisiert werden können. Die elektrische Feldverteilung ist von der relativen Lage der Elektroden zum Hörnerven und den dazwischenliegenden Flüssigkeiten und Gewebearten abhängig. Es ist zwischen einer bipolaren Reizung, bei der sich beide Elektroden in der Nähe der Spiralganglienzellen befinden, und der monopolaren Reizung, bei der die Referenzelektrode in größerer Entfernung von den stimulierenden Strukturen befindet, zu unterscheiden. Die bipolare Anordnung führt zu örtlich eng umgrenzten Feldern mit hohen Gradienten und sie ermöglicht i. Allg. eine bessere Kanaltrennung als die monopolare Reizung. Die Aufgabe der elektrischen Cochleaprothese besteht darin, die Zeitstruktur von Frequenz und Intensität des Schallsignals in eine für die zentrale auditorische Verarbeitung verwertbare Folge von Aktionspotentialen umzusetzen. Eine exakte Nachahmung des natürlichen Vorbildes scheitert an dessen Komplexität und an der Unvollständigkeit des Wissens über die Details seiner Funktion. Im Hinblick auf die neurale Codierung der Schallfrequenz ist es aber plausibel (und durch den Erfolg gerechtfertigt), sowohl die tonotope Organisation der Cochlea zu simulieren als auch die Fähigkeit des Hörnerven zur Analyse der Periodizität des Signals zu nutzen. Daher befinden sich die Reizelektroden im Innenohr, wo sie entlang der Schneckenwindung aufgereiht sind und – möglichst unter Einhaltung der frequenzabhängigen cochleären Laufzeit – eine selektive Reizung der für die jeweilige Frequenz empfindlichen Region ermöglichen. Bei den meisten Sprachcodierungsstrategien findet sich außerdem die Zeitstruktur des Signals zumindest teilweise in der Folge der elektrischen Reizpulse wieder. Anders als beim natürlichen Hörvorgang entstehen bei elektrischer Reizung die Aktionspotentiale aber nicht probabilistisch, sondern synchron und streng deterministisch. Bei allen auf pulsatiler Stimulation beruhenden Prothesen sind die Reize biphasische, ladungsneutrale Strompulse, die von den programmierbaren Stromquellen an jede der Elektroden abgegeben werden können. Im Falle bipolarer Reizung kann die direkt benachbarte oder eine weiter entfernt liegende Elektrode als jeweils wirksame Referenz gewählt werden. Ein enger Stimulationsmodus
führt zu einer örtlich eng begrenzten Verteilung des elektrischen Feldes, es werden aber hohe Stromstärken benötigt, um die weit entfernt liegenden neuralen Strukturen zu erreichen. Am niedrigsten liegen die Reizschwellen, wenn alle nicht aktiven Elektroden zu einer gemeinsamen Referenz kurzgeschlossen werden (common ground). Bei der monopolaren Stimulation dient das Gehäuse des Implantats und/oder eine zusätzliche extracochleäre Elektrode als Referenz für den Strompfad. Die Intensität des Schallsignals wird beim natürlichen Hören in der Entladungsrate der einzelnen Faser und der Anzahl aktiver Fasern verschlüsselt. Bei elektrischer Stimulation nimmt die Zahl der Aktionspotentiale und zugleich auch der subjektive Lautheitseindruck mit der Stromstärke und der Dauer des elektrischen Pulses zu. Es werden alle Fasern erfasst, die sich in einer Region überschwelliger Feldstärke befinden. Die Überlagerung der elektrischen Felder begrenzt die sinnvolle Zahl intracochleärer Elektroden bereits bei schwachen Reizen auf etwa 15 bis 20, bei Erhöhung der Reizstärke nimmt die Ortsauflösung – und damit auch die Fähigkeit zur Unterscheidung von Tonhöhen – weiter ab. Die Zeitauflösung ist durch Dauer und Folgefrequenz der Pulse begrenzt. Typische Werte liegen bei 40 µs und 1000 Pulsen pro Elektrode und Sekunde. Durch die zeitlich versetzte Ansteuerung der verschiedenen Elektroden erhöht sich die Gesamtpulsrate entsprechend der Elektrodenzahl. Zu einem Cochlea-Implantat gehören mehrere Komponenten (⊡ Abb. 14.36). Das eigentliche Implantat ist ein verkapselter integrierter Schaltkreis, der sich hinter der Ohrmuschel unter der Kopfhaut befindet. Seine Längsabmessung beträgt etwa 2 cm, seine Dicke einige Millimeter. Am Implantatgehäuse sind eine Empfängerspule und ein Permanentmagnet befestigt, sowie ein dünner schlauchförmiger Fortsatz, an dessen Spitze sich je nach Produkt 8 bis 22 ring- oder kugelförmige Platinelektroden befinden. Die Elektroden werden in die unteren eineinhalb Windungen der Scala tympani eingeführt. Die räumliche Anordnung der Elektroden innerhalb der Schnecke ist der natürlichen tonotopen Organisation des Innenohres angepasst: Eine elektrische Reizung über die vorderste Elektrode erfasst apikale oder mediale Fasern und löst die Empfindung eines tiefen Tones aus; die hintersten Elektroden liegen am basalen Ende der Hörschnecke, ihre Aktivierung bewirkt die Entstehung von Hochtoneindrücken. Neben dieser tonotopen Frequenzzuordnung (place pitch) kann die Tonhöhenwahrnehmung auch durch Veränderung der Pulsrate beeinflusst werden (rate discrimination). Die externen Bestandteile des CI-Systems sind das Mikrophon, der Sprachprozessor und die Sendespule. Mikrophon und Sprachprozessor befinden sich in einem Gehäuse, das als HdO-Gerät hinter der Ohrmuschel getragen wird. Die über ein Kabel mit diesem Gehäuse verbundene Sendespule ist wie die Empfängerspule des
243 14.4 · Hörprothetik
Implantats mit einem Permanentmagneten ausgestattet, so dass die Außenspule fixiert und auf die implantierte Spule justiert ist. Die Umsetzung des akustischen Signals in elektrische Reizpulse umfasst mehrere Verarbeitungsschritte. In allen CI-Systemen wird das Mikrophonsignal nach einer analogen Vorverarbeitung (Verstärkung, Hochpassfilterung und evtl. Kompression) in ein digitales Signal gewandelt und als solches in einem Signalprozessor verarbeitet. Ergebnis der weiter unten näher beschriebenen digitalen Verarbeitung sind die Parameter der elektrischen Reizpulse, die in rechteckige Hochfrequenzpulse (z. B. f=2,5 MHz) verschlüsselt werden. Das Implantat empfängt die transkutan übertragenen HF-Pulse, decodiert die in ihnen enthaltene Information und nutzt zugleich die in den Pulsen enthaltene Leistung für seine Energieversorgung. Eine Kontroll-Logik sorgt dafür, dass fehlerhafte Übertragungen erkannt werden und keine unbeabsichtigten Stimulationen stattfinden. Die programmierbaren Stromquellen geben rechteckförmige biphasische Pulse variabler Dauer (im Bereich 20 bis 500 µs) und Stärke (bis maximal 1,5 µA) auf die von einem Multiplexer angewählte Elektrode ab. Jeder Elektrode ist ein Frequenzbereich zugeordnet, dessen Mittenfrequenz und Breite von apikal nach basal nach einer logarithmisch geteilten Skala zunimmt. Viele CI-Systeme verfügen über die Möglichkeit, die Spannung zwischen zwei Elektroden zu messen und den Messwert über eine Verstimmung des HF-Schwingkreises nach außen zu übertragen (Rückwärts-Telemetrie). Auf diese Weise können einerseits Elektrodenimpedanzen bestimmt und andererseits elektrisch evozierte Hörnervenpotentiale gemessen werden (telemetry of electrically evoked compound action potentials, TECAP) (Abbas et al. 1999). Für die Codierung des Schallsignals werden unterschiedliche Strategien angewendet. Die meisten von ihnen beruhen auf einer pulsatilen Reizung des Hörnervs. Eine Ausnahme bildet die analoge Stimulationsstrategie, bei der der Zeitverlauf des Elektrodenstroms dem des akustischen Eingangssignals entspricht (compressed analogue). Hier wird das Mikrophonsignal mit einer Filterbank in mehrere Anteile zerlegt. Jedem Bandpassfilter ist eine Elektrode zugeordnet. Die einzelnen Anteile werden digitalisiert und in den Dynamikbereich der zugehörigen Elektroden transformiert (mapping). Es ergibt sich ein sinusähnlicher Zeitverlauf der Elektrodenströme mit hoher Frequenz bei den basalen und mit niedriger Frequenz bei den apikalen Elektroden. Die Stimulationsamplituden entsprechen der Schallintensität in den einzelnen Frequenzbändern. Das Schallsignal wird ohne Codierungsverluste oder Verzögerungen übertragen. Anders als bei den pulsatilen Verfahren werden mehrere Elektroden simultan angesprochen. Die dadurch auftretende Überlappung elektrischer Felder kann aber das Diskriminationsvermögen beeinträchtigen und zu unangenehmen Nebenempfindungen führen.
Eine der historisch ersten pulsatilen Codierungsstrategien beruhte auf dem Prinzip der Parameterextraktion (feature extraction). Dem Ansatz lag die Vorstellung zugrunde, dass wegen der apparativ begrenzten Zeit- und Frequenzauflösung allenfalls ein Teil der sprachlichen Information genutzt werden kann. Das Signal wurde daher auf wenige seiner informationstragenden Elemente – die Grundfrequenz, den ersten und den zweiten Formanten sowie die breitbandig gemessene Gesamtamplitude – reduziert (F0F1F2-Strategie). Die Formanten F1 und F2 wurden durch Filterung, die Grundfrequenz F0 durch Zählen der Nulldurchgänge bestimmt. Die Frequenz der Formanten bestimmte die Auswahl der stimulierenden Elektroden, die Grundfrequenz legte die Pulsrate auf diesen Elektroden fest, und aus der über alle Frequenzen gemittelten Schallintensität ergaben sich, unter Einhaltung der für jede Elektrode eingestellten patientenspezifischen Grenzen, Stromstärke und Breite der Reizpulse. Trotz der offensichtlichen Beschränkungen v. a. in Hinblick auf die stimmlosen Laute (für die F0 nicht definiert ist) erzielten viele CI-Träger mit der F0F1F2-Strategie eine gute Sprachdiskrimination bis hin zum offenen Sprachverstehen. Bei der weniger sprachspezifischen n of m strategy werden aus der Gesamtzahl von m Kanälen n Stimulationselektroden nach Maßgabe der Bereiche größter Intensität im Schallspektrum bestimmt. Dem geregelten Vorverstärker ist eine Filterbank mit programmierbaren Bandpässen nachgeschaltet, deren Mittenfrequenzen zwischen 250 Hz und 10 kHz liegen. Jedem Bandpass ist eine Elektrode zugeordnet, wobei niedrige Frequenzen auf apikale und hohe Frequenzen auf basale Elektroden abgebildet werden. Die Anzahl aktiver Elektroden ist von der Gesamtintensität des Signals abhängig. Dadurch werden bei lauten und breitbandigen Vokalen mehr Kanäle stimuliert als bei leisen Konsonanten. Die ebenfalls von der Gesamtintensität und darüber hinaus von der Anzahl spektraler Maxima abhängige Reizrate liegt zwischen 180 und 300 Hz. Die Elektroden werden sequentiell von basal nach apikal angesteuert, wobei zur Erzielung einer hohen Informationsübertragungsrate alle nicht ausgewählten Elektroden ohne Pause übersprungen werden. Während die Parameterextraktion und die Codierung der spektralen Maxima vorwiegend auf dem Tonotopieprinzip beruhen, wird bei der CIS-Strategie (continuous interleaved sampling) die zeitliche Struktur des Schallsignals stärker betont und damit die Fähigkeit des auditorischen Systems zur Analyse von Periodizitäten besser ausgenützt (⊡ Abb. 14.37). Das verstärkte und hochpassgefilterte Mikrophonsignal wird mit einer Filterbank in eine gerätespezifische Anzahl von Frequenzbändern aufgeteilt. In jedem Kanal wird durch Gleichrichtung und Tiefpassfilterung die Einhüllende des Zeitsignals berechnet. Aus den Abtastwerten der Einhüllenden ergibt sich durch eine nichtlineare Transformation die Amplitude des Reizpulses. Infolge der schnellen kontinuierlichen
14
244
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
I
⊡ Abb. 14.37. Blockdiagramm (oben) und Funktionsprinzip (unten) der CIS-Strategie. Am Beispiel eines Schallsignals, das von zunächst niedrigen Frequenzen (z. B. Vokal) zu hohen Frequenzen (z. B. Zischlaut) übergeht, ist die Beziehung zwischen der Amplitude der Einhüllenden und der zeitlichen Folge elektrischer Pulse wiedergegeben
zeitversetzten Abtastung und der sequentiellen, basal beginnenden Aktivierung der Elektroden spiegelt sich die Zeit- und Frequenzabhängigkeit der Schallintensität in der zeitlichen Abfolge und der räumlichen Verteilung der Stimulationspulse wider. Bei typischen Pulsbreiten von 80 µs können Stimulationsraten von etwa 1 kHz pro Kanal realisiert werden. Bis auf die sehr grobe Rasterung der Frequenzachse weist diese Codierungsstrategie große Ähnlichkeit mit dem natürlichen Vorbild der peripheren Signalverarbeitung in Cochlea und Hörnerv auf. Neben »n of m« und CIS findet in einem der derzeit verfügbaren CI-Systeme die ACE-Strategie (advanced combination encoders) verbreitete Anwendung. Sie kann als eine Modifikation der n of m strategy aufgefasst werden, bei der die Maximalzahl n der jeweils aktivierten Elektroden und die Kanalrate innerhalb der durch die gerätespezifische
Kapazität (typischerweise 20.000 pps) gesetzte Grenze variabel sind. Anders als bei der CIS-Strategie werden die bis zu n aktivierten Elektroden für jedes berechnete Stimulationsmuster (frame) aus dem Gesamtvorrat m neu bestimmt, so dass auch bei kleinem n eine spektral hochaufgelöste Abbildung des Signals möglich ist. Generell beruht die Sprachcodierung in CI-Systemen auf dem Ansatz, durch die Abbildung des Frequenzspektrums auf die Elektrodenorte und die Übertragung der Zeitstruktur des Sprachsignals auf die Pulsfolge die Kombination von Orts- und Periodizitätsprinzip der natürlichen Tonhöhenerkennung und Zeitmusteranalyse nachzuahmen. Der Umsetzung dieses Zieles stehen die Grenzen der technischen Mittel im Wege. Die verfügbaren Systeme unterscheiden sich voneinander in ihrer Leistungsfähigkeit. Diese Unterschiede sind jedoch
245 14.4 · Hörprothetik
geringfügig in Relation zur Diskrepanz zwischen dem natürlichen Vorbild und dem erreichbaren technischen Standard. Trotz der noch zu erwartenden Fortschritte – v. a. in Geschwindigkeit und Leistungsfähigkeit der Signalverarbeitung, aber auch in der Zahl und Dichte der Elektroden – wird diese Diskrepanz wohl bestehen bleiben. Die Ersetzung von etwa 3400 natürlichen Rezeptorgruppen durch 12 bis 22 Elektroden kann nicht zu einer Wiederherstellung des normalen Diskriminationsvermögens führen. Dies ist der wichtigste Grund dafür, dass die mit einem CI versorgten Patienten nach der Operation eine intensive technische, audiologische, logopädische und pädagogische Betreuung benötigen. Voraussetzung für die Versorgung mit einem CI ist eine beidseitige vollständige Taubheit oder eine so ausgeprägte beidseitige Schwerhörigkeit, dass eine konventionelle Hörgeräteversorgung im Hinblick auf das Sprachverständnis keinen Gewinn erbringt. Der Versorgungserfolg hängt wesentlich von Zeitpunkt und Dauer der Ertaubung ab. Bei gehörlos geborenen oder prälingual ertaubten Patienten verhilft die späte Versorgung mit einem CI i. Allg. nicht zu einem offenen Sprachverstehen. Durch eine frühzeitige Versorgung aber kann auch vielen gehörlosen Säuglingen und früh ertaubten Kleinkindern eine annähernd normale Entwicklung der auditorischen und lautsprachlichen Fähigkeiten ermöglicht werden. Im Grenzgebiet zwischen HG- und CI-Versorgung finden sich Patienten mit noch nutzbaren und daher erhaltenswerten Hörresten, vornehmlich im Tieftonbereich. Durch die Kombination von elektrischer und akustischer Stimulation (EAS) kann in derartigen Fällen die auditive Rehabilitation optimiert werden. Voraussetzung ist eine gehörerhaltende Implantationstechnik und die Verwendung von verkürzten Elektrodenträgern, die den apikalen (Tiefton-)Bereich nicht erreichen. Die apparative Versorgung erfolgt mit einem Sprachprozessor und einem schallverstärkenden Hörgerät bzw. mit einem kombinierten Gerät, welches das Schallsignal sowohl akustisch in verstärkter Form in den Gehörgang abgibt als auch in HF-Pulse für das Implantat verschlüsselt. Es ist gezeigt worden, dass eine große Zahl von Patienten von dieser Versorgung in Hinblick auf ihre sprachliche Diskriminationsleistung profitieren. Die Versorgung mit einem Cochlea-Implantat erfordert eine umfangreiche präoperative Diagnostik. Zu den über die Basisdiagnostik hinausgehenden Eignungstests gehören bildgebende Verfahren wie die Computertomographie (CT) zur Darstellung des Knochenaufbaus im Implantationsgebiet und die Kernspintomographie (MRT) für den Nachweis einer flüssigkeitsgefüllten Cochlea. Die Funktionsfähigkeit des Hörnervs wird in einem präoperativen Elektrostimulationsversuch geprüft. An eine extratympanale Gehörgangselektrode oder eine transtympanale Nadelelektrode, deren Spitze auf dem Promontorium bzw. in der Nische des runden Fensters liegt, wird ein Reizgerät
angeschlossen. Während der Darbietung elektrischer Pulse veränderlicher Frequenz und Stromstärke wird der Patient nach seinen Wahrnehmungen befragt. Bei allen Reizfrequenzen, die zu auditorischen Empfindungen führen, werden die Reizstromstärken ermittelt, die den subjektiven Wahrnehmungs- und Unbehaglichkeitsschwellen entsprechen. Wenn der subjektive Test nicht durchführbar ist, kann die Aktivität von Hörnerv und Hörbahn in Narkose mit elektrisch evozierten Potentialen objektiviert werden, doch führt dies wegen der elektrischen Reizartefakte nicht immer zu eindeutig interpretierbaren Ergebnissen. Die Implantation der Elektroden erfolgt in Vollnarkose. Der Elektrodenträger wird durch den ausgeräumten Warzenfortsatz (Mastoid), das Mittelohr und das runde Fenster bzw. eine unmittelbar daneben geschaffene Öffnung (Cochleostomie) in die Scala tympani eingeführt. Die Öffnung des Innenohres wird mit Gewebe und Kleber verschlossen und das Implantat mechanisch befestigt. Noch während der Operation kann die Funktion des Implantats und seine Wirkung auf das Hörsystem durch Beobachtung der Stapediusreflexes während der Stimulation des Hörnervs über Sprachprozessor und Implantat oder durch Ableitung der oben beschriebenen TECAP kontrolliert werden. Bei der Anpassung des Sprachprozessors ist der akustische Eingang stillgelegt und der Sprachprozessor an einen Computer angeschlossen, über den die Reizparameter gesteuert werden. Als wichtigste Parameter des Signalverarbeitungsprogramms müssen für alle Elektroden die Bereiche sinnvoller und zulässiger Reizstärken ermittelt werden. Entlang der geräteinternen Reizstärkeskala wird die Stromstärke und evtl. auch die Dauer der einzelnen Reizpulse gemäß einer für alle Elektroden gültigen logarithmischen Funktion erhöht. Aus den Reizstärken, die den subjektiven Schwellen- und Unbehaglichkeitswerten entsprechen, wird für jede Elektrode eine Transduktionsfunktion (mapping law) definiert, die die akustische Eingangsamplitude auf den verfügbaren elektrischen Dynamikbereich abbildet (⊡ Abb. 14.38). Zusätzlich können einige Formparameter dieser Funktion modifiziert werden, um die Lautstärkeempfindung zu beeinflussen oder die Störgeräuschunterdrückung zu verbessern. Die patientenspezifischen Parameter der Sprachcodierung beruhen auf subjektiven Angaben. Wenn diese nicht zuverlässig sind, kann die Anpassung durch objektive Verfahren, z. B. die Messung des elektrisch ausgelösten und contralateral registrierten Stapediusreflexes, der TECAP oder der akustisch evozierten Potentiale, ergänzt werden. Aus den Ergebnissen dieser Messungen kann die Funktion des Gesamtsystems überprüft werden und es lassen sich objektive Hinweise auf die Lage der akustischen und elektrischen Reizschwellen ermitteln. Im postoperativen Hörtraining erhält der Patient die für die Verarbeitung der neuartigen Eindrücke notwendige Anleitung und Unterstützung. Die auditorischen Fä-
14
246
I
Kapitel 14 · Audiometrie – Die Untersuchung des Gehörs und seine technische Versorgung
⊡ Abb. 14.38. Wahrnehmungs- und Unbehaglichkeitsschwellen (WS bzw. US) für die 16 Elektroden eines (fiktiven) CI-Systems. Die vom Patienten angegebenen Grenzen des Dynamikbereiches (links) gehen in die Definition der Abbildungsvorschrift ein, die den akustischen Schalldruck mit der elektrischen Reizstärke verknüpft (rechts)
higkeiten werden mit einer nach Schwierigkeitsgraden gestaffelten Testbatterie ermittelt. Sie lassen sich in drei Stufen einteilen: Eine akustische Orientierung, d. h. eine Wahrnehmung und Erkennung von Umweltgeräuschen, ist bei allen Patienten zu erwarten, eine Unterstützung beim Lippenablesen gewährt das Implantat meistens auch prälingual ertaubten Patienten, ein offenes Sprachverständnis ohne Blickkontakt zum Sprecher und die Fähigkeit zur telefonischen Kommunikation wird hingegen i. Allg. nur von postlingual ertaubten Patienten erreicht. Grundsätzlich ist das Sprachverstehen im Störgeräusch für CI-Träger auch bei beidseitiger Versorgung problematisch. Ansätze zur Lösung dieses Problems beruhen auf digitaler Störgeräuschunterdrückung oder auf digitaler Verzögerung und Überlagerung des von mehreren Mikrophonen aufgenommenen akustischen Signals (adaptive beam forming). In dieser Hinsicht wie auch in anderen Bereichen ist die technische Entwicklung noch nicht abgeschlossen und die derzeit noch beständig zunehmenden Rehabilitationserfolge lassen weitere Fortschritte erwarten.
Literatur Abbas P, Brown C, Shallop J, Firszt J, Hughes M, Hong S, Staller S (1999) Summary of results using the Nucleus CI24M implant to record the electrically evoked compound action potential. Ear Hear 20: 45–59 von Békésy G (1960) Experiments in Hearing. McGraw-Hill, New York Böhme G, Welzl-Müller K (1993) Audiometrie. Hörprüfungen im Erwachsenen- und Kindesalter. Ein Lehrbuch. 3. Aufl. Hans Huber, Bern Boenninghaus HG, Lenarz T (2001) Hals-Nasen-Ohrenheilkunde für Medizinstudenten, 11. Aufl. Springer, Heidelberg Borucki H (1993) Einführung in die Akustik. BI, Mannheim Fricke J, Moser LM, Scheurer H, Schubert G (1983) Schall und Schallschutz: Grundlagen und Anwendungen. Physik-Verlag, Weinheim Hellbrück J (1993) Hören. Physiologie, Psychologie, Pathologie. Hogrefe, Göttingen Hoke M, Hoke EE (1997) Auditorische reiz- und ereigniskorrelierte Potentiale und Magnetfelder in der audiologischen Diagnostik. Verhandlungsber (Referate) d Dt Ges f HNO-Heilkunde, Kopf- und Hals-Chirurgie, 175–217. Springer, Heidelberg Hoth S (1999) Medizinische Akustik und Audiologie. In: Bille J, Schlegel W (Hrsg) Medizinische Physik Bd 1 Grundlagen. Springer, Heidelberg, S 305–427
Hoth S, Lenarz T (1994) Elektrische Reaktions-Audiometrie. Springer, Heidelberg Hoth S, Lenarz T (1997) Otoakustische Emissionen. Grundlagen und Anwendung, 2. Aufl. Thieme, Stuttgart Hoth S, Neumann K (2006) Das OAE-Handbuch. Otoakustische Emissionen in der Praxis. Thieme, Stuttgart Jerger J, Northern JL (1980) Clinical impedance audiometry, 2nd edition. Thieme, Stuttgart Keidel WD (1975) Physiologie des Gehörs. Akustische Informationsverarbeitung. Einführung für Ärzte, Biologen, Psychologen und Nachrichtentechniker. Thieme, Stuttgart Kießling J, Kollmeier B, Diller G (1997) Versorgung und Rehabilitation mit Hörgeräten. Thieme, Stuttgart Klinke R (1987) Die Verarbeitung von Schallreizen im Innenohr – Eine Übersicht über neuere Forschungsergebnisse. HNO 35: 139–148 Kompis M (2004) Audiologie. Huber, Bern Lehnhardt E, Laszig R (2001) Praxis der Audiometrie, 8. Aufl. Thieme, Stuttgart Lehnhardt B, Bertram B (1991) Rehabilitation von Cochlear-ImplantKindern. Springer, Heidelberg Mrowinski D, Scholz G (2002) Audiometrie. Eine Anleitung für die praktische Hörprüfung, 2. Aufl. Thieme, Stuttgart Pickles JO (1988) An introduction to the physiology of hearing, 2nd ed. Academic Press, London Roederer JG (1977) Physikalische und psychoakustische Grundlagen der Musik. Springer, Berlin Schorn K, Stecker M (1994) Hörprüfungen. In: Naumann H, Helms J, Herberhold C, Kastenbauer E (Hrsg) Oto-Rhino-Laryngologie in Klinik und Praxis. Bd 1: Helms J (Hrsg) Ohr. Thieme, Stuttgart Schorn K, Stecker M (1994) Hörgeräte. In: Naumann H, Helms J, Herberhold C, Kastenbauer E (Hrsg) Oto-Rhino-Laryngologie in Klinik und Praxis. Bd 1: Helms J (Hrsg) Ohr. Thieme, Stuttgart Sellick PM, Patuzzi R, Johnstone BM (1982) Measurement of basilar membrane motion in the guinea pig using the Mössbauer technique. J Am Soc Am 72: 131–141 Spillmann T, Wille C (2005) Audiometrie. Eine Anleitung für die Praxis. 2. Aufl. innoForce EST, Liechtenstein Stange G (1993) Funktionsprüfungen der Hör- und Gleichgewichtsorgane. Ein praktischer Leitfaden. Thieme, Stuttgart Steffens T (1996) Die sinnvolle Nutzung moderner Hörgerätetechnik. HNO 44: 213–222 und 273–285 Vonlanthen A (1995) Handbuch der Hörgerätetechnik. Median, Heidelberg Wagener K, Kollmeier B (2005) Evaluation des Oldenburger Satztests mit Kindern und Oldenburger Kinder-Satztest. Z Audiol 44: 134–143 Zenner HP (1994) Hören. Physiologie, Biochemie, Zell- und Neurobiologie. Thieme, Stuttgart Zwicker E, Fastl H (1990) Psychoacoustics. Facts and Models. Springer, Berlin Zwicker E, Feldtkeller R (1967) Das Ohr als Nachrichtenempfänger, 2. Aufl. Hirzel, Stuttgart
15 Computertomographie (CT) T.M. Buzug 15.1 Einleitung
– 249
15.5 Bedienung und Anwendungen – 260
15.2 Historie der Computertomographie – 250 15.2.1 Verwischungstomographie und Tomosynthese – 250 15.2.2 System-Generationen – 251 15.2.3 Spiral-CT – 253
15.6 Dosis
15.3.1 Röntgenröhre – 254 15.3.2 Detektorsystem – 255
15.4 Bildrekonstruktion
15.1
– 257
Fourier-Scheiben-Theorem – 257 Gefilterte Rückprojektion – 258 Rohdateninterpolation bei der Spiral-CT – 259 Artefakte – 259
Einleitung
Die Computertomographie (CT) ist heute genauso spannend wie zu Beginn ihrer Entwicklung in den sechziger und siebziger Jahren des letzten Jahrhunderts. Sie stellt das Verfahren dar, das als erstes axiale überlagerungsfreie Schnittbilder aus dem menschlichen Körper erzeugen konnte (⊡ Abb. 15.1). Die Erfindung der Computertomographie war ein enormer Schritt innerhalb der diagnostischen Möglichkeiten der Medizin. Heute gibt es einige konkurrierende Verfahren zur Computertomographie, allen voran die Magnetresonanztomographie (MRT).
a
b
– 265
15.7 Spezielle Systeme
15.3 Technologie – 254
15.4.1 15.4.2 15.4.3 15.4.4
15.5.1 Aufnahmeplanung – 261 15.5.2 Dreidimensionale Datenvisualisierung – 263 15.5.3 Klinische Applikationen – 264
c
⊡ Abb. 15.1a–c. Durch moderne, sehr schnelle CT-Scanner mit Multizeilen-Detektorsystemen lassen sich heute Ganzkörperübersichten aufnehmen, bei denen selbst kleinere Gefäße gut abbildbar sind
15.7.1 15.7.2 15.7.3 15.7.4 15.7.5
– 267
Elektronenstrahl-CT (EBCT) – 267 Volume-CT – 268 Mikro-CT – 268 PET-CT – 269 Dual-Source CT – 269
15.8 Dank
– 270
Literatur
– 270
Aber auch wenn seit Erfindung der Magnetresonanztomographie der Computertomographie immer wieder ihr Ende vorausgesagt wird, bleibt doch festzustellen, dass die überwiegende Zahl der Bilder aus der Radiologie derzeit durch CT erzeugt wird. In einigen Kliniken entfällt sogar der konventionelle Schockraum und wird durch einen CT-basierten, virtuellen Schockraum ersetzt. Die Tomographen sind in dieser Anwendung mit Anästhesie ausgestattet und die Erstversorgung der Patienten erfolgt intermittierend mit der Bildgebung. Gerade im Bereich der schnellen 3D-Diagnostik von Traumapatienten, bei denen vor der Messung nicht geklärt werden kann, ob eine Magnetresonanztomographie überhaupt durchgeführt werden darf, ist die Computertomographie der Standard. Neuerdings kommen darüber hinaus aber auch interessante technische, anthropologische und forensische sowie archäologische und paläontologische Anwendungen der Computertomographie hinzu, die die Stellung des Verfahrens über die Verwendung in der Medizin hinaus als allgemein-diagnostisches Werkzeug zur zerstörungsfreien Materialprüfung und dreidimensionalen Visualisierung weiter stärken. Aufgrund der einfachen Handhabung und der klaren physikalisch-diagnostischen Aussage sowie der Fortschritte bei der Reduktion der Strahlenbelastung wird die Computertomographie ihren festen Platz im radiologischen Umfeld behalten. Zu dieser Entwicklung hat ganz wesentlich der rasante Fortschritt der Röhren- und der Detektortechnologie beigetragen. Speziell bei den Detektorarrays sind kommerzielle Scanner aller großen Hersteller heute bei 64 Zeilen angelangt, und ein Ende der Entwicklung ist nicht abzusehen. Wenn
250
II
Kapitel 15 · Computertomographie (CT)
man heute von Tomographie spricht, so ist dies trotz der diagnostischen Konkurrenzverfahren wie MRT oder PET (Positronen-Emissions-Tomographie) immer noch ganz stark mit CT, also der Röntgen-Computertomographie, verbunden. Im englischsprachigen Raum wird die Computertomographie auch CAT (Computerized Axial Tomography) genannt. Die Darstellung eines Herzstents (⊡ Abb. 15.1b) oder der kleineren Gefäße (z. B. im Fußbereich, ⊡ Abb. 15.1c) sind heute klinische Routine. Und selbst wenn sich ein Chirurg auf den intraoperativen Eindruck des Bildverstärkers eines C-Bogens vorbereiten möchte, braucht man keine zusätzliche Röntgenaufnahme, denn aus dem präoperativ aufgenommenen tomographischen Schichtenstapel lassen sich synthetische Projektionen berechnen, die den konventionellen Aufnahmen praktisch gleichen. Aufgrund der hohen Qualität der Planungs-Übersichtsaufnahmen wird in einigen CT-basierten Schockräumen sogar auf konventionelle Röntgenaufnahmen verzichtet. Hinzu kommt, dass die Berufsgenossenschaften bei Arbeitsunfällen zunehmend auf einer tomographischen Abklärung bestehen. Auch deswegen ist CT in der Unfallklinik zur Standarddiagnostik avanciert. Bei schweren Traumata, Frakturen und Luxationen ist CT aber auch inhaltlich vorzuziehen. Eine Fraktur 20 sec stillzuhalten, ist für den verunfallten Patienten i. d. R. sehr schmerzhaft. Mit den neuen Multizeilen-Detektoren kann die Zeit für eine 3D-Bildakquisition heute wesentlich reduziert werden. Und hierbei ist CT der MRT auch technisch vorzuziehen, weil z. B. kleine abgesprengte Knochenteile (Fossikel) im MRT kaum sichtbar sind. Mit den modernen CT-Systemen ergeben sich neue Anforderungen an die Infrastruktur einer Klinik. Die zugunsten der Bildschirmbefundungsplätze ausgeschalteten Alternatoren sind dabei nur ein äußeres Zeichen dieses Wandels. Entscheidend sind natürlich ein leistungsfähiges PACS mit einem Kliniknetzwerk hoher Bandbreite. Darüber hinaus erfordert die Bilderflut der modernen Computertomographen ein anderes Umgehen der Ärzte mit den Daten. Tatsächlich ist heute nicht mehr die Akquisitionstechnik das zeitliche Nadelöhr bei einer Untersuchung, sondern die ärztliche Befundung. Da die großen Datensätze den Radiologen überfordern, ist zu beobachten, dass sich die Paradigmen ändern. Zunehmend sind nämlich dreidimensionale Bilder des Patienten Bestandteil der Befundung (⊡ Abb. 15.1). Der Arzt kann mit der 3D Rekonstruktion schneller befunden, als bei der Durchsicht von hunderten von Bildern. Dabei ist die Entwicklung der hochauflösenden Multizeilen-Detektoren wiederum eine Voraussetzung für qualitativ hochwertige Sekundärrekonstruktionen und ihre dreidimensionalen Visualisierungen. In diesem Kapitel soll die Historie der Computertomographie ( Abschn. 15.2), die moderne Technologie mit Schwerpunkt auf Röntgenstrahlenerzeugung und detektion ( Abschn. 15.3) sowie die Bildrekonstruktion
( Abschn. 15.4) besprochen werden. Darüber hinaus sind Aspekte der Bedienung und Anwendung ( Abschn. 15.5), der Dosis bei der Computertomographie ( Abschn. 15.6) sowie ein kleiner Abschnitt über spezielle CT-Entwicklungen enthalten ( Abschn. 15.7). Da dieses Kapitel nur den Charakter eines Überblicks besitzt, sei an dieser Stelle schon auf aktuelle Bücher verwiesen, die eine ausführliche Beschreibung der Technologie der Computertomographie geben (Kalender 2000, Seeram 2001, Hsieh 2003 u. Buzug 2004).
15.2
Historie der Computertomographie
Konventionelle Röntgenverfahren haben den schwer wiegenden Nachteil, dass sie lediglich Projektionsbilder liefern. Dies führt natürlich zu einem Verlust an räumlicher Information (das kann eine geübte Radiologin oder ein geübter Radiologe aber verschmerzen und durch Erfahrung ergänzen). Darüber hinaus stellt die Projektion aber eine Mittelung dar. Man kann sich dies so vorstellen, dass der Körper in einzelne Schichtbilder zerlegt wird, die zur Betrachtung alle übereinander gelegt werden. Dies ist auch für Experten weniger gut zu verschmerzen, da mit der Mittelung ein erheblicher Kontrastverlust gegenüber dem Kontrast einer einzelnen Schicht verbunden ist. In ⊡ Abb. 15.2a ist jeweils eine konventionelle Schädelaufnahme (links) und eine Knieaufnahme (rechts) zu sehen, die zwar die hohe Schwächung der Röntgenstrahlung im Bereich z. B. des Schädelknochens und ganz extrem die Schwächung im Bereich der Zahnfüllungen zeigt, die kleinen Röntgenschwächungsunterschiede, die die Weichteile charakterisieren, sind aber nicht zu erkennen. Insbesondere ist die Morphologie des Gehirns im Mittelungsprozess vollständig verloren gegangen. Beim Knie bilden sich durch die Überlagerung selbst die Knochenstrukturen nur mit geringem Kontrast ab.
15.2.1 Verwischungstomographie
und Tomosynthese Der Wunsch, den Mittelungsprozess, der die konventionellen Röntgenaufnahmen charakterisiert, rückgängig zu machen, führte in den 20er Jahren des letzten Jahrhunderts zu den ersten tomographischen Konzepten. Das Wort Tomographie setzt sich dabei aus den beiden griechischen Worten tomos (Schnitt) und graphein (zeichnen) zusammen. Das Wort Tomographie wurde ganz wesentlich durch den Berliner Arzt G. Grossmann geprägt, dessen Grossmann-Tomograph in der Lage war, eine einzelne Schicht im Körper abzubilden. Das Tomographieprinzip dieses Verfahrens ist in ⊡ Abb. 15.2b illustriert. Während der Röntgenaufnahme wird die Röntgenröhre linear in die eine Richtung und der Röntgenfilm
251 15.2 · Historie der Computertomographie
a
⊡ Abb.15.2a,b. Konventionelles Projektionsröntgen führt zu kontrastschwachen Bildern, die keine Weichteildiagnostik zulassen. a Zu sehen ist eine Schädelaufnahme (links), bei der die Feinheiten der räumlichen Strukturen des Gehirns nicht mehr zu erkennen sind. In der Knieaufnahme (rechts) sind selbst die knöchernen Strukturen sehr kontrastarm dargestellt. b Die ersten Versuche, Schnittbilder aus dem Körper zu erzeugen, begannen mit der so genannten Verwischungstomographie
b
simultan in die andere Richtung verschoben. Dadurch bilden sich nur Punkte in der Drehpunktebene scharf ab. Alle Punkte über- und unterhalb dieser Ebene werden auf dem Bild verwischt und zwar umso stärker, je weiter sie von der Ebene entfernt sind. Daher nennt man dieses Verfahren auch Verwischungstomographie (es wird auch »Tomosynthese« genannt, wenn die Projektionsbilder digital weiterverarbeitet werden). Natürlich sind die verwischten Informationen nicht verschwunden, sondern sie legen sich als Grauschleier über die scharfe Abbildungsebene, sodass auch hier ein erheblicher Kontrastverlust zu verzeichnen ist. Der Qualitätsgewinn gegenüber einer einfachen Durchleuchtung ist aber am Beispiel der tomosynthetisch aufgenommenen Schichtsequenz des Knies gut zu erkennen (Härer et al. 1999 und 2003). Ein verwandtes Verfahren, die so genannte Orthopantomographie, ist heute in der Dentalradiographie weit verbreitet. Mit diesem Verfahren wird eine Panoramadarstellung der Zahnreihen auf gekrümmten Schichten entlang des Kieferbogens dargestellt.
15.2.2 System-Generationen
Die Computertomographie vermeidet die Überlagerung von verwischten Ebenen und erzeugt damit einen großen Kontrast, sodass auch Weichteile gut abgebildet werden. Der diagnostische Qualitätssprung, der damit einherging, begründet den enormen Erfolg der Computertomographie. Etabliert ist eine Unterscheidung in vier Generationen von Computertomographen, die in ⊡ Abb. 15.3 zu sehen sind. Diese Unterscheidung ist historisch gewachsen und bezieht sich sowohl auf die Art, wie Röntgenquelle und Detektor konstruiert sind, als auch auf die Art, wie beide sich um den Patienten bewegen.
a
b
c
d
⊡ Abb.15.3a–d. Generationen von Computertomographen. a Erste Generation: Rotation-Translation des Nadelstrahls, b zweite Generation: Rotation-Translation eines kleinen Fächerstrahls, c dritte Generation: Rotation-Rotation eines großen Fächerstrahls und d vierte Generation: Rotation-Fix mit geschlossenem Detektorring
1. Generation Die erste Generation von Computertomographen besitzt eine Röntgenquelle, die einen einzelnen Nadelstrahl aussendet, der mit Hilfe von entsprechenden Kollimatoren aus dem Röntgenkegel selektiert wird. Diese Geometrie wird »Pencil«-Strahlform oder Nadelstrahlform genannt. Auf der der Röntgenquelle gegenüberliegenden Seite des
15
252
II
Kapitel 15 · Computertomographie (CT)
Messfeldes befindet sich ein einzelner Detektor, der synchron mit der Röntgenquelle unter verschiedenen Projektionswinkeln γ linear verschoben wird (⊡ Abb. 15.3a). Abhängig von den spezifischen Schwächungseigenschaften des Gewebes wird die Intensität des Strahls beim Durchgang durch den Körper geschwächt. Der erste CTScanner, den ein Außenseiter, nämlich die für Schallplatten bekannte Firma EMI gebaut hatte, beruhte auf dem Nadelstrahlprinzip. 1972 realisierte Godfrey N. Hounsfield (1919–2004) diesen ersten Computertomographen in den EMI Forschungslaboratorien. Dafür erhielt er 1979 zusammen mit Allen M. Cormack (1924–1998) den Nobelpreis für Medizin. Ein Photo des ersten EMI-Kopfscanners aus dem Jahre 1972 zeigt ⊡ Abb. 15.4. Die ersten kommerziellen Scanner besaßen tatsächlich einen eng fokussierten Röntgenstrahl und einen einzelnen NaI-Szintillationsdetektor. Dieses technisch heute nicht mehr realisierte Prinzip ist von grundsätzlicher Bedeutung, da die mathematischen Verfahren zur Rekonstruktion hier besonders einfach zu verstehen sind. Insbesondere kann man die mathematischen Verfahren für die moderneren Geometrien durch geeignete Koordinatentransformationen aus der Nadelstrahlgeometrie gewinnen. ⊡ Abb. 15.4 zeigt einen der ersten Tomographen der ersten Generation, der 1974 von Siemens produziert
wurde, sowie das Ergebnis eines axialen Kopfscans mit einer Bildmatrix von 80×80 Pixeln. Die weitere rasante Entwicklung der Computertomographie wurde und wird von drei wesentlichen Forderungen vorangetrieben: Reduktion der Aufnahmezeit, Reduktion der Strahlenbelastung und nicht zuletzt Reduktion der Kosten. Auf dem Weg, diese Faktoren zu optimieren, gibt es mehrere historische Stationen, die in den folgenden Abschnitten kurz besprochen werden sollen.
2. Generation Der Computertomograph der zweiten Generation besitzt eine Röntgenquelle mit Fächerstrahlgeometrie und ein kurzes Detektorarray mit etwa 30 Elementen (⊡ Abb. 15.3b). Allerdings ist die Fächerstrahlöffnung immer noch sehr klein, sodass auch hier Röhre und Detektor linear verschoben werden müssen, bevor ein neuer Projektionswinkel eingestellt werden kann. Bei den ersten Geräten betrug der Öffnungswinkel des Röntgenfächerstrahls etwa 10°. Immerhin konnte aber die Akquisitionszeit schon auf einige Minuten pro Schicht gesenkt werden, da man mit dem Array gleichzeitig mehrere Intensitäten messen kann. Das Messfeld war dennoch nur für Schädelaufnahmen geeignet.
⊡ Abb.15.4. Historische Entwicklung der CT-Scanner. 1972: EMI Kopfscanner (1. Generation); 1974: Siemens Siretom (1. Generation); 1975: Philips Tomoscan 200 (2. Generation); 2005 Philips Brilliance (3. Generation)
253 15.2 · Historie der Computertomographie
Dass bei dem Tomographen der ersten und zweiten Generation der Schädel als klinischer Applikationsschwerpunkt gewählt wurde, liegt im Wesentlichen an der langen Akquisitionszeit. Der Schädel ist gut zu fixieren und zeigt keine großen Bewegungen innerhalb der Aufnahmezeit. Das ist bei Aufnahmen in dem Bereich des Thorax oder des Abdomen natürlich anders, da die Bewegung des Herzens und der Lunge sowie über das Zwerchfell auch die Bewegung der weichen Organe des Abdomens zu Artefakten in den rekonstruierten Bildern führt. Die Rekonstruktionsmathematik erfordert es, dass alle zu rekonstruierenden Punkte einer Schicht über 180° durchleuchtet werden. Wenn aufgrund der Patientenbewegung ein Punkt während eines Umlaufs des Scanners aus der Schicht herauswandert, führt dies unweigerlich zu Fehlern in der Bildwiedergabe. ⊡ Abb. 15.4 zeigt den Philips Tomoscan 200 Scanner der zweiten Generation aus dem Jahr 1975.
3. Generation Das Hauptziel neuer Entwicklungen in den 70er Jahren des letzten Jahrhunderts war die Reduktion der Akquisitionszeit auf unter 20 s. Dies sollte ausreichen, um in einem Atemstopp des Patienten auch Bilder des Abdomens einigermaßen fehlerfrei zu rekonstruieren. Ein großer Entwicklungsschritt in diese Richtung war die konsequente Weiterführung des Fächerstrahlkonzeptes der zweiten Generation, nämlich die Einführung eines wesentlich größeren Öffnungswinkels des Röntgenfächers und ein dazugehöriges längeres Detektorarray. ⊡ Abb. 15.3c zeigt das Prinzip dieser dritten Generation wieder schematisch. Das rekonstruierbare Messfeld ist hier ebenfalls illustriert. Der Öffnungswinkel des Röntgenfächers ist typischerweise zwischen 40° und 60° groß und das Detektorarray ist i. d. R. als Detektorbogen mit heute zwischen 400 und 1000 Elementen ausgelegt. Auf diese Weise kann nun unter jedem eingestellten Projektionswinkel γ das gesamte Messfeld, in dem jetzt auch der Körperstamm liegen kann, simultan durchleuchtet werden. Somit kann man bei der dritten Generation ganz auf die lineare Verschiebung verzichten. Mit dieser Idee verkürzt sich die Akquisitionszeit erheblich, da eine kontinuierliche Drehung erfolgen kann, ohne dass Pausen für die lineare Verschiebung eingelegt werden müssen. Die überwiegende Zahl der heute installierten Geräte sind die Fächerstrahlsysteme der dritten Generation. ⊡ Abb. 15.4 zeigt zwei CT-Scanner der zweiten und der dritten Generation aus dem Jahre 1975 bzw. 2005. Während sich die Geräte äußerlich kaum unterscheiden, hat die Röhren- und Detektortechnologie in den letzten Jahrzehnten erhebliche Fortschritte gemacht.
4. Generation Die vierte Generation der Computertomographen unterscheidet sich hinsichtlich der Röntgenquelle nicht von
den Tomographen der dritten Generation. Auch hier dreht sich die Fächerstrahlquelle kontinuierlich ohne lineare Verschiebung um das Messfeld. Der Unterschied zur dritten Generation liegt im geschlossenen, ortsfesten Detektorring mit bis zu 5000 Einzelelementen. Hierbei kann die Röntgenröhre außerhalb (⊡ Abb. 15.3d) oder innerhalb des Detektorrings rotieren. Für die Anordnung der Röhre außerhalb des Detektorrings ist klar, dass der Röntgenstrahl nicht die der Quelle jeweils nahe liegenden Detektoren von hinten durchstrahlen soll. Daher wird der Detektorring gegenüber der Bahn der Röhre dynamisch geneigt, sodass die Sichtlinie zwischen der Röhre und dem Arbeitsbereich des Detektorrings nur durch den Patienten (und den Patiententisch) und nicht durch die Detektorelektronik geht. Tomographen der vierten Generation bilden so genannte inverse Fächerstrahlen aus, deren jeweilige Zentren die einzelnen Detektoren sind. Man nennt den inversen Fächer auch Detektorfächer im Unterschied zum Röntgenfächer der Tomographen dritter Generation. Lediglich beschränkt durch die Abtastrate, mit der die einzelnen Detektoren ausgelesen werden können, kann ein sehr dichter inverser Fächer gemessen werden. Auf diese Weise ist man im Gegensatz zu den Tomographen der dritten Generation in der räumlichen Auflösung des einzelnen Fächers im Prinzip nicht beschränkt.
15.2.3 Spiral-CT
Ein Entwicklungsschritt, der einen enormen Sprung in der Leistungsfähigkeit von Computertomographen der dritten Generation zur Folge hatte, ist die Einführung der Schleifringtechnologie. Mit ihr hatte man die Möglichkeit, den Patienten spiralförmig abzutasten. Da der Röntgenröhre kontinuierlich Energie zugeführt werden muss, war bei den ersten Scannern durch die Kabelzuführung der Winkelverfahrweg beschränkt. Dieses Problem war eine hohe Barriere bei der Reduktion der Akquisitionszeiten. Ständig musste die Abtasteinheit anfahren und wieder stoppen. Zwar hat man sowohl bei Links- wie auch der nachfolgenden Rechtsdrehung jeweils Daten akquiriert, aber durch die entstehenden Drehmomente war der Scangeschwindigkeit Grenzen gesetzt. Die Kabelverbindung wurde bei diesem Prozess in der einen Richtung abgewickelt und in der anderen Richtung vorsichtig wieder aufgewickelt. Gelöst wurde dieses Problem durch die Schleifringtechnologie. Die Energie wird hierbei durch Schleifkontakte von dem äußeren Rahmen, der so genannten Gantry, auf die sich drehende Abtasteinheit übertragen. Jetzt konnte die Abtasteinheit, die die Röntgenquelle und in der dritten Generation auch das Detektorarray trägt, kontinuierlich rotieren. Dabei sind heute Rotationsfrequenzen von 2 Umdrehungen pro Sekunde in so genannten Subsekundenscannern Standard.
15
254
II
Kapitel 15 · Computertomographie (CT)
Allerdings gibt es auch kleinere Kompaktgeräte, die ihre Unabhängigkeit von einer äußeren Energiezufuhr während der Rotation der Abtasteinheit durch Akkumulatoren herstellen. Ein Beispiel hierfür ist der mobile Tomoscan M Computertomograph von Philips. Dieser Tomograph kommt ganz ohne Schleifringtechnologie aus. Bei der Übertragung der Messdaten zurück auf die ruhende Gantry findet man grundsätzlich verschiedene Wege. Während viele Geräte ihre Daten auch über einen Schleifkontakt nach außen geben, wird bspw. beim Tomoscan M eine kontaktlose kapazitive RF-Übertragung genutzt. Bei der derzeitigen Entwicklung zu einer immer größer werdenden Detektorenanzahl bei gleichzeitiger Steigerung der Umdrehungsgeschwindigkeit stellt die Datenübertragung von der Abtasteinheit auf die Gantry einen Flaschenhals dar, der in neueren Geräten auch mit optischer Datenübertragung überbrückt wird. Die kabellose Energie- und Datenübertragung ermöglichte ein neues CT-Scanprotokoll. Bei kontinuierlichem Patiententischvorschub ist es nämlich nun möglich, Daten auf einer spiralförmigen Abtastbahn zu messen. Dieses Spiral-CT-Verfahren, auf das in Abschn. 15.4.3 noch einmal eingegangen wird, wurde 1989 von Willi Kalender an einem Prototypen erfolgreich demonstriert (Kalender et al. 1989).
15.3
Technologie
Computertomographen bestehen aus einem Frontend, dem eigentlichen Scanner, und einem Backend, der Bedienkonsole und der Viewing-Station. Sämtliche Komponenten des Frontends (Röntgenröhre, Filter, Blenden, Kollimator, Detektorsystem, Generator, Kühlsystem, Datenerfassungssystem, Schleifring, Patiententisch, Motorsteuerungen und Mechanik) sind heute technisch hoch entwickelt und haben zum Teil lange Entwicklungszeiten hinter sich. In diesem Abschnitt sollen aufgrund ihrer zentralen Bedeutung nur die Hauptkomponenten des Frontends besprochen werden, die Röntgenröhre und das Detektorsystem.
15.3.1 Röntgenröhre
Röntgenstrahlung ist elektromagnetischer Natur. Sie besteht aus Wellen des Wellenlängenbereichs 10-8 m bis 10-13 m und wird beim Eintritt schneller Elektronen in ein Metall erzeugt. Dabei ist die Energie der Röntgenstrahlung abhängig von der Geschwindigkeit v der Elektronen. Diese wiederum ist abhängig von der Beschleunigungsspannung UB zwischen Kathode und Anode, die von dem Bediener im CT-Scanprotokoll typischer Weise im Bereich zwischen 90 kV und 140 kV eingestellt werden kann. In der allgemeinen medizinischen Röntgendiag-
nostik liegen die Beschleunigungsspannungen zwischen 25 kV und 150 kV, für die Strahlentherapie zwischen 10 kV und 300 kV und für die Materialprüfung bei bis zu 500 kV. Während die Beschleunigungsspannung die Energie des Röntgenspektrums bestimmt, steuert der Anodenstrom, der ebenfalls durch den Bediener festgelegt wird, die Intensität des erzeugten Röntgenspektrums. Beim Eintritt der so beschleunigten Elektronen in die Anode, laufen dicht an der Anodenoberfläche mehrere Prozesse ab. Grundsätzlich werden die Elektronen durch die elektrischen Felder der Atome im Anodenmaterial abgelenkt und abgebremst. Die Abbremsung geschieht dabei in Wechselwirkungen mit den orbitalen Elektronen und dem Atomkern. Da beim Bremsen von Ladung Energie in Form einer elektromagnetischen Welle frei wird, entstehen Photonen. Meistens entstehen bei diesem Prozess mehrere Photonen. Es kann aber auch vorkommen, dass die gesamte Energie eines Elektrons in ein einzelnes Photon umgewandelt wird. Aufgrund der Vielfalt der Abbremsungsprozesse im Anodenmaterial ist das so genannte Bremsspektrum kontinuierlich. Zu dem kontinuierlichen Bremsspektrum überlagert sich ein Linienspektrum, das durch direkte Wechselwirkung der schnellen Elektronen mit inneren Hüllenelektronen des Anodenmaterials entsteht. Da die niederenergetische, so genannte weiche Röntgenstrahlung nicht zum Bildgebungsprozess beiträgt, wird sie direkt an der Röhre durch Metallfilter gedämpft. Der Wirkungsgrad der Energieumwandlung in Röntgenstrahlung liegt bei Wolframanoden (Kernladungszahl Z=74) mit einer Beschleunigungsspannung von UB = 100 kV in der Größenordnung von 1%. Damit hat man ein massives Wärmeproblem, denn die Anode wird an der Oberfläche bis zum Glühen erhitzt, darf aber nicht schmelzen. Um die thermische Belastung auf der Anode zu verteilen, werden seit einigen Jahrzehnten Drehanoden eingesetzt. Die Energie des Elektronenstrahls verteilt sich auf einer abgeschrägten Bahn, der so genannten Brennfleckbahn. In ⊡ Abb. 15.5a-c (Abb. 15.5 auch 4-Farbteil am Buchende) ist eine moderne Philips MRC 600 Röntgenröhre zu sehen. In einem Flüssigmetall-Spiralrillenlager wird die Drehanode direkt gekühlt. Durch den großflächigen Kontakt des Flüssigmetalls ist die Wärmeableitung sehr effizient. Die Größe und Form des Brennflecks auf dem Anodenteller beeinflusst die medizinischen Abbildungseigenschaften. Aufgrund der Schrägung des Anodentellers ist die Projektion der Brennfleckgeometrie in Richtung der austretenden Strahlung entscheidend für die Qualität der Abbildung. Man spricht daher von dem optischen Brennfleck, der möglichst klein gehalten werden muss. Üblich sind bei diagnostischen Röntgenröhren Brennfleckabmessungen zwischen 0.3 mm und 2 mm, wobei durch Fokussierung auf unterschiedliche Schrägungen häufig zwischen zwei Brennfleckgrößen umgeschaltet werden kann. Je größer der Brennfleck ist, desto besser ist die unerwünsch-
255 15.3 · Technologie
a
b
d
c
e
f ⊡ Abb. 15.5a–f. a Moderne Hochleistungsröntgenröhre, b Anschnitt und c Prinzip der Röntgenröhre mit Drehanode (Philips), d Prinzip des Multizeilen-Detektors, e kompletter Detektor eines 64-Zeilen CT-Systems (Siemens), f Realisierung eines 41 cm × 41 cm großen Flächendetektors mit 2048×2048 Pixeln (General Electric)
te Wärmeenergie auf der Anode zu verteilen, allerdings beeinträchtigt andererseits die Halbschattenunschärfe bei einem großen optischen Brennfleck die Schärfe des Bildes. Der mathematische Zusammenhang der Brennfleckgröße mit der Abbildungsqualität wird durch die so genannte Modulationstransferfunktion beschrieben. Ein weiterer Faktor, der in Bezug auf die Abbildungsqualität Beachtung finden muss, ist die Richtungscharakteristik der Röntgenstrahlung, denn die Intensität der Röntgenstrahlung sinkt für Strahlen, die die Anode streifend verlassen. Dieser Effekt beruht auf der Selbstabsorption der Anode im Bereich der Oberflächenrauhigkeit. Je kleiner der Winkel zwischen austretender Röntgenstrahlung und der Anodenoberfläche ist, desto stärker wirkt sich die Absorption aufgrund der Rauhigkeit entlang der Brennfleckbahn aus. Dieser so genannte Heel-Effekt verstärkt sich mit der Alterung der Röhre, da allmählich Material durch Elektronenbeschuss abgetragen wird, wodurch die Rauhigkeit der Brennfleckbahn zunimmt (Heinzerling 1998). In den modernen Computertomographen möchte man möglichst viel Röntgenstrahlung des an der Anode entstehenden Strahlkegels nutzen. Daher ist es wichtig, die Strahlcharakteristik der Röntgenröhre genau zu kennen, denn die Basis aller Rekonstruktionsverfahren ist die Annahme, dass das zu untersuchende Objekt
homogen ausgeleuchtet wird. Leichte Inhomogenitäten können durch spezielle röntgenseitige Filter sowie durch eine Detektorkalibrierung kompensiert werden.
15.3.2 Detektorsystem
Die Detektion von Röntgenstrahlung beruht auf Effekten der Wechselwirkung zwischen Strahlung und Materie. Das heißt, die Röntgenquanten werden nicht direkt gemessen, sondern nur die Wechselwirkungsprodukte wie z. B. Photoelektronen.
Gasdetektoren Da Röntgenstrahlung die Fähigkeit besitzt, Gase zu ionisieren, liegt es nahe, Detektoren zu verwenden, die auf diesem physikalischen Sachverhalt basieren. Das GeigerMüller-Zählrohr ist einer der bekanntesten Detektoren für ionisierende Strahlung. Tatsächlich wurden die ersten Versuche zur Computertomographie auch mit GeigerMüller-Zählrohrdetektoren realisiert. Auf dem gleichen physikalischen Prinzip basieren auch die Gasdetektoren, die in Tomographen der dritten Generation zum Einsatz kommen. Als Gas wird häufig Xenongas unter hohem
15
256
II
Kapitel 15 · Computertomographie (CT)
Druck in die Ionisationskammer gefüllt. Die Gleichung hν + Xe → Xe + + e - beschreibt dabei den ersten Teil des Detektionsprozesses. Die ionisierten Xenonatome und die Elektronen werden durch eine Hochspannung zur Kathode bzw. Anode beschleunigt und der Strom dort als Maß für die Intensität der eintretenden ionisierenden Strahlung gemessen. Die schwache Quanteneffizienz des Ionisationsprozesses kann durch hohe Kammern ausgeglichen werden. Die große Kammerhöhe bietet den Vorteil der Richtungsselektivität, denn je länger der Weg der Quanten durch das Gas ist, desto größer ist die Ionisierungswahrscheinlichkeit. Quanten mit schrägem Einfall legen nur einen kurzen Weg in der Kammer zurück.
Szintillationsdetektoren Die meisten Computertomographen sind heute mit Szintillationsdetektoren ausgestattet. Ein solcher Detektor besteht im Wesentlichen aus einem Kristall und einer Photodiode. Die einfallende (kurzwellige) Röntgenstrahlung wird in dem Szintillationskristall zunächst in (langwelliges) Licht umgewandelt. Diese Kristalle bestehen z. B. aus Cäsiumjodid, Wismutgermanat oder auch Cadmium-Wolframat. Für die Wahl der Kristalle spielen Anforderungen wie die Effizienz der Umwandlung von Röntgenstrahlung in Licht aber auch die Abklingzeit bzw. das Nachleuchten (Afterglow) der Kristalle eine große Rolle. Für sehr schnelle Abklingzeiten, die heute bei den Subsekundenscannern benötigt werden, kommen auch Keramiken wie Gadoliniumoxysulfid (Gd2O2S) zum Einsatz. Die einzelnen Detektorblöcke sind auf einem Kreisabschnitt an der sich drehenden Abtasteinheit angebracht. Dies ist in ⊡ Abb. 15.3c am Scanner der dritten Generation schematisch gezeigt. Damit möglichst nur Strahlung von der direkten Verbindungslinie zwischen Röntgenfokus und Detektor in den Kristall einfällt, verwendet man lamellenförmige Abgrenzungen zwischen den einzelnen Kanälen. Ohne dieses so genannte Streustrahlenraster, das einen detektorseitigen Kollimator darstellt, würde einfallende Störstrahlung die Bildqualität erheblich beeinträchtigen. Ein Nachteil des Streustrahlenkollimators liegt auf der Hand. Durch die zur Abschirmung gestreuter Röntgenstrahlung notwendige Lamellendicke von etwa 0.1 mm hat der Detektor nur eine geometrische Gesamteffizienz von 50–80%. Die Toträume reduzieren das Auflösungsvermögen.
Festkörper-Mehrzeilen-Detektoren Die im vorhergehenden Kapitel beschriebenen Kristall- bzw. Keramikdetektoren können durch Aneinanderreihung leicht zu mehrzeiligen Detektorarrays aufgerüstet werden. Die zentrale Forderung hierbei ist, dass die Toträume der Arrays möglichst klein bleiben. Quantitativ wird dies durch den so genannten Füllfaktor ge-
messen. Der Füllfaktor ist definiert als röntgensensitive Fläche des Sensors bezogen auf die Gesamtfläche des Sensors. Für die Xenondetektoren ist dies in kompakter Bauweise nicht möglich. Daher bestehen praktisch alle Mehrzeilensysteme aus Szintillationsdetektoren. Im Gegensatz zu den im technischen Einsatz häufig vorkommenden planaren Detektoren, sind in medizinischen Anwendungen zurzeit die zylindrischen Anordnungen in der Überzahl. So wie in ⊡ Abb. 15.5d schematisch illustriert, bildet das Mehrzeilensystem ein Segment eines Zylindermantels, dessen Zentrum in der Röntgenquelle liegt. ⊡ Abb. 15.5e zeigt einen modernen Detektor eines Siemens 64-Zeilen CT-Systems. Wenn die Anzahl der Zeilen dieser Detektoren so groß wird, dass die Neigung der zu rekonstruierenden Schicht nicht mehr zu vernachlässigen ist, sind größere Anstrengungen in der Rekonstruktionsmathematik ( Abschn. 15.4) erforderlich. Diese Anstrengungen werden aber mit einer verbesserten Bildqualität belohnt. Detektoren können so paarweise elektronisch zusammen geschaltet werden, dass sich die gewünschte Anzahl von gleichzeitig messbaren Schichten mit den dazugehörigen Schichtdicken ergeben.
Festkörper-Flat-Panel-Detektoren Wird bei großen Mehrzeilen-Detektorsystemen die Neigung der Schichten im Röntgenkegel innerhalb des Rekonstruktionsalgorithmus nicht berücksichtigt, dann ergeben sich Bildfehler, die in der diagnostischen Anwendung inakzeptabel sind. Da nun andererseits die Rekonstruktionsmathematik für eine echte Kegelstrahlrekonstruktion, die diese Artefakte vermeiden kann, ohnehin ein Umdenken in der praktischen Implementierung erfordert, ist es nahe liegend, das Mehrzeilenprinzip bei den Detektoren zu verlassen und direkt zu Flächendetektoren überzugehen. Das Kernstück des Detektors besteht aus einem Glassubstrat, auf dem eine Matrix aus 2048×2048 Sensoren mit einer Größe von je 200 µm aufgebracht ist (Brunst 2002). Dies geschieht in Dünnfilmbeschichtungstechnik monolithisch, sodass kein Aneinanderstückeln mehrerer kleinerer Panels erforderlich ist. In Kombination mit der Photolithographie sowie weiterer Ätzschritte ist diese Technik der übliche physikalisch-chemische Weg, der in der Mikroelektronik beschritten wird, um sehr feine Strukturen herzustellen. Mit dieser Verfahrensweise wird ein Detektorfeld mit sehr großem Füllfaktor erzeugt, wie dies mit den Detektortypen aus vorangegangenen Abschnitten nicht möglich wäre. Jedes einzelne Sensorelement besteht aus einer Photodiode aus amorphem Silizium und einem Dünnfilmtransistor (TFT). Auf die entstehende Pixelmatrix ist eine röntgenempfindliche Szintillationsschicht aus Cäsiumjodid (CsI) aufgebracht. Das einfallende Röntgenlicht wird zunächst vom CsISzintillator in Licht umgewandelt, das zu den dar-
257 15.4 · Bildrekonstruktion
unter liegenden Photodioden weitergeleitet wird. Die Photonen werden in den Photodioden absorbiert und erzeugen dort eine elektrische Ladung, die der Intensität der Röntgenstrahlung proportional ist. Während der Belichtung wird die Ladung in der Photodiode integriert und gespeichert. Der eigentliche Auslesevorgang wird durch den Dünnfilmtransistor gestartet, der die Ladung über die Datenleitung zur Ausleseelektronik schaltet. Dort finden eine Verstärkung und die Analog-DigitalWandlung statt. In ⊡ Abb. 15.5f ist ein unkonfektionierter Flat-Panel-Detektor mit den Datenleitungen zur Auswerteelektronik zu sehen. Der Flächendetektor besitzt eine über sehr weite Belichtungsbereiche lineare Dynamikkennlinie und einen sehr hohen Dynamikumfang. Hoch- und niedrigbelichtete Bereiche haben so die volle Kontrastinformation, was zu einer ausgezeichneten Hochkontrastauflösung führt. Im Bereich der Niedrigkontrastauflösung erreichen heutige Systeme allerdings noch nicht die Leistungsfähigkeit der dedizierten CT-Detektoren aus den vorangegangenen Abschnitten. Die zweite, für die spätere Bildqualität bedeutende Eigenschaft ist die exzellente Ortsauflösung. Um die Ortsauflösung zu optimieren, wird das Cäsiumjodid in einem speziellen Aufdampfprozess so auf die Matrix aufgebracht, dass es in direkten Kontakt mit der darunter liegenden Photodiodenmatrix kommt. Dabei gelingt es, das Cäsiumjodid in Form feiner Nadeln zu strukturieren. Werden innerhalb dieser Struktur durch einfallende Röntgenquanten Photonen freigesetzt, dann wirken die Nadeln wie kleine Lichtfasern, sodass die Photonen sich überwiegend entlang dieser Strukturen bewegen. Damit bewegen sie sich also entweder auf direktem Wege zur Photodiode oder zunächst in entgegengesetzter Richtung von der Photodiode weg, um an der Oberkante der CsISchicht reflektiert zu werden und dann zur Photodiode zu gelangen. Dieser Lichtleiteffekt ist das Geheimnis der hohen Quanteneffizienz der digitalen Detektoren. Man kann nämlich so die röntgensensitive Schicht des Detektors sehr dick aufdampfen, ohne dass durch breitere Streuung die Ortsauflösung beeinträchtigt wird. Das Szintillationslicht bleibt durch die CsI-Fasern auf einen sehr kleinen Fleck auf der Photodiodenmatrix gebündelt. In Abschn. 15.7, ⊡ Abb. 15.12b ist ein Prototyp eines solchen Volumen- bzw. Kegelstrahl-CT mit einem FlatPanel-Detektor zu sehen.
15.4
Bildrekonstruktion
Das zentrale Problem der Computertomographie ist leicht formuliert: Man rekonstruiere ein Objekt aus den Projektionen dieses Objektes. Mathematisch handelt es sich bei der Computertomographie um ein so genanntes inverses Problem. Die Bedeutung des mathematischen Begriffs
des inversen Problems erschließt sich sofort, denn man hat keinen direkten Einblick in die räumliche Verteilung der Objekte, die man darstellen möchte. Man hat nur die Projektionen entlang der sich drehenden Detektorkoordinate, und zwar gemessen über einen Winkel von mindestens 180°, aus denen man nun – gewissermaßen rückwärts – die räumliche Verteilung der Objekte berechnen muss. Es handelt sich hierbei um die Inversion von Integraltransformationen. Aus einer Sequenz von gemessenen Projektionen {pγ1(ξ), pγ2(ξ), pγ3(ξ), ....} muss also die verborgene Anatomie – genauer, die räumliche Verteilung der Schwächungskoeffizienten µ(ξ,η) innerhalb einer gewählten Schicht durch den Körper – errechnet werden.
15.4.1 Fourier-Scheiben-Theorem
Abhängig vom Weg η, den die Röntgenstrahlen durch den Körper nehmen (von der Röntgenröhre η = 0 bis zum Detektor η = s), wird die Intensität in unterschiedlichem Ausmaß geschwächt. Nach dem Logarithmieren der mit dem Detektorelement ξ gemessenen Intensität erhält man die Summe der Schwächungen pγ(ξ) entlang des Röntgenstrahls aus der Richtung γ. Um ein Bild des Körperinneren zu berechnen, ist es erforderlich, dass jeder Punkt des Messfeldes aus allen Richtungen γ, also über mindestens 180° durchleuchtet wurde. In ⊡ Abb. 15.6a sind die Schwächungsprofile pγ(ξ) über dem Winkel γ aufgetragen. Durch die kreisförmige Bewegung der Röntgenröhre und Detektoreinheit um den Patienten ergibt sich eine sinusförmige Struktur in dieser Datenrepräsentation, daher wird dieses Diagramm auch Sinogramm genannt. Das »Sinogramm« stellt die Sammlung der Rohdaten des Abtastprozesses dar. Mathematisch handelt es sich um den so genannten Radonraum, benannt nach dem böhmischen Mathematiker Johann Radon (Radon 1917). Das zentrale mathematische Hilfsmittel zur Bildrekonstruktion aus den Projektionen ist das FourierSchichten- oder Fourier-Scheiben-Theorem (engl.: Fourier-Slice- oder Projection-Slice-Theorem). Dieses Theorem stellt einen Zusammenhang zwischen den jeweiligen Fouriertransformierten des Radonraums und des zu rekonstruierenden Bildes her. Es besagt nämlich, dass man die eindimensionale Fouriertransformierte Pγ(q) des gemessenen Projektionsprofils pγ(ξ) in der zweidimensionalen Fouriertransformierten F(u,v) des gesuchten Bildes f (x,y) unter dem Winkel γ findet, unter dem das Profil gemessen wurde. Dabei gilt, dass u=q cos(γ) und v=q sin(γ). Würde man den Fourierraum F(u,v) über alle gemessenen Winkel γ auf diese Weise füllen, so könnte man mit einer zweidimensionalen inversen Fouriertransformation das gesuchte Bild erhalten. Diese so genannte direkte Rekonstruktion wird aufgrund von Interpolationsproblemen heute allerdings nicht verwendet.
15
258
Kapitel 15 · Computertomographie (CT)
c
a
II
b
d
⊡ Abb. 15.6a–g. Von den Rohdaten zum rekonstruierten Bild. a Sinogramm der Schwächungs- und Projektionswerte, b hochpassgefilterte Projektionswerte, c Rückverschmierung der gefilterten Projektion, d Akkumulation aller Rückverschmierungen der gefilterten und e der ungefilterten Projektionsprofile, f Datenakquisition bei der Spiral-CT, g Rohdateninterpolation bei der Spiral-CT
e f
15.4.2 Gefilterte Rückprojektion
In praktisch allen CT-Scannern ist derzeit die gefilterte Rückprojektion implementiert. Im Rahmen dieses Verfahrens wird das Sinogramm einer Hochpassfilterung unterworfen. Dies geschieht im Frequenzraum durch lineare Gewichtung von Pγ(q) mit |q|. Das Ergebnis hγ(ξ) der Filterung des gemessenen Schwächungsprofils pγ(ξ) ist in ⊡ Abb. 15.6b illustriert. Es ist gut zu sehen, dass die sinusförmige Struktur der Daten erhalten bleibt. Allerdings sind in hγ(ξ) aufgrund der Hochpassfilterung nur die Änderungen von pγ(ξ) enthalten. Das hochpassgefilterte Projektionsprofil hγ(ξ) wird in einem zweiten Schritt nun über das zu berechnende Bildfeld zurückverschmiert, und zwar in die Richtung γ, aus der das Projektionsprofil pγ(ξ) ursprünglich auch gemessen wurde. Dieser Vorgang ist in ⊡ Abb. 15.6c für einen einzigen Winkel γ schematisch illustriert. Das Bild ist an dieser Stelle natürlich noch nicht zu erkennen. In ⊡ Abb. 15.6d ist die gefilterte Rückprojektion für eine ansteigende Anzahl von Projektionswinkeln Np={1,2,3,10,45,180} dargestellt. Nur bei einer großen Anzahl von Projektionsmessungen kann auf diese Weise das Bild rekonstruiert werden, da die Fehler der einzelnen
g
Rückverschmierung durch alle anderen gemessenen Projektionen im Überlagerungsprozess kompensiert werden müssen. In ⊡ Abb. 15.6e ist dargestellt was passiert, wenn man auf die Hochpassfilterung verzichten und das Projektionsprofil pγ(ξ) direkt zurückverschmieren würde. Diese ‚naive’ Vorgehensweise führt zu einem sehr verschwommenen Bild, das diagnostisch ungeeignet ist. Wenn man das Scanprotokoll am CT vorbereitet, muss man immer auch ein Filter auswählen. Dieses Filter bezieht sich auf die Art der oben beschriebenen Hochpassfilterung. Die lineare Gewichtung von Pγ(q) mit |q| ist das mathematisch ideale Filter. In der Praxis ist es oft empfehlenswert, die Gewichtung im Frequenzraum weniger progressiv zu wählen. Der Anwender kann von einer Filterbank eine Vielzahl von Filtertypen von ‚sehr weich’ bis ‚sehr scharf ’ auswählen, die auf die jeweils zu untersuchende Anatomie angepasst sind. Die optimale Wahl eines Filters ist immer ein Kompromiss zwischen einer hohen räumlichen Auflösung mit einem stärkerem Bildrauschen und einem glatteren Bild mit kleinerer räumlicher Auflösung. Eine Normierung dieser Filter, die gelegentlich mit Faltungskern, Rekonstruktionsalgorithmus, Rekonstruktionsfilter oder Filterkernel bezeichnet werden, gibt es nicht.
259 15.4 · Bildrekonstruktion
15.4.3 Rohdateninterpolation bei der Spiral-CT
Einen ersten Schritt zu einer echten CT-Volumenaufnahme stellt das so genannte Spiralverfahren ( Abschn. 15.2.3) dar, das Kalender 1989 auf der jährlich stattfindenden Konferenz der RSNA (Radiological Society of North America) zum ersten Mal präsentierte (Kalender et al. 1989). Die Unzulänglichkeiten des einfachen Schichtenstapels sind leicht einzusehen. Jede Schicht hat aufgrund der vorgegebenen Kollimation eine gewisse Breite, man spricht von der Schichtdicke. Innerhalb dieser Schichtdicke wird die Intensität gewichtet mit dem Empfindlichkeitsprofil gemittelt. Diese Mittelung ist immer dann ein Problem, wenn sich das Objekt durch schräg zur axialen Schicht verlaufende Kanten auszeichnet, also die abzubildende Struktur sich in der Vorschubrichtung des Patiententisches schnell ändert. Dann führt die Mittelung zu einer Stufigkeit des Schichtenstapels, die der abzubildenden Struktur ein treppenförmiges Erscheinungsbild gibt. Mit der Entwicklung der Schleifringtechnologie, die in Abschn. 15.2.3 schon kurz beschrieben ist, wurde es möglich, das Abtastsystem, also die Röhren-Detektorarray-Anordnung, kontinuierlich drehen zu lassen. Wird der Patiententisch während dieser Drehung ebenfalls auf kontinuierlichen Vorschub gesetzt, dann umläuft die Röntgenquelle den Patienten auf einer besonderen Spiralbahn, nämlich einer Helix (⊡ Abb. 15.6f ). Bei dieser Überlegung geht man von einem Koordinatensystem aus, das sich mit dem Patiententisch bewegt, denn natürlich läuft die Röntgenquelle weiterhin auf einer Kreisbahn. Nur aus Sicht des Patienten ergibt sich die Spiralbahn. Damit ist eine lückenlose Erfassung des zu untersuchenden Objektes möglich, wobei im Vergleich zur konventionellen Tomographie die Aufnahmezeit für ein Volumen entscheidend verkürzt werden konnte. Es ist zunächst überraschend, dass die Spiral-Computertomographie überhaupt funktioniert. Voraussetzung für die Rekonstruktionsverfahren, die in den vorangegangenen Abschn. 15.4.1 und 15.4.2 beschrieben wurden, ist die Vollständigkeit der Daten. Das bedeutet, ein Objekt im Messfeld kann nur dann fehlerfrei rekonstruiert werden, wenn alle Punkte des Objektes von allen Seiten – also über 180° – durchstrahlt wurden. Diese Forderung ist der Grund dafür, warum konventionelle CT-Aufnahmen am Herzen praktisch unmöglich sind, denn innerhalb der Drehung der Abtasteinheit um das Herz, bewegt sich dieses aus der zu rekonstruierenden Schicht heraus. Damit passen die der Rekonstruktion zugrunde liegenden Projektionsdaten aus unterschiedlichen Richtungen nicht mehr zusammen. Das rekonstruierte Tomogramm leidet dann unter so genannten Bewegungsartefakten ( Abschn. 15.4.4). Bei der Spiral-CT ist die Bewegung der zu rekonstruierenden Objekte aufgrund des kontinuierlichen Patiententischvorschubs gerade die entscheidende Innovation gegenüber der konventionellen Computertomographie. Damit ist
aber die Bahn keine geschlossene Kreisbahn mehr und die Daten liegen zur Rekonstruktion nicht vollständig vor. Die zentrale Idee der Rekonstruktion beim Spiralverfahren ist nun, dass die fehlenden Daten einer Schicht durch Interpolation ergänzt werden (⊡ Abb. 15.6g). Hat man dies erledigt, dann steht das im vorangegangenen Abschn. 15.4.2 beschriebene Rekonstruktionsverfahren wieder uneingeschränkt zur Verfügung. ⊡ Abb. 15.6g zeigt das einfachste Prinzip einer Schichtinterpolation. Die Steighöhe der Helix, also der Weg, den der Patiententisch während einer 360°-Umdrehung der Abtasteinheit zurücklegt, sei hier mit s bezeichnet. Man kann nun eine beliebige Schichtlage zr wählen, denn wegen des gleichmäßigen Tischvorschubes ist aus Sicht der Datenlage keine axiale Position bevorzugt. Für die gewählte Schicht gibt es zunächst nur einen einzigen Winkel γr, für den der Projektionsdatensatz pγ (ξ) vorliegt. Die Projektionsdaten pγ (ξ) aller anderen r Winkel müssen entsprechend interpoliert werden. Dabei geht man so vor, dass man die Daten, die unter den anderen benötigten Projektionswinkeln innerhalb der gewählten Schichtposition zr nicht gemessen wurden, aus den jeweils nächstliegend benachbarten, tatsächlich gemessenen Winkeln der Helixbahn interpoliert. Die Steighöhe der Helix s, bezogen auf die eingestellte Kollimatorbreite, definiert den so genannten Pitch als Parameter des Spiralverfahrens.
15.4.4 Artefakte
Artefakte sind Bildfehler, die durch die Art der Rekonstruktion – das ist heute in der Praxis die gefilterte Rückprojektion – oder durch den Einsatz spezieller Technologien oder Anordnungen bei der Messwerterfassung entstehen. Die Kenntnis der Ursachen von Artefakten ist die Voraussetzung für Gegenmaßnahmen. Diese Gegenmaßnahmen sind umso wichtiger, da es in der Natur der gefilterten Rückprojektion liegt, Artefakte über das gesamte Bild zu verschmieren und so den diagnostischen Wert des gesamten Bildes zu reduzieren oder ganz zu vernichten. An dieser Stelle soll nur eine kurze Übersicht über potenziell auftretende Artefakte gegeben werden. Eine ausführliche Diskussion findet man bei Buzug 2004. Teil- oder Partialvolumenartefakte. Durch die endliche Detektorbreite werden Intensitätswerte über einen Raumwinkelbereich gemittelt. Insbesondere bei der Messung von Objektkanten kommt es dadurch zu Inkonsistenzen der Projektionsprofile zwischen den einzelnen Winkeln. Als Konsequenz funktioniert die empfindliche Kompensation der Rückverschmierung (so wie in ⊡ Abb. 15.6d illustriert) nicht mehr. Neben einer verschmierten Darstellung von Objekten werden Objektkanten über das Objekt hinaus verlängert. Diese Artefakte lassen sich nur durch ein feineres Detektorarray und durch dünnere Schichten verringern.
15
260
II
Kapitel 15 · Computertomographie (CT)
Aufhärtungsartefakte. Die gefilterte Rückprojektion geht davon aus, dass monochromatische Röntgenstrahlung verwendet wird. Normale Röntgenröhren ( Abschn. 15.3.1) erzeugen aber polychromatisches Röntgenlicht. Da die Schwächungskoeffizienten der Materie wellenlängenabhängig sind, ergibt sich bei niederenergetischer Strahlung ein anderes Bild als bei hochenergetischer Strahlung. Da im Detektor die ankommenden Röntgenquanten unabhängig von ihrer Energie detektiert werden, ergeben sich konsequenter Weise Inkonsistenzen zwischen den Projektionen. Metallartefakte. Metalle in Form von Zahnfüllungen, wie Amalgam oder Gold, sowie Hüftprothesen aus Stahl absorbieren auch die hochenergetische Röntgenstrahlung stärker als das umliegende Gewebe und führen zu inkonsistenten Schwächungswerten. Im rekonstruierten Bild führt dies häufig zu dunklen Streifen zwischen den Metallobjekten und zu sternförmigen, von den Objekten ausgehenden Streifen, die das umliegende Gewebe überlagern und hierdurch die diagnostische Beurteilung erschweren. Zurückzuführen sind diese Probleme auf ein niedriges Signal-Rausch-Verhältnis im Bereich des Metallschattens, ein erhöhtes Verhältnis von Streustrahlung zu Primärstrahlung und auf Strahlaufhärtungsartefakte. Bewegungsartefakte. Bisher wurde immer davon ausgegangen, dass sich die Morphologie innerhalb der zu rekonstruierenden Schicht während der Datenakquisition nicht ändert. Muss man aber die zeitliche Veränderung des Schwächungskoeffizienten ebenfalls berücksichtigen, so ergibt sich das Problem der Rekonstruktion bei sich ändernder Datengrundlage. Die gemessenen Daten beim Umlauf des Abtastsystems um den Patienten sind damit inkonsistent. Ziel der heutigen Entwicklung von Computertomographen, gerade in Bezug auf die Zeitkonstanten bei anatomischen bzw. physiologischen Bewegungen, ist die Beschleunigung der Datenakquisition. Abtastartefakte. Das Shannon’sche Abtasttheorem darf auch bei der Computertomographie nicht verletzt werden. Das gilt sowohl für die Rekonstruktion einer axialen Schicht als auch für die so genannte sekundäre Rekonstruktion von 3D-Datenansichten durch Schichtenstapelung ( Abschn. 15.5.3). Auch hier führt die Unterabtastung eines Signals zu den typischen Aliasing-Artefakten. Speziell für die verwendeten Detektorarrays mit rechteckigem Empfindlichkeitsprofil gibt es das inhärente Abtastproblem, dass die einzelnen Elemente eigentlich im halben Abstand ihrer eigenen Breite angeordnet sein müssten. Da diese Forderung aus nahe liegenden Gründen technisch nicht umsetzbar ist, behilft man sich mit eleganten technischen Tricks. Die heute realisierte Gegenmaßnahme gegen das Aliasing ist entweder die Detektorviertelverschiebung oder der so genannte Flying-Focus der Röntgenröhre.
Elektronische Artefakte (Ringartefakte). Es gibt eine Reihe von elektronischen Defekten, die zur Verschlechterung, überwiegend sogar zur Unbrauchbarkeit des Bildes beitragen. Ein häufiger elektronischer Defekt ist ein Ausfall eines Detektorkanals. Diese Fehler sind bei Computertomographen der dritten Generation anzutreffen und werden Ringartefakte genannt. Durch die feste Verbindung zwischen Röntgenquelle und Detektorarray macht sich der Ausfall eines einzelnen Detektorelementes spezifisch bemerkbar. Im Verlauf der gefilterten Rückprojektion bilden die Verbindungslinien zwischen dem betreffenden Detektorelement und der Röntgenquelle die Tangenten eines Kreises. Es entstehen nun für jeden Punkt jeder Linie Inkonsistenzen mit den Messwerten der jeweils anderen Projektionsrichtungen und deren korrespondierenden Detektoren. Streustrahlenartefakte. Während es für das Detektorelement, das im direkten Strahlengang liegt, im Prinzip egal sein kann, welcher physikalische Mechanismus der Wechselwirkung von Röntgenstrahlung mit Materie im Detail die Intensität verringert, können andere Detektorelemente, die außerhalb der direkten Verbindungslinie liegen, sehr wohl unter bestimmten Wechselwirkungen leiden. Besonders im Bereich stärker schwächender anatomischer Objekte wie z. B. Schulter, Bauch und Becken kann es zu Messwertverfälschungen durch Streustrahlung mit einem beträchtlichen Anteil am Gesamtsignal kommen. Während die Streustrahlung für alle Projektionswinkel in etwa gleich groß ist, gilt dies für das Nutzsignal nicht. In Projektionsrichtungen, in denen stark absorbierende Objekte hintereinander liegen, kann das Nutzsignal so schwach werden, dass die Streustrahlung das Signal dominiert. Bei der gefilterten Rückprojektion kommt es dann aus dieser Projektionsrichtung zu Inkonsistenzen, die zu streifenartigen Artefakten führen.
15.5
Bedienung und Anwendungen
In den nächsten Abschnitten werden einige wichtige Gesichtspunkte aus der Praxis der Computertomographie dargestellt. Dazu zählen sowohl die Aufnahmeplanung als auch die Datenaufbereitung und Datendarstellung. Bei den klinischen Anwendungen der Computertomographie ist die Planung der Aufnahmen besonders wichtig, denn aufgrund der systembedingten Strahlendosis, die im Patienten platziert wird, können Aufnahmen nicht beliebig wiederholt werden. Neben der Planung, also der Vorbereitung der Bildakquisition, ist auch die Kenntnis der Darstellungsformen, also der Nachverarbeitung sehr wichtig, denn aus den Bildern kann mit Hilfe moderner Visualisierungstechniken sehr viel an Information gewonnen werden.
261 15.5 · Bedienung und Anwendungen
15.5.1 Aufnahmeplanung
Das wichtigste Element der Planung einer computertomographischen Aufnahme ist die so genannte Übersichtsaufnahme, die je nach Hersteller z. B. Topogram (Siemens), Scanogram (Philips) oder Scout View (General Electric) genannt wird. Um diese Aufnahme zu akquirieren, wird die Drehung der Abtasteinheit gestoppt und die Abtasteinheit in eine feste Position gebracht. Möglich ist im Prinzip jede Position, typische Positionen sind aber anterior-posterior (a.p.), das ist die Durchleuchtung von der Patientenvorderseite zur Patientenrückseite und lateral, das ist die seitliche Durchleuchtung. Während der Durchleuchtung wird der Patiententisch kontinuierlich durch das Messfeld geschoben. Beispielhafte Bildergebnisse für eine a.p. und eine laterale Übersichtsaufnahme sind in ⊡ Abb. 15.7a dargestellt. Mit Hilfe der a.p. Übersichtsaufnahme kann jetzt eine bestimmte Schichtebene, die Schichtdicke und die Anzahl der Schichten bzw. das Volumen geplant und programmiert werden. Bei der lateralen Übersichtsaufnahme ergibt sich zusätzlich die Möglichkeit, bestimmte Schichtorientierungen durch Verkippung der Gantry zu programmieren. Dies ist bei Schädel- und Wirbelsäulentomogrammen häufig gewünscht. ⊡ Abb. 15.7a zeigt die a.p. Übersichtsaufnahme eines Thorax. Typischerweise werden hier axiale Schichten in 8 bis 10 mm Dicke und Abstand gemessen. Bei Untersuchungen der Lendenwirbel ist eine der Orientierung der einzelnen Wirbelkörper angepasste Gantryverkippung zu planen. ⊡ Abb. 15.7a zeigt, dass es nur so gelingt, bspw. die Bandscheiben flächig abzubilden. ⊡ Abb. 15.7b,c zeigt zwei unterschiedliche Schädelorientierungen. Möchte man koronale Schädelaufnahmen akquirieren, so ist dies durch entsprechende Lagerung des Patienten möglich. In ⊡ Abb. 15.7b ist eine laterale Übersichtsaufnahme eines Patienten zu sehen. Der Patient ist auf dem Bauch gelagert und sein Kopf ist weit in den Nacken überstreckt. Diese Überstreckung ist erforderlich, da die Verkippungsmöglichkeit der Gantry beschränkt ist. Zwei tomographische Schichten sind jeweils rechts in ⊡ Abb. 15.7b,c zu sehen. Fragestellungen solcher Aufnahmen sind neben der Ausdehnung einer chronischen Sinusitis häufig auch die Beurteilung von Frakturen. In der Schicht 1 sind Artefakte durch Zahnfüllungen deutlich erkennbar. Die Schicht 2 zeigt einen Anschnitt der vorderen Schädelkalotte mit Spongiosa. In beiden Aufnahmen sind freie Nasennebenhöhlen zu erkennen.
Hounsfield-Skala und Grauwertedarstellung Bei der Computertomographie werden die rekonstruierten Schwächungswerte μ als Graustufen dargestellt. Dabei hat sich ein Vorschlag von Hounsfield durchgesetzt, die Schwächungswerte auf eine dimensionslose Skala zu
transformieren und dabei auf Wasser zu beziehen. Die Definition dieser CT-Werte ist durch
CT-Wert =
µ − µWasser 1000 µ
gegeben. Die Einheit dieser Werte wird zu Ehren Hounsfields
[CT-Wert ] = HU Hounsfield-Einheit (Hounsfield Unit: HU) genannt. In dieser Skala erhält Luft den CT-Wert -1000 HU und Wasser den CT-Wert 0 HU. Die Skala ist im Prinzip nach oben hin offen, praktisch endet sie aber bei etwa
a
b
c
⊡ Abb. 15.7a–c. a Erstellung einer Übersichtsaufnahme zur Planung der Schichtebenenlage. Bei fester Röhren-Detektor-Position wird der Patiententisch kontinuierlich durch die Abtasteinheit geschoben. Man erhält so Projektionsbilder, wie sie vom Durchleuchtungsröntgen bekannt sind. Typisch sind zwei Geometrien: Lateral und anteriorposterior (a.p.). b,c Laterale Übersichtsaufnahmen zur Planung der Schichtlage bei Kopftomogrammen. Aufgrund der begrenzten Kippfähigkeit der Gantry muss der Patient für eine koronale Darstellung des Gesichtsschädels in Bauchlage den Kopf in den Nacken überstrecken: Schicht (1) und (2). Im Vergleich dazu axiale Aufnahmen ohne Verkippung der Gantry: Schicht (3) und (4)
15
262
II
Kapitel 15 · Computertomographie (CT)
3000 HU. Der Wertebereich von insgesamt 4000 HU ist durch Bilder mit einer Graustufentiefe von 12 Bit gut zu erfassen. Diese Skalierung ist willkürlich hat aber praktische Konsequenzen. Da sich die Schwächungswerte fast aller Organe – ausgenommen Knochen – nur wenig von Wasser unterscheiden, ist durch Hounsfields Gleichung eine Abweichung in Promille von dem Schwächungswert von Wasser gegeben. Radiologen sind es gewohnt, die CT-Werte als absolute Werte zu sehen, die Organen eindeutig zuzuordnen sind. Abweichungen dieser CT-Werte für bestimmte Organe stellen Pathologien dar. In Abschn. 15.4.4 wurde schon auf die Abhängigkeit der Röntgenschwächung von der Wellenlänge der Strahlung hingewiesen und die dadurch möglichen Artefakte besprochen. Dieses grundsätzliche Problem, das sich für alle in der diagnostischen Bildgebung verwendeten Tomographen ergibt, ist eine Konsequenz der Verwendung polychromatischer Röntgenstrahlung. Beim Durchlaufen des Körpers verändert sich die spektrale Verteilung der Strahlung, sodass eine eindeutige Zuordnung von Schwächungswerten eigentlich nicht möglich ist. Dennoch ist die Sicht der Radiologen weitestgehend gerechtfertigt, da sich die meisten Organe strahlenphysikalisch wie Wasser verhalten, sodass durch eine Kalibrationsmessung, die mit Wasser durchgeführt wird, für diese Gruppe eine Aufhärtungskorrektur möglich ist. Man kann die gesamte Hounsfieldskala in diagnostisch relevante Bereiche unterteilen. In ⊡ Abb. 15.8a ist das Histogramm der relativen Häufigkeiten der CT-Werte für ein Abdomenschichtbild gegeben. Deutlich sichtbar sind die Häufungen bei Luft, der Schaumstoff-Patientenauflage sowie bei Fett und den Organen. Im Fenster für die so genannten parenchymatösen Organe ist es so, dass sich viele Organe in sich überlappenden CT-Wertebereichen abbilden. Das macht die Diagnostik nicht leicht, sodass in der klinischen Praxis auch Texturen von Organen wichtig sind. Für das menschliche Auge ist der gesamte Dynamikbereich von –1000 HU bis 3000 HU in 4000 Stufungen nicht auflösbar. Deswegen werden auf den Sichtgeräten z. B. nur Grauwertdiskretisierungen in 256 Stufen eingestellt. Tatsächlich kann der Mensch je nach Helligkeit im Auswerteraum zwischen 20 und 50 verschiedene Grauwerte unterscheiden. Will man Unterschiede zwischen Organen erkennen, die in Bezug auf ihre Abschwächung sehr ähnlich sind, so muss die Hounsfieldskala auf den wahrnehmbaren Grauwertebereich geeignet abgebildet werden. Hierzu verwendet man die stückweise gerade Funktion
WW ° 0 für CT-Werte ≤ WL − 2 ° WW · ° § G = 255 ⋅ ®WW −1 ¨ CT-Wert − WL + ¸ 2 ¹ © ° ° WW °1 für CT-Werte ≥ WL + ¯ 2
Dabei sind durch WW die Fensterbreite (Window Width) und durch WL die Fenstermitte (Window Level) gegeben. ⊡ Abb. 15.8b,c zeigt die jeweilige stückweise lineare Funktion für ein Knochenfenster (WL=+300 HU, WW=1500 HU) und ein Weichteilfenster (WL=+50 HU, WW=350 HU) sowie die Auswirkungen auf die Darstellung für ein abdominales Tomogramm. Nur im Knochenfenster (⊡ Abb. 15.8b) sind Dichteunterschiede im Wirbelfortsatz zu erkennen, jedoch ist aufgrund der großen Breite des Fensters keine Differenzierung des Weichteilgewebes möglich. Beim Weichteilfenster (⊡ Abb. 15.8c) sind Organe wie Leber und Nieren sehr gut zu unterscheiden, allerdings werden in diesem relativ schmalen Fenster alle CT-Werte oberhalb von +225 HU undifferenziert weiß dargestellt.
⊡ Abb.15.8a–c. Schwächungswerte der Gewebetypen in Hounsfieldeinheiten. Die Wertebereiche sind aus E. Krestel (Krestel 1990) und M. Hofer (Hofer 2000) zusammengestellt. Prinzip der Fensterung: a Die Hounsfieldwerte (HU), die im Bereich von –1000 HU bis 3000 HU liegen, sind in ihrer vollen Breite vom menschlichen Auge nicht unterscheidbar. Daher müssen die anatomisch jeweils interessanten Hounsfieldbereiche auf einen unterscheidbaren Grauwertebereich abgebildet werden. Unten rechts sieht man die Kennlinie für zwei anatomische Fenster. Darüber sieht man das Ergebnis b des Knochen- (WL=+300 HU, WW=1500 HU) und c des Weichteilfensters (WL=+50 HU, WW=350 HU)
263 15.5 · Bedienung und Anwendungen
Bei diesen Thoraxaufnahmen hat man die besondere Schwierigkeit, dass Lungengewebe, Weichteile und Knochen diagnostisch interessant sein können. Für diese Klassifikation der Bereiche haben sich drei Fenster als praktisch erwiesen. Zu den oben schon genannten Weichteil- und Knochenfenstern kommt hier das so genannte Lungen- bzw. Pleurafenster (WL=–200 HU, WW=2000 HU) hinzu, in dem Lungengewebe geringerer Dichte ebenfalls differenzierbar wird. Die Auswertesoftware an der klinischen Viewing-Station stellt eine Vielzahl von Organfenstern als voreingestellte Parametersätze zur Verfügung.
15.5.2 Dreidimensionale Datenvisualisierung
In den vorangegangenen Abschnitten wurde nur von zweidimensionalen Bildern gesprochen. Mit der Computertomographie – ⊡ Abb. 15.1 zeigt das ganz eindrucksvoll – verbindet man aber in der Medizin vor allem die dreidimensionale Bildgebung. Hierbei wird so vorgegangen, dass aus dem Bilderstapel, der zunächst immer aus einer Abfolge von axialen Schichtbildern besteht, andere Schichtangulationen oder direkt die dreidimensionale Darstellung der Anatomie errechnet wird. Man spricht hierbei von sekundärer Rekonstruktion. Wenn die Schichtabfolge so gewählt wurde, dass in axialer Richtung die räumliche Auflösung in derselben Größenordnung liegt wie innerhalb der Schicht, dann lassen sich durch Interpolation beliebig geneigte Ebenen durch das Volumen berechnen. Dieses Verfahren nennt man multiplanares Reformatieren (MPR). Typischerweise stellt man zunächst die drei Hauptrichtungen nebeneinander dar: axial, sagittal und koronal. In ⊡ Abb. 15.9e (Abb. 15.9 auch 4-Farbteil am Buchende) ist die koronale Reformatierung einer Abdomenaufnahme zu sehen. Neben der MPR-Technik wird das Verfahren der Maximum-Intensity-Projection (MIP) speziell bei angiographischen Fragestellungen angewendet. Hierbei wird entlang einer virtuellen Sichtlinie nach dem höchsten Wert im CT-Volumen gesucht und dieser dann dargestellt. In ⊡ Abb. 15.9a ist eine computertomographische Angiographie (CTA) mit MIP visualisiert. Dieses Verfahren lässt sich einfach variieren, indem z. B. nach minimalen Werten gesucht wird oder die Summe aller Werte entlang der Sichtlinie gebildet und dann dargestellt wird. Zwei ganz unterschiedliche Ansätze zur 3D-Visualisierung sind das Volumen- und das Oberflächen-Rendering. Beim Volumen-Rendering wird jedem räumlichen Pixel, dem so genannten Voxel (Volume x element in Erweiterung zu Picture x element), eine physikalische Lichtabsorption, Reflexion und Streuung zugeordnet. Im Computer beleuchtet man diesen »Datennebel« dann mit einer virtuellen Lichtquelle und berechnet den optischen Eindruck, den eine reale Wechselwirkung des Lichts mit
⊡ Abb. 15.9a–i. Oben: Angiographie mit dem CT (CTA). a Maximum-Intensity-Projection (MIP), b Volumen-Rendering, c Ausschnittsvergrößerung des Knies und Darstellung von der Rückseite, d Knocheneliminierung mit einer Bone-Removal-Technik. e Unten: Koronale Reformatierung, f–i Volumen- und Oberflächen-Rendering: i Virtuelle Endoskopie des Darms zusammen mit der g Darstellung der virtuellen Endoskop-Trajektorie und eines h virtuell aufgeschnittenen Darmstücks in Zylinderkoordinaten
diesem Nebel erzeugen würde. Ordnet man Knochen und Organen bzw. einem Kontrastmittel in den Gefäßen unterschiedliche optische Eigenschaften zu, so erhält man aufschlussreiche Darstellungen (vgl. ⊡ Abb. 15.9b-d,f), bei denen man mit spezieller Nachverarbeitung einzelne Organe in der Gesamtvisualisierung auch wieder unterdrücken kann. In ⊡ Abb. 15.9d ist die Elimination der Knochen mit einem Nachverarbeitungsschritt illustriert. Eine Alternative zum Volumen-Rendering ist das so genannte Oberflächen-Rendering. Die einzelnen Grautöne der Schichten im Datenstapel repräsentieren die Stärke der physikalischen Schwächung des Röntgenstrahls. Im klinischen Umfeld wird aus Abweichungen zur normalen Verteilung dieser Werte auf pathologische Veränderungen des Patienten geschlossen. Bei der Visualisierung muss man nun entscheiden, ganz bestimmte Wertebereiche darzustellen und andere gezielt auszublenden. Entscheidet sich der Betrachter für einen konstanten Grauwert, so repräsentieren alle Raumpunkte mit diesem
15
264
II
Kapitel 15 · Computertomographie (CT)
Wert eine so genannte Isofläche. Diese Isograuwertfläche wird dann mit Dreiecken graphisch nachgebildet (Triangulierung). Das Mosaik aus Dreiecken wird dann wieder mit dem oben beschriebenen Verfahren virtuell beleuchtet und dargestellt. Je größer die Anzahl der Mosaiksteine für die Nachbildung der Fläche gewählt ist, desto naturgetreuer ist das Ergebnis. Neben der Darstellung von Organ- oder Knochenoberflächen, die am Computer interaktiv gedreht werden können, sind auf diese Weise auch Innenansichten von Hohlorganen, Atemwegen und kontrastierten Gefäßen rekonstruierbar. Dadurch sind virtuelle Fahrten z. B. durch das Bronchialsystem oder durch den Darm möglich. In den ⊡ Abb. 15.9g-i ist die virtuelle Einsicht in den menschlichen Darm exemplarisch demonstriert. Der zentrale Gewinn der 3D-Diagnostik liegt in der Reduktion der Datenflut, die einer normalen Schicht-für-Schicht-Befundung nicht mehr zugänglich ist.
15.5.3 Klinische Applikationen
In diesem Abschnitt soll zusammenfassend und nur beispielhaft auf die Fülle der klinischen Applikationen moderner CT-Bildgebung hingewiesen werden. In ⊡ Abb. 15.10 ( auch 4-Farbteil am Buchende) sind vier Anwendungen dargestellt. Speziell die Perfusionsmessungen geben der Computertomographie den Charakter einer funktionellen Bildgebungsmodalität. Hierbei wird der Blutfluss nach Kontrastmittelinjektion in verschiedenen Organen erfasst. Hirnperfusion. Die Hirndurchblutung (CBF), das Hirnblutvolumen (CBV), die mittlere Transitzeit (MTT) und die Peakzeit für das Bolusmaximum (TTP) können farblich auf die CT-Bilder gelegt werden, so dass man zur Beurteilung eines akuten oder chronischen Infarkts Farbkarten der Gewebevitalität erhält (⊡ Abb. 15.10a). Leberperfusion. Arterielle und portale Perfusionsmessungen bei Leberstudien. Tumorperfusionen. Charakterisierung von bekannten Läsionen anhand ihrer Perfusionen. Lungenmessungen. Diagnostik eines Lungenemphysems (⊡ Abb. 15.10b), automatische Detektion von Rundherden in der Lunge. Kalzium-Scoring. Quantifizierung von Koronararterienverkalkung. Gefäßanalyse (CTA). Darstellung der Gefäße (⊡ Abb. 15.10c: Beispiel des Kopf-Hals-Bereichs), Analyse von Stenosen und Aneurismen, Planung von Stents.
⊡ Abb. 15.10a–d. a Perfusionsmessung bei Schlaganfallpatienten, b Abbildung eines Lungenemphysems, c Bildgebung (CTA) der Kopfgefäße und d Herzbildgebung (CTA): Koronarstent
Kardio CT. Identifizierung und Quantifizierung von Gefäßstenosen sowie Planung von Stents und Darstellung von implantierten Stents (⊡ Abb. 15.10d). Dies wird durch EKG-getriggerte Bildgebung möglich. Virtuelle Endoskopie. 3D CT-Daten als Grundlage für anatomische Innenansichten von Hohlorganen (⊡ Abb. 15.9i) und kontrastierten Gefäßen. Trauma. Schnelle Bildgebung des gesamten Körpers in der Unfalldiagnostik (⊡ Abb. 15.1a) Dentalplanung. Panorama und Querschnitte des Oberund Unterkiefers zur Unterstützung des Kieferchirurgen bei der Planung von Prothesenimplantaten. Bestrahlungsplanung. 3D CT-Daten als Grundlage für die Dosisplanung bei der Bestrahlung von Tumoren.
265 15.6 · Dosis
⊡ Abb. 15.11a–e. Aktive Verfahren zur Dosisreduktion (Nagel 2002). a Belichtungsautomatik, b longitudinale Dosismodulation, c zirkulare Dosismodulation, d zeitliche Dosismodulation, e Dosisvariation bei Kombination aus longitudinaler und zirkularer Dosismodulation bei kontinuierlichem Tischvorschub
Bildgeführte Chirurgie. 3D CT-Daten als Grundlage für die Planung chirurgischer Eingriffe und für die intraoperative Navigation. Interventionelle Bildgebung. Darstellung der Instrumentenspitze während einer Biopsie. Dies wird durch die sehr schnelle Bildgebung und die Multi-Zeilen-Detektoren erleichtert.
15.6
Dosis
In der Anfangszeit der Computertomographie war der Enthusiasmus aufgrund der erzielbaren Kontraste grenzenlos, so dass man sich erst zweitrangig Gedanken um die applizierte Dosis machte. Aus der Anzahl der installierten Geräte in Deutschland und einer durchschnittlichen Anzahl von 3500 Untersuchungen pro Jahr lässt sich abschätzen, dass heute einige hundert Millionen Schnitte pro Jahr gemessen werden. Das liegt in derselben Größenordnung
wie die Summe aller anderen projektionsradiographischen Aufnahmen (Nagel 2002). Wenn man sich das Spektrum der verschiedenen Röntgenuntersuchungen anschaut, dann fällt folgende Diskrepanz auf. Während die Computertomographie nur etwa 4% aller röntgenbasierten Untersuchungen ausmacht, ist ihr prozentualer Anteil an der kollektiven effektiven Dosis ungefähr 35%. Damit leistet CT den größten Beitrag zur medizinisch bedingten Strahlenexposition. Die neuen Gerätegenerationen, wie die Spiral-Multizeilen-CT verringern die applizierte Dosis nicht. Eher ist zu erwarten, dass aufgrund der längeren Strecken und dünneren Schichten, die heute sehr schnell und problemlos gemessen werden können, die Dosis für die einzelne Untersuchung steigen wird (Nagel 2002). Ausgelöst durch Berichte über unnötig hohe Strahlenexposition bei pädiatrischen CT-Untersuchungen (Sternberg 2000), die mit denselben Scanprotokollen wie bei Erwachsenen vorgenommen wurden, ist heute bei allen Herstellern und Anwendern eine hohe Sensibilität in Bezug auf die applizierte Dosis erkennbar. ⊡ Abb. 15.11a zeigt, dass man über
15
266
II
Kapitel 15 · Computertomographie (CT)
den Röhrenstrom sehr einfach zwischen dickeren und dünneren Patienten bzw. Erwachsenen und Kindern die Dosis anpassen kann (Belichtungsautomatik). Den Zusammenhang zwischen der Dosis mit dem gerade noch wahrnehmbaren Kontrast einer Lochreihe eines Messphantoms stellt die so genannte Niedrigkontrastauflösung her (Morneburg 1995). Danach besteht zwischen der Dosis D und dem gerade noch erkennbaren Kontrast Kd die Proportionalität Kd ∝ D -1/2, wobei d den Durchmesser einzelner Löcher der Lochreihe eines Phantoms kennzeichnet. Intelligente Scanner bedienen sich dieses Zusammenhangs so, dass der Anodenstrom dem jeweiligen anatomischen Bereich dynamisch angepasst wird. ⊡ Abb. 15.11 zeigt dieses Konzept schematisch. In ⊡ Abb. 15.11b ist die dynamische Anpassung des Röhrenstroms, bzw. der Dosis an die anatomische Situation entlang der axialen z-Achse dargestellt (longitudinale Dosismodulation). In anatomischen Bereichen, in denen eine kleine Schwächung der Röntgenintensität zu erwarten ist – wie z. B. im Bereich der Lunge – kann der Röhrenstrom und damit die Dosis herab gesetzt werden, ohne dass es zu einer Verschlechterung der Bildqualität kommt. Fährt man dagegen alle Bereiche mit demselben Röhrenstrom, so ergeben sich entweder zu hohe Dosen oder zu starke Rauschpegel. ⊡ Abb. 15.11c zeigt die dynamische Anpassung des Röhrenstroms über den Projektionswinkel γ (zirkulare Dosismodulation). Bei allen Körperschnitten, die eher oval als kreisförmig sind, kommt die zirkulare Dosismodulation zum Tragen. Speziell bei Aufnahmen der Schulter ist eine starke Modulation angebracht. In ⊡ Abb. 15.11d ist eine Triggersequenz für eine EKG-gesteuerte Aufnahme des Herzens zu sehen. Da die Daten nur innerhalb der Ruhephase des schlagenden Herzens akquiriert werden, kann die Gesamtdosis leicht reduziert werden, wenn der Röhrenstrom außerhalb des Datenfensters abgeschaltet wird (zeitliche Dosismodulation). ⊡ Abb. 15.11e zeigt den Effekt der Kombination von longitudinaler und zirkularer Dosismodulation auf die Dosis entlang der axialen Patientenrichtung bei kontinuierlichem Patiententischvorschub. Neben den geräteseitigen Maßnahmen zur Reduktion der Strahlenexposition, für die die Hersteller Verantwortung tragen, gibt es eine Reihe von anwenderseitigen Maßnahmen, die die applizierte Dosis beeinflussen. Im Folgenden sind die im Scanprotokoll einstellbaren Größen und ihr Zusammenhang mit der Dosis zusammengestellt. Für eine ausführliche Diskussion der Strahlenexposition in der Computertomographie sei auf das Buch von Nagel, 2000 verwiesen. Strom-Zeit-Produkt (mAs-Produkt). Dosis und mAsProdukt, also das Produkt aus Röhrenstrom und Abtastzeit (bzw. Strahlzeit der Röntgenröhre), besitzen eine lineare Abhängigkeit. Die Standardabweichung, die das
Bildrauschen beschreibt, vergrößert sich allerdings umgekehrt proportional zur Wurzel aus dem Strom-ZeitProdukt. Abtastzeit. Bei konstantem Röhrenstrom wächst die Dosis linear mit der Abtastzeit. Allerdings ist immer das mAs-Produkt insgesamt zu betrachten, so dass man bei gleicher Dosis die Abtastzeit herabsetzen kann bei gleichzeitiger Steigerung des Röhrenstroms. Das Bildrauschen bleibt dadurch unverändert, allerdings sinkt bei kurzen Abtastzeiten die Gefahr von Bewegungsartefakten ( Abschn. 15.4.4). Röhrenspannung. Bei Erhöhung der Röhrenspannung UB ( Abschn. 15.3.1) wachsen der Wirkungsgrad der Röntgenröhre und die Durchdringungsfähigkeit der Strahlung. Die Intensität der Strahlung nimmt mit UB im Mittel mit der 3,5-ten Potenz zu. Mit einer erhöhten Durchdringungsfähigkeit der Strahlung nimmt der Bildkontrast natürlich ab, allerdings wird dies durch die bessere Quantenstatistik mehr als kompensiert, so dass die Bildgüte insgesamt wächst – natürlich auf Kosten einer Dosissteigerung für den Patienten. Will man z. B. eine Spannungserhöhung von UB=120 kV auf 140 kV nutzen, um die Dosis bei gleich bleibender Bildqualität zu verringern, so muss das mAs-Produkt um 40% erniedrigt werden. Dadurch erzielt man insgesamt eine Dosisreduktion von etwa 15% (Nagel 2000). Objektdicke. Bei Kindern und bei schlanken Patienten ist darauf zu achten, dass ein kleineres mAs-Produkt eingestellt wird. Wegen der geringeren Schwächung ist die Statistik der Röntgenquanten immer noch so gut wie bei Erwachsenen oder dickeren Patienten, sodass die Bildqualität nicht leidet. Bei sehr dicken Patienten ist die Erhöhung der Röhrenspannung gegenüber einer Erhöhung des mAs-Produkts vorzuziehen, da hierbei die Strahlenexposition weniger stark zunimmt. Schichtdicke. Die Schichtdicke, die durch einen röhrenseitigen Kollimator typischer Weise zwischen 1 mm und 10 mm eingestellt werden kann, beeinflusst die Dosis dann nicht, wenn derselbe Körperabschnitt gemessen werden soll. Der Vorteil einer feineren Schichtfolge ist das Verringern von Teil- oder Partialvolumenartefakten sowie von Stufen bei koronaler oder sagittaler Reformatierung des Bildes. Der Nachteil ist, dass bei einer feineren Kollimation eben auch weniger Röntgenquanten den Detektor erreichen und somit das Bildrauschen steigt. Will man die Bildqualität konstant halten, so muss das mAs-Produkt – und damit die Dosis – umgekehrt proportional zur Schichtdicke steigen. Pitchfaktor. Ein Pitchfaktor von p=1 bedeutet, dass sich der Tisch in einer vollen Umdrehung der Abtasteinheit
267 15.7 · Spezielle Systeme
um eine Schichtdicke fortbewegt ( Abschn. 15.4.3). Wählt man p1 kann man die Dosis also verringern. Theoretisch sollte bis zu einem Pitch von p=2 eine artefaktfreie Bildrekonstruktion möglich sein. Bei einer dadurch vergrößerten Scanlänge und gleichem mAs-Produkt sind aber weniger Röntgenquanten für den Bildgebungsprozess eines größeren Körperabschnittes verwendet worden, sodass das Bildrauschen zunimmt.
lementen ebenfalls Konsequenzen in Bezug auf die Dosis hat. Man kann nämlich zeigen, dass bei gleich bleibendem Signal-Rausch-Verhältnis die Dosis mit der vierten Potenz steigt, sobald die Detektorelementgröße verringert wird (Buzug 2004). Das setzt dem Wunsch nach weiterer Verkleinerung der Detektorelemente natürlich eine Grenze, da die Dosis nicht beliebig gesteigert werden darf.
Scanlänge. Bei Vergrößerung des zu vermessenden Körperabschnittes vergrößert sich die Dosis für den Patienten entsprechend. Dies wird durch die effektive Dosis oder das Dosis-Längen-Produkt ausgedrückt. Die Anzahl der Schichten ist vom Anwender immer auf den diagnostisch notwendigen Ausschnitt zu beschränken, der mit der Planungsübersicht ( Abschn. 15.5.1) festzulegen ist.
Für bestimmte Anwendungen wurden in den letzten Jahrzehnten immer wieder spezielle Systeme entwickelt, von denen hier vier in einer kleinen Übersicht kurz beschrieben werden. Für die Abbildung des Herzens bspw. ergibt sich mit den bisher vorgestellten Verfahren sehr schnell das Problem der Bewegungsartefakte ( Abschn. 15.4.4). Bei den CT-Systemen der 3. Generation ist man daher auf eine EKG-getriggerte Datenakquisition angewiesen, denn bezogen auf die Zeitkonstante der Herzbewegung sind auch moderne Subsekundenscanner ohne EKG-Triggerung zu langsam. Speziell für die Herzbildgebung wurde daher das Elektronenstrahl-CT entwickelt, das in Abschn. 15.7.1 vorgestellt wird. Daneben wird das Volumen- oder Kegelstrahl-CT, eine konsequente Weiterentwicklung des Multizeilen-CT vorgestellt ( Abschn. 15.7.2). Will man sehr kleine Strukturen im µm-Bereich untersuchen, so ist die räumliche Auflösung der klinischen CTs nicht ausreichend. Hierfür wurden spezielle Mikro-CTs entwickelt ( Abschn. 15.7.3). Da die Nuklearbildgebung in der Lage ist, den Metabolismus des Körpers abzubilden, CT dazu gewissermaßen komplementär nur die Morphologie abbildet, ist eine konsequente Weiterentwicklung die Kombination beider Geräte in so genannten PET-CTScannern, die in Abschn. 15.7.4 kurz beschrieben werden. Zuletzt wird in Abschn. 15.7.5 eine Systemerweiterung auf zwei Abtastsysteme, bestehend jeweils aus einer Röntgenröhre und einem Detektor unter einem Winkel von 90° zueinander, beschrieben, die eine Halbierung der Abtastzeit erzielt.
Filterkern. Die Wahl des Filterkerns hat zunächst keinen unmittelbaren Einfluss auf die Dosis. Wie allerdings in Abschn. 15.4.2 beschrieben wurde, beeinflusst die Wahl des Hochpassfilters bei der gefilterten Rückprojektion das Erscheinungsbild der CT-Rekonstruktion als Kompromiss zwischen Rauschen und Ortsauflösung. Will man bei einer hohen Ortsauflösung das Rauschen also verringern, so geht das nur auf Kosten einer Dosiserhöhung. Insofern hängt es immer von der diagnostischen Fragestellung ab, ob eine geschickte Wahl des Filters zur Dosisreduktion genutzt werden kann. Fensterweite. Die zur Darstellung der CT-Bilder verwendete Fensterbreite (vgl. Abschn. 15.5.2 »Window Width«) hat zunächst keinen direkten Einfluss auf die Dosis. Je höher man jedoch den Kontrast durch Einengung des Fensters wählt, desto stärker wird auch das Rauschen in den Bildern sichtbar. Umgekehrt kann durch Vergrößerung der Fensterweite das Bild geglättet werden. Wenn man aufgrund der diagnostischen Fragestellung genug Kontrastreserven besitzt, kann man die Glättung bei der Visualisierung schon bei der Aufnahmeplanung zur Erniedrigung des mAs-Produkts und damit der Strahlenexposition verwenden.
15.7
Spezielle Systeme
15.7.1 Elektronenstrahl-CT (EBCT)
Field-of-View (FOV). Verwendet man ein sehr kleines FOV, d. h. eine sehr starke Detailvergrößerung, so ist i. d. R. auch ein sehr scharfes Rekonstruktionsfilter zu verwenden, denn die Ausschnittsvergrößerung wird ja nur deswegen gewählt, weil man ein örtlich detailreicheres Bild analysieren möchte. Das hat unmittelbar Konsequenzen auf das Bildrauschen, das nur mit einer Erhöhung des mAs-Produkts und damit der Dosis wieder verringert werden könnte. Zuletzt sei in diesem Kapitel noch darauf hingewiesen, dass die Entwicklung zu immer kleineren Detektore-
Wenn man zu sehr kurzen Datenakquisitionszeiten kommen möchte, dann muss man das Konzept der sich bewegenden Systeme, wie sie in Abschn. 15.2 beschrieben wurden, vollständig verlassen. Einen Ansatz dazu bietet die so genannte Elektronenstrahl-Computertomographie (Electron Beam Computerized Tomography EBCT). Diese Form der Computertomographie wurde speziell für Aufnahmen des Herzens entwickelt. Eine lokalisierte Röntgenröhre, die sich um den Patienten dreht, gibt es hier nicht mehr. Vielmehr befindet sich der Patient gewisser-
15
268
II
Kapitel 15 · Computertomographie (CT)
maßen innerhalb der Röntgenröhre. Ein Elektronenstrahl wird auf kreisförmig um den Patienten angeordnete Wolframtargetringe fokussiert und erzeugt beim Aufprall auf das Wolfram den gewünschten Röntgenstrahlfächer. Die Röntgenstrahlung wird dann mit einem fest stehenden Detektorring gemessen. Solche Systeme wurden von der Firma Imatron überwiegend an Kardiologien verkauft. Das Elektronenstrahlverfahren ist in der Lage, Schichten in 50 msec zu akquirieren. ⊡ Abb. 15.12a zeigt die Skizze eines EBCT-Systems sowie die Abbildung eines modernen Imatronsystems. Weitere technische Details findet man z. B. bei G. Weisser (Weisser 2000).
15.7.2 Volume-CT
Eine einheitliche Begriffsbildung hat bei den CT-Entwicklungsstufen bisher nicht statt gefunden. Bei J. T. Bushberg (Bushberg et al. 2002) werden Geräte mit kegelförmigem Röntgenstrahl und flächigem Detektor mit der siebten Generation bezeichnet. Aber selbst innerhalb der Kegelstrahltypen muss eigentlich noch unterschieden werden, ob nur eine kleine Kegelöffnung verwendet wird, so dass man nur von einem schmalen Multischicht- bzw. Multizeilensystem (MSCT) spricht oder ob tatsächlich ein symmetrischer Röntgenkegel genutzt wird. Die zu verwendenden Rekonstruktionsverfahren unterscheiden sich nämlich erheblich. Zur Motivation dieses Entwicklungsschrittes sei daran erinnert, dass der Schritt vom Nadelstrahl- zum Fächerkonzept ( Abschn. 15.2.2) neben der Verkürzung der Messzeiten den weiteren Vorteil besitzt, dass die erzeugte Röntgenstrahlung sehr viel effektiver ausgenutzt wird.
⊡ Abb.15.12a–d. a Elektronenstrahl-CT, b Volumen- oder Kegelstrahl-CT, c PET-CT und d Dual-Source CT
In Abschn. 15.3.1 wurde erwähnt, dass die Effizienz der Energieumwandlung bei der Erzeugung von Röntgenstrahlung bei nur etwa 1% liegt. Da die produzierte Wärme in den Röntgenröhren ganz wesentlich die physikalische Belastbarkeit definiert und damit die Messzeit beschränkt, beinhaltet ein konsequenter Schritt in der Entwicklung von Computertomographen die bessere Nutzung des ohnehin vorhandenen kegelförmigen Röntgenstrahls. Die Nadelstrahl- und die Fächerstrahlgeometrie wurde ja nur durch geeignete Kollimatoren erzeugt, die den vorhandenen natürlichen Röntgenkegel einengen. Technologisch gibt es drei wichtige Probleme, die für eine erfolgreiche Verwendung der Kegelstrahlgeometrie gelöst werden mussten. Erstens musste auf der Detektorseite des Tomographen ein Flächendetektor eingesetzt werden, den es noch nicht sehr lange gibt. Zweitens musste die enorme Rohdatenmenge, die insbesondere bei Subsekundenscannern in sehr kurzer Zeit entsteht, von dem sich drehenden Abtastsystem nach außen zum Bildrekonstruktionsrechner übertragen werden. Die benötigte Bandbreite für diesen Datentransfer ist auch heute noch eine Herausforderung. Und drittens steht man vor dem eigentlichen Rekonstruktionsproblem, dessen Mathematik gegenüber den zweidimensionalen Verfahren etwas verwickelter ist. ⊡ Abb. 15.12b zeigt einen Prototypen eines Kegelstrahltomographen in den GE Laboratorien.
15.7.3 Mikro-CT
Seit einiger Zeit sind so genannte Mikro-CT s kommerziell erhältlich, die im Wesentlichen einer miniaturisierten
269 15.7 · Spezielle Systeme
Form des Volumen- oder Kegelstrahl-CTs des vorhergehenden Abschn. 15.7.2 entsprechen und zur zerstörungsfreien, dreidimensionalen Mikroskopie genutzt werden. Das durchstrahlte Messfeld ist mit typischerweise 2 cm3 so klein, dass medizinische Anwendungen auszuscheiden scheinen. Tatsächlich werden diese Geräte eher in der Materialprüfung und -analyse verwendet, aber auch medizinische Anwendungen rücken zunehmend in das Zentrum des Interesses. Humanmedizinische Fragestellungen sind z. B. Untersuchungen der Trabekularstruktur von Knochen. Mikro-CTs sind darüber hinaus ideale Geräte, um radiologische Diagnostik an Kleintieren zu betreiben. Mikro-CTs sind häufig als Tischgerät ausgelegt und besitzen eine Messkammer, die mit Bleiwänden gegen nach außen dringende Röntgenstrahlung vollständig abgeschirmt ist, so dass keine weiteren Schutzmassnahmen ergriffen werden müssen. Das zu untersuchende Objekt wird auf einem Drehteller platziert, der von einem Schrittmotor gesteuert wird. Die beiden entscheidenden Komponenten von MikroCTs sind die Röntgenröhre und das Detektorarray. Hierbei sind es speziell die Fokusgröße und die Größe der Detektorelemente, die neben der mechanischen Genauigkeit der Drehbewegung das Auflösungsvermögen bestimmen. Dabei sind Röntgenfokusgrößen unterhalb von 10 µm wünschenswert. Natürlich kann bei einer so kleinen Elektronentargetfläche der Anodenstrom nicht sehr groß gewählt werden. Hier sind Ströme von I13
7–9
~3
Relative Lichtausbeute
1,2
1,0
1000
~500
0. Die resultierende Amplitude wird zur BFlow-Bildentstehung benutzt und ist um so heller, je höher die resultierende Amplitude A1–A2 ist. Bewegt sich eine Struktur (Gewebe) im Zeitraum t1– t2 nicht, so gilt: A1– A2=0. Die resultierende Amplitude ist also gleich Null und trägt nicht zur B-Flow-Bildentstehung bei (⊡ Abb. 18.15). In Bezug auf die Subtraktion erinnert B-Flow stark an die DSA, wobei zu beachten ist, dass bei der DSA ganze
323 18.3 · Gerätetechnik
⊡ Tab. 18.5. Unterschiede Farbdoppler/B-Flow Farbdoppler
B-Flow
▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Reduziertes Sichtfeld (Color Box = ROI) Schlechte räumliche Auflösung Relativ niedrige Bildfrequenz Überschreiben der Gefäßwand Bewegungsartefakte Winkelabhängigkeit Aliaseffekt Semiquantitative Anzeige der Flussgeschwindigkeit Relativ große Eindringtiefe
Bilder voneinander subtrahiert werden, bei B-Flow jedoch einzelne Zeilen. Die wichtigsten Unterschiede zwischen Farbdoppler und B-Flow in Bezug auf die praktische Anwendung und die grundlegenden diagnostischen Möglichkeiten zeigt ⊡ Tab. 18.5. Der entscheidende Vorteil von B-Flow liegt in der hervorragenden räumlichen Auflösung, die in ⊡ Abb. 18.16 sehr gut zu erkennen ist. Der Durchmesser des Steneosejets kann zweifelsfrei gemessen werden. Dies ist mit dem Farbdoppler fast unmöglich. Weitere medizinische Einsatzgebiete des B-Flow sind: die exakte räumliche Definition von Plaques und Thromben, die exakte Definition des durchströmten Gefäßlumens, frühzeitige Erkennung von tiefen Beinvenenthrombosen, Diagnose von schweren, pathologischen Veränderungen der Gefäßwand, exakte Bestimmung des Stenosegrades, frühere Erkennung von Risikosituationen in Bezug auf Infarkte und Thrombosen.
Volles Sichtfeld (keine ROI) Gute räumliche Auflösung 4mal höhere Bildfrequenz Kein Überschreiben Keine Bewegungsartefakte Keine Winkelabhängigkeit Kein Aliaseffekt Eingeschränkte Anzeige der Flussgeschwindigkeit Eingeschränkte Eindringtiefe
⊡ Abb. 18.16. Beispiel B-Flow: Stenose der A. carotis interna
18.3.6 Verarbeitung von harmonischen Signalen
Wie in Abschn. 18.2.5 (»Harmonic Imaging«) erläutert, erfahren Schallwellen auf ihrem Weg durch den Körper eine zunehmende Verformung im Sinne eines Übergangs von einer sinusförmigen Welle zu einer Sägezahnform. Es wurde bereits dargelegt, dass dieser nichtsinusoide Schwingungsvorgang einer additiven Überlagerung verschiedener Frequenzen entspricht. Beim Empfang zerfällt jedes dieser sägezahnförmigen Echoimpulse in seine Frequenzbestandteile (⊡ Abb. 18.17). Die konventionelle Signalverarbeitung unterdrückt die höherfrequenten Signalanteile, sodass primär die dominante Grundwelle jedes reflektierten Signals zur Bildgebung herangezogen wird. Beim sog. »Second Harmonic Imaging« hingegen wird die erste Oberwellenfrequenz (zweite Harmonische) isoliert und zur Bildgewinnung genutzt. Die Grundwelle (erste Harmonische) wie auch alle anderen Oberwellen werden diskriminiert und finden keine weitere Verwendung.
⊡ Abb. 18.17. Zerfall eines sägezahnförmigen Echos in Fundamentalfrequenz (3 MHz = erste Harmonische) und Oberwelle (6 MHz = zweite Harmonische)
Aber welche Vorteile stecken in der Nutzung der Oberwellen? Zur Beantwortung dieser Frage sollte in Erinnerung gerufen werden, dass jeder Ultraschallschwinger neben dem Ultraschallstrahl noch höchst unerwünschte Nebenkeulen (»sidelobes«) abstrahlt. Hierbei handelt es sich um Schallfelder, die um den Zentralstrahl herum angeordnet sind. Trifft ein derartiges Nebenschallfeld auf ein stark reflektierendes Objekt (Knochen, Gas), so kommen die Reflexe dieses Objekts auch auf solchen Bildzeilen zur Darstellung, die mit dem Ort der Reflexion nicht korrespondieren.
18
324
Kapitel 18 · Ultraschalldiagnostik
II
⊡ Abb. 18.18. Entstehung des Nebenkeulenartefakts
Die ⊡ Abb. 18.18 zeigt, auf welche Weise es zu dieser fehlerhaften Darstellung kommt: bereits beim Aufbau der außen links dargestellten Ultraschallzeile trifft die dazugehörige Nebenkeule den wesentlich weiter rechts liegenden Reflektor (in diesem Fall Darmgas kaudal der Gallenblase). Infolge der diffusen Reflexion an der Oberfläche dieses Objekts kehrt ein Teil des Echosignals zum empfangsbereiten Array oberhalb der linken Schallzeile zurück, wird in einen elektrischen Impuls konvertiert und gelangt als Lichtpunkt zur Darstellung. Auf der dazugehörigen Bildzeile wird demzufolge ein Echosignal dargestellt, obwohl sich in der entsprechenden Position überhaupt kein reales Objekt befindet, sondern das echofreie Lumen der Gallenblase. Gleiches geschieht beim Aufbau der 2. Zeile, der 3. Zeile usw. Da die Intensität des gesendeten Ultraschallsignals in den Nebenkeulen deutlich schwächer ist als im Hauptstrahl, ist die Sägezahnform hier weniger ausgeprägt. Das hat zur Folge, dass auch die von den Nebenkeulen ausgelösten Reflexe eine eher unverfälschte, sinusartige Form haben, also nahezu keine Oberwelle (⊡ Abb. 18.19).Filtert man deshalb beim Empfang die Oberwellen heraus und stellt nur diese auf dem Bildschirm dar, werden die von den Nebenkeulen verursachten Echosignale zwangsläufig ignoriert. »Harmonic imaging« ist somit eine Technik, die die Artefakte im Ultraschallbild reduziert und speziell flüssigkeitsgefüllte Hohlräume, wie z. B. die Amnionhöhle, die Harnblase, die Herzhöhlen oder Zysten sauberer und klarer abgrenzbar macht (⊡ Abb. 18.20). Damit eine deutliche Verformung des Sendesignals auftritt, muss im Vergleich zum herkömmlichen B-Bildverfahren eine höhere Schallintensität abgestrahlt werden. Diese
⊡ Abb. 18.19. Diskriminierung von Nebenkeulenechos durch Selektion von Oberwellen
muss jedoch immer unter dem vorgeschriebenen Limit liegen ( Abschn. 18.7 »Sicherheitstechnische Aspekte«). In Verbindung mit der Applikation eines Ultraschallkontrastmittels werden im »harmonic« modus ebenso primär die von den Bubbles generierten Oberwellen aufgefangen ( Abschn. 18.2.8 »Blutflussdarstellung mit Ultraschallkontrastmittel«). Hier geht es im Gegensatz zum oben beschriebenen Vorgang im normalen B-Mode jedoch nicht so sehr um die Unterdrückung von Artefakten, sondern um die Unterdrückung des Gewebesignals. Durch Diskriminierung der Fundamentalfrequenz mittels Hochpassfilter oder Subtraktionstechnik ( Abschn. 18.3.3
325 18.3 · Gerätetechnik
⊡ Abb. 18.20. Artefaktfreie Darstellung der Herzhöhlen mittels »harmonic imaging« (links mit und rechts ohne »harmonic imaging«)
Der klinische Nutzen besteht darin, dass eine Tumorcharakterisierung vorgenommen werden kann, die Aufschluss geben kann über die spezielle Therapieform und das weitere klinische Procedere des betreffenden Patienten. Der zweite große Nutzen der Kontrastmittelanwendung im Ultraschall liegt in der Tumordetektion, insbesondere der Metastasensuche. Dazu benutzt man das Verfahren der »stimulated acoustic emission« (SAE). Um dies zu erläutern, muss kurz auf die Wirkung verschiedener Energielevel auf die Bubbles eingegangen werden. Wie bereits in Abschn. 18.2.5 »Harmonic Imaging« erwähnt, ist die Entstehung der harmonischen Frequenzen maßgeblich von den Druckschwankungen abhängig, die durch den Piezokristall erzeugt werden. Als Maß für die mechanischen Einwirkungen der Schallwellen auf Gewebe und Kontrastmittelbläschen dient der sog. mechanische Index (Mi), der an allen Ultraschallsystemen angezeigt werden muss und sich nach der folgenden Zahlenwertgleichung berechnet: ⊡ Abb. 18.21. Darstellung der Vaskularisierung eines Lebertumors mittels Ultraschallkontrastmittel (FNH mit typischem Speichenradphänomen)
»Digital kodierter Ultraschall«) heben sich in der bildlichen Darstellung die mit Kontrastmittel angereicherten Gefäße deutlich vom Gewebehintergrund ab. Somit lassen sich Perfusionsunterschiede visualisieren und selbst die im B-Mode als sonographisch nicht differenzierbar geltenden Läsionen differentialdiagnostisch bzw. differenzierbar beschreiben (⊡ Abb. 18.21).
Mi = p − /
f
Hier bedeuten: Mi = mechanischer Index [dimensionslos] p– = negativer Schalldruck [MPa] f = Sendefrequenz [MHz] Bei niedrigem Mi und somit niedrigem Schalldruck haben die Bubbles noch ein lineares Verhalten, bei höherem Schalldruck gehen sie zu nichtlinearem Verhalten über und erzeugen harmonische Oberwellen. Bei einem MiWert von ungefähr 1 schwingen die Bubbles so stark, dass sie platzen (»burst«) und ein starkes Signal abgeben, das
18
326
II
Kapitel 18 · Ultraschalldiagnostik
aus einem breiten Band von harmonischen Frequenzen besteht. Eine Zusammenfassung gibt ⊡ Tab. 18.6. Da Metastasen aufgrund ihrer neoplastischen Gefäßstruktur weniger Kontrastmittel aufnehmen als gesundes Gewebe, kann man diese beim SAE-Verfahren als hyporeflektive »Aussparung« (schwarzer Fleck) im Bild erkennen. In der Echokardiographie wird Kontrastmittel im nichtlinearen Modus dazu benutzt, um bei schlecht schallbaren Patienten die Abgrenzung des linken Ventrikels zu optimieren und dadurch eine Aussage über die Ventrikelkontraktilität und das Ventrikelvolumen zu gewinnen. Auch kann damit in differentialdiagnostisch schwierigen Fällen geklärt werden, ob sich ein Thrombus in der Ventrikelspitze oder im linken Herzohr befindet. ⊡ Tab. 18.6. Verhalten der Bubbles bei verschiedenen Mi-Werten (nach N. de Jong, Universität Rotterdam) Mi
p– [Mpa]
Verhalten der Bubbles
Bildmodus
1.500.000 >1,5×106
PAL-Norm (720×576)
414.720
HDTV (verschiedene Normen): 1536×1152 (= 2× PAL) bzw. 1280×720 progressiv (≡720p) bzw. 1920×1080 interlaced (≡1080 i)
1,77×106 0,92×106 2,07×106
Systems sind eine Vielzahl flexibler Endoskope mit verschiedenen Längen und Durchmessern verfügbar; eine Vielzahl von zugehörigem Instrumentarium für diagnostische, interventionelle und operative Zwecke ergänzen die Endoskope (⊡ Abb. 19.3). Die Abwinkelbarkeit der Endoskopspitze beträgt heute typischerweise 180/180/160/160 Grad und erlaubt den Zugang auch zu versteckt liegenden Läsionen. Die Objektive erreichen Blickwinkel von 140–170 Grad und eine typische Tiefenschärfe von 3–100 mm. Spezielle Objektive für die Lupenendoskopie, auch in Zoomausführung, erlauben effektive Vergrößerungen bis zum 300-fachen, Spezialgeräte für die Endomikroskopie (s. unten) ergeben sogar bis zu 1000-fache In-vivo-Vergrößerungen. Gastroskope, Koloskope und Bronchoskope besitzen eine Geradeausoptik; Duodenoskope sind als Seitblickgeräte ausgeführt – mit spezieller Mechanik (Albarranhebel) zur Manövrierung der Instrumente, die durch die Papilla Vateri in die Gangsysteme von Leber und Pankreas eingeführt werden können. Neuere Entwicklungen sind Feinkaliberendoskope für die Routine-Endoskopie (z. B. 5 mm-Geräte für die transnasale Gastroskopie), Koloskope mit variabler Steifigkeit des Schaftes und Spezialgeräte mit spezieller Spitze und/ oder besonders großem, doppeltem oder modifiziertem Arbeitskanal.
19.5
Endoskopiesysteme, Geräte und Instrumente
Das Endoskop stellt nur eines der Subsysteme des endoskopischen Arbeitsplatzes dar, der zahlreiche weitere Geräte enthält. Neben der Lichtquelle und dem Video-
prozessor (oft in einem Gehäuse vereint), sind noch Absaugpumpen, Spülpumpen, Hochfrequenzgeneratoren, LASER, Einrichtungen zur Lithotripsie, endoskopische Doppler etc. neben Geräten für die Dokumentation von Standbildern und Videosequenzen erforderlich. Auch Röntgen- und Ultraschallgeräte gehören zum endoskopischen Arbeitsplatz (⊡ Abb. 19.1b). Von diesen Geräten unterscheidet man Instrumente, die zur Ausführung der endoskopischen Maßnahmen selbst eingesetzt werden, wie Biopsiezangen, Greifer, Fasszangen, Körbchen, Lithotripter, Clip-Instrumente, Nadeln, Drähte, Sonden, Schlingen, Papillotome, Ballons, Magnete, Koagulationssonden, Argonplasma-Applikatoren etc., die in fast unübersehbarer Vielzahl zur Verfügung stehen (⊡ Abb. 19.3). In jüngster Zeit wurde auch spezielles Zubehör für Interventionen entwickelt (Aufsätze für die Gummibandligatur, Aufsetzkappen zur Mukosaresektion, Instrumente zur endoskopischen Naht etc.), das diese komplexen Eingriffe erleichtert. Viele dieser Instrumente sind jedoch – bedingt durch notwendige Miniaturisierung (Instrumentierkanaldurchmesser 2,8 mm !) und die notwendige Länge (150–200 cm) – funktionell nicht optimal und bedürfen dringend einer entsprechenden Neu- bzw. Weiterentwicklung.
19.5.1 Fein- und Feinstkaliberendoskope
Für spezielle endoskopische Aufgaben sind heute flexible Miniaturendoskope mit bestechenden technischen Daten verfügbar. Bei einem Außendurchmesser von 2,4 mm bieten sie z. B. zwei separate Arbeitskanäle mit 1,2 mm und 0,6 mm Durchmesser, eine über 180 Grad steuerbare Spitze und ein austauschbares Einführungsteil (⊡ Abb. 19.4a, auch 4-Farbteil am Buchende). Anwendungsgebiete sind z. B. die Uretero-Renoskopie, die transpapilläre Cholangiopankreatikoskopie in Mother-Baby-Technik, die perkutane Cholangioskopie, die vaskuläre Endoskopie, die Nasopharyngoskopie, die Hysteroskopie, die Periduroskopie und die Ventrikuloskopie. Noch weiter miniaturisiert sind Endoskope für die Tränenkanälchen am Auge, die Milchgänge in der weiblichen Brust, die Tuba Eustachii als Zugang zum Mittelohr sowie für die Ophthalmochirurgie: Es sind starre, halbstarre und flexible Mikroendoskope verfügbar mit Schaftdurchmessern zwischen 0,5 mm und 1,5 mm, die neben einer integrierten Beleuchtung auch noch Spülkanäle enthalten und im Verhältnis zu ihrem Durchmesser eine bislang nicht für möglich gehaltene Bildqualität bieten (⊡ Abb. 19.4b, auch 4-Farbteil am Buchende). Auf dem Gebiet der Mini- und Mikro-Endoskopie stehen wir zweifellos am Beginn einer neuen endoskopischen Ära mit weitreichenden Konsequenzen für Diagnostik und Therapie.
353 19.5 · Endoskopiesysteme, Geräte und Instrumente
19.5.2 Mother-Baby-Endoskope
Für die direkte Visualisierung der Gallengänge und des Pankreasgangsystems sind so genannte Mother-BabySysteme entwickelt worden, bei denen durch den Instrumentierkanal des Mutterendoskopes Feinkaliberendoskope in die entsprechenden Gangsysteme eingeführt werden können. Diese »Baby«-Endoskope besitzen eigene Instrumentierkanäle, welche interventionelle Prozeduren (Einfangen von Steinen, Lithotripsie, Laseranwendung, Injektion etc.) erlauben (⊡ Abb. 19.5, auch 4-Farbteil am Buchende). Die »Baby«-Endoskope mit Durchmessern von 10 mA, die durch das Herz fließen, können Flimmern in den Ventrikeln verursachen). ▬ Postdefibrillatorisch bedingte Rhythmusstörungen sind supra- und ventrikuläre Extrasystolen, ventrikuläres Flattern. ▬ Arterielle Embolien. ▬ Verbrennungen und Reizungen der Haut, bspw. durch eine unzureichende Menge an Elektrodenkontaktpaste auf der Elektrodenoberfläche.
22.6
Sicherheitstechnische Aspekte
Anwendung: ▬ Direktes Berühren der Elektroden (lebensgefährlich!), leitfähiges Berühren der Patienten oder anderer Personen vermeiden (Sicherheitsabstand!). ▬ Patientenhaut sollte keine Feuchtigkeit aufweisen (elektrische Brücke!), des Weiteren sollte der Patient elektrisch isoliert gelagert werden. ▬ Kardioversion nur bei artefaktfreiem EKG und wenn sichere EKG-Kontrolle möglich ist.
22
404
Kapitel 22 · Defibrillatoren/ICD-Systeme
▬ Bei zuviel Elektrodenkontaktpaste auf den Paddels be-
III
steht die Möglichkeit einer elektrischen Brücke (Kurzschlussgefahr). ▬ Alle zusätzlichen Geräte, die mit dem Patienten verbunden sind, müssen defibrillationsfest sein; andernfalls müssen diese während der Kardioversion/Defibrillation vom Patienten getrennt werden. ▬ Vorsicht bei Patienten mit energetischen Implantaten: Die Funktion der Implantate kann eingeschränkt oder aufgehoben, das Implantat selbst beschädigt oder gar unbrauchbar werden. Gerät: ▬ Defibrillatoren gehören zur Klasse IIb MPG. ▬ Defibrillatoren dürfen nur in explosionsgeschützter Atmosphäre verwendet werden. ▬ Geräte, die nicht defibrillatorgeschützt sind, sind vom Patienten zu trennen, ansonsten ▬ Gerätekennzeichnung nach DIN-IEC 601 mit Defibrillationsschutz. ▬ Maximale Energie 360 J. ▬ Auslösetasten nur an beiden Paddels (in Reihe geschaltet). ▬ Schutzschaltungen, die bei Ausschalten des Defibrillators reduzierte Energieeinstellung und spätestens nach 1 min nach Defibrillatoraufladung eine Energierücknahme gewährleisten. ▬ Defibrillatoren sollten aufgrund des unvorhersehbaren und häufig wechselnden Einsatzes auf ihrem Gerätestandort immer am Netz angeschlossen sein, um ad hoc funktionstüchtig und einsatzbereit zu sein.
22.7
Implantierbare Kardioverter/ Defibrillatoren (ICD)
Die sichere Erkennung und Behandlung von lebensbedrohlichen Kammertachykardien und von Kammerflimmern, welche sich medikamentös nicht therapieren lassen, sind primäres Einsatzgebiet implantierbarer Kardioverterdefibrillatoren (ICD-Systeme; ⊡ Abb. 22.9). Bei Bedarf kann der ICD auch in bradykarden Phasen Schrittmacherimpulse abgeben. Weiterhin können fortschrittliche ICD-Systeme antitachykard stimulieren, kardiovertieren und defibrillieren. ICD-Implantationen haben zahlenmäßig deutlich zugenommen. Folgende Gründe sind für diese Entwicklung ausschlaggebend: ▬ Eine vereinfachte Implantationstechnik reduziert die operationsbedingte Mortalität. ▬ Sehr geringe Morbidität. ▬ Hohe Patientenakzeptanz. ▬ Im Vergleich zur medikamentösen Therapie zur Verhinderung des plötzlichen Herztodes – im Rahmen der Sekundärprophylaxe bspw. nach hämodynamisch
⊡ Abb. 22.9. Thoraxaufnahme mit implantiertem ICD-System (Quelle: Medtronic)
wirksamer Kammertachykardie – ist die ICD-Therapie überlegen. ▬ Bei idiopathischem Kammerflimmern gibt es z. Zt. keine Alternative zur ICD-Therapie. ▬ Eine weitere Indikation ist die Primärprophylaxe bei symptomfreien Hochrisikopatienten. ▬ Durch sinkende Produktpreise bei steigender Produktlebensdauer sind die ICD-Therapiekosten erheblich gesunken.
22.7.1 ICD-Entwicklung
In der ICD-Entwicklung sind insbesondere folgende zeitliche Ereignisse von Interesse und Bedeutung: Die erste transthorakale Defibrillation mit Gleichstrom wurde 1962 von Lown durchgeführt. Bereits 1969 wurde von Mirowski das erste Modell eines implantierbaren automatischen Defibrillators (»automatical implantable cardioverter/defibrillator«, AICD) vorgestellt und 1980 erstmalig einem Menschen implantiert. Von diesen Systemen wurden Kammerflattern und -flimmern durch die Kriterien Herzfrequenz und/oder Fehlen isoelektrischer EKG-Anteile erkannt. Die Arrhythmiedetektion erfolgte über myokardiale Schraubelektroden. 1988 wurde ein programmierbares und bereits 1989 ein multiprogrammierbares ICD-System in der Klinik eingesetzt. Der erste Zweikammer-ICD wurde 1995 angeboten, während 1996 schon ein atrialer Defibrillator implantiert wurde. ICD-Systeme, die intraatrial implantiert werden, sind ein sicheres und effektives Verfahren zur Terminierung von Vorhofflimmern. Dabei ist zum einen die niedrige
405 22.7 · Implantierbare Kardioverter/Defibrillatoren (ICD)
Energieabgabe von Vorteil und zum anderen, dass der Patient keine Kurznarkose benötigt. 1997 erfolgte erstmals die Implantation eines kombinierten atrialen ventrikulären Defibrillators. Bei neueren atrioventrikulären Defibrillatoren ist von besonderem Interesse, dass sie neben der vollautomatischen Detektion von Vorhof- und Kammersignalen auch in beiden Herzkammern elektrische Impulse abgeben, um auftretende Arrhythmien zu terminieren. Ein weiterer Entwicklungsschub kam 1998 von der Freiburger Universitätsklinik durch die Einführung eines im Körper selbst generierten 6-kanaligen EKG. Dieses in das ICD-System integrierte EKG erlaubt es erstmals, akute Durchblutungsstörungen des Herzens und damit einen drohenden Herzinfarkt frühzeitig zu erkennen. Daneben können Risikoparameter fortlaufend erfasst werden, um den Patienten oder den behandelnden Arzt vor dem bevorstehenden Auftreten von lebensbedrohlichen Arrhythmien zu warnen.
22.7.2 Systemtechnik
Miniaturisierte Bauweise, effektivere Defibrillationen durch energieärmere Impulse sowie neue Batterietechnologien machen es möglich, dass heute eine subfaziale präpektorale Implantation bei transvenöser Elektrodeninsertion in Lokalanästhesie Standard ist (⊡ Abb. 22.10). Die ICD-Technik (gängige Produkte haben ein Volumen 8 mV
>2 mV, optimal >3 mV
Reizstromschwelle (bei 0,5 ms)
8 mit Trend, Berechnungen und Kommunikation zu anderen Systemen
Simultan dargestellte Kurven
1–4, (Farb-) LCD
3–8, ggf. auch 12-Kanal-EKG, Farb-LCD/TFT
6–32, Farb-LCD/TFT
Kommunikation
Stand-alone oder vernetzbar
vernetzbar (festverdrahtet oder wireless), Geräteanbindung am Arbeitsplatz
vernetzt, ggf. mit Web-Browser und erweiterter Kommunikation sowie diversen Anbindungen
Einsatzbereiche
Einleitung/Ausleitung, Aufwachräume, Notfallräume, Ambulanzen, Step-Down Unit, Transport
Einleitung/Ausleitung, OP, Aufwachräume, Notfallräume; Intensivtherapie, Intermediate Care,Transport
allgemeine und spezielle Intensivtherapie, spezielle OP-Einheiten, Forschungsbereiche
Darüber hinaus werden Monitore regelmäßig in Stationen und Einrichtungen verwendet, die Patienten möglichst frühzeitig aus Intensivstationen übernehmen (StepDown Units).
36.1.1 Monitorarten
Stand-alone Monitor. Ein Monitor, der nicht mit anderen Monitoren oder einer Zentrale kommuniziert und oft nur zur punktuellen Messung oder kurzzeitigen Überwachung weniger Parameter am Patienten eingesetzt wird. Transportmonitor (⊡ Abb. 36.1c). Portables, möglichst leichtes Gerät mit integriertem Display, das am Bett oder an der Transport-Liege befestigt werden kann und im Akku-Betrieb zur Überwachung des Patienten während eines Transportes dient. Telemetrie-Sender oder -Monitor. Tragbarer Sender, oft ohne Display zur drahtlosen Überwachung von Patienten in einem umschriebenen, mit einer Antennenanlage versehenen Empfangsbereich der klinischen Einrichtung. Wird im Gegensatz zum Transportmonitor vom gehfähigen Patienten getragen und dient der Überwachung des EKGs und ggf. der Sauerstoffsättigung und des Blutdrucks an einer Zentralstation. Vorkonfigurierter Monitor oder Kompaktmonitor. Gerät mit integriertem Display und einer begrenzten Anzahl von Messparametern, die fest vorgegeben sind. Semimodulare (Kompakt-) Monitore lassen sich darüber hin-
aus um ein Modul für zusätzliche Messungen erweitern. Ein Registrierer kann integriert sein. Eine Einbindung in Netzwerke ist heute meist möglich. Bei Ausstattung mit Akkumulatoren gibt es keine strenge Trennung zur Verwendung als Transportmonitor. Mit weiterer Miniaturisierung des Monitors und Einbindung in ein Funknetz kann zukünftig sicherlich eine separate Telemetrie-Anlage auf qualitativ höherem Niveau (mehr Parameter, sichere digitale Funkverbindung) ersetzt werden. Modularer Monitor. Die Leistungsfähigkeit des Monitors ist durch Auswechseln oder Hinzufügen von Modulen (Einschübe oder als externe Erweiterungen) für die Erfassung weiterer Parameter sowie durch Software-Optionen (z. B. für erweiterte Arrhythmie-Überwachung) beliebig skalierbar und kann jeweils den konkreten Erfordernissen angepasst werden. Diese Monitore mit integriertem oder separatem Bildschirm sind oft nur stationär am Patientenbett oder im OP einsetzbar und in aller Regel zu Monitorsystemen in einem Netzwerk zusammengeschlossen. Informationsmonitor mit integriertem Transport (⊡ Abb. 36.1a). Kombination eines zum krankenhausweiten Transport geeigneten modularen Monitors mit einem logisch zugeordneten medical-grade Panel-PC. Der Monitor steht am Bett sicher verriegelt auf einer sogenannten Docking Station, die alle Verbindungen zu Spannungsversorgung, Netzwerk, ggf. Fremdgeräten und weiteren Sichtgeräten enthält (⊡ Abb. 36.1). Durch einen Hebeldruck werden die mechanischen und elektrischen Verbindungen gelöst, und der Monitor wird ohne Unterbrechung der Überwachung als Transport-
641 36.1 · Einsatzbereiche von Patientenüberwachungssystemen
a
b
c
⊡ Abb. 36.1a–c. Komponenten eines modernen Monitoring-Systems. a Informationsmonitor (Vordergrund) mit integriertem Transportmo-
nitor (im Hintergrund auf Dockingstation), b Zentrale für 16 Patienten, c Monitor wird zum Transport auf Betthalterung gesetzt
monitor verwendet (Pick & Go Prinzip). Bei Rückkehr vom Transport wird der Monitor einfach auf die Docking Station gestellt und alle zuvor getrennten Verbindungen werden durch das Umlegen des Hebels wieder hergestellt. Jegliches Umstecken von Kabeln und/oder Modulen zwischen Bett- und Transportmonitor entfällt, und es ist eine absolut nahtlose Überwachung des Patienten ohne Einschränkung der Parameter gewährleistet. Der dedizierte Panel-PC am Krankenbett wird erstens zum erweiterten Monitoring genutzt, um die Fülle von Monitor-Informationen in verschiedenen Bildschirm-Layouts groß, klar und übersichtlich darzubieten. Zweitens dient er Ärzten und Pflegern als IT-Portal, um auf alle im KrankenhausIntranet verfügbaren Patienteninformationen (Bilder z. B. von Röntgen, MRT und Ultraschall, Laborwerte, Anamnesen und Vorerkrankungen) und auf Datenbanken (Rote Liste, Pflegerichtlinien) zugreifen zu können. Damit stehen wesentliche Informationen dort, wo sie gebraucht werden – am Krankenbett, dem »Point of Care« – ohne zeitraubende Suche zur Entscheidungsfindung über die
weitere Therapie zur Verfügung. Drittens kann der PC gleichzeitig zur papierlosen Dokumentation in einem Patientendaten-Managementsystem genutzt werden.
36.1.2 Monitorbild
Display. Bis auf ganz einfache Blutdruck- und Temperatur-Messgeräte, die nur Zahlenwerte anzeigen, haben praktisch alle Monitore einen Bildschirm zur Darstellung der Kurven von kontinuierlich gemessenen Parametern (meist EKG, Pulskurve, Atmung, invasive Blutdrücke) und der zugehörigen Bezeichnungen, Messwerte und Grenzwerte sowie von Trenddarstellungen und weiteren Informationen. Farb-Flachbildschirme in LCD- (Liquid Crystal Display) und TFT- (Thin Film Transistor) Technologie in Größen von 6« (15 cm) bis 17« (43 cm) Bildschirmdiagonale und größer mit Auflösungen von 640×480 bis 1024×768 Pixel haben sich durchgesetzt. Monochrome
36
642
Kapitel 36 · Patientenüberwachungssysteme
LCD- oder EL- (Elektrolumineszenz) Bildschirme findet man fast nur noch bei kleinen Stand-alone- und Transportmonitoren. Gute Bildschirme sind flimmerfrei, kontrastreich und entspiegelt und haben einen ausreichend großen Betrachtungswinkel (>160°), sodass sie auch bei Fremdlicht und aus ungünstigen Blickwinkeln eine gute Erkennbarkeit gewährleisten.
farbig hervorgehoben: Alarmquittierung) und logische, gut überschaubare Menüführung in nicht mehr als 2–3 Ebenen sind bedienerfreundlich. Einige Monitore bieten Hilfsfunktionen und eingebaute Simulationsprogramme zum Erlernen der Bedienung.
36.1.4 Alarme, Ereignisse
IV
Kanäle. Neben der Größe und Güte des Bildschirms beschreibt die Anzahl der möglichen Bildschirmkanäle die Leistungsfähigkeit eines Monitors, d. h. die maximale Anzahl der zur Überwachung wählbaren Kurven und ihrer zugehörigen Parameter, die in Parameterfenstern (Parameterboxen) dargestellt werden. Transport- und Kompaktmonitore haben meist 3 oder 4 Kanäle. Modulare Monitore klassisch 5, 6 oder 8 Kanäle. Moderne Monitore mit 17«-Bildschirm bieten bis zu 32 Kanäle. Kurvendarstellung. Entweder bewegen sich die Kurven vom rechten zum linken Bildrand (Quell- oder Papiermodus) oder sie werden immer aufs Neue von links nach rechts auf den Bildschirm geschrieben, wobei ein Löschbalken die Kurve aus dem vorherigen Durchgang löscht (Löschbalkenmodus). Die Ablenkgeschwindigkeit ist zumindest bei modularen Monitoren wählbar. Übliche Geschwindigkeiten sind 25 oder 50 mm/s für EKG und Blutdruckkurven und 12,5 oder 6,25 mm/s für Atemkurven. Viele Monitore haben eine Freeze-Funktion, die ein Einfrieren des Bildschirminhalts zur genaueren Betrachtung ermöglicht. Kurven, die physikalische Messwerte präsentieren (EKG, Blutdruck), haben eine Skalenangabe. Bildschirmkonfiguration. Die Anordnung der Kurven und Parameter auf dem Bildschirm (Positionierung, Layout) ist i. d. R. vom Nutzer einstellbar. Mindestens eine solche Konfiguration kann gespeichert werden und dient als Standard beim Einschalten des Monitors. Bei modularen Monitoren sind meist 5 oder 10 Layouts speicherbar.
36.1.3 Bedienung
Bedienelemente. Fixtasten am Monitor, Drehknopf und Touchscreen sind allein oder in jeder erdenklichen Kombination die Bedienelemente am Monitor. Manche Monitore bieten zusätzlich eine drahtgebundene oder eine Infrarotfernbedienung. Monitore mit integrierten Webbrowsern können Tastatur und Maus haben. Bedienerführung, Bedienphilosophie. Einfache, logische und möglichst intuitive Bedienbarkeit sind Voraussetzung für eine gute Akzeptanz durch die Nutzer und die Vermeidung von Fehlbedienungen. Direkter Zugriff auf wichtige Funktionstasten (Alle Alarme aus, Standby, Standardbild und als wichtigste Taste möglichst
Wesentliche Funktion des Monitors ist die akustische und optische Alarmgebung in mindestens drei verschiedenen Stufen. Höchste Priorität hat die Alarmierung lebensbedrohlicher Situationen (wie Herzstillstand, Kammerflimmern), die sich akustisch und optisch als rote Alarme bemerkbar machen müssen. Ernste Warnungen, z. B. bei Grenzwertverletzungen, werden gelb dargestellt. Technische und/oder hinweisende Alarme erscheinen weiß. Die akustischen Alarme sollen aufmerksam machen. Die Alarmstufen müssen sich akustisch deutlich voneinander unterscheiden und vom Personal problemlos von den Alarmen anderer medizinischer Geräte unterschieden werden können. Die optischen Alarme dienen dem schnellen Erkennen a) des alarmierenden Monitors (Alarmleuchte am Monitor) und b) der Alarmursache (farbig blinkender Messwert). Ein Alarm kann auf einem (Laser-) Drucker oder einem speziellen Alarmrekorder automatisch ausgedruckt und im Monitor und/oder einer Zentrale als »Ereignis« gespeichert werden. Die Speicherung erlaubt eine spätere Bewertung und ggf. gezielte Dokumentation. Sie kann ein Ausdrucken aller Ereignisse ersparen. In einem Monitorsystem kann die Anzeige des Alarms von einem Patientenbett auch an allen anderen Monitoren angefordert werden, damit das medizinische Personal sofort Art und Ort des Alarms erkennen kann. Im einfachsten Fall ist dies eine kurze Angabe von Bett und alarmierendem Parameter in einer Informationszeile der anderen Monitore (einfache Bett-zu-Bett-Kommunikation). Auf Wunsch kann aber auch die Bildinformation des alarmgebenden Monitors auf den anderen Monitoren automatisch erscheinen (volle Bett-zu-Bett-Kommunikation). In jedem Fall ertönt und erscheint ein Alarm auf einer angeschlossenen Zentrale. Insbesondere bei sehr unübersichtlich gebauten Stationen kann es erforderlich sein, wichtige Alarme auch an eine vorhandene Schwesternrufanlage zu leiten und auf weit sichtbaren Informationsdisplays auf dem Gang sichtbar zu machen.
36.1.5 Trenddarstellung
Alle gemessenen Werte werden vom Monitor im Trendspeicher abgelegt. Von kontinuierlich gemessenen Para-
643 36.2 · Erweiterte Systemeigenschaften
metern werden meist Minutenmittelwerte (oder Medianwerte) der letzten 24 h oder mehr gespeichert (96 h sind bereits üblich). Die Darstellung der Trends erfolgt als Tabelle oder als Grafik und kann von 24 h bis zu wenigen Minuten vom Nutzer gewählt werden (Zoom).
36.1.6 Automatische Berechnungen
Physiologische Berechnungen von abgeleiteten Größen aus den kontinuierlich und diskontinuierlich gemessenen Parametern sind für Hämodynamik, Beatmungsgrößen und Sauerstoffversorgung üblich. Auch diese Ergebnisse stehen dann als Trend zur Verfügung. Viele Monitore erlauben auch Dosisberechnungen für diverse Medikamente und Infusionen.
36.2
Erweiterte Systemeigenschaften
Datenintegration am Arbeitsplatz. Durch Einbindung der Daten aus Fremdgeräten (z. B. spezialisierten Monitoren von anderen Herstellern) und/oder Beatmungs- oder Narkosebeatmungsgeräten gelingt es, zusätzliche Kurven und Parameter gemeinsam mit den Monitordaten anzuzeigen, und es wird eine gemeinsame Datenbasis (Trendspeicherung) geschaffen. Die Daten werden z. B. via MIB (Medical Information Bus) oder seriell übertragen. Monitornetzwerk. Die Vernetzung (LAN = Local Area Network) ist der Schritt vom Einzelmonitor zum Monitorsystem. Nach Industriestandards festverdrahtet oder drahtlos per Funk (Wireless LAN = WLAN) kommunizieren die Monitore miteinander von Bett zu Bett und mit Überwachungszentralen sowie z. B. mit gemeinsam genutzten Druckern. Via Netzwerk und spezielle Übertragungsrechner (Gateways) können Daten vom Monitoringsystem importiert (z. B. demographische Daten aus dem Krankenhausinformationssystem oder Laborwerte) und exportiert werden (z. B. in ein Patientendaten-Managementsystem). Mit dem medical-grade Rechner der o. g. Informationsmonitore können z. B. die im Krankenhaus elektronisch verfügbaren patientenbezogenen Informationen mittels Webbrowser oder mit speziellen Applikationen am Krankenbett dargestellt und in das Monitoring integriert werden (⊡ Abb. 36.2). Es wird weniger Zeit für Informationssuche verschwendet und es gehen keine Daten für eine Dokumentation verloren. Gateway-Server können die Bild- und Trendinformationen der Monitore im Intranet des Krankenhauses webbasiert zur Verfügung stellen, sodass sie durch berechtigte Ärzte von jedem beliebigen PC im Krankenhausnetzwerk mittels Standard-Browser abgerufen werden können. Konsultationen oder Befundungen sind dadurch kran-
⊡ Abb. 36.2. Informationsmonitor mit integriertem PatientendatenManagementsystem
kenhausweit möglich. Außerdem ist die Ansteuerung von Pager-Systemen möglich, um Ärzten oder Pflegepersonal z. B. Alarminformationen auch außerhalb einer Station und unabhängig von fest installierten Monitoren und Zentralen zur Verfügung zu stellen. Da in einem Monitoring-Netzwerk lebenswichtige Alarme nicht verzögert werden dürfen und Lücken in übertragenen Kurven nicht akzeptabel sind, wurde in der Vergangenheit stets eine strikte physikalische Trennung zwischen Krankenhausnetzwerk und Monitornetzwerk gefordert. Moderne Techniken zur Sicherung der Priorität der zeitkritischen Daten erlauben inzwischen auch das Betreiben eines Monitornetzwerkes innerhalb der Netzinstallation eines Krankenhauses durch logische Trennung der Netzwerksegmente mittels virtueller LANs (VLAN) mit entsprechender Ausfallsicherheit und Gewährleistung einer Mindestbandbreite für die priorisierte Anwendung als Quality of Service (QoS). Erst dadurch wird möglich, dass Monitore und z. B. Visiten-Rechner in einem Funknetz (WLAN) über dieselben Zugriffspunkte (Access Points) kommunizieren, ohne sich gegenseitig zu stören.
36.2.1 Zentrale Überwachung
und Dokumentation Monitoring-Zentralen (⊡ Abb. 36.1b) bieten via Netzwerk alle Alarme optisch und akustisch an zentralen Arbeitsplätzen sowie einen Überblick über den Zustand der angeschlossenen Patienten auf einem oder mehreren Bildschirmen. Grenzwerte der Bettmonitore oder ggf. Telemetrie-Geräte können von der Zentrale aus verändert werden. Auch Zentralen müssen skalierbar sein und sich in ihrer Leistung den Erfordernissen durch Hardund/oder Software-Optionen anpassen lassen: Anzahl der darzustellenden bzw. zu überwachenden Patienten (meist zwischen 4 und 32) mit oder ohne Telemetrie, Anzahl
36
644
IV
Kapitel 36 · Patientenüberwachungssysteme
der Kurven pro Patient, Langzeitspeicherung für Kurven (z. B. 1–3 Tage Full Disclosure von 4 bis 16 Kurven) und Ereignisse (z. B. 1000 pro Patient als Event Disclosure) und weitere Funktionalitäten, z. B. Ansicht von Betten anderer Abteilungen oder von in anderen Zentralen gespeicherten Kurven sowie der Export der Langzeit-Kurven und Ereignisse in das Intranet zur Betrachtung an ArztPCs, dort, wo sie zur Befundung benötigt werden. Eine weitere wichtige Funktion ist die Dokumentation, also die Möglichkeit, Berichte in variablen Formaten und Zeiträumen, Trends und Ereignisse auszudrucken. Standard ist heute ein Laserdrucker mit normalem DIN-A4-Papier. Netzwerk-Drucker können auch ohne Zentralen von den Monitoren direkt angesteuert werden.
37 Kardiovaskuläres Monitoring R. Kramme, U. Hieronymi
37.1 Monitoring der Herzfunktion
– 645
37.1.1 Elektrokardiogramm (EKG) und Herzfrequenz (HF) – 645 37.1.2 Arrhythmieüberwachung – 646
Weiterführende Literatur – 657 Literatur »Nichtinvasiver Blutdruck« – 657
37.2 Monitoring der Kreislauffunktion (hämodynamisches Monitoring) – 647 37.2.1 Puls – 648 37.2.2 Nichtinvasiver Blutdruck (NIBD) – 648 37.2.3 Invasive Druckmessung im Hoch- und Niederdrucksystem – 652 37.2.4 Bestimmung des Herzzeitvolumens (HZV) – 655 37.2.5 Berechnung hämodynamischer Größen – 656
Unter dem Oberbegriff »Kardiovaskuläres Monitoring« wird die Überwachung von Herz- und Kreislauffunktionen zusammengefasst. Bei kardiologischen Erkrankungen, instabilen Kreislaufzuständen und Schock sowie für die prä-, intra- und postoperative Überwachung des Herz-KreislaufSystems ist das kardiovaskuläre Monitoring unerlässlich und von ausschlaggebender Bedeutung. Zum einen müssen bei Beeinträchtigungen rechtzeitig Interventionen eingeleitet werden können, zum anderen dienen die Messungen der Statusbeurteilung, Diagnosefindung, Therapieentscheidung und Therapiekontrolle. Die Überwachung umfasst die Herzfunktion als elektrische Erscheinung (EKG) und deren mechanische Auswirkung, d. h. den Druckaufbau und die von Herzfrequenz, Kontraktilität, Vorlast und Nachlast abhängende Volumenförderung. Insbesondere bei Schockzuständen kommt es darauf an, die Hauptfunktion des Kreislaufs, eine ausreichende Sauerstoffversorgung des Körpers, aufrecht zu erhalten bzw. wiederherzustellen. Dazu steht dem Arzt neben Beatmung und Volumenmanagement eine Vielzahl unterschiedlich auf Herz und Gefäßsystem wirkender Mittel zur Verfügung, die nur mit aussagekräftigen Messungen gezielt eingesetzt und auf ihre Wirksamkeit überprüft werden können.
37.1
Monitoring der Herzfunktion
37.1.1 Elektrokardiogramm (EKG)
und Herzfrequenz (HF) In der Notfall- und Intensivmedizin, in operativen Bereichen und im Rettungswesen ist die kontinuierliche EKGÜberwachung obligat (Basismonitoring). Das EKG liefert
Informationen über Herzfrequenz und -rhythmus, Erregungsbildung, -leitung und -rückbildung und deren Störungen, jedoch keine direkte Aussage über die Pumpleistung des Herzens (d. h. die mechanische Herzfunktion). Das EKG ist die Aufzeichnung von Summenpotenzialen der elektrischen Herzaktivität und lässt sich sehr einfach mit Elektroden direkt von der Körperoberfläche ableiten (⊡ Abb. 37.1). Üblich ist die Verwendung von 3, 5, 6 oder (z. B. zur Überwachung in der Kardiologie) 10 Elektroden. Mit einem 3-adrigen Elektrodenkabel lässt sich nur eine EKG-Ableitung anzeigen. Aus 5, 6 und 10 Elektroden werden 7, 8 und 12 EKG-Ableitungen gewonnen, von denen auf herkömmlichen 5–8-Kanal-Monitoren i. d. R. bis zu 3 zur dauernden Darstellung auf den Bildschirmkanälen ausgewählt werden können. Zur Ermittlung der Herzfrequenz (HF) reicht ein 3-adriges Elektrodenkabel aus, das oft zur Grundüberwachung z. B. im Normal-OP genutzt wird. In der Neonatologie findet man ausschließlich drei besonders kleine Neonatal-Elektroden. Für eine bessere Artefaktunterdrückung, zum sicheren Erfassen von Herzrhythmusstörungen (Arrhythmien) und zur Schrittmachererkennung ist die simultane Überwachung mehrerer Ableitungen angezeigt. Zusätzlich kann eine EKG-Vermessung durchgeführt werden. Die automatische Analyse und Überwachung der ST-Strecken im EKG hat besondere Bedeutung bei ischämischen Herzerkrankungen und Infarktpatienten. Dabei kommt es darauf an, das Herz möglichst von allen Seiten zu »betrachten«, d. h. bis zu 12 Ableitungen auszunutzen, damit lokale Ischämien nicht übersehen werden. Zu diesem Zweck sind auch Methoden entwickelt worden, die mit nur 6 Elektroden (reduced lead set), die ganz normal platziert werden, eine sehr zuver-
646
IV
Kapitel 37 · Kardiovaskuläres Monitoring
⊡ Abb. 37.1. Standard-Elektrodenpositionen für EKG-Überwachung mit 3, 5 und 6 Elektroden. Farben und Bezeichnungen nach IEC1: R: rot, L: gelb, F: grün, N: schwarz, V: weiß, V+: grau-weiß
lässige ST-Überwachung aus 8 echten und 4 errechneten Ableitungen ermöglichen. Mit 10 Elektrodenleitungen können moderne Monitore ein 12-Kanal-Ruhe-EKG in diagnostischer Qualität anzeigen und ggf. automatisch auswerten. Dabei ist unbedingt zu beachten, dass eine korrekte Elektrodenapplikation Grundlage für die diagnostische Qualität des EKGs ist. Die in der Überwachung praktizierte Elektrodenplatzierung auf dem Thorax kann die echten, zur Diagnose erforderlichen Extremitätenableitungen nicht vollständig ersetzen. Sie kann scheinbar pathologische Abweichungen der Herzachse vorspiegeln, die bei korrekter Elektrodenplatzierung an den Extremitäten gar nicht vorhanden sind. Die Herzfrequenz (typischer Messbereich 15– 300 Schläge/min) wird als gleitendes Mittel über eine bestimmte Zeit (z. B. 10 s) oder eine bestimmte Anzahl von QRS-Komplexen gebildet und numerisch angezeigt. Alternativ zum EKG kann sie (bei Störungen des EKGs z. B. durch Kautern im OP automatisch vom Monitor umgeschaltet) als Pulsfrequenz aus dem arteriellen Blutdruck oder der Pulskurve aus dem Sp02-Signal gewonnen werden. Grundlage der Herzfrequenzmessung ist die sichere Erkennung der QRS-Komplexe im EKG und die Ermittlung ihrer Abstände (R-R-Abstände) mit digitalen Filtern und Detektionstechniken. So ist es möglich, dass Störimpulse oder Bewegungsartefakte eliminiert und nicht für die Ermittlung der Herzfrequenz gezählt werden. Impulse von Herzschrittmachern werden aufgrund ihrer besonderen Charakteristika (sehr kurz und sehr steil) bereits vor der eigentlichen QRS-Erkennung ermittelt und können als Marker in das EKG eingeblendet werden. Die Über- oder Unterschreitung einstellbarer Grenzwerte kann alarmiert und als kurze EKG-Episode in einem Ereignisspeicher des Monitors oder einer Zentrale abgelegt werden. Zahlreiche Faktoren stören und beeinträchtigen die EKG-Überwachung: Patientenbezogene Störungen sind in erster Linie abgefallene EKG-Elektroden, unzureichender Elektrodenkontakt mit der Haut, feuchte und fettige Haut sowie Bewegungsartefakte durch den Patienten. Technische Störungen, die das EKG überlagern, können v. a. durch Hochfrequenz (z. B. HF-Chirurgiege-
räte), eingekoppelte Wechselspannung oder durch Impulse transkutaner elektrischer Nervenstimulation (TENS) hervorgerufen werden. In Operationssälen wird die Verwendung von speziellen Leitungen und/oder Filtern zum Reduzieren der Störungen empfohlen oder vom Hersteller vorgeschrieben.
37.1.2 Arrhythmieüberwachung
Die kontinuierliche Arrhythmieüberwachung dient dem Erkennen von Herzrhythmusstörungen und deren Vorstufen und Anzeichen in Echtzeit. Eine erkannte Arrhythmie kann alarmiert und als EKG-Strip im Ereignisspeicher abgelegt werden (⊡ Abb. 37.2, auch 4-Farbteil am Buchende). Lebensbedrohliche Zustände wie Asystolie, Kammerflimmern oder ventrikuläre Tachykardie müssen sicher erkannt und akustisch und optisch deutlich alarmiert werden (roter Alarm). Diese drei Formen gehören zur Basis- oder Letalarrhythmie, die jeder moderne Monitor grundsätzlich erkennen und alarmieren sollte. Der Asystoliealarm erfolgt, wenn innerhalb eines bestimmten Zeitraums (i. d. R. 4 s) kein QRS-Komplex identifiziert wird. Liegt der Grund in abgelösten Elektroden, wird ein entsprechender technischer Hinweis erzeugt und der Asystoliealarm nicht gegeben. In der Neonatologie gehört die Bradykardie (zu niedrige Herzfrequenz) zu den Letalalarmen und sollte von jedem Monitor im Neonatalmodus grundsätzlich als lebensbedrohlich erkannt werden. Grundlage für die Arrhythmieanalyse sind die überwachten EKG-Ableitungen. Herzrhythmusstörungen sind häufig mit Herzkrankheiten verbunden und können vereinzelt auch bei Herzgesunden auftreten. Art und Anzahl von Ereignissen sind von besonderem klinischen Interesse. Monitorsysteme bieten oft die Möglichkeit, kontinuierlich die EKGs mehrerer Patienten über Tage hinweg zu speichern und zu analysieren. Die Arrhythmieüberwachung startet mit einer Lernphase, um den für den Patienten derzeit typischen normalen Kammerkomplex zu ermitteln, der als individueller Normalschlag »gelernt« und als Muster oder
647 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
37.2
⊡ Abb. 37.2. Monitorbild mit Arrhythmie-Ereignisfenster
Referenzkomplex gespeichert wird. In der Folge werden alle eingehenden QRS-Komplexe mit dem Muster verglichen (»template matching«). Es geht dabei um die Online-Entscheidung, ob es sich um einen Normalschlag, einen ventrikulären Schlag oder einen Artefakt handelt. Dazu werden verschiedene Merkmale bzw. Erkennungskriterien des EKG-Zyklus herangezogen (»feature extraction«), z. B. Polarität, Breite und Form (Morphologie) des QRS-Komplexes, Steigung und Fläche der ST-Strecke, sowie zeitliches Intervall (RR-Abstand) der Komplexe. Die Entscheidung normal oder ventrikulär wird dabei nicht mehr nach einem Regelwerk fester Messwertkriterien getroffen (»rule based system«), sondern die Monitore imitieren menschliche Herangehensweisen beim Mustervergleich, z. B. mittels Wahrscheinlichkeitskriterien oder Fuzzy Logik. Parallel wird eine Frequenzanalyse (Erkennen von Flattern und Flimmern) und Artefaktanalyse (durch Netzspannung, Muskelzittern u. a.) durchgeführt. Nach der Klassifikation der einzelnen QRS-Komplexe erfolgt mit der Rhythmus-Logik die Unterscheidung, ob es sich um eine isolierte ventrikuläre Extrasystole (VES) handelt oder um gekoppelte Ereignisse (Paare, Salven, ventrikuläre Tachykardie, Bigeminie u. a.). Wenn ein Schrittmacherimpuls detektiert wurde, ist nur noch die Entscheidung wichtig, ob eine physiologische Antwort des Herzens vorliegt oder nicht. Da durch Schrittmacherimpulse elektrische Ausgleichsvorgänge am Herzen hervorgerufen werden, die einer Herzaktion sehr ähnlich sein können, ist diese Entscheidung durchaus nicht trivial. Deshalb sollten Schrittmacherpatienten immer eine zusätzliche Überwachung der Kreislauffunktion haben, z. B. die Pulsfrequenz aus der SpO2-Überwachung oder den kontinuierlich gemessenen arteriellen Blutdruck. Die Analysequalität der Monitore wird u. a. durch Tests mit Referenz-EKG-Aufzeichnungen von internationalen Gesellschaften (American Heart Association AHA) oder anerkannten Institutionen ermittelt.
Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
Hämodynamik ist die Lehre von den Bewegungen des Blutes im Kreislauf. Diese Bewegung wird durch den vom Herzen aufgebrachten Druck angetrieben. Da der Druck im Gefäßsystem stark von Aktivität und Körperlage (hydrostatischer Druck) abhängt, werden Blutdruckmessungen immer in Ruhe vorgenommen und auf die Höhe des Herzens (rechte Vorkammer) bezogen. Das Gefäßsystem ist funktionell unterteilt in Niederdrucksystem (kleiner, pulmonaler oder Lungenkreislauf) und Hochdrucksystem (großer, systemischer oder Körperkreislauf), die miteinander durch das »zentrale Antriebselement« Herz verbunden sind. Das Herz baut in seiner Anspannungsphase (Systole) einen Druck auf, durch den das Schlagvolumen (SV) aus dem Ventrikel in das arterielle Gefäßsystem ausgestoßen wird. Jedes geförderte Schlagvolumen erzeugt eine Pulswelle. Der Spitzendruck während der Austreibung des Schlagvolumens aus dem Ventrikel ist der systolische Blutdruck (höchster Punkt der Druckkurve). Der Druck am Ende der Entspannungsphase (Diastole) wird als diastolischer Blutdruck bezeichnet (niedrigster Punkt der Druckkurve). Die Differenz zwischen Systolen- und Diastolendruck ist die Blutdruckamplitude. Der Druck, der den Blutstrom im Gefäßsystem aufrechterhält, also die treibende Kraft der Perfusion, ist der Mitteldruck (im Körperkreislauf der arterielle Mitteldruck Pm (auch MAD oder MAP), im Lungenkreislauf der pulmonalarterielle Mitteldruck PAPm). Das Schlagvolumen ist abhängig von der Vorlast (Preload), der Kontraktionsfähigkeit des Herzmuskels (Kontraktilität) und der Nachlast (Afterload). Preload ist die durch die passive Füllung der Herzkammer am Ende der Diastole hervorgerufene Dehnung (= Vorbelastung) des Herzmuskels und wird am besten durch das enddiastolische Volumen beschrieben. Afterload ist der Kraftaufwand der Herzmuskulatur zur Überwindung der Widerstände in der Ausstrombahn des linken Ventrikels und des peripheren Kreislaufs. Arterieller Mitteldruck und Gefäßwiderstand werden als Maße für die Nachlast genutzt. Faktoren, die das Blutdruckverhalten bestimmen, sind neben der Druck-Volumenarbeit des Herzens auch die Elastizität des Gefäßsystems, das zirkulierende Blutvolumen und insbesondere der periphere Gefäßwiderstand, der durch die vom sympathischen Nervensystem gesteuerte Wandspannung der Gefäße (den Gefäßtonus) beeinflusst wird. Die Fördermenge Blut pro Minute wird Herzminutenvolumen (HMV) oder Herzzeitvolumen (HZV; engl. CO: Cardiac Output) genannt und ist das Produkt aus Schlagvolumen und Herzfrequenz. Regelmechanismen des Körpers regulieren den Kreislauf mit dem Ziel, das Herzzeitvolumen dem Durchblutungsbedarf des Organismus anzupassen, den Blutdruck
37
648
Kapitel 37 · Kardiovaskuläres Monitoring
IV
⊡ Abb. 37.3. Übersicht Kreislaufmonitoring
weitgehend konstant zu halten und die Durchblutung in den einzelnen Organen und Geweben auf den jeweiligen Funktionszustand einzustellen. Da dem Arzt Mittel zur Verfügung stehen, die einzelnen Determinanten des Herzzeitvolumens gezielt zu therapieren (Chronotropika für die Herzfrequenz, Inotropika für die Kontraktilität, Vasodilatatoren und -konstriktoren für den Gefäßtonus und Diuretika bzw. Volumengaben für die Vorlast), ist es so wichtig, im Monitoring diese Informationen als Entscheidungsbasis und Therapiekontrolle auf möglichst zuverlässige Weise zu erhalten. Zum Monitoring der Kreislauffunktion gehören nichtinvasive und invasive Messungen von Vitalwerten mit indirekten und direkten Verfahren, die im Hochdruck- oder Niederdrucksystem ihre Anwendung finden ⊡ Abb. 37.3).
37.2.2 Nichtinvasiver Blutdruck (NIBD)
Blutdruckmessungen mit nichtinvasiven Methoden (⊡ Tab. 37.1) gehören zu den Basisminimalüberwachungskriterien sowohl im intensivmedizinischen Bereich als auch in der prä-, peri- und postoperativen Patientenüberwachung. Nichtinvasive Blutdruckmessungen werden mittels Manometer oder halbautomatischen und automatischen Blutdruckautomaten mit Digitalanzeige durchgeführt; daneben aber auch als separates Messmodul oder als vorkonfigurierter Messparameter in Kompaktmonitoren eingesetzt, die häufig nach dem oszillometrischen Messprinzip arbeiten. Nichtinvasive Methoden der Blutdruckmessung sind mit Ausnahme der plethysmographischen Blutdruckmessung diskontinuierliche Messverfahren. Man unterscheidet folgende Methoden und Blutdruckverfahren:
37.2.1 Puls
Sphygmomanometer und Membranmanometer Eine Pulsüberwachung erfolgt entweder invasiv aus der arteriellen Druckkurve oder nichtinvasiv aus dem Plethysmogramm der Pulsoxymetrie ( Kap. 39 »Respiratorisches Monitoring«, Abschn. 39.2 »Gasaustausch«). Die Pulsüberwachung hat besondere Bedeutung als Sicherheitsmaßnahme bei der Überwachung von Schrittmacherpatienten (s.oben).
Riva Rocci entdeckte 1896 eine nichtinvasive palpatorische Messmethode zur Bestimmung des Blutdrucks. Er entwickelte ein Sphygmomanometer (Sphygmometrie: Druckmessung mit Gummihohlmanschette), mit dem er über eine aufblasbare Manschette den Blutdruck am Oberarm messen konnte. Der Manschettendruck war nötig, um die Oberarmarterie zu schließen, bis am Handgelenk kein
649 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
⊡ Tab. 37.1. Blutdruckmessgeräte und nichtinvasive Messmethoden Blutdruckmessgeräte
Messmethoden
Sphygmomanometer
palpatorisch
Membranmanometer
auskultatorisch
Halbautomaten
auskultatorisch, oszillometrisch
Automatische Messgeräte
oszillometrisch
NIBD-Monitormodul
oszillometrisch
Doppler
dopplersonographisch
Plethysmomanometer
plethysmographisch
Puls mehr tastbar war. Der gefundene Okklusionsdruck wurde dem systolischen Blutdruck gleichgesetzt. Es bedurfte einer weiteren Entdeckung, um nichtinvasiv auskultatorisch den diastolischen Blutdruck zu ermitteln. Der russische Arzt Korotkow entdeckte 1905 Turbulenzgeräusche, die beim Ablassen des Manschettendrucks über der Brachialarterie in der Ellenbogenbeuge auskultiert werden konnten. Funktionsprinzip der auskultatorischen Messmethode
Die Manschette muss am freien Oberarm platziert werden, sodass der Mittelpunkt der Gummiblase über der Brachialarterie liegt und sich die Blutdruckmanschette auf Herzhöhe befindet. Nach Palpieren der Brachialarterie wird die Manschette ca. 30 mmHg über den Druck aufgepumpt, bei dem die Pulsgeräusche nicht mehr wahrnehmbar sind. Das Stethoskop wird nun auf die Brachialarterie gelegt, und mit Hilfe des Ablassventils wird der Druck langsam abgelassen. Durch die Pulsation hervorgerufene Turbulenzen sind als pulssynchrone Strömungsgeräusche (sog. Korotkow-Töne) zu hören: Zuerst werden die Klopfgeräusche lauter, bis zwei Pulsschläge klar zu bestimmen sind. An dieser Stelle liest man am Manometer den systolischen Blutdruck ab. In der zweiten Korotkow-Phase werden die Geräusche leiser und verschwinden zeitweise ganz. Die Geräusche kommen in der dritten Phase wieder und sind nun deutlicher zu hören, allerdings stärker gedämpft als in der ersten Phase. In der vierten Phase werden die Töne abrupt gedämpft und schwächer, bis in der fünften Phase kein Ton mehr zu hören ist. Die fünfte Phase kommt dem diastolischen Druck am nächsten. Es herrscht immer noch Uneinigkeit darüber, ob der diastolische Druck auskultatorisch in Phase 4 oder Phase 5 nach Korotkow gemessen werden soll. Die Phase 5 kommt dem arteriellen Blutdruck am nächsten, wobei sie häufig nicht klar zu identifizieren ist, denn bei einigen Patienten sind auch noch Geräusche hörbar, wenn die Manschette nicht mehr unter Druck steht.
Halbautomatische und automatische Blutdruckmessgeräte Halbautomatische Blutdruckmessgeräte arbeiten größtenteils mit der auskultatorischen Methode, wobei ein Mikrophon in der Manschette das Stethoskop ersetzt. Einige der Geräte arbeiten auch nach dem oszillometrischen Verfahren. Der französische Arzt Pachon entdeckte 1909 die oszillometrische Messmethode, die in automatischen Blutdruckmessgeräten angewendet wird. Er erkannte, dass nach dem Ablassen des Manschettendrucks und nach dem Erreichen des systolischen Drucks die Gefäßwände zu schwingen (oszillieren) beginnen und dieses Verhalten beibehalten, bis das Gefäß nicht mehr okkludiert wird. Diese Oszillationen werden von der Luft in der Manschette übertragen und sind am Manometer abzulesen. Heute werden diese Schwingungen mit Hilfe von Messaufnehmern elektronisch gemessen. Funktionsprinzip der oszillometrischen Methode
Bei der oszillometrischen Methode wird die Manschette zu Beginn der Messung aufgepumpt, bis die Arterie geschlossen ist. Das Gerät registriert geringe Oszillationsamplituden, die vom proximal der Manschette liegenden Teil der Arterie kommen (Roloff 1987). Der Druck wird automatisch mit 2–3 mmHg/s aus der Manschette abgelassen (Mieke 1991). Sinkt der Manschettendruck unter den Wert des systolischen Blutdrucks, beginnt die Arterie sich zu öffnen, und die Schwingungen werden stärker. Sie erreichen ihr Maximum, wenn der Manschettendruck dem mittleren arteriellen Druck entspricht. Mit weiter sinkendem Manschettendruck werden die Oszillationsamplituden wieder kleiner und bleiben schließlich konstant, wenn der Manschettendruck den diastolischen Wert erreicht hat (⊡ Abb. 37.4). Ein- und Zweischlauchsysteme
Das Manschettensystem ist mit 1- oder 2- Schlauchsystemen gebräuchlich. Um zu vermeiden, dass im Drucksystem entstehende Luftverwirbelungen die Messergebnisse beeinflussen, sollte ein Druckschlauch aus zwei Lumen bestehen. Eines führt ohne Abzweigungen direkt von der Manschette zum Druckaufnehmer, das andere ist nur zum Aufpumpen und Druckablassen bestimmt. Plausibilitätskontrolle bei oszillometrischen Blutdruckmessgeräten
Die Artefakterkennung ist die wichtigste Voraussetzung für eine zuverlässige oszillometrische Messung. Mechanische Einwirkungen auf die Manschette oder den Blutdruckschlauch während der Messung dürfen vom Gerät nicht als Oszillationsamplituden registriert werden, da sonst falsche Blutdruckwerte gemessen werden können. Während der oszillometrischen Messung eliminieren einige Geräte diese Artefakte dadurch, dass der Druck in
37
650
Kapitel 37 · Kardiovaskuläres Monitoring
IV
⊡ Abb. 37.4. Prinzip der oszillometrischen Methode
Stufen abgelassen wird und auf jeder Stufe zwei Pulse annähernd gleicher Oszillationsamplitude gesucht werden, um dann auf die nächste Stufe abzulassen. Treten Artefakte auf, so verharrt das Gerät auf einer Druckstufe, bis zwei gleiche Pulse identifiziert sind. Durch den doppelten Druckstufenablass können auch kleinste Artefakte erkannt werden, wie bspw. bei Neonaten. Verfahren, die dagegen mit einem kontinuierlich-linearen Druckablass arbeiten, geben häufig falsche Werte an. Während einer Messung auftretende starke Blutdruckschwankungen verfälschen häufig den Verlauf der Oszillationskurve. Ein Monitor wird ohne Plausibilitätskontrolle in diesem Fall falsche Messwerte anzeigen. Bei dieser Kontrolle wird der plausible Zusammenhang der vier gemessenen Parameter geprüft. Bei mangelnder Plausibilität zeigt ein solides Gerät dem Anwender, dass keine exakte Messung möglich war. Bei Schockpatienten mit extrem niedrigen Druckwerten – aufgrund des flachen Verlaufes der Oszillationskurven – können der systolische und diastolische Wert nur sehr ungenau erkannt werden. Das Schwingungsamplitudenmaximum und somit der MAD können noch gemessen werden. Systole und Diastole würden als nicht genau messbar mit dem Wert Null angezeigt. MAD und Pulsfrequenz werden hingegen ausgewiesen.
Weitere nichtinvasive Blutdruckmessverfahren Dopplerverfahren
Bei diesem Verfahren wird die Arterie mit Hilfe einer Manschette okkludiert. Der Messfühler, ein schwingender Kristall, sendet Ultraschallwellen mit konstanter Frequenz schräg zur Längsachse einer Arterie aus. Treffen die Schallwellen auf sich zum Messkopf bewegende Erythrozyten, werden sie in der Frequenz geändert und von einem zweiten Kristall empfangen. Dieser sog. Dopplereffekt führt zu einer Frequenzerhöhung der reflektierten Wellen, die proportional zur Strömungsgeschwindigkeit der korpuskulären Elemente im Blut ansteigt. Das geänderte Frequenzmuster bei verschiedenen Manschettendrücken wird für die Bestimmung des Blutdrucks herangezogen. Plethysmographisches Verfahren
Das Gerät misst am Finger mit Hilfe einer Manschette kontinuierlich nichtinvasiv den arteriellen Blutdruck. Diese Manschette enthält eine photoplethysmographische Messeinrichtung und wird über eine nachgeschaltete Pumpe mit Druck-Transducer, die ständig zu den Blutdruckwerten korrespondiert, aufgeblasen. Es wird kontinuierlich der systolische, diastolische und der mittlere arterielle Blutdruck sowie die Pulsfrequenz ausgewiesen (Rohs 1990).
651 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
Methodische Hinweise Manschettengröße
Eine der häufigsten Fehlerquellen bei der Blutdruckbestimmung ist die falsche Wahl der Manschettengröße. Für die manuelle und automatische Blutdruckmessung gilt: Die Manschettenbreite sollte ca. 40% des Umfangs der Extremität betragen. Stimmt dieses Verhältnis nicht, kommt es zu erheblichen Fehlmessungen. Mit zu kleinen Manschetten wird zu hoch und mit zu großen Manschetten wird zu niedrig gemessen. Deshalb ist es unbedingt erforderlich, besonders bei adipösen Patienten, Kindern und Neonaten, jeweils die richtige Manschettengröße zu nutzen. Berücksichtigung des hydrostatischen Drucks
Bei der Blutdruckmessung am Oberarm würde sich eine Verschiebung des Messortes von der Herzhöhe nur bei einer Seitenlage oder beim Hochheben des Armes ergeben. Mit den automatischen Blutdruckgeräten kann auch problemlos am Unterarm, Finger, Ober- und Unterschenkel gemessen werden, wenn der Oberarm als Messort nicht zur Verfügung steht. Es muss darauf hingewiesen werden, dass – hervorgerufen durch den hydrostatischen Druckunterschied – unterhalb der Herzebene ein höherer und oberhalb der Herzebene ein niedrigerer Blutdruck gemessen wird. Als Faustformel gilt: Pro 10 cm unterhalb Herzniveau werden 7–8 mmHg zuviel gemessen; oberhalb 7–8 mmHg zu wenig. Variabilität und Normwerte des Blutdrucks
Der Blutdruck ist nicht immer konstant, sondern kann sich innerhalb von Sekunden ändern. Die Blutdruckwerte sind abhängig von der Tageszeit, der körperlichen Aktivität, der nervlichen Anspannung und der Nahrungsaufnahme. Diese Einflussfaktoren müssen bei der Diagnose Berücksichtigung finden. Deshalb sollten 2, maximal 3 reproduzierbare Folgemessungen innerhalb von 10 min durchgeführt werden. Vor der Einleitung medikamentöser Therapien bei pathologischem Blutdruck ist die Wiederholung dieser Messung 4–5-mal täglich erforderlich. Die Weltgesundheitsorganisation (WHO) definiert den normalen arteriellen Blutdruck (Normotonie) bei einem systolischen Blutdruckwert unter 140 mmHg und einem diastolischen Blutdruckwert unter 90 mmHg. Der mittlere arterielle Blutdruck (MAD) sollte im Mittel um
die 100 mmHg liegen. Unter Ruhebedingungen liegt eine stabile arterielle Hypertonie unabhängig vom Lebensalter dann vor, wenn der systolische Blutdruckwert konstant 160 mmHg und/oder der diastolische Blutdruck konstant 95 mmHg beträgt (Laube 1990). In Anlehnung an das Joint National Committee findet zunehmend die in ⊡ Tab. 37.2 aufgeführte Einteilung Verwendung. Sie berücksichtigt im Wesentlichen die Höhe des diastolischen Blutdrucks. Neuere Untersuchungen belegen allerdings die größere Wertigkeit eines erhöhten systolischen Blutdrucks und warnen vor einer Überbewertung allein der diastolischen Blutdruckschwankungen. Mögliche und vermeidbare Fehlerquellen bei der nichtinvasiven Blutdruckmessung
Messfehler können durch die Geräte, durch die Patienten und durch die Anwendung der Technik hervorgerufen werden. Bei den manuellen Methoden sind überraschend große Abweichungen der Messergebnisse zwischen verschiedenen Anwendern festzustellen, die auf unterschiedliche Faktoren bei der Messung zurückzuführen sind. Wird das Stethoskop zu stark auf die Arterie gedrückt, werden dadurch Geräusche auch unterhalb des diastolischen Drucks erzeugt. Ein weiterer Anwendungsfehler ist die Tendenz verschiedener Anwender, Messwerte aufoder abzurunden. Erwartete oder gewünschte Messergebnisse aufgrund der Beurteilung des Patienten können den Anwender ebenfalls prägen und einen Messfehler verursachen. Weiterhin kann es zu Ungenauigkeiten durch die verschiedenen Korotkow-Phasen kommen, und oftmals ist die Ablassgeschwindigkeit des Manschettendrucks zu hoch. Ein zu lockeres Anlegen der Manschetten kann ebenfalls zu Messfehlern führen. Darüber hinaus können Messfehler durch patientenseitige Bewegungen verstärkt werden. Dies ist hauptsächlich bei Kindern oder bei postoperativer Überwachung zu berücksichtigen. Undichtigkeiten im pneumatischen Schlauch- oder Manschettensystem führen geräteseitig oftmals zu wertlosen Messungen. Grenzen der nichtinvasiven Blutdruckmessung
Während des Messvorgangs wird das unter der Manschette liegende Gewebe der Messextremität komprimiert. Die Gefahr von nervalen Druckläsionen ist besonders bei
⊡ Tab. 37.2. Diastolenwerte zur Einteilung der Hypertonie Hypertonieart leichte Hypertonie
Minimale Diastole
Maximale Diastole
90 mmHg
100 mmHg
mittelschwere Hypertonie
>100 mmHg
115 mmHg
schwere Hypertonie
>115 mmHg
–
37
652
IV
Kapitel 37 · Kardiovaskuläres Monitoring
kachektischen Patienten, unreifen Neugeborenen und Patienten mit neuromuskulären Erkrankungen gegeben, da das die Nerven schützende Muskel- und Fettgewebe reduziert ist. Deshalb sollten bei diesen Patienten nichtinvasive Druckmessungen in möglichst großen Zeitintervallen durchgeführt werden. Ansonsten wird empfohlen, nichtinvasive Blutdruckmessungen in Zeitintervallen von höchstens 5–10 min durchzuführen, um Druckschäden im Bereich der Manschette sowie im Versorgungsbereich der Arterie zu vermeiden (List 1989). Bei notwendigen engmaschigen Blutdrucküberwachungen ist das Risiko der Druckläsion gegen die Risiken der invasiven Messung abzuwägen (Roloff 1987).
37.2.3 Invasive Druckmessung im Hoch-
und Niederdrucksystem Die invasive Blutdruckmessung ist ein direktes Verfahren zur Ermittlung der Druckverhältnisse im Hoch- oder Niederdrucksystem. Der wesentliche Vorteil gegenüber der nichtinvasiven Blutdruckmessung ist die kontinuierliche Verfügbarkeit des Messsignals (Druckkurve) und der Druckwerte. Damit ist die Möglichkeit der Alarmierung bei Unter- oder Überschreiten von vorgegebenen Grenzwerten sowie einer weiteren Signalverarbeitung der gewonnenen Messdaten gegeben.
Druckmessung im Hochdrucksystem: Invasiver arterieller Blutdruck Über einen intraarteriellen Katheter wird eine Verbindung zwischen intravasaler Blutsäule und einem flüssigkeitsgekoppelten Druckwandler hergestellt, der die mechanische Größe Druck in ein elektrisches Signal umsetzt. Der arterielle Druck ist vom Schlagvolumen des linken Herzventrikels und vom Gefäßwiderstand abhängig. Glieder der direkten Druckmesskette (⊡ Abb. 37.5) sind im Wesentlichen: ▬ Kanüle oder arterieller Katheter, ▬ flüssigkeitsgefülltes Schlauchsystem mit Dreiwegehahn, ▬ Druckwandler (wiederverwendbar: mit Druckdom, ohne oder mit abschließender Membran sowie mit separatem oder integriertem Spülsystem; Einmalwandler stets inklusive Spülsystem) mit Monitorkabel, ▬ Monitor. Druckaufnehmer und Druckübertragung Wiederverwendbare Druckaufnehmer (⊡ Abb. 37.6) bestehen aus einem mechano-elektrischen Druckwandler (Transducer) und einem austauschbaren, flüssigkeitsgefüllten Hohlraum (Druckdom). Der Druckdom (Einmalgebrauch pro Patient) ist über eine integrierte dünne Kunststoffmembran mechanisch direkt mit der Messflä-
⊡ Abb. 37.5. Messkette für die invasive Druckmessung
che (Druckwandlermembran) gekoppelt. Über das flüssige Medium (Kochsalzlösung) in der Druckmessleitung und dem Katheter wird die arterielle Druckwelle auf den Druckdom übertragen und bewirkt eine entsprechende Auslenkung der Druckwandlermembran. Die Umwandlung der mechanischen Membranauslenkung erfolgt bei wiederverwendbaren und Einmaldruckwandlern über druckempfindliche Chips, deren elektrische Eigenschaften sich proportional zum Druck verändern. Eine angelegte Spannung bewirkt ein linear druckproportionales elektrisches Signal, das zum Monitor weitergeleitet und dort nach Verstärkung am Bildschirm angezeigt wird. Je größer der Abstand der Katheterspitze zum Herzen ist, umso höhere Druckamplituden werden registriert. Eine zeitliche Verzögerung der Registrierung ist bedingt durch die Laufzeit. Aus den jeweiligen Druckverläufen werden elektronisch die systolischen, diastolischen und Mittelwerte errechnet und angezeigt. Anschlüsse Der Druckdom hat meist zwei Luer-Lock-Anschlüsse, denen jeweils ein Dreiwegehahn aufgesetzt ist. Sie dienen der Druckzuleitung, der Systementlüftung bei der Füllung und der Spülung der Druckmessleitung. Die Druckwandler werden i. d. R. in Halteplatten eingesetzt, die der Befestigung z. B. an einem Infusionsständer in der richtigen Höhe relativ zum Herzen dienen. Für die unterschiedlichen invasiven Druckmessungen sind die Zugangsschläuche und/oder die Steckplätze der Halteplatten oft farblich kodiert: ▬ Rot: arterielle Druckmessung, ▬ Blau: venöse Druckmessung, ▬ Gelb: pulmonalarterielle Druckmessung, ▬ Weiß: sonstige Druckmessung (z. B. intrakranielle Druckmessung). Anforderungen an ein »ideales« Drucksystem Ein idealisiertes invasives Druckmesssystem hat folgende Charakteristika, die den heutigen klinischen Anforderungen entgegenkommen:
653 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
▬ einfacher und schneller Aufbau des Systems, ▬ leichte Füllbarkeit bei einfacher und sicherer Entlüftung sowie Sichtkontrolle auf Luftblasen, ▬ integriertes Dauerspülsystem mit »Einhandbedienung«, zuverlässige Spülrate auch bei Schnellspülung, ▬ geschlossenes Überdrucksicherheitsventil, ▬ hohe Zuverlässigkeit aller Einzelkomponenten der Druckmesskette, ▬ gute Resonanzfrequenz, ▬ hohe Langzeitstabilität, ▬ Möglichkeiten der Negativkalibrierung, ▬ Arm- und Halterungsmontage, ▬ niedriger Eingangswiderstand (Impedanz). Messtechnische Anforderungen Die Messung des invasiven Blutdrucks ist technisch eine Differenzdruckmessung zwischen Blutgefäß und Umgebungsdruck (atmosphärischem Druck). Daher muss der Druckwandler vor jeder Messung abgeglichen werden (Nullabgleich, Wandler auf Herzhöhe zur Vermeidung von Messfehlern durch hydrostatische Drücke aus dem Schlauchsystem). Druckwandler sind temperaturabhängig, d. h. bei Temperaturänderung kann der Nullpunkt von seinem eigentlichen Wert abweichen (Nullpunktdrift). Schwächstes Glied in der Messkette ist die mechanische Druckübertragung. Der Druck kann nur exakt bestimmt werden, wenn alle Komponenten des Systems bestimmte Voraussetzungen erfüllen, wie z. B. hohe sta-
a
b
tische und dynamische Genauigkeit des Messsystems (Übertragungsverhalten, Eigenfrequenz, Dämpfung u. a.). Die Übertragungseigenschaften hängen von Länge und Dehnbarkeit (Compliance) sowie dem Innendurchmesser des Druckschlauchs ab. Es gilt, möglichst kurze, druckfeste Schlauchverbindungen ohne zusätzliche Steckverbindungen zu verwenden. Alle Komponenten sollten vor jeder Messung auf ihre Funktionalität überprüft werden (blasenfreies Messsystem, sichere Konnektion der einzelnen Systemkomponenten, keine Leckagen). Bei der Verwendung von wiederverwendbaren Druckwandlern ist eine Kalibrierung zur Überprüfung der Funktionsfähigkeit vor jeder Messung empfehlenswert. Das Drucksystem enthält einen schwingungsfähigen Anteil (hydraulisches System: Kanülenspitze bis zur Membran des Druckwandlers) und kann zu Eigenschwingungen angeregt werden, die das Drucksignal verändern. Messtechnisches Ziel ist, die Druckkurve mit Frequenzen bis zu 12 Hz unverfälscht zur Darstellung zu bringen. Unterhalb 20 Hz – hier hat das Drucksignal Frequenzanteile – macht sich die Eigen- bzw. Resonanzfrequenz des Messsystems besonders bemerkbar, d. h. es kommt zu unerwünschten Überlagerungen und Verformungen des eigentlichen Drucksignals. Durch Luftblasen im Messsystem, Koagel an der Katheterspitze oder im Schlauchsystem, diskonnektierten oder losen Druckdom des Druckwandlers, Bewegungsartefakte seitens des Patienten oder eine veränderte
c
⊡ Abb. 37.6a–c. a Wiederverwendbarer Druckwandler, b Schema Einmaldruckwandler, c Wheatstone’sche Brücke (Quelle: BD Deutschland GmbH, Heidelberg)
37
654
Kapitel 37 · Kardiovaskuläres Monitoring
Katheterposition wird die Druckkurve gedämpft oder verändert und die Messinformation beeinträchtigt.
Druckmessungen im Niederdrucksystem Ziel von Druckmessungen im Niederdrucksystem ist es, anhand der gewonnenen Messergebnisse Informationen über die Rechtsherzfunktion, den Lungenkreislauf und den Füllungszustand des Gefäßsystems zu erhalten. Zentralvenöser Druck (ZVD)
IV
Über einen zentralen Venen- bzw. Cavakatheter (sog. zentralvenöser Katheter, ZVK), der am Eingang zum rechten Vorhof des Herzens in der V. cava superior platziert wird, erfolgt über ein Flüssigkeitsmanometer oder einen Druckaufnehmer die Messung des zentralen Venendrucks. Druckwandler haben im Gegensatz zur Wassersäulenmanometrie den Vorteil, dass die Messinformationen kontinuierlich und bestimmte Signalcharakteristika der ZVD-Kurve zusätzlich verfügbar sind. Wegen der kleinen Druckwerte ist besonders wichtig, dass sich das Druckmesssystem auf Herzhöhe (korrekte Nullpunktpositionierung) befindet, um die Messwertermittlung durch hydrostatische Druckdifferenzen nicht zu verfälschen. Die ZVD-Kurve zeigt in ihrem Verlauf die Vorhofkontraktion (A-Welle), den Beginn der Kammerkontraktion (D-Welle) und die Erschlaffungsphase (V-Welle). Der ZVD (engl. CVP) wird nur als Mittelwert angezeigt (Normwert 3–8 mmHg bzw. 4–11 cm H20) und wird im Wesentlichen beeinflusst von der Kapazität des Gefäßsystems, dem Herzzeit- und Blutvolumen, der Compliance des Myokards sowie der Nachlast der rechten Herzkammer. Erhöhte ZVD-Werte sind u. a. auf Verminderung der Herzleistungsfähigkeit, Hypervolämie, Zunahme des intrathorakalen Drucks oder mechanische Hindernisse zurückzuführen. Erniedrigte ZVD-Werte sind Ausdruck einer Hypovolämie (ZVD-Kurve und andere Drücke ⊡ Abb. 37.7, auch 4-Farbteil am Buchende).
⊡ Abb. 37.7. Unterschiedliche Druckkurven und Minitrends im Monitorbild
Pulmonalarteriendruck (PAP) und Pulmonalkapillärer Wedgedruck (PCWP)
Zur Überwachung und Messung der Hämodynamik des rechten Herzens wird ein Ballonkatheter durch das Venensystem in den rechten Vorhof, die rechte Herzkammer und von dort durch die Pulmonalklappe in die A. pulmonalis vorgeschoben. Anhand der typischen unterschiedlichen Druckverläufe kann der Weg des Katheters verfolgt werden (⊡ Abb. 37.8, auch 4-Farbteil am Buchende). Die richtige Katheterlage ist erreicht, wenn die sog. Wedge-Position (⊡ Abb. 37.9, auch 4-Farbteil am Buchende) eingenommen wird, d. h. der aufgeblähte Ballon des Katheters den Pulmonalarterienast verschließt. Liegt die Katheterspitze an der Pulmonalarterienwand (sog. Pseudo-Wedge-Position), kommt es zur Druckkurvendämpfung beim Füllen des Ballons und zum kontinuierlichen Druckanstieg. Obwohl der Katheter im rechten Herzen liegt, kann in Wedge-Position über das distale Lumen auf den Druck des linken Vorhofs geschlossen werden: Der PCWP-Wert entspricht in erster Näherung dem linken Vorhofdruck LAP (linksatrialer Druck) und damit dem enddiastolischen Füllungsdruck des linken Ventrikels, da linker Vorhof, Lungenkapillaren und Pulmonalarterie unter normalen Bedingungen während der Diastole eine gemeinsame Druckverbindung bilden. Ballonkatheter. Mit unterschiedlichen Ballonkathetern (sog. Einschwemmkatheter, Pulmonaliskatheter oder Swan-Ganz-Katheter), die sich in Länge und Stärke, Anzahl der Lumina, Lage der Lumenaustrittstellen und anderen Charakteristika unterscheiden, können gleichzeitig ZVD, PAP und Körperkerntemperatur sowie intermittierend PCWP und HZV gemessen werden. Darüber hinaus bieten spezielle Ballonkatheter zusätzliche Möglichkeiten wie intrakardiale EKG-Ableitung (z. B. HIS-Bündel-EKG), supraventrikuläre und ventrikuläre Stimulation, Messen der gemischtvenösen Sauerstoffsättigung SvO2 durch Integration einer Fiberoptik, Einführen einer transluminalen Stimulationssonde oder zusätzliche Infusionslumina. Ballonkatheter, die neu gelegt werden oder bereits seit Stunden oder Tagen intravasal verweilen, sind nicht risikofrei und können Komplikationen hervorrufen, die teilweise vom Ort des Katheterzugangs abhängig sind: ▬ supraventrikuläre und ventrikuläre Arrhythmien, ▬ ventrikuläre Tachykardien oder Kammerflimmern (selten), ▬ venöse Thrombosen (besonders bei niedrigem HZV), ▬ Sepsis (mit zunehmender Liegedauer erhöht sich das Risiko), ▬ Lungeninfarkt (durch Katheterokklusion einer peripheren Lungenarterie), ▬ Pulmonalarterienruptur (durch Balloninflation oder die Katheterspitze).
655 37.2 · Monitoring der Kreislauffunktion (hämodynamisches Monitoring)
⊡ Abb. 37.8. Messorte und typische Druckverlaufskurven in verschiedenen Herz- und Gefäßabschnitten
37.2.4 Bestimmung des Herzzeitvolumens
(HZV) Das Herzzeitvolumen, das pro Minute geförderte Blutvolumen, wird in l/min angegeben. Als klassisch gilt die Bestimmung des HZV nach Adolf Fick (Fick’sches Prinzip), dessen Berechnung ganz einfach auf dem Masseerhaltungssatz beruht: HZV ist der Quotient aus Sauerstoffverbrauch (VO2) des Körpers und Sauerstoffgehaltsdifferenz (avDO2) zwischen zum Körper fließendem arteriellem und vom Körper zurückkommendem gemischtvenösem Blut: HZV=VO2/ avDO2. In der Klinik lässt sich jedoch unter Routinebedingungen eine Sauerstoffverbrauchsmessung nicht mit hinreichender Genauigkeit durchführen.
Dilutionsmethoden
⊡ Abb. 37.9. PA-Katheter in Wedge-Position
In den 20er Jahren des vorigen Jahrhunderts entstanden die grundlegenden Arbeiten von Stewart und Hamilton zur Bestimmung des HZV mittels Farbstoffdilution. Mit der Einführung des Thermistorkatheters durch Swan und Ganz in den 70er Jahren hat sich von allen bekannten
37
656
IV
Kapitel 37 · Kardiovaskuläres Monitoring
Indikatorverdünnungsmethoden (Farbstoff (dye dilution), Kälte, Ionen, Radioisotope) die Thermodilution mittels Pulmonaliskatheter als sehr praktikabel in der Klinik durchgesetzt. Eine definierte Menge physiologischer Kochsalzlösung (mit einer Temperatur von 0–25°C; je kälter desto genauer die Messung) wird über den proximalen Port des mehrlumigen Pulmonaliskatheters in den rechten Vorhof eingespritzt. Da das Injektat mit dem strömenden warmen Blut (37°C) vermischt und somit verdünnt wird, kann die Temperaturänderung im Blutstrom mit dem nahe der Katheterspitze liegenden Thermistor gemessen werden. Die Form und die Fläche der Dilutionskurve ändern sich mit dem Herzzeitvolumen. Bei bekannter Temperatur von Injektat und Blut sowie bekanntem Injektatvolumen ermittelt das Messsystem das Herzzeitvolumen aus der Fläche der Thermodilutionskurve (⊡ Abb. 37.10). Die Nachteile dieser Methode sind die Diskontinuität und die Notwendigkeit des Pulmonaliskatheters, dessen Indikation spätestens seit der Studie von Connors (1996) besonders kritisch betrachtet wird. Der Nachteil Diskontinuität wurde überwunden, indem mit einem speziellen Pulmonaliskatheter Wärmeimpulse an das Blut abgegeben werden und deren Dilutionskurve ausgewertet wird. Da Wärmeimpulse in recht kurzen Abständen (30–60 s) applizierbar sind, entsteht praktisch eine kontinuierliche Messung. Die PiCCO-Technologie
Die Thermodilution lässt sich prinzipiell auch transpulmonal durchführen, d. h. der Kältebolus durchläuft die Lunge und ein Thermistor im arteriellen System nimmt die Verdünnungskurve auf. Der Kältebolus wird wie bei normaler Thermodilution, jedoch mit einem normalen, bei Intensivpatienten üblichen zentralvenösen Katheter in den rechten Vorhof injiziert, der Temperaturverlauf aber (vorzugsweise) in der A. femoralis gemessen. Vorteilhaft bei dieser Methode ist, dass sie weniger invasiv ist (Wegfall des Pulmonaliskatheters und damit der o. g. Gefährdungen) und dass respiratorische Einflüsse auf die Messung reduziert werden. Die PiCCO-Technologie (1997 von Pulsion Medical Systems in den Markt eingeführt; von PCCO = Pulse Contour Cardiac Output) ist eine Kombination von transpulmonaler Thermodilution (als HZV-Messung) und Pulskonturanalyse (als kontinuierliche Bestimmung der Änderungen des HZV). Dabei wird aus der invasiv gemessenen arteriellen Druckkurve Schlag für Schlag auf das HZV geschlossen. Zuvor ist die Kalibration mittels der Thermodilution erforderlich, die spätestens alle 8 Stunden wiederholt werden sollte. Der große Wert der PiCCO-Methode liegt nicht allein in der weniger invasiven und kontinuierlichen HZV-Messung, sondern in den außerordentlich wertvollen Parametern für die Beurteilung des Kreislaufes und der Volumensituation des Patienten, die völlig ohne weiteren Aufwand vom Monitor ermittelt werden. Dies sind v. a.
⊡ Abb. 37.10. Monitor-Fenster zur HZV-Messung: Aus einer Reihe von Messungen werden Fehlmessungen gestrichen und ein Mittelwert gebildet
die Vorlastindikatoren GEDV (Global enddiastolisches Volumen) und Intrathorakales Blutvolumen (ITBV), die wesentlich sensitiver und spezifischer sind als die Füllungsdrücke ZVD und PCWP, die Kontraktilitätsmaße dP/dtmax (maximaler Druckanstieg) und GEF (Globale Ejektionsfraktion), der systemische Gefäßwiderstand SVR als Maß für die Nachlast, der Parameter EVLW als Maß für das extravaskuläre Lungenwasser und (bei beatmeten Patienten ohne Arrhythmie) die Schlagvolumenvariation SVV. Die letzten Parameter dienen einem optimalen Flüssigkeitsmanagement insbesondere bei Schockpatienten, wo es wichtig ist, den Kreislauf und damit die Sauerstoffversorgung zu stabilisieren und ein Lungenödem zu vermeiden bzw. rechtzeitig zu erkennen. Weitere invasive Verfahren nutzen die Pulskonturmethode allein oder in Kombination mit der LithiumionenDilution. Weiterhin wird die kontinuierliche Messung der gemischtvenösen Sättigung SvO2 mittels Fiberoptik in einem Pulmonaliskatheter zur Abschätzung von Veränderungen des HZV verwendet. Ein nichtinvasives kontinuierliches Verfahren zur HZV-Messung, die transthorakale Impedanzmessung, wird in Kap. 39 »Respiratorisches Monitoring« behandelt.
37.2.5 Berechnung hämodynamischer
Größen Aus den Messgrößen Druck und Fluss lassen sich die Gefäßwiderstände errechnen. Der totale periphere Gefäßwiderstand (TPR; engl. auch Systemic Vascular Resistance SVR) ist der Widerstand des Körperkreislaufes und mathematisch einfach der Quotient aus treibender Druckdifferenz (arterieller Mitteldruck Pm minus zentralvenöser Druck ZVD) und dem Fluss (HZV): SVR=(Pm-ZVD)/HZV. Im kleinen Kreislauf ist die Druckdifferenz der pulmonale Mitteldruck minus Wedgedruck PCWP (als Maß für den
657 Literatur »Nichtinvasiver Blutdruck«
linken Vorhofdruck). Damit ist der pulmonalvaskuläre Widerstand (Pulmonary Vascular Resistance): PVR=(PAPm-PCWP)/HZV. Als Maßeinheit hat sich hier international dyn*s/cm5 gehalten (entstanden aus der alten Druckeinheit dyn/cm2 dividiert durch den Volumenfluss cm3/s). Monitore bieten i. d. R. Berechnungsprogramme an, mit denen auch weitere zirkulatorische Kenngrößen (z. B. Herzarbeit) und – wenn zusätzlich Blutgase und Atemgase gemessen werden – auch Sauerstoffangebot (D02) . und Sauerstoffaufnahme (V02) berechnet werden können ( Anhang B »Organprofile und Tabellen«).
Weiterführende Literatur Buchwalsky R (1996) Einschwemmkatheter, 4. Aufl. Perimed-spitta, Balingen Connors AF et al. (1996) The effectiveness of right heart catheterization in the initial care of critically ill patients, JAMA 276: 889–897 Della Rocca G et al. (2002) Continuous and intermittend cardiac output measurement: pulmonary artery catheter versus aortic transpulmonary technique, Br J Anaesth 88(3): 350–356 Dieterich HJ, Groh J (1989) Invasives Monitoring der Herzkreislauffunktion. In: Negri L, Schelling G, Jänicke U (Hrsg) Monitoring in Anästhesie und operativer Intensivmedizin. Wissenschaftliche Verlagsabteilung Abbott, Wiesbaden, 3.4.1–3.4.5 Franke N (1995) Eine Einführung in die Theorie und Praxis der invasiven Messung, 4. Aufl. Ohmeda, Erlangen Haufe G et al. (1998) Medizintechnik in der Intensivmedizin. ExpertVerlag, Renningen-Malmsheim (Kontakt & Studium Bd. 546) Hochrein H et al. Invasive technische Verfahren. In: Sturm A, Largiader F, Wicki O (Hrsg) Checkliste der Kardiologie. Thieme, Stuttgart, S 46–51 Kutz N, Murr R (1994) Monitoring der Herz- und Kreislauffunktionen. In: Taeger K, Rödig G, Finsterer U (Hrsg) Grundlagen der Anästhesiologie und Intensivmedizin für Fachpflegepersonal, 3. Aufl, Bd. II. Wissenschaftliche Verlagsabteilung Abbott, Wiesbaden, 8.26–8.31 Lake CL, Hines RL, Blitt CD (2001) Clinical monitoring: practical applications for anesthesia and critical care, 1st ed. W.B. Saunders Company, Philadelphia de Lange JJ (1991) Die Signalübertragung bei invasiver Blutdruckmessung, 2. Aufl. Ohmeda, Erlangen List WF (1989) Kardiovaskuläres Monitoring. In: List WF, Oswald PM (Hrsg) Intensivmedizinische Praxis. Springer, Berlin Heidelberg New York Tokyo, S 41–62 Mathey D, Schofer J (1991) Invasive Kardiologie. Springer, Berlin Heidelberg New York Tokyo, S 22–31 Mendler N (1985) Invasives hämodynamisches Monitoring – meßtechnische Aspekte. In: Rügheimer E, Pasch T (Hrsg) Notwendiges und nützliches Messen in Anästhesie und Intensivmedizin. Springer, Berlin Heidelberg New York Tokyo, S 196–205 Michard F, Perel A (2003) Management of circulatory and respiratory failure using less invasive volumetric and functional hemodynamic monitoring, in: Vincent JL (Ed) Yearbook of Intensive Care and Emergency Medicine. Springer-Verlag Berlin-Heidelberg-New York, pp 508-520 Prien TH, Lawin P (1994) Kathetertypen. In: Lawin P (Hrsg) Praxis der Intensivbehandlung, 6. Aufl. Thieme, Stuttgart, S 467–474 Schmidt A (1992) Die Rolle des Einschwemmkatheters in der internistischen Intensivmedizin. In: Kress P (Hrsg) Die Einschwemmkatheter-Untersuchung. Pflaum, München, S 127–133
Shoemaker WC, Velmahos GC, Demetriades D (2002) Procedures and monitoring for the critically ill, W.B. Saunders Company, Philadelphia Sykes MK et al. (1991) Principles of measurement and monitoring in anaesthesia and intensive care, 3rd edn. Blackwell Scientific Publications, Oxford Wendt W et al. (1994) Elektronische Überwachung und Datenverarbeitung. In: Lawin P (Hrsg) Praxis der Intensivbehandlung, 6. Aufl. Thieme, Stuttgart, S 164–185
Literatur »Nichtinvasiver Blutdruck« 1.
2.
3. 4.
5.
Laube H (1990) Diagnostik und Klinik der arteriellen Hypertonie. In: Deutsches Institut für Blutdruckforschung (Hrsg) Programed. P-med 56: 40–41 List WF (1989) Blutdruckautomaten. In: List WF, Osswald PM (Hrsg) Intensiv-medizinische Praxis. Springer, Berlin Heidelberg New York Tokyo, S 43–44 Mieke S (1991) Non-invasive blood pressure measurement. In: Bulletin OIML-N° 125/12: 18–28 Rohs M (1990) Klinische Erfahrungen mit einem neuen Blutdruckmonitor. In: Doenicke A, Kilian J (Hrsg) Neue Technologien in Infusionstherapie und Monitoring. Braun, Melsungen, S 78–82 Roloff D (1987) Nichtinvasive Blutdruckmessung. In: Freiboth K, Sonntag H, Züchner K (Hrsg) Praktische Gerätetechnik. MCN, Nürnberg, S 215–228
37
38 Impedanzkardiographie: nichtinvasives hämodynamisches Monitoring H. Kronberg
38.1 Vorteile der Impedanzkardiographie – 660 38.2 Messgenauigkeitseinschränkungen – 660 38.3 Hämodynamischer Statusbericht Literatur
– 660
– 661
Seit Jahrzehnten gab es Versuche, den hämodynamischen Patientenstatus, gekennzeichnet z. B. durch Schlagvolumen (SV) des Herzens und Herzzeitvolumen (HZV), aus den elektrischen Impedanzschwankungen des Thorax zu bestimmen (Nyboer 1950). Geräte, die kardiogene Impedanzschwankungen aufzeichnen und auswerten, werden als Impedanzkardiographen bezeichnet, die Messgröße selbst als thorakale elektrische Bioimpedanz (TEB). Während die Hersteller einiger auf dem Markt verfügbarer Impedanzkardiographen nur behaupten, den hämodynamischen Trend korrekt wiederzugeben, ist es erst in den letzten Jahren gelungen, Geräte zu entwickeln, die den klinischen Anforderungen an die Messgenauigkeit entsprechen. Im Weiteren soll daher das nichtinvasive hämodynamische Monitoring am Beispiel eines solchen neueren Impedanzkardiographen mit dem Produktnamen »BioZ. com« [Bio-Impedanz(Z)-cardiacoutputmonitor] der kalifornischen Firma CardioDynamics dargestellt werden, zu dem klinische Studien vorliegen, die dessen Messgenauigkeit und Reproduzierbarkeit belegen (Yung et al. 1999). Im Unterschied zur Impedanzpneumographie, die das atembezogene periodische Impedanzmuster über EKGElektroden eher qualitativ erfassen und im Wesentlichen Atemfrequenz und Apnöen überwachen können, erfordert die Impedanzkardiographie (IKG) zur quantitativen nichtinvasiven Überwachung des hämodynamischen Status eine modifizierte Elektrodenanordnung (⊡ Abb. 38.1). Die Impedanzkardiographie nutzt einen schwachen konstanten elektrischen Wechselstrom (z. B. 2,5 mAeff & 70 kHz), der über die äußeren Elektroden durch den Thorax geleitet wird (hohe Ausgangsimpedanz der Strom-
quelle, daher stabiler Messstrom). Entsprechend der Darstellung in ⊡ Abb. 38.1 sucht sich der Strom im Wesentlichen den Pfad des geringsten Widerstands, nämlich die blutführende Aorta. Über die inneren unabhängigen Hautelektroden wird stromlos der Spannungsabfall abgegriffen, sodass die thorakale Impedanz weitgehend unabhängig von den Elektroden-Haut-Übergangswiderständen und damit von Patientenbewegungen erfasst werden kann. Der Impedanzkardiograph misst zunächst die Basisimpedanz (den Wechselstromwiderstand) Z0 gegenüber diesem elektrischen Wechselstrom, die normalerweise
⊡ Abb. 38.1. Je 2 Doppelelektroden werden seitlich auf Hals und Thorax geklebt
660
IV
Kapitel 38 · Impedanzkardiographie: nichtinvasives hämodynamisches Monitoring
etwa 35 Ω beträgt. Sie wird um so geringer, je mehr Flüssigkeit sich im Thoraxbereich ansammelt. Dieser Basisimpedanz sind Schwankungen überlagert, die einerseits von der Atmung, andererseits vom Aortenpuls herrühren. Das vergleichsweise niederfrequente Atemsignal interessiert hier nicht weiter und wird ausgefiltert. Die verbleibende höherfrequente Impedanzschwankung ΔZ(t) (Amplitude ca. 0,15 Ω) folgt der pulssynchronen Blutfüllung und Flussgeschwindigkeit in der Aorta und wird als Impedanzkardiogramm (IKG) dargestellt. Hier kann nur an das allgemeine Verständnis appelliert werden, dass sich aus ΔZ(t) das Schlagvolumen und damit auch das Herzzeitvolumen berechnen lässt, wenn man die Messgrößen in ein verfeinertes Modell der blutfüllungsabhängigen Thoraximpedanz einsetzt, dessen Grundstein bereits Nyboer gelegt hatte. Eine ausführlichere, gut verständliche theoretische Darstellung findet sich bei Osypka und Bernstein (Osypka und Bernstein 1999). Der Grund, warum frühere Impedanzkardiographen häufig zwar gut die Änderungen hämodynamischer Parameter wiedergaben, sich aber in der klinischen Routine wegen zu großer Absolutfehler in den Angaben von SV und HZV nicht durchsetzen konnten, lag einerseits in den zu groben theoretischen Modellen der Thoraximpedanz, andererseits aber auch in den beschränkten Rechenleistungen der Geräte, die ja kompakt bleiben mussten. So wurden insbesondere bei älteren Patienten mit abnehmender Aortencompliance große Abweichungen gegenüber den herkömmlichen invasiven Messmethoden (z. B. Thermodilutionsverfahren mit Pulmonalarterienkatheter) beobachtet. Mit dem »BioZ.com« scheint hier ein Durchbruch gelungen zu sein: Seine hohe Signalabtastrate von 1000 Hz gestattet auch eine zuverlässige Auswertung von Steigung und Krümmung im IKG, sodass sich nun auch die Aortencompliance und Blutbeschleunigungsindizes auswerten lassen und wesentliche Korrekturen am Impedanzmodell möglich sind. Dies wurde beim »BioZ. com« mit einem Algorithmus berücksichtigt, den CardioDynamics als »Z MARC« bezeichnet (Z Modulating AoRtic Compliance). – Die Arbeit von Van De Water et al. (2003) vergleicht Messgenauigkeit und klinische Wertigkeit dieses Algorithmus mit den früheren Algorithmen von Kubicek, Sramek und Sramek-Bernstein. Nur der Z Marc Algorithmus wurde bewertet als »klinisch akzeptabel genau« und obendrein als überlegen gegenüber herkömmlicher Thermodilutionsmessung hinsichtlich Reproduzierbarkeit von Patient zu Patient. Es ist immer sinnvoll, sich vor der Anschaffung eines Impedanzkardiographen über den verwendeten Algorithmus zu informieren und klinische Studien zu verlangen. Die vorliegenden klinischen Studien belegen, dass Messgenauigkeit und Reproduzierbarkeit der mit dem Impedanzkardiographen völlig nichtinvasiv und kontinuierlich bestimmten Parameter wie SV und HZV (und damit auch deren Indizes, die auf die Körperoberfläche
normiert sind, SI bzw. HI) klinisch gleichwertig sind mit der Thermodilutionsmethode – deren Genauigkeit zwar auch begrenzt ist, aber klinisch völlig ausreicht.
38.1
Vorteile der Impedanzkardiographie
▬ ▬ ▬ ▬
Methode ist völlig nichtinvasiv. Kein Patientenrisiko. Kontinuierliche Schlag-zu-Schlag-Messung. Überall einsetzbar, von der Privatpraxis über den Patiententransport bis zu allen Krankenhausabteilungen einschließlich OP. ▬ Kosteneffektiv, da risikolos und unabhängig von spezialisierten Intensivstationen.
38.2
Messgenauigkeitseinschränkungen
Wie bei jedem nichtinvasiven Messverfahren muss auch bei der Impedanzkardiographie mit eingeschränkter Messgenauigkeit gerechnet werden, wenn das Modell der thorakalen Bioimpedanz nicht mehr den klinischen Bedingungen des Patienten entspricht. Für den »BioZ. com« wird angegeben, dass solche Bedingungen vorliegen können bei: ▬ septischem Schock, ▬ defekter Aortenklappe mit Regurgitation, ▬ Patienten 1°C), ▬ remittierendes Fieber (Temperaturschwankungen >2°C), ▬ intermittierendes Fieber (Temperaturschwankungen >2°C im Tagesverlauf, wobei sie auch unter Normaltemperatur sinken kann), ▬ undulierendes Fieber (ständig veränderte Körpertemperatur ohne Tendenz).
40.1
Hyperthermie und Hypothermie
Übersteigt die Wärmezufuhr die Wärmeabgabe des Körpers (z. B. bei Hitzschlag, Alkohol- oder Medikamentenentzug, Hyperthyreose, malignem neuroleptischem Syndrom oder maligner Hyperthermie), so wird dieser Zustand als Hyperthermie bezeichnet. Infolge erhöhter Wärmeabgabe wird die Körperkerntemperatur unter 35,5°C als Hypothermie bezeichnet (z. B. nach operativen Eingriffen, bei extrakorporaler Blutzirkulation und Blutreinigungsverfahren, zu Beginn einer Sepsis).
40.2
Messorte für die Temperaturmessung
Ausschlaggebend für die Bewertung der Körpertemperatur ist der Messort (⊡ Tab. 40.1), denn zwischen den verschiedenen Körperbereichen kann eine Temperaturdifferenz bis zu 5°C bestehen. Ein Temperaturgefälle kann auch zwischen der Körperkerntemperatur und der Temperatur an der Peripherie vorhanden sein (z. B. Schockzustand).
40.3
Temperaturaufnehmer und -sonden
Zur Ermittlung der Temperatur als thermische Messgröße stehen unterschiedliche Temperaturaufnehmer und -sonden zur Verfügung (typischer Messbereich: 24–42°C, optimaler Messbereich 10–45°C, um auch körperextreme Temperaturen, wie z. B. tiefe Unterkühlungen oder Hyperthermie, messen zu können), die technisch kaum Probleme bereiten: Thermistoren (sog. Heißleiter) sind thermosensitive Halbleiterelemente, deren elektrischer Widerstand mit steigender Temperatur abnimmt. Ändert sich der Widerstand – auch sehr geringe Temperaturänderungen bewirken Änderungen aufgrund hoher Ansprechempfindlichkeit des Aufnehmers –, so ändert sich die Stromspannung an der Brückenschaltung proportional zur Temperaturänderung. Diese Spannung wird verstärkt und über ein kalibriertes (°C) elektrisches Temperaturmessgerät angezeigt. Thermistoren sind die in der Praxis am meisten verwendeten Temperaturaufnehmer.
680
Kapitel 40 · Metabolisches Monitoring
⊡ Tab. 40.1. Übersicht der Temperaturaufnehmer/-sonden und Messorte für die Ermittlung der Körpertemperatur (s. auch ⊡ Abb. 40.1–4) Lokalisation
Bemerkungen
1. Körperoberflächentemperaturaufnehmer Axilla
Um ~1°C niedriger als im Rektum, weniger geeignet für Temperaturmessungen auf Intensivstationen und im OP.
Haut
Applikation an unterschiedlichen Körperstellen (z. B. Stirn, Fußsohle u. a.), Temperaturwerte sind abhängig von der Durchblutungsqualität der Haut.
2. Temperaturaufnehmer und -sonden für Körperöffnungen
IV
Sublingual
Weniger geeignet für Temperaturmessungen auf Intensivstationen und im OP.
Rektum
Einfachste Annäherung an die Körperkerntemperatur (aber nicht repräsentativ), da Temperaturabhängigkeit von der Durchblutung der Darmschleimhaut, räumlicher Temperaturgradient, Fäzes kommt als Temperaturisolator in Betracht.
Nasopharynx
Applikation: Mukosa des Nasopharyngealraums, gute Verhältnisse für die Temperaturmessung durch räumliche Nähe zur A. carotis interna.
Äußerer Gehörgang
Applikation in Nähe des Trommelfells, Messresultate vergleichbar mit der Ösophagustemperatur.
3. Intrakorporale Temperatursonden Ösophagus
Applikation im unteren Drittel mittels Ösophagusstethoskop mit integrierter Temperatursonde, Temperaturverhältnisse vergleichbar denen des Gehirns (entspricht annähernd der Körperkerntemperatur).
Pulmonalarterie
Über Swan-Ganz-Katheter Online-Messung der Temperatur, Messwertbeeinflussung durch kalte Infusionslösungen möglich.
Harnblase
Über Foley-Katheter, Temperaturverhältnis entspricht annähernd der Körperkerntemperatur.
⊡ Abb. 40.2. Einmalsonden für Rektal- oder Ösophagustemperaturmessungen
⊡ Abb. 40.1. Einmalsonde für Hautoberflächenmessungen
⊡ Abb. 40.3. Foley-Katheter für Temperaturmessungen in der Harnblase
681 Weiterführende Literatur
Thermoelemente werden aus zwei miteinander verbundenen Metallen gebildet. Eine Verbindungsstelle wird auf konstanter Temperatur gehalten, während die zweite den eigentlichen Temperaturaufnehmer bildet. Zwischen den Metallverbindungen kommt es bei Erwärmung zu einer Temperaturdifferenz, die der elektrischen Spannung proportional ist. Thermomessstreifen sind mit Cholesterinkristallen imprägniert, deren molekulare Anordnung sich in Abhängigkeit von der Temperatur verändert. Weitere Aufnehmer und Sonden zur Temperaturermittlung sind: ▬ Wärmestrahlungsaufnehmer, ▬ Nadelthermometer, ▬ Deep-body-temperature-Sensoren. In der klinischen Praxis ist es weitgehend üblich, die Temperaturdifferenz der Körperkerntemperatur zu einer peripheren Temperatur (Oberflächentemperatur) zu überwachen. Die Temperaturdifferenz ist ein wesentliches Kriterium zur Früherkennung beginnender Schockzustände, da die Temperatur an der Körperperipherie schneller absinkt als die Körperkerntemperatur.
⊡ Abb. 40.4. Temperaturmessgerät (äußerer Gehörgang)
40.4
Methodische Hinweise
Wiederverwendbare Temperaturaufnehmer und -sonden dürfen nicht autoklaviert oder heißluftsterilisiert werden. Dagegen ist eine Gas- (Ethylenoxid) oder Plasmasterilisation möglich. Temperaturaufnehmer und -sonden müssen das CEZeichen tragen. Sie unterliegen gemäß MedizinprodukteBetreiberverordnung (MPBetreibV Anhang 2 zu §11) der Pflicht zu messtechnischen Kontrollen in einem Rhythmus von zwei Jahren (für Infrarot-Strahlungsthermometer beträgt die Frist ein Jahr).
Weiterführende Literatur Briegel J et al. (1994) Fieber als Leitsymptom in der Intensivmedizin. Intensivmedizin im Dialog 1: 1–4 Negri L, Weber W (1989) Körpertemperatur. In: Negri L, Schelling G, Jänicke U (Hrsg) Monitoring in Anästhesie und operativer Intensivmedizin. Wissenschaftliche Verlagsabteilung Abbott GmbH, Wiesbaden, 7.1–7.8 Zander JF (1994) Fiebersenkende Maßnahmen in der Intensivtherapie. Intensivmedizin im Dialog 1: 5–7
40
41 Zerebrales Monitoring B. Schulz, A. Schulz, H. Kronberg 41.1
EEG-Monitoring im Operationssaal und auf der Intensivstation – 683
41.1.1 41.1.2 41.1.3 41.1.4
Indikationen – 683 EEG-Bilder – 683 Spektralanalyse – 683 Weitere gebräuchliche Parameter zur Analyse und Beschreibung des EEG – 684 41.1.5 EEG-Stadien der Narkose bzw. der Sedierung – 684 41.1.6 EEG-Narkoseverlauf – 685 41.1.7 Technische Voraussetzungen – 686 41.1.8 Benefit des EEG-Monitorings im OP – 686 41.1.9 Benefit des EEG-Monitorings auf der Intensivstation – 687 41.1.10 Zusammenfassung – 687
41.1
EEG-Monitoring im Operationssaal und auf der Intensivstation B. Schultz, A. Schultz
Die Registrierung der Hirnströme (Elektroenzephalogramm, EEG) eignet sich zur Patientenüberwachung im Operationssaal und auf der Intensivstation (Freye u. Levy 2005).
41.1.1 Indikationen
Indikationen für den Einsatz des EEG-Monitorings im Operationssaal sind die Beurteilung der Effekte hypnotisch wirkender Substanzen, die frühzeitige Erkennung zerebraler Gefahrensituationen, z. B. durch Hypoxie, und die Darstellung der zerebralen Auswirkungen von induzierter Hypothermie. Auf der Intensivstation ergeben sich als Anwendungsgebiete die Sedierungssteuerung, die Therapiesteuerung, z. B. im Status epilepticus, die Zustands- und Verlaufsbeurteilung bei komatösen Patienten sowie die orientierende diagnostische Nutzung im Hinblick auf epilepsietypische Aktivität und umschriebene zerebrale Funktionsstörungen.
41.1.2 EEG-Bilder
Eine Dämpfung der Hirnfunktion geht meist mit einer Verlangsamung des EEG einher. Die Frequenzzusammen-
41.2
Intrakranieller Druck (ICP) – 687
41.2.1 41.2.2 41.2.3
Einleitung – 687 Physiologie des Hirndrucks – 688 Hirndruckmessung als Therapiekontrolle
– 690
Literatur zum Abschn. »EEG-Monitoring im Operationssaal und auf der Intensivstation« – 692 Literatur zum Abschn. »Intrakranieller Druck (ICP)« – 692
setzung des EEG bietet daher einen Anhalt zur Einschätzung der Schwere einer zerebralen Funktionsveränderung bzw. Funktionsstörung. Für ein EEG-Monitoring sind auch spezielle Potenzialformen von Interesse, wie z. B. epilepsietypische Potenziale. Grundsätzlich ist zwischen generalisierten und fokalen EEG-Veränderungen zu unterscheiden. Generalisierte EEG-Veränderungen zeichnen sich dadurch aus, dass sie über allen Regionen des Schädels sehr ähnlich ausgeprägt sind. Typische Beispiele sind EEG-Effekte durch hypnotisch wirksame Substanzen, Hypothermie, Hypoglykämie und globale Hypoxie. Fokale EEG-Veränderungen beschränken sich auf Teilbereiche des Schädels und können z. B. durch Tumoren, Blutungen oder lokal begrenzte Hypoxien bedingt sein. Konventionelle EEG-Ableitungen mit einer Vielzahl von Kanälen sind mit einem hohen praktischen Aufwand verknüpft. Generalisierte EEG-Veränderungen lassen sich aber mit hoher Zuverlässigkeit anhand einer einzigen EEGAbleitung beurteilen. Dies ist eine wesentliche Voraussetzung für den Einsatz des EEG als Monitoringmethode.
41.1.3 Spektralanalyse
Die herkömmliche visuelle Beurteilung des EEG-Signals erfordert spezielle Kenntnisse und Erfahrung. Daher stellt es für den Anwender eine wesentliche Vereinfachung dar, wenn das EEG für die Nutzung im OP und auf der Intensivstation mit Hilfe von computergestützten Verfahren analysiert wird und Interpretationshilfen gegeben werden.
684
IV
Kapitel 41 · Zerebrales Monitoring
Eine häufig eingesetzte Methode zur EEG-Signalanalyse ist die Spektralanalyse. Hierbei wird das EEG-Signal in definierten Zeitabschnitten in seine zugrundeliegenden Frequenzanteile zerlegt. Als Ergebnis erhält man ein EEG-Powerspektrum, das grafisch dargestellt werden und als Grundlage für weitere Auswertungen dienen kann. Es lassen sich einzelne Spektralparameter extrahieren, wie z. B. das 50%- und das 90%- bzw. 95%-Quantil des Powerspektrums, die auch als Median bzw. als spektrale Eckfrequenz bezeichnet werden. Andere gebräuchliche Spektralparameter sind die Gesamtleistung (Power) sowie die Leistung in einzelnen Frequenzbereichen. Man unterscheidet die Frequenzbänder Delta (δ : 0,5–3,5 Hz), Theta (ϑ : 3,5–7,5 Hz), Alpha (α : 7,5–12,5 Hz) und Beta (β: >12,5 Hz). Derartige Monoparameter erlauben es zwar häufig, generelle Trends im EEG darzustellen, die komplexe Information eines EEG lässt sich durch Monoparameter aber nicht umfassend beschreiben.
41.1.4 Weitere gebräuchliche Parameter zur
Analyse und Beschreibung des EEG
Stadien A (wach) bis F (sehr tiefe Narkose/Sedierung) (⊡ Abb. 41.1) stammen von Kugler (1981). Eine Stadieneinteilung von A bis F, die im Hinblick auf das EEG-Monitoring modifiziert worden war, diente als Grundlage für die Entwicklung einer automatischen EEG-Klassifikation. Diese wurde mit Hilfe eines multivariaten Ansatzes unter Einbeziehung spezieller Mustererkennungsalgorithmen realisiert und ist Bestandteil des EEG-Monitors Narcotrend, der für den Einsatz im Operationssaal und auf der Intensivstation entwickelt wurde (Schultz et al. 2003b). Zur Beurteilung der hypnotischen Komponente von Narkose und Sedierung mit Hilfe dieses Gerätes wird standardmäßig ein EEG-Kanal verwendet, wofür üblicherweise drei Einmal-EKG-Elektroden auf der Stirn des Patienten befestigt werden. In Abhängigkeit von der Art des operativen Eingriffs oder bei Kopfverletzungen können auch andere Elektrodenarten (z. B. Nadelelektroden) und Elektrodenpositionen zum Einsatz kommen. Zwei-Kanal-Registrierungen sind ebenfalls möglich. Der Narcotrend wertet das EEG in Segmenten von 20 s Dauer aus, wobei die Ausgabe der Bewertung alle 5 s aktualisiert wird. Insgesamt werden 15 Unterstadien im
Für das Monitoring des Narkose- und des Intensiv-EEG werden auch andere mathematische bzw. statistische Parameter eingesetzt. Beispielsweise geht in den Wert des Bispektrums neben Informationen aus dem Powerspektrum auch die Phasenkopplung ein. Die Bispektralanalyse ist ein Bestandteil der Funktionen, die für die Geräte der Firma Aspect (Aspect Medical Systems, Natick, MA, USA) verwendet werden (Bruhn 2006b). Entropie bezeichnet das Maß der Ordnung bzw. Unordnung, somit Zufälligkeit oder Vorhersagbarkeit eines Systems. Die spektrale Entropie bildet die Grundlage des in Überwachungseinheiten der Firma Datex-Ohmeda (Datex-Ohmeda (GE), Helsinki, Finnland) genutzten Algorithmus (Bruhn 2006a, Bruhn 2006c). Mit Hilfe autoregressiver Parameter lässt sich der Verlauf der Roh-EEG-Kurve beschreiben. Es handelt sich hierbei um ein Regressionsmodell, bei dem der aktuelle Zeitreihenwert als gewichtete Summe eines oder mehrerer Vergangenheitswerte und eines Zufallsterms modelliert wird. Autoregressive und andere Parameter werden im Narcotrend (MT MonitorTechnik, Bad Bramstedt, Deutschland) verwendet (Schultz et al. 2003b).
41.1.5 EEG-Stadien der Narkose
bzw. der Sedierung Unter dem Einfluss von hypnotisch wirksamen Substanzen kommt es dosisabhängig zu einer fortschreitenden Verlangsamung des EEG. Vorschläge für Kriterien einer visuellen Klassifikation dieser EEG-Veränderungen in die
⊡ Abb. 41.1. Typische Beispiele für das EEG in den Stadien A–F
685 41.1 · EEG-Monitoring im Operationssaal und auf der Intensivstation
Bereich A–F unterschieden, und als Verfeinerung wird zusätzlich der Narcotrend-Index (100-0) angezeigt. Ein Ausschnitt aus dem Messbildschirm des Narcotrend ist in ⊡ Abb. 41.2 dargestellt.
Als Beispiel für die Anwendung der automatischen EEGBewertung zeigt ⊡ Abb. 41.3 einen EEG-Stadienverlauf aus einer Narkose mit dem Hypnotikum Propofol und
dem Opioid Remifentanil. Beide Substanzen sind wegen ihrer kurzen Halbwertszeiten sehr gut steuerbar und wurden mittels Spritzenpumpen kontinuierlich intravenös appliziert. Nach der Narkoseeinleitung vom A- bis in den E/F-Bereich erfolgte die Narkoseaufrechterhaltung in tiefer Narkose im D/E-Bereich. Ca. um 10.00 Uhr wurde im EEG ein plötzliches Wacherwerden bis in den B-Bereich entdeckt. Ursache war eine kurzfristige, technisch bedingte Unterbrechung der Narkosemittelzufuhr. Bei Narkoseführung in derartig flachen Stadien ist nicht auszuschließen, dass Patienten sich postoperativ an die intraoperative
⊡ Abb. 41.2. Ausschnitt aus dem Messbildschirm des Narcotrend. Oben: Original-EEG, unten links: aktuelle Werte für Stadium (E0) und Index (29), darunter die aktuellen Elektrodenimpedanzen, unten rechts: EEG-Stadienverlauf (Cerebrogramm). Nach Gabe des Einleitungshypnotikums Propofol erreichte die Patientin vom Wachzustand (Stadium A) schnell ein tiefes Schlafstadium (Stadium E/D, ca. 8.35 Uhr) und
wurde nach Gabe eines Relaxans intubiert. Aufgrund der kurzen Halbwertszeit des Hypnotikums flachte die Narkose innerhalb weniger Minuten bis in den B-Bereich ab (ca. 8.40 Uhr). Durch einen Propofolbolus (ca. 8.43 Uhr) erfolgte eine Vertiefung der Narkose in den D/E-Bereich, in dem sie dann weitergeführt wurde. Das bei der Narkoseeinleitung und -aufrechterhaltung verwendete Opioid war Remifentanil
41.1.6 EEG-Narkoseverlauf
⊡ Abb. 41.3. Cerebrogramm einer Narkose mit einem nicht beabsichtigten kurzfristigen Wacherwerden der Patientin durch eine technisch bedingte Unterbrechung der Narkosemittelzufuhr (ca. 10.00 Uhr)
41
686
IV
Kapitel 41 · Zerebrales Monitoring
Situation erinnern können (Awareness). Durch einen Bolus des Hypnotikums Propofol wurde die Narkose bis in den F-Bereich vertieft. Die weitere Narkoseaufrechterhaltung erfolgte im E-Bereich. Gegen 11.30 Uhr begann die Narkoseausleitung mit einem kontinuierlichen Flacherwerden der Narkose vom E-Bereich bis zum Erwachen im A/B-Bereich. Die Patientin hatte postoperativ keine Erinnerung an intraoperative Ereignisse. Die zur Aufrechterhaltung der Narkose erforderliche Dosis des Hypnotikums wurde für diese Patientin individuell anhand des Hirnstrombildes eingestellt, daher ließen sich länger dauernde Über- und Unterdosierungen vermeiden. Die kurzfristige unerwünschte Abflachung der Narkose konnte anhand des EEG schnell erkannt und sofort korrigiert werden. In der Klinik gebräuchliche Parameter zur Patientenüberwachung während der Narkose sind u. a. Blutdruck und Herzfrequenz. Kreislaufparameter stellen, insbesondere bei intravenösen Narkosen, keine verlässliche Grundlage zur Beurteilung der hypnotischen Komponente der Narkose dar. Das EEG erfasst die Effekte hypnotisch wirksamer Substanzen direkt am Wirkorgan, dem Gehirn, und ist für den Anästhesisten eine wertvolle Hilfe zur Dosisfindung. Bei der Anwendung und Interpretation des EEG in der Praxis ist die klinische Gesamtsituation zu beachten, da auch andere Einflussgrößen wie Hypoxie, Hypoglykämie und Hypothermie das EEG in ähnlicher Weise wie Narkotika/Sedativa beeinflussen können. Visuell klassifizierte EEG-Epochen stellen eine sichere und eindeutige Grundlage für die Entwicklung von automatischen Klassifikationsalgorithmen dar und erlauben eine einfache Validierung. Für den Anwender bedeutet die Verwendung der visuellen EEG-Bewertung als Basis methodische Transparenz, denn es besteht eine eindeutige Beziehung zwischen den Charakteristika des Original-EEG und der automatischen Bewertung. Dies kann als ein wesentlicher Vorteil des Narcotrend gegenüber anderen Ansätzen zur automatischen EEG-Bewertung angesehen werden, bei denen darauf verzichtet wird, eine eindeutige Beziehung zwischen EEG-Bildern und mathematisch-statistisch ermittelten Parametern, wie z. B. Indizes, festzulegen.
41.1.7 Technische Voraussetzungen
Bei der praktischen Durchführung des EEG-Monitorings mit dem Narcotrend haben sich die folgenden Gerätemerkmale als wichtig herausgestellt. Da die Signalqualität des EEG und damit auch die Zuverlässigkeit automatischer Folgeauswertungen in hohem Maße von einem konstant guten Elektroden-HautKontakt abhängig sind, ist es erforderlich, engmaschige Impedanzkontrollen durchzuführen.
Das EEG-Signal ist sehr störanfällig, daher stellt eine automatische Artefakterkennung eine unverzichtbare Voraussetzung für eine Weiterverarbeitung des Signals dar. Die visuelle Auswertung war jahrzehntelang das Standardverfahren zur EEG-Analyse und ist auch heute noch in der klinischen Praxis unverzichtbar (z. B. Kontrolle des Signals im Hinblick auf Störungen, Erkennung spezieller EEG-Bilder und Potenzialformen wie epilepsietypischer Potenziale). Daher ist eine sehr deutliche Darstellung des Roh-EEG mit unterschiedlichen Skalierungsmöglichkeiten und zuschaltbaren Filtern erforderlich. Veränderungen des EEG mit dem Lebensalter sind sowohl bei der automatischen Bewertung als auch bei der EEG-Darstellung zu berücksichtigen. Unterschiedliche Operationsgebiete, Lagerungen und Verletzungsmuster der Patienten bedingen, dass neben möglichst variablen Elektrodenpositionen auch verschiedene Elektrodenarten gebraucht werden. Für eine orientierende Untersuchung zum Seitenvergleich des EEG-Bildes sollten mindestens zwei Kanäle zur Verfügung stehen. Zur Dokumentation sollten sowohl Momentaufnahmen des Original-EEG als auch Verläufe von EEG-Parametern bzw. -Bewertungen ausgedruckt werden können. Ebenso sollte eine Archivierung der vollständigen Original-EEG-Daten möglich sein.
41.1.8 Benefit des EEG-Monitorings im OP
Eine Verbesserung der Narkosequalität durch das EEGMonitoring, z. B. hinsichtlich individuell angepasster Dosierung, Vermeidung von Awareness-Situationen und einer zügigen postoperativen Erholung, konnte in zahlreichen klinischen Untersuchungen nachgewiesen werden. Dies soll durch einige Beispiele illustriert werden. Die große interindividuelle Variabilität hinsichtlich des Bedarfs an hypnotisch wirksamen Substanzen wurde in einer Multicenterstudie mit 4630 Patienten deutlich (Wilhelm et al. 2002), es zeigte sich auch, dass das EEGMonitoring eine altersgerechte Dosierung unterstützt (Schultz et al. 2004). Bei einem Teil der Narkosen in dieser Studie wurde das EEG verblindet registriert, d. h. die EEG-Bewertungen waren für den Anästhesisten nicht zugänglich. Nur 68,6 % der Patienten mit verblindeter EEG-Registrierung hatten im Steady state der Narkose ein EEG im mittleren bis tiefen Narcotrend-Stadienbereich D/E. Die übrigen Narkosen waren entweder sehr flach, sehr tief oder unruhig im Verlauf. Zwei von 603 Patienten, deren EEGs verblindet registriert wurden, berichteten postoperativ über intraoperative Wahrnehmungen (Schultz et al. 2006). Wurde hingegen die Narkose anhand des EEG im Stadienbereich D/E-Bereich gesteuert, gab es in keinem Fall intra- oder postoperativ Hinweise für eine intraoperative Awareness.
687 41.2 · Intrakranieller Druck (ICP)
In einer anderen Studie wurden neurochirurgische Patienten mit Operationen von Hirntumoren intraoperativ mit dem Narcotrend überwacht. Diese Patienten, deren Narkosen im Steady state in tiefen EEG-Stadien gesteuert wurden, erhielten nur etwa die Hälfte der Propofoldosis, die Patienten aus einer Vergleichsgruppe ohne EEG-Monitoring bekamen. Die meisten der EEGüberwachten Patienten konnten schon im Operationssaal extubiert werden. Das erleichterte unmittelbar postoperativ die neurologische Beurteilung. Der Pflegeaufwand auf der Intensivstation war vermindert (Schultz et al. 1999). Mit Hilfe des EEG konnten bei Patienten mit Thoraxeingriffen sehr kurze Aufwachzeiten erzielt werden. Hierdurch wurde eine effektivere Kapazitätsausnutzung im Operationsbereich erreicht (Schulze et al. 2004). In einer Untersuchung von Rundshagen et al. (2004) erholten sich Patienten hinsichtlich ihrer psychomotorischen Funktionen nach Narkosen mit EEG-Monitoring schneller als nach Narkosen ohne EEG-Überwachung. Die Autoren interpretieren die Ergebnisse so, dass es mittels EEG besser möglich ist, die Narkose adäquat zu steuern, was zu einer Verminderung des Anästhetikaüberhangs in der frühen postoperativen Phase und zu verbesserten psychomotorischen Funktionen führt. Studien von Weber et al. (2005a, 2005b) zeigten, dass sich auch bei Kindern mit dem EEG-Monitoring die Dosierung der Hypnotika individuell vornehmen ließ. Bei Kindern mit Cochlea-Implantation half das EEG zuverlässig, kurzfristig in der Implantattestphase sehr flache Narkose-EEG-Stadien anzusteuern. Eine möglichst geringe Beeinflussung der Hirnfunktion – und damit auch der Hörverarbeitung – durch hypnotisch wirksame Substanzen ist in dieser Phase wichtig, damit die bei der Implantattestung gewonnenen Messergebnisse als Grundlage für die postoperative individuelle Anpassung des Sprachprozessors genutzt werden können (Schultz et al. 2003a).
41.1.9 Benefit des EEG-Monitorings
auf der Intensivstation Die Einbeziehung des EEG als Monitoringverfahren erlaubt nicht nur im OP, sondern auch auf der Intensivstation eine differenziertere Beurteilung des Patienten in Situationen, in denen die Möglichkeiten der klinischen Untersuchung und Beurteilung eingeschränkt sind. Dies gilt für relaxierte Patienten und Personen in tiefen Sedierungs- oder Komastadien mit nur noch spärlichen Reaktionen auf externe Reize. Ein Zweijahresvergleich hinsichtlich der Liegezeit von beatmeten Patienten auf einer anästhesiologisch-chirurgischen Intensivstation ergab, dass in einem Jahr mit regelmäßigen EEG-Kontrollen zur Sedierungssteuerung die Liegezeit im Mittel etwa 22% kürzer war als in ei-
nem Jahr ohne EEG-Überwachung (Schultz et al. 2001). Die Erfahrung zeigt, dass geriatrische Patienten, bei denen häufig Vorerkrankungen und eine eingeschränkte Kompensationsfähigkeit bestehen, besonders von einem EEG-Monitoring der Sedierung profitieren. Die Gefahr von Sekundärkomplikationen durch unnötig lange Beatmungszeiten bei Intensivpatienten wird verringert. Die Sedierungssteuerung ist eine wichtige Indikation für das EEG-Monitoring bei Intensivpatienten. Daneben gibt es zahlreiche Diagnostik und Therapie unterstützende Anwendungen, z. B. in der Hirndrucktherapie, bei der Diagnose und Behandlung zerebraler Erregbarkeitssteigerungen, bei der Zustands- und Verlaufsbeurteilung komatöser Patienten und der orientierenden Untersuchung im Hinblick auf umschriebene zerebrale Funktionsstörungen (Schultz 2006, Stöhr u. Kraus 2002, Zschocke 2002).
41.1.10 Zusammenfassung
Zusammenfassend lässt sich feststellen, dass das EEGMonitoring durch die moderne technische Umsetzung und insbesondere durch die automatische Interpretation heute mit geringem Aufwand als Routinemethode in der Praxis anwendbar ist. Es stellt eine sinnvolle und wichtige Ergänzung der bislang üblichen Patientenüberwachungsverfahren dar. Durch die Nutzung des EEG-Monitorings lässt sich eine erhebliche Qualitätsverbesserung von Narkose und Intensivtherapie erreichen.
41.2
Intrakranieller Druck (ICP) H. Kronberg
41.2.1 Einleitung
Raumfordernde Prozesse im Gehirn können zu gefährlichen Anstiegen des Hirndrucks (ICP; »intracranial pressure«) führen, wenn die Kompensationskapazität der betroffenen homöostatischen Regelmechanismen ausgeschöpft ist. Überhöhter Hirndruck verursacht zerebrale Sauerstoffmängel infolge mangelhafter Blutperfusion, da das Druckgefälle zwischen systemischem arteriellen Druck SAP und dem ICP (CPP; »cerebral perfusion pressure«) vermindert ist. Schließlich bergen die zugrundeliegenden raumfordernden Prozesse die Gefahr einer lebensgefährlichen Hirnstammeinklemmung mit Atemlähmung. Raumfordernde Prozesse können langsam ablaufen (Tumor), sich in Stunden bis Tagen entwickeln (Hirnödem) oder auch plötzlich auftreten (Massenblutung). Es gibt auch wellenartige pathologische ICP-Anstiege, die wahrscheinlich mit Schwankungen des zerebralen Blutvolumens zusammenhängen.
41
688
IV
Kapitel 41 · Zerebrales Monitoring
Häufigste Indikation zur ICP-Überwachung ist das Schädel-Hirn-Trauma (SHT). Denn die übliche Notfallbehandlung des Patienten mit Beatmung, Sedierung und Relaxierung verdeckt die klinische Symptomatik von ICPAnstiegen. Eine prophylaktische Therapie gegen erhöhten Hirndruck ohne Langzeitnebenwirkungen gibt es nicht. Deshalb müssen solche Patienten unter kontinuierlicher Kontrolle des Hirndrucks – Dauer meist 3 bis 6 Tage – behandelt werden. Zur ICP-Messung wurden verschiedene Methoden eingeführt, die sich im Wesentlichen in 2 Gruppen unterschiedlicher Invasivität einteilen lassen. Als invasive Methoden mit erhöhter Infektionsgefahr bei längerer Überwachungsnotwendigkeit: die direkte Kathetermessung des intraventrikulären Drucks (»Goldstandard«), des intraparenchymalen oder des subduralen Drucks, und als »geringinvasive« Methode, deren Infektionsrisiko gut beherrschbar ist, aber unter häufigen Messartefakten leidet: die epidurale Hirndruckmessung. Die früher mitunter bevorzugte Lumbaldruckmessung mit der Möglichkeit einer Liquorentnahme wird wegen der Gefahr einer Hirnstammeinklemmung nicht mehr empfohlen. Dass Bedeutung und Indikation der Hirndruckmessung kaum mehr umstritten sind, zeigt sich an der großen Zahl von Veröffentlichungen in den vergangenen 35 Jahren. Obwohl die Hirndruckmessung schon seit etwa 100 Jahren mit Einführung der Lumbalpunktion durch Quincke in der klinischen Forschung praktiziert wurde, ist die ICP-Überwachung erst mit der klassischen Studie von Lundberg (1960) und der von ihm eingeführten Definition von Hirndruckwellen endgültig in die klinische Routine des zerebralen Monitorings eingeführt worden. – Als Beitrag, der eine Übersicht zur Physiologie und Messtechnik bietet, sei der Artikel von Allen (1986) empfohlen, eine umfangreiche Darstellung einschließlich Messbeispielen findet sich bei Gaab u. Heissler (1984), während Steinbereithner et al. (1985) eine kurze Übersicht über die Therapie des Schädel-Hirn-Traumas mit Würdigung der Hirndruckmessung bringen. Betsch (1993) hat sich in seiner Dissertation speziell mit den technischen Problemen der für die klinische Routine in Deutschland bevorzugten epiduralen ICP-Messung befasst. Die aufgeführten Arbeiten enthalten umfangreiche weiterführende Literaturhinweise, sodass im Folgenden auf Zitate verzichtet wird.
41.2.2 Physiologie des Hirndrucks
Das Zentralnervensystem (ZNS) schwimmt im Liquor cerebrospinalis (CSF; »cerebrospinal fluid«) und ist von der harten Hirnhaut (Dura mater) umschlossen. Dabei bildet der Schädel nach Schließen der Fontanellen eine feste Hülle des Hirns, während der Lumbalsack, der das Rückenmark schützt, eine begrenzte Ausdehnungsmög-
lichkeit besitzt. Das Erwachsenenhirn enthält etwa 1500 ml Parenchym und je 120 ml Blut und Liquor. Die interstitielle Flüssigkeit trägt zu 10–15% des Hirngewichts bei. Ständig wird in den Ventrikeln Liquor als »Blutfiltrat« gebildet (ca. 500 ml/Tag) und fließt in den Subarachnoidalraum, eine wenige Millimeter dicke Schicht zwischen ZNS und Dura. Schließlich wird der Liquor wieder über druckempfindliche ventilartige Zotten (Pacchioni-Granulationen) vom venösen Kreislauf resorbiert. Das Resultat von Produktion und Resorption ist ein normaler Hirndruck von 5–15 mmHg. Da die Liquorproduktion weitgehend unabhängig vom ICP ist, bestimmt der Venendruck wesentlich den mittleren Hirndruck. Hirndruckbereiche (ICP) beim Erwachsenen: normal
5–15 mmHg,
leicht erhöht
15–20 mmHg
therapiepflichtig
20–40 mmHg
schwerste Erhöhung
>40 mmHg
Raumfordernde Prozesse einer Hirnkomponente – z. B. beim Ödem – bedingen eine reziproke Volumenänderung wenigstens einer der übrigen Komponenten, wenn der Hirndruck konstant bleiben soll. Bis zu einem ICP von etwa 15 mmHg verhindern dabei homöostatische Regelmechanismen eine Mangeldurchblutung des Gehirns. Zunächst kann Liquor in den dehnbaren Lumbalsack getrieben werden, bei weiterer Raumforderung wird auch mehr Liquor venös resorbiert. Schließlich kann noch das venöse System komprimiert und damit das Blutvolumen im Hirn reduziert werden. Sind diese Kompensationswege ausgeschöpft, droht eine Einklemmung des Hirngewebes im Tentorialspalt mit schnell wachsendem ICP. ⊡ Abb. 41.4 zeigt schematisch diese Druck-VolumenBeziehung. Ist die homöostatische Autoregulation erschöpft (ICP>15 mmHg) oder defekt, so folgt die zerebrale Blutperfusion und damit die Sauerstoffversorgung des Gehirns der Druckdifferenz zwischen arteriellem Zufluss und venösem Abfluss. Diese Druckdifferenz entspricht weitgehend dem zerebralen Perfusionsdruck CPP=SAP– ICP als mittlere Differenz aus systemischem arteriellen Druck und Hirndruck. Perfusionsdruckbereiche (CPP): normal
50–150 mmHG, typ. 80 mmHg
Mangelperfusion
16 weeks Vaginal bleeding? hPL test? Doptone FHR sounds Amniocentesis from 35 years onwards 16 weeks gest.
> 42 Weeks of Pregnancy Post maturity 1/2 weekly visits to obstetrician Possible induction of labor
Weeks 37 40 of Pregnancy
Head engagement Blood pressure Weight Abdominal circum. Antenatal FHR monitoring (FHS) Amniotic fluid volume assessment (US imaging)
> 40 Weeks of Pregnancy
Imminence of labor? Cervical ripening? Effacement/station Onset of labor
HOSPITAL L&D or Birthing Center ⊡ Abb. 42.12. Continuum of Care – Die Schwangerschaft
42
702
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
Continuum of Care: Patient Flow for OB & Newborn Hospital L&D or Birth Center Labor & Delivery (Hospital/Birth Center)
IV
Admission CTG in L&D department Full and detailed clinical history Full examination including: fetal lie presenting part estimated size PROM
First Stage of Labor
Onset of labor Cervix dilates up to 10 cm. Fetal heart rate monitoring Possible rupture of membranes (ROM) Meconium present? Analgesia/Anesthesia * Maternal monitoring O2 saturation NIBP EKG Epidural or possible general anesthetic with C-section
Second Stage of Labor
Third Stage of Labor and Delivery
Full dilation of cervix FHR monitoring Delivery of baby Possible episiotomy Possible forceps vacuum extraction Possible C-section Baby cleaned of mucus Cord clamped and divided Weigh & measure baby, plus preliminary exam APGAR score Blood gas values (cord)
Expulsion of the placenta and membranes Examination of complete placenta
Mother Recovery
Post Partum
Third Stage of Labor and Delivery Fetal outcome?
Post Delivery
Discharge
Well baby nursery or »rooming-in« concept First full exam at 24 hours Urine passage Meconium passage Eyes Fontanelle eflexes (CNS) Hearing Hips Abdomen Genitalia Heart (murmur?) Possible phototherapy
NICU
Discharge examination Blood tests Jaundice Heart murmur
HOME
⊡ Abb. 42.13. Continuum of Care – Geburtsvorgang, Postpartum und Neugeborenenkrippe
▬ Berichtsschreibung: – Arztbrieferstellung mit vordefinierten/konfigurierbaren Masken und Texten, – Auftrag an Transportdienst, – Verlegungsbericht, – Geburtsbericht, – Entlassungsmitteilung der Mutter an Krankenhausverwaltung, – Entlassungsbericht des Neugeborenen an die Krankenhausverwaltung, – Entlassungsbericht der Mutter/Kindes an den niedergelassenen Arzt, – Geburtenanzeige beim Standesamt. ▬ Routinedokumentation: – Etikettenerstellung, – Mutterpass, – Geburtenbuch, – Ausdruck der vollständigen Patientenakte. ▬ Statistiken, Trendanalyse und Reports: – Adhoc Datenbankabfragen, – wöchentliche, monatliche oder jährliche Geburtenstatistiken, – spezielle Statistiken: z. B. Kaiserschnitt pro Arzt, durchschnittliche Verweildauer der Patienten, auffällige Ereignisse, – spezielle QA Statistiken.
Patient Model: Mother and Newborn Mother
Pregnancy 1
Pregnancy 2
Baby 1
Episode 1
Episode 2
Pregnancy 3
Baby 2
Episode 3
⊡ Abb. 42.14. Die drei Patienten (Mutter, Fetus, Neugeborenes)
42.2.7 Archivierung und Datenabruf
auf Langzeitspeichermedien Für viele Krankenhäuser haben in den letzten Jahren die elektronische Datenarchivierung und der elektronische Datenabruf an Bedeutung gewonnen. Dies ist insbesondere auf die erhöhte Anzahl von Rechtsstreitigkeiten von Eltern geschädigter Kinder zurückzuführen, aber auch auf medizinisches Interesse an der nachträglichen Ana-
703 42.2 · Geburtenüberwachungssysteme
⊡ Abb. 42.15. Dokumentationsbeispiel für einen krankenblatt-basierenden Patientenbericht (Partogramm)
lyse von Geburten. Die heute übliche Methode der Archivierung erfolgt häufig über optische Medien, die sog. WORM (»write once, read many«), bei denen die Daten nur einmal eingegeben, aber beliebig oft abgerufen werden können. Falls keine WORM-Medien verwendet werden, ist darauf zu achten, dass ein hinreichender Schutz vor Überschreibungen oder Löschungen gegeben ist. Dies ist aus rechtlichen Gründen notwendig, da es einem Benutzer nicht mehr möglich sein darf, auch Jahre später die Daten zu ändern. Die Hersteller von optischen Speichermedien garantieren heutzutage eine Lesbarkeit der Daten von 30 Jahren aufgrund eines beschleunigten Lebenszyklustestes. Die Langzeitspeicherung auf optischen Platten ermöglicht die vollständige Archivierung von Patientenakten (ambulant und stationär) und verringert das Risiko unauffindbarer Patientenakten oder CTGAufzeichnungen. Die »interessanten« Fälle gehen ohne optischen Speicher immer zuerst verloren und fehlen dann bei Gerichtsverhandlungen. Ein einfacher Zugriff auf die gespeicherten Informationen zur Überprüfung, Forschung oder zum Aufrufen eines abgeschlossenen Falls sollte gewährleistet sein. Eine Jukebox mit optischen Speichern kann Jahre an Patienteninformation im direkten Zugriff vorhalten. Unerlässlich für die Archivierung ist ein gutes Sicherheitskonzept. Für ein System, in dem nur die CTG-Kurven überwacht werden sollen, ist dies weniger von Bedeutung. Folgende Punkte sollten aber unbedingt erfüllt sein: 1. Sicherung der Stromversorgung über eine nichtunterbrechbare Stromversorgung (USV), an der die Server, das optische Laufwerk und die Netzwerkkomponenten angeschlossen sein sollten.
2. Sicherung der Daten auf dem Server entweder über a) Hochverfügbarkeitskonzept: Ein zweiter Server arbeitet parallel zum ersten. Im Falle eines Defekts übernimmt der intakte Server vollständig die Aufgaben, bis der andere wieder funktionsfähig ist; b) RAID-Technologie: Dies ist ein Verbund aus Festplatten, die die Daten selbsttätig redundant speichern. Fällt eine Festplatte wegen eines Defekts aus, kann sie während des Betriebs ausgetauscht werden. Das System sorgt automatisch dafür, dass die reparierte Platte wieder auf den aktuellen Stand kommt; 3. Erstellung von Sicherheitskopien der opt. Platten. Dadurch ist man in der Lage, das Original an einem feuergeschützten Ort aufzubewahren und die Kopie für die tägliche Arbeit zu benutzen.
42.2.8 Rechner-Kommunikation
im geburtshilflichen Umfeld Hier reden wir von der Kommunikation zwischen geburtshilflichen Abteilungen in verschieden Krankenhäusern einer Stadt, der Kommunikation mit kleineren ambulaten Kliniken, die mit einem Krankenhaus kooperieren, der Hebamme, die vor Ort CTGs erfasst, oder dem Arzt, der von zuhause oder von seiner Paxis aus Patientendaten beurteilen muss (⊡ Abb. 42.16). Geburtenüberwachungssysteme sollten die Patientenverlegung nicht nur von Bett-zu-Bett im eigenen Krankenhaus, sondern auch die Patientenverlegung in andere Krankenhäuser ermöglichen. Dadurch ist die Patientenakte auch
42
704
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
OB Trace Vue Beyond the Hospital Satellite hospital & clinics
Private MD offices Link between OB systems
Web access
Hospital Fetal trace Transmission
IV ⊡ Abb. 42.16. Geburtshilfe außerhalb des Krankenhauses
Web access Private MD homes
Patients & home care
⊡ Abb. 42.17. System mit Fernzugriff (Arzt zu Hause)
dort im direkten Zugriff. Dies kommt besonders dann vor, wenn die Frau mit ihrer früheren Entbindung nicht zufrieden war oder der Entbindungsort aus Dringlichkeitsgründen nicht mehr angesteuert werden kann (Verkehrsstau). In der Kommunikation des Arztes zu Hause oder in seiner Praxis spielt der WEB-Zugriff auf die Patientenakte eine große Rolle, vorausgesetzt das Krankenhaus besitzt die notwendige Infrastruktur gerade was die Sicherheit der Kommunikation anbelangt. Moderne CTG-Geräte erlauben die Übertragung von CTG-Kurven über das Telefon. Hier ist eine schnelle Konsultierung möglich, ob eine stationäre Aufnahme der Gebärenden erforderlich ist (⊡ Abb. 42.17, ⊡ Abb. 42.18, auch 4-Farbteil am Buchende).
42.2.9 Rechner-Kommunikation
und Datenzugriff auf andere Krankenhaussysteme Das Geburtsüberwachungssystem ist nur eines von vielen Systemen in einem Klinikum. Eine Einbindung in das Gesamtnetz ist von größter Wichtigkeit, sodass Insellösungen in den Hintergrund treten. Normalerweise verwendet man eine HL-7-basierte Schnittstelle zur Verbindung mit anderen Rechnersystemen. Die Einbindung kann sowohl als direkte Datenübertragung realisiert werden als auch durch Arbeitsplatzzugriff auf andere Systeme (⊡ Abb. 42.19).
705 42.2 · Geburtenüberwachungssysteme
⊡ Abb. 42.18. Identifizierung fernübertragener CTG-Daten per Telefonsymbol
Hospital Information System
Administrative Financial Applications Billing / Accts Rec Accounts Payable General Ledger Staffing / Scheduling Fixed Asset Mgmt Material Management Managed Care Contracts Abstracting Credentialing Cost Accounting Budget / Forecasting Utilization Review Time Keeping Patient Care Management Medical Records Registration Scheduling
EMR / CPR / CDR / Portal
Point of Care
Clinical IS
Clinical Applications Order Entry Pharmacy Radiology IS Physicians Practice Management Patient Care
Cardiac/Critical Care Monitoring Telemetry Central Stations Clinical Information Systems
Radiology X-Ray MRI CAT Ultrasound PACS
Lab Laboratory Pathology Blood Bank Microbiology
Labor & Delivery Fetal Monitoring Surveillance OB Info Systems
Cardiology ECG Holter Stress Cath Lab Electrophysiology Echocardiography Nuclear CHF Clinic MI/Chest Pain Clinic Cardiac Rehab PACS
Ancillary Dietary Respiratory Therapy Dictation Home Health Speech Department Admin
Surgery Monitoring Anes Charting Tracking OR Info Systems Emergency Dept Monitoring ED Info Systems
Middleware Interface Engine, EDI, paging, dictation, email, ad hoc reporting, asset management,
⊡ Abb. 42.19. Geburtshilfe und Krankenhaus
42
706
Kapitel 42 · Fetales Monitoring: Kardiotokographie und Geburtenüberwachungssysteme
42.2.10
Kommunikation mit dem Krankenhausverwaltungsrechner
Die bidirektional Verbindung erlaubt hier die einfache Patientenaufnahme durch automatisiertes Einlesen von Personalien und ermöglicht die Meldung von Entlassungen und Verlegungen an den Krankenhausverwaltungsrechner.
42.2.11
IV
Export der Patientendaten zu anderen Krankenhaussystemen
Durch Datenexporte an ein Datenarchiv stehen Daten auch für andere Anwendungen zur Verfügung, z. B. für die krankenhausweite Patientenakte.
42.2.12
Laborrechneranbindung
Durch Datenimport von einem Laborrechner werden automatisch die Laborwerte in der Patientenakte dokumentiert.
42.2.13
Zugriff auf krankenhausinterne Rechnersysteme
Hier haben sich mehrere Verfahren herauskristallisiert: ▬ Der direkte Zugriff mittels einer Client-Applikation, die auf der geburtshilflichen Arbeitsstation installiert wurde; ▬ Der direkte Zugriff via Internet Explorer auf eine WEB basierende Applikation; ▬ Der indirekte Zugriff via WEB-basierenden Krankenhaus-Portalen. Eine visuelle Integration von geburtshilflicher Applikation und anderen Applikationen ist möglich, sofern die Applikationen ihren Kontext austauschen können. (Benutzerkontext und/oder Patientenkontext). Wechselt ein Benutzer innerhalb des Programms von einer Patientin zur nächsten, so erkennt dies das andere System und wechselt dann ebenfalls zur entsprechenden Patientin.
43 Neonatologisches Monitoring R. Hentschel
43.1 EKG
– 708
43.2 Impedanzpneumographie
– 709
43.3 Kombinierte kardiorespiratorische Analyse – 710 43.4 Pulsoxymetrie
– 710
43.8 Überwachung der Oxygenierung – welche Methode? – 714 43.9 Festlegung von Alarmgrenzen und Grenzwerten – 715 Weiterführende Literatur – 716
43.5 Transkutane Messung des Partialdrucks – 713 43.6 Messung des ptcCO2 (Transkapnode) – 713 43.7 Die Messung des ptcO2 (Transoxode) – 714
Kranke Neugeborene sind wegen ihrer im Vergleich zum Erwachsenen naturbedingten Hilflosigkeit auf sorgfältige Beobachtung angewiesen, wegen ihrer pathophysiologischen Besonderheiten unterscheidet sich das Monitoring z. T. erheblich von dem erwachsenener Patienten. Um dieses zu verstehen, ist es erforderlich, einige Besonderheiten der Neonatologie voranzustellen. Die wichtigsten Diagnosen neonatologischer Patienten sind: ▬ Frühgeburtlichkeit, ▬ Anpassungsstörungen von Atmung und Kreislaufsystem, ▬ Sepsis, ▬ angeborene Fehlbildungen, insbesondere des HerzKreislauf-Systems. Allen Neugeborenen gemeinsam ist eine Instabilität der Atmung und des Herz-Kreislauf-Systems. Je unreifer ein Frühgeborenes ist, desto eher bedarf es einer Beatmung oder Atemunterstützung wegen Lungenunreife (Surfactantmangel) oder ausgeprägter zentraler Atemregulationsstörungen. Als Folge von Atempausen (»zentrale Apnoen«), Verlegung der oberen Atemwege (»obstruktive Apnoen«) oder durch das typische Atemmuster des Frühgeborenen (»periodisches Atmen«) kommt es zum Abfall der O2-Sättigung mit nachfolgender Bradykardie. Die Untersättigung des Bluts tritt im Unterschied zum Erwachsenen extrem schnell ein, da die O2-Speicher, gemessen am O2-Bedarf, sehr gering sind. Bradykardien können andererseits auch durch Aktivierung von Vagusreflexen im Bereich des Rachens (Sekretansammlung)
spontan entstehen. Zentrale, obstruktive oder gemischte Apnoen sind ein zentrales Problem des Monitorings bei Frühgeborenen. Neugeborene weisen hinsichtlich ihrer Atmung zwei Besonderheiten auf: Sie sind obligate Nasenatmer, und sie atmen im Unterschied zum Erwachsenen überwiegend mit dem Zwerchfell. Da der Thorax des Frühgeborenen mechanisch sehr instabil ist, kommt es häufig zu einer »paradoxen« oder Schaukelatmung: Das Lungenvolumen, welches durch Tiefertreten des Zwerchfells in der Inspiration »gewonnen« wird, geht größtenteils durch Einwärtsbewegungen von Sternum und oberem Thorax wieder verloren. Vielfältige pathophysiologische Störungen, wie ▬ zerebrale Unreife, ▬ Hirnblutungen, ▬ Surfactantmangel, ▬ Infektionen, ▬ angeborene Stoffwechselstörungen, ▬ Elektrolytimbalancen, ▬ Krampfanfälle, ▬ Hypo- oder Hyperthermie, ▬ Hypoglykämien oder ▬ Anämie äußern sich in kardiorespiratorischen Störungen des Früh- und Neugeborenen. Aus dem Gesagten ist zu entnehmen, dass die folgenden Parameter im Zentrum des neonatologischen Monitorings stehen: ▬ 1-Kanal-EKG, ▬ Atmung,
708
Kapitel 43 · Neonatologisches Monitoring
▬ O2-Sättigung, ▬ transkutane Blutgaswerte, ▬ Blutdruck.
IV
Darüber hinaus spielt wegen der besonderen Thermolabilität von Früh- und Neugeborenen aber auch die Temperaturüberwachung eine große Rolle. Frühgeborene werden deshalb in Inkubatoren gepflegt. Frühgeborene sind hinsichtlich ihres O2-Status im Unterschied zum Erwachsenen besonders gefährdet. Eine toxische (zu hohe) inspiratorische O2-Konzentration kann, wie beim Erwachsenen, eine sterile Entzündungsreaktion der Lunge in Gang setzen und zu chronischen Lungenschäden führen. Darüber hinaus kann bei Frühgeborenen aber auch die gefürchtete Retinopathie der Netzhaut (eine Gefäßwucherung, die zur Erblindung führen kann) durch eine zu hohe inspiratorische O2-Konzentration mit nachfolgender Hyperoxie ausgelöst werden; diese Gefahr besteht bis zu dem Zeitpunkt, an dem ein Frühgeborenes seinen ursprünglich erwarteten Geburtstermin erreicht hat. Eine engmaschige Überwachung des O2-Status ist deshalb unumgänglich. Die inspiratorische O2-Konzentration wird bei beatmeten Patienten über das Beatmungsgerät eingestellt und auch überwacht. Auch bei Frühgeborenen, die spontan atmen oder an ein CPAP-Gerät angeschlossen sind, ist in jedem Falle ein O2-Überwachungsgerät anzubringen. Wird über eine Nasenbrille ein bestimmter Gasflow mit einer bestimmten O2-Konzentration gegeben, so erlaubt die Kenntnis dieser Größen nicht, die inspiratorische O2-Konzentration abzuschätzen, da das Kind »Nebenluft« atmen kann. Günstiger ist es, in dem »Mikroklima« des Inkubators eine bestimmte O2-Konzentration einzustellen und mit einem geeigneten Mess- und Alarmsystem zu überwachen. Wie beim Erwachsenen werden auch in der Neonatologie zumeist modulare Universalmonitoren eingesetzt, bei denen unterschiedliche Parameter mit jeweils einem eigenen Messmodul erfasst und an einem multichromen Mehrkanalmonitor sichtbar gemacht werden.
43.1
EKG
Das EKG registriert die elektrische Aktivität des Herzens in ihrer wechselnden Amplitude und wechselnden Richtung der elektrischen Hauptachse. Das 1-Kanal-EKG wird in herkömmlicher Weise, wie beim Erwachsenen, mittels EKG-Elektroden von den typischen Stellen am Brustkorb abgeleitet. Es empfiehlt sich gelegentlich eine Platzierung aller Elektroden am seitlichen Thorax, um bei den häufig durchzuführenden Röntgenbildern möglichst wenig Überdeckung der Lunge zu haben, sodass die Elektroden nicht zum Röntgen entfernt werden müssen. Elektroden können zu diesem Zweck auch auf Oberarme und Abdomen geklebt werden.
Da das 1-Kanal-EKG üblicherweise nicht der kardiologischen Diagnostik dient, sind Standardplatzierungen unnötig, die rote und gelbe Elektrode wird ansonsten in der elektrischen Herzachse angeordnet. Die Elektroden für Neugeborene sind kleiner als die des Erwachsenen, sie sind üblicherweise rückseitig mit einem Haftmittel beschichtet, das zugleich wie ein Kontaktgel den Übergangswiderstand herabsetzt. Bei Frühgeborenen ist auf Hautverträglichkeit des verwendeten Materials und auf Röntgentransparenz zu achten. Probleme treten bei reifen Neugeborenen kurz nach der Geburt besonders dann auf, wenn diese viel »Käseschmiere« besitzen; häufig ist es erst nach entfettenden Maßnahmen mit gut klebenden Elektroden möglich, eine EKG-Ableitung zu bekommen. Durch heftige (Atem-)bewegungen kommt es häufig zum »Verwackeln« des EKG; für die Registrierung der Herzfrequenz ist dies unkritisch, nicht jedoch für die gelegentlich erwünschte Registrierung von Rhythmusstörungen. Durch wechselseitiges Verschalten zwischen den 3 Brustwandelektroden ist es möglich, 3 unterschiedliche Ableitungen zu erhalten, vorausgesetzt, alle Elektroden haften gut. Die gewählte Verstärkung soll stets dazu führen, dass die Amplitude des kompletten EKG-Signals die gesamte Bandbreite des Monitorkanals ausfüllt; nur so lassen sich zuverlässig Störungen der normalen Erregungsausbreitung und ihrer Rückbildung (z. B. bei Hyperkaliämie) erkennen. Sicher lassen sich aus dem 1-Kanal-EKG aber nur folgende Diagnosen stellen: Bradykardie, Tachykardie, Asystolie, supraventrikuläre und ventrikuläre Extrasystolen, ektoper Rhythmus, Vorhof- und Kammerflattern oder flimmern. Automatische Auswertungen, wie Arrhythmiediagnostik, Vermessungen der EKG-Anteile u. Ä. sind in der Neonatologie nicht gebräuchlich. Die Positionierung der Elektroden ist, wie bereits erwähnt, hinsichtlich der Ableitung des EKG meist unkritisch, für die Ableitung der Thoraximpedanzkurve ist sie jedoch entscheidend und muss deshalb in dieser Hinsicht mit großer Sorgfalt ausgewählt werden (s. unten). Das 1-Kanal-EKG dient in erster Linie der Erkennung von Tachykardien und (häufiger) von Bradykardien. Zu diesem Zweck sind die Alarmgrenzen der Herzfrequenz entsprechend den Altersnormwerten einzustellen (⊡ Tab. 43.1). Die meisten Monitore bieten heute die Speicherregistrierung der Herzfrequenz und weiterer Parameter über wenigstens 24 h. Über einer unterschiedlich weit zu spreizenden Zeitachse lässt sich dann die Dauer einer Herzfrequenzabweichung exakt retrospektiv verfolgen. Wünschenswert ist darüber hinaus ein »Event-Recording«, das beim Auslösen eines herzfrequenzbezogenen Alarms eine Registrierung von 5–6 elektrischen Herzzyklen automatisch vornimmt, sodass eine spätere Analyse des Ereignisses in originalgetreuer Abbildung möglich ist. Leider stellen die meisten Monitore diese Ereignisse nur
43
709 43.2 · Impedanzpneumographie
⊡ Tab. 43.1. Normalwerte der Herzfrequenz (Mittelwert und einfache Standardabweichung). (Nach Stopfkuchen 1991)
⊡ Tab. 43.2. Normalwerte der Atemfrequenz (Mittelwert und einfache Standardabweichung). (Nach Stopfkuchen 1991)
Alter
Mittelwert+1SD (Schläge/min)
Alter
Mittelwert+1 SD (Schläge/min)
0–24 h
133
22
Frühgeborenes
50
10
1. Lebenswoche
119
16
Neugeborenes
40
10
31
8
2.–4. Woche
163
20
Säugling
1.–3. Monat
154
19
1.–4. Jahr
24
4
3.–6. Monat
140
21
5.–9. Jahr
20
2
6.–12. Monat
140
19
10.–14. Jahr
19
3
1.–3. Jahr
126
20
14.–16. Jahr
17
3
3.–5. Jahr
98
18
5.–8. Jahr
96
16
8.–12. Jahr
79
15
12.–16. Jahr
75
13
mit einer Kompression der Zeitachse dar, die eine genauere Rhythmusanalyse unmöglich macht. Wenigstens 20 Ereignisse sollten gespeichert werden können.
43.2
Impedanzpneumographie
Diese Methode erfasst Änderungen eines elektrischen Wechselstromwiderstands, der während eines Atemzyklus zwischen 2 Elektroden, wahrscheinlich durch Änderungen der Gefäßfüllung, auftritt. Durch die Anfälligkeit des Früh- und Neugeborenen für respiratorische Störungen gewinnt dieser Teil des Monitorings eine wesentliche Bedeutung in der Neonatologie. Die Methode kann über die vorhandenen EKG-Elektroden Atemfrequenz, Atemmuster, Amplitude und Atempausen sichtbar machen. Bei instabiler Atmung von Frühgeborenen sollte eine möglichst langsame Ableitegeschwindigkeit (z. B. 6 mm/ s) gewählt werden, da diese am ehesten Auskunft gibt über das Atemmuster (z. B. periodisches Atmen). Die Platzierung der Elektroden sollte im Bereich der größten Umfangsänderung während eines Atemzyklus erfolgen. Dieser liegt zwischen 2 Elektroden in der vorderen rechten und linken Axillarlinie im Bereich des Rippenbogens. Problematisch ist die große Variabilität des Atemmusters bei Früh- und Neugeborenen. Durch Unreife auf verschiedenen Ebenen der Atemregulation ist die Atmung nicht so autonom (»maschinenartig«) wie beim Erwachsenen. Es resultieren nicht nur ausgeprägte Atempausen, sondern auch Variationen der Amplitude und der Atemausgangslage. Die Registrierung und Verarbeitung der Thoraximpedanzkurve stellt deshalb erhebliche Anforderungen an die Software eines Monitors. Überwacht wird mittels altersangepasst einstellbarer Grenzen die Atemfrequenz (⊡ Tab. 43.2), die Häufigkeit
von Apnoen, gelegentlich auch die Dauer der einzelnen Apnoen. Unterschwellige Atempausen, die die gewählte Dauer einer definierten Apnoe nicht erreichen, können bei einigen Monitoren zu »Atemdefiziten« mittels einstellbarer Grenzwerte aufaddiert werden, um so periodisches Atmen erkennbar zu machen. Definitionsgemäß liegt eine Apnoe bei einem Atemstillstand von wenigstens 20 s Dauer vor. Es sollten aber auch andere Intervalle für die Überwachung frei gewählt werden können. Durch das im Vergleich zum Erwachsenen volumenmäßig stark überdimensionierte Herz (im Vergleich zum Thoraxvolumen) bilden sich Schwankungen der Herzgröße während eines normalen Herzzyklus bei entsprechender Verstärkung in der Impedanzpneumographie gelegentlich wie normale Atemzyklen ab. Dies gilt insbesondere bei der im Rahmen von kardialen Problemen (z. B. Ductus arteriosus) sehr häufig zu beobachtenden kardialen Hyperaktivität. In dieser Situation kann der Monitor u. U. die Herzaktion, die auch bei komplettem Sistieren der Atmung noch für eine Weile fortbesteht, fälschlicherweise für eine fortbestehende Atemtätigkeit halten. Durch Aktivierung eines Erkennungsmodus, der die registrierte Herzfrequenz mit der fälschlicherweise registrierten »Atemfrequenz« vergleicht, kann dieses Signalproblem erkannt werden, sodass Alarm ausgelöst wird. Zur Interpretation von kausalen Zusammenhängen ist es erforderlich, eine retrospektive Auswertung mit Bezug zu aktuellen Maßnahmen wie Nahrungssondierung, Versorgungszeiten oder Medikamentengaben zu bekommen. Nur dann ist es möglich, Aussagen über die mögliche Ätiologie einer Atemstörung zu machen. Die Registrierung eines kompletten Atemzyklus setzt einen Kurvenverlauf in jeweils gegengesetzte Richtungen (Inspiration und Exspiration) voraus, bei dem jeweils eine bestimmte Mindestamplitude, ausgehend von einem Minimal- bzw. Maximalwert, erreicht wurde. Die Amplitude kann entweder fest eingegeben werden, oder sie passt sich nach einem meist sehr komplizierten Algorithmus den wechselnden Atemtiefen an.
710
IV
Kapitel 43 · Neonatologisches Monitoring
Eine Verschiebung der Atemmittellage ist für die Erkennung eines Atemzuges meistens kein Problem. Dennoch wird gelegentlich fälschlicherweise eine Apnoe registriert. Moderne Monitoren sind in der Lage, die Größe der abgebildeten Amplitude und den Nulldurchgang innerhalb gewisser Grenzen so zu variieren bzw. automatisch anzupassen, dass eine einigermaßen realistische Abbildung des Atemmusters und damit eine optische Registrierung von Apnoen möglich wird. Nach jeder Änderung der Position von Elektroden, aber auch nach dem Umlagern des Patienten, muss die Monitoreinstellung für die Impedanzpneumographie neu justiert werden (Einstellung der Atemtiefe und der Amplitudengröße oder Anwahl der automatischen Einstellfunktion). Für die ungestörte Überwachung der Atmung werden die Elektroden üblicherweise bei Säuglingen sehr stark seitlich und tief (bezogen auf das gesamte Projektionsfeld Thorax–Abdomen) angebracht. Auch in dieser Position sollte eine ungestörte Ableitung des 1-Kanal-EKG möglich sein. Wünschenswert ist die Möglichkeit, in zwei übereinander liegenden Kanälen die thorakale und die abdominelle Impedanzpneumographie auf der Zeitachse zu registrieren. Idealerweise liegen die Amplitudenmaxima bei gleicher Ausrichtung der Ableitung exakt übereinander. Jede Phasenverschiebung zwischen beiden Ableitungen bedeutet eine Verminderung der Atemökonomie, im Extremfall liegt bei einer gegensätzlichen Auslenkung eine »paradoxe Atmung« mit völlig ineffektiver Atemarbeit vor (»thorakoabdominale Asynchronie«). Dieses teilweise zyklisch auftretende Phänomen findet sich bei bestimmten chronischen Lungenerkrankungen des Frühgeborenen (»bronchopulmonale Dysplasie«). Da es durch verschiedene Maßnahmen (Medikamente, Inhalationen, Blähmanöver, CPAP) u. U. gebessert werden kann, ist diese diagnostische Möglichkeit von großer Bedeutung. Leider ist diese Diagnostik mit Standardmonitoren bisher nicht möglich, es gibt jedoch spezielle Geräte, die zusätzlich zur Darstellung des Phänomens auch noch den Winkel der Phasenverschiebung exakt berechnen können.
43.3
Kombinierte kardiorespiratorische Analyse
Für die Erkennung der Ätiologie einer kardiorespiratorischen Störung des Frühgeborenen ist es wichtig, die genaue zeitliche Reihenfolge von Atmung (Atemmuster), Herzfrequenz und Sättigungsverlauf retrospektiv analysieren zu können. Nur dann ist es möglich, zu unterscheiden, ob eine primäre O2-Untersättigung zu einer Apnoe und dann zu einer Bradykardie geführt hat, ob eine primäre Reflexbradykardie zu einer Untersättigung mit nachfolgender Apnoe geführt hat, oder ob eine
primäre Apnoe eine Untersättigung mit anschließender Bradykardie ausglöst hat (⊡ Abb. 43.1). Zusätzlich wäre es wünschenswert, neben der retrospektiven Anlyse der O2-Sättigung auch die Kurvendarstellung zu sehen. Für einen derart großen Datenumfang sind die vorhandenen Speicherkapazitäten von Standardmonitoren leider zumeist nicht ausreichend. Die kardiorespiratorische Überwachunng oder Analyse hat ihre Bedeutung insbesondere im Bereich des Heimmonitorings von Säuglingen, die ein Risiko für den plötzlichen Kindstod (»SIDS«) aufweisen. Dieses sind insbesondere Geschwisterkinder von Säuglingen, die einen plötzlichen Kindstod erlitten haben, Kinder mit schweren neurologischen Störungen und Säuglinge, die fortwährende Atemstörungen aufweisen. Die alleinige Überwachung der Atmung geschieht z. B. mit einem mechanischen Applanationssensor (Graseby-Kapsel). Dieser Sensor registriert Druckänderungen innerhalb eines geschlossenen luftgefüllten Systems, wenn durch eine Atembewegung ein konvex gewölbter Ballon, der im Bereich des Abdomens auf die Haut geklebt wird, leicht komprimiert wird. Da er frustrane Atembewegungen und auch eine finale Schnappatmung mit begleitender Bradykardie nicht von einer effektiven Atmung unterscheiden kann, ist eine alleinige Überwachung des Säuglings nach dieser Methode heute nicht mehr der gültige Standard. Vielmehr ist eine Überwachung von Herzfrequenz und Atmung erforderlich. Dies geschieht üblicherweise mit der Impedanzpneumographie in Kombination mit einem 1-Kanal-EKG. Bei Sauerstoffbedarf ist eine zusätzliche pulsoxymetrische Überwachung erforderlich. Die meisten SIDS-Monitore haben die Möglichkeit, Alarmsequenzen und Trendkurven der überwachten Parameter aufzuzeichnen und mit einer speziellen Auswertesoftware offline auszuwerten.
43.4
Pulsoxymetrie
Die Pulsoxymetrie hat sich als kontinuierliches, nichtinvasives indirektes Messverfahren zur Standardmethode der Überwachung des O2-Status entwickelt. Es handelt sich um ein transmissionsphotometrisches Verfahren, bei dem nach dem Lambert-Beer-Gesetz die Konzentration von oxygeniertem und desoxygeniertem Hämoglobin gemessen wird. Diese beiden Hämoglobinformen weisen unterschiedliche spektrale Eigenschaften auf. 2 Leuchtdioden leiten im Bereich der Extinktionsmaxima beider Substanzen (sichtbarer Bereich ca. 660 nm und Infrarotbereich ca. 940 nm) Licht durch ein peripheres Körperteil, an der gegenüberliegenden Austrittsstelle befindet sich eine Photodiode. Aus der Schwächung beider Lichtstrahlen wird der prozentuale Anteil des gesättigten Hämoglobins errechnet.
711 43.4 · Pulsoxymetrie
⊡ Abb. 43.1. Impedanzpneumotachografie. Nasen-Flow, Abdomenbewegung, Herzfrequenz, Sauerstoffsättigung (von oben nach unten). Ausgeprägte, langdauernde, obstruktive Apnoe mit einem Fehlen des
Entscheidend ist dabei, dass das Messsystem eine Pulswelle registriert und damit nur den pulsatilen Anteil des Messsignals auswertet. Erkannt wird der pulsatile Anteil durch eine Verlängerung der Strecke, die die Lichtstrahlen in der arteriellen Füllungsphase im Gewebe zurücklegen. Ist keine Pulswelle erkennbar, zeigt das Gerät keine zuverlässigen Werte an; die Registrierung der Pulskurve (Plethysmogramm) ist deshalb elementarer Bestandteil jeder Pulsoxymetrie, wobei der Darstellung einer echten Pulskurve auf einer Zeitachse (x-Achse) der Vorzug zu geben ist gegenüber einem einfachen Leuchtdiodendisplay mit ansteigenden und abfallenden »Stufenwerten«. Aus der Pulskurve wird i. d. R. auch eine Pulsfrequenz errechnet. Die Pulskurve eignet sich auch als diagnostisches Mittel, um die Qualität der peripheren Pulswelle, z. B. bei einer Reanimation, darzustellen. In der Neonatologie werden keine Clipsensoren, sondern ausschließlich Klebesensoren oder weiche Kunststoffsensoren verwendet, die locker um die bevorzugten Ableitestellen gelegt und mit einem Klettbändchen fixiert werden (⊡ Abb. 43.2). Bevorzugte Lokalisationen sind: Handwurzel, Vorfuß, Arm und Bein.
Nasen-Flows bei guter Eigenatmung. Beachte die artefakt-bedingten Sättigungsabfälle!
⊡ Abb. 43.2. Pulsoxymetrie beim Frühgeborenen
Bei schlechter peripherer Mikrozirkulation (z. B. auch im Rahmen von Katecholamingaben) ist die Anbringung des Sensors schwierig; häufig wird keine Pulswelle registriert, da allein der leichte Druck des Sensors auf der Haut und dem darunter liegenden Gewebe ausreicht, um die Durchblutung in diesem Messbereich zu stoppen. Erkennbar wird dies durch eine unphysiologische
43
712
IV
Kapitel 43 · Neonatologisches Monitoring
Plethysmographiekurve oder eine Diskrepanz zwischen gemessener Pulsfrequenz und der Herzfrequenz anhand der EKG-Ableitung. Auch in ödematösem Gewebe ist eine zuverlässige Messung häufig nicht möglich. Um Drucknekrosen zu vermeiden, sind bei sehr kleinen Frühgeborenen die Ableitestellen u. U. sogar in Abständen von 3–4 h zu wechseln. Durch die Sensoren kann es zu Verbrennungen der Haut kommen, und zwar dann, wenn die Oberfläche beschädigt ist oder wenn Sensor und Gerät nicht optimal aufeinander abgestimmt sind. Im Fall von einfallendem Streulicht werden fälschlicherweise meist zu niedrige Sättigungswerte angezeigt. Allerdings kann u. U. auch bei einem vollständigen Verlust des Hautkontakts ein normaler Sättigungswert angezeigt werden. Hier fehlt dann allerdings die Registrierung einer Pulskurve. Liegen beide Dioden nicht exakt der Haut an, kann es gleichfalls zu falsch-hohen oder falschniedrigen Sättigungswerten kommen. Bei Blutdruckwerten unter 30 mmHg arbeiten manche Geräte nicht mehr zuverlässig. Leider zeigen die meisten Pulsoxymetriegeräte trotz einer erkennbaren Störung der Ableitung durch Bewegungsartefakte o. Ä. im Display Messwerte an. Es muss gefordert werden, dass alle Pulsoxymetriewerte, die nicht aus einer artefaktfreien Ableitung stammen, vom Gerät unterdrückt werden und jedenfalls nicht als numerischer Wert angezeigt werden. Alle Geräte errechnen Durchschnittswerte aus einer bestimmten, z. T. wählbaren Anzahl von Herzaktionen, oder sie mitteln über einen bestimmten Zeitraum. Je länger die Dauer der Mittelung, desto träger reagiert das Gerät auf akute Änderungen, desto niedriger ist aber auch die Rate von (falschen) Alarmen. Es gibt Verbesserungen der Software, die es gestatten, Bewegungsartefakte besser zu erkennen und für die rechnerische Analyse auszuschalten. Diese Geräte filtern die durch Bewegungsartefakte entstehenden venösen Pulswellen aus der Analyse heraus. Zeigt das Pulsoxymeter keine Pulskurve an oder sind die Werte unzuverlässig, so ist zunächst auszuschließen, dass Streulicht (insbesondere von Wärmelampen) in den Sensor einstrahlt. Als nächster Schritt sollte versuchsweise die Fixierung gelockert werden. Löst auch dies das Problem nicht, sollte eine andere Ableitestelle gewählt werden, bei der weniger Gewebe durchstrahlt wird. Auch pulsoxymetrische Werte müssen, wegen der aufgezeigten Fehlerquellen, regelmäßig mit arteriellen oder hyperämisierten kapillären Blutgasen gegenkontrolliert werden. Dabei sollten Abnahmestelle der Blutprobe und Ableitung der Pulsoxymetrie identisch in Bezug auf die Lagebeziehung zum Ductus sein (s. unten). Die Kennlinie der Messtechnik ist nicht linear: Im Bereich unter 75% zeigt der Sensor unzuverlässige Werte an, im oberen Bereich ist die Aussagekraft des gemessenen Wertes durch den physiologischerweise flachen Verlauf eingeschränkt. Die Geräte berücksichtigen zumeist pau-
schale Durchschnittswerte von Hämoglobinmolekülen, die nicht als Sauerstoffträger dienen (COHb und MetHb), deren Anteil liegt jedoch zusammengenommen meist unter 3%. Durch kooxymetrische Bestimmung in modernen Blutgasanalysesystemen kann deren Anteil exakt bestimmt werden. Erhöhte COHb- und MetHb-Werte können zu fehlerhaften pulsoxymetrischen Messwerten führen. Der MetHb-Wert kann unter der Anwendung von NO-Gas ansteigen. Bedingt durch die asymptotische Beziehung zwischen O2-Partialdruck und zugehöriger Sättigung eignet sich die Pulsoxymetrie zur Überwachung von Frühgeborenen nur bedingt: Eine Hyperoxie kann nicht sicher erkannt werden, während ein O2-Abfall recht gut registriert wird. Da bei Frühgeborenen eine Hyperoxie unbedingt vermieden werden muss, ist die Pulsoxymetrie keine geeignete Methode zur Überwachung von Frühgeborenen mit O2Bedarf. Bei Frühgeborenen ohne zusätzlichen O2-Bedarf (Raumluft) ist die Pulsoxymetrie zur Registrierung von Sättigungsabfällen eine gute Methode, der obere Grenzwert kann nämlich in dieser Situation auf 100% eingestellt werden, da unter Raumluft eine Hyperoxie praktisch ausgeschlossen, in jedem Fall aber auch gar nicht verhindert werden kann. Einen guten Kompromiss als einfaches Überwachungsgerät bietet die Pulsoxymetrie insofern, als mit einem einzigen Kabel und dem zugehörigen Sensor sowohl die Herzfrequenz als auch die Sättigung als zentrale kardiorespiratorische Größen erfasst werden können, sodass das Anbringen von EKG-Kabeln entfallen kann. Dies ist insbesondere bei sehr unreifen Frühgeborenen von Vorteil, wenn deren sehr empfindliche Haut das Anbringen von EKG-Klebeelektroden nicht toleriert. Allerdings ist die Pulsregistrierung wegen der Anfälligkeit für Bewegungsartefakte nicht sehr zuverlässig. Wesentliche Bedeutung hat die Pulsoxymetrie auch in der Erkennung von pathophysiologischen Durchblutungsstörungen, bei denen obere und untere Körperhälfte unterschiedlich gesättigtes Blut erhalten. Bei seltenen komplexen Herzfehlern kann die untere Körperhälfte besser oxygeniert sein als die obere, häufiger ist jedoch die gegenteilige Situation: Bei der Persistenz fetaler Zirkulationsverhältnisse (»PFC-Syndrom«) wird durch einen hohen Druck im Lungenkreislauf nichtoxygeniertes Blut aus der Pulmonalarterie über den Ductus arteriosus in die untere Körperhälfte geleitet und führt so zu einer Untersättigung in diesem Bereich, wohingegen die obere Körperhälfte über den Aortenanteil vor der Einmündung des Ductus mit sauerstoffreichem Blut versorgt wird. Diese häufig stark wechselnde pathophysiologische Situation ist von großer Bedeutung und wird deshalb mit Hilfe von jeweils einem Pulsoxymetriesensor an der rechten Hand und an einem Fuß überwacht. Leider bieten die meisten Universalmonitore nicht die Möglichkeit der Registrierung von zwei Pulsoxymetriewerten.
713 43.6 · Messung des ptcCO2 (Transkapnode)
⊡ Tab. 43.3. Empfohlene Grenzwerte für die Überwachung des Sauerstoffstatus in der Neonatologie Parameter
Empfohlene Grenzwerte
Pulsoxymetrie Frühgeborene
83–93%
Kranke Neugeborene
92–98%
Transoxode Frühgeborene
45–65 mmHg
Kranke Neugeborene
65–90 mmHg
Die Standardisierung von Pulsoxymetriegeräten ist sehr schwierig, sie variiert von Hersteller zu Hersteller und von Gerät zu Gerät. Auch der Rechenalgorithmus variiert zwischen verschiedenen Herstellern, je nachdem, ob die fraktionelle oder die funktionelle O2-Sättigung angegeben wird. Für die gängigsten Geräte gibt es jedoch inzwischen in der wissenschaftlichen Literatur gute Daten zur Korrelation von O2-Sättigungen und O2-Partialdrücken. Empfohlene Alarmgrenzen für die Überwachung von Früh- und Neugeborenen sind in ⊡ Tab. 43.3 wiedergegeben.
43.5
Transkutane Messung des Partialdrucks
Die Methode der transkutanen Partialdruckmessung für Kohlendioxid (ptcCO2) und Sauerstoff (ptcO2) ist eine Besonderheit der Pädiatrie, da die größere Hautdicke des Erwachsenen eine korrekte Messung meist verhindert. Unter der lokalen Hyperthermie der Messsonde kommt es zu einer Arterialisierung der Messstelle. Die Blutgase, die unter diesen Bedingungen mit den Partialdruckwerten im peripheren Gewebe in einem Äquilibrium stehen, können so nichtinvasiv überwacht werden. Allerdings müssen die Werte regelmäßig mit (bevorzugt arteriellen) Blutproben kalibriert werden. Beide Gase (ptcCO2 und ptcO2) werden häufig in einer Kombielektrode zusammen gemessen. Um Verbrennungen der Haut auszuschließen, überwachen die Monitore die Dauer der Sensorapplikation an einer Messstelle, fordern zum Wechsel des Applikationsortes und zur Neukalibrierung auf und schalten u. U. sogar die Heizung des Sensors bei Überschreiten einer bestimmten Zeitspanne automatisch ab. Die für eine konstante Sensortemperatur benötigte Heizleistung wird meistens angezeigt, ihr Verlauf gibt wertvolle Hinweise auf eine Zentralisierung des Kreislaufs, vorausgesetzt, die Umgebungstemperatur wird konstant gehalten.
⊡ Abb. 43.3. Transkutane Messsonde für ptcO2/ ptcCO2 beim Frühgeborenen
Bei einem starken Anstieg der Heizleistung sollte die Applikationsstelle besonders engmaschig auf Zeichen eines thermischen Schadens überprüft werden. Bei einer Heiztemperatur von 43°C muss z. B. bei sehr kleinen Frühgeborenen in 2–3-stündlichem Abstand die Platzierung der Sonde gewechselt werden. Durch die lokale Überwärmung kommt es zu einer Verschiebung der Hämoglobinbindungskurve, aus der eine Erhöhung sowohl des ptcO2 als auch des ptcCO2 resultiert. Dem wirkt der O2-Verbrauch im diffundierten Gewebe rechnerisch entgegen, sodass es zu einer realistischen O2-Messung kommt, die nahe den arteriellen Werten liegt. Durch die Produktion von CO2 im erwärmten Gewebe liegen die ptcCO2-Werte jedoch meist zu hoch. Diese Effekte können durch eine In-vivo-Korrektur rechnerisch kompensiert werden. Bei stark schwankender Heizleistung müssen engmaschig arterielle Blutgaswerte zur Überprüfung der angezeigten Messwerte abgenommen werden. Die Sensoren werden mit Kleberingen und einem Tropfen Kontaktlösung unter Vermeidung von Lufteinschluss auf die Haut geklebt (⊡ Abb. 43.3). In etwa wöchentlichen Abständen sind die Sensoren mit einer neuen Membran zu bespannen. Eine Kalibrierung sollte wenigstens einmal pro Tag erfolgen.
43.6
Messung des ptcCO2 (Transkapnode)
Mit dem auf die Haut aufgeklebten Sensor wird eine lokale Hauttemperatur von 43°C erzeugt. CO2 diffundiert dann aus der Haut, in der es die gleiche Konzentration aufweist wie in der kapillären Endstrombahn des Blutes, über eine Membran mit hydrophoben Eigenschaften (Silikon oder Teflon) in eine Elektrolytlösung. Dort werden aus den CO2-Molekülen H+-Ionen, die den pH-Wert verändern. Diese Änderung wird von einer pH-Elektrode registriert
43
714
IV
Kapitel 43 · Neonatologisches Monitoring
und mit einer Referenzelektrode verglichen, das Spannungspotential ist dem pCO2 proportional. Als Fehlerquelle gilt das in der Haut selbst gebildete CO2, das von metabolischen Prozessen abhängig ist. Da die Partialdruckdifferenz zwischen arteriellem und gemischt-venösem Blut sehr viel kleiner ist und CO2 wegen des unterschiedlichen Löslichkeitskoeffizienten besser diffundiert als O2, ist der Grad der (arteriellen) Gewebeperfusion weniger kritisch als bei der Messung des ptcO2 (Transoxode). Aus den genannten Gründen liegt der ptcCO2 häufig über dem arteriellen pCO2. Eine 2-PunktKalibrierung erfolgt in festgelegten Abständen mit einem speziellen Eichgas, das CO2-Konzentrationen von 5 und 10% liefert. Die Transkapnode ist weniger abhängig von Messort, Blutdruck, pH-Wert, Körpertemperatur und Hämatokrit, eine Sondentemperatur von 42°C ist oft ausreichend. Die Responsezeit ist mit 30–50 s länger als die von Transoxoden.
43.7
Die Messung des ptcO2 (Transoxode)
Die Zuverlässigkeit der Methode ist abhängig von der Hautdicke, dem Messort und der peripheren Durchblutung an dieser Stelle. Beeinflusst wird sie außerdem durch die gewählte Sondentemperatur und die Fixierung der Sonde. Sie ist darüber hinaus aber auch bei pH-Werten von 7,0 und tiefer sowie bei starker Anämie (Hämatokrit Publikationen) Schaller K, Wodraschke G (Hrsg) (1969) Information und Kommunikation. Ein Repetitorium zur Unterrichtslehre und Lerntheorie. Leibnitz-Verlag, Hamburg Schulmeister R (2003) Lernplattformen für das virtuelle Lernen. R. Oldenbourg Verlag, München Schulz S, et al. Qualitätskriterien für Elektronische Publikationen in der Medizin. Informatik, Biometrie und Epidemiologie in Medizin und Biologie 31(4): 153–66. (s. auch: www.imbi.uni-freiburg. de/medinf/gmdsqc/)
49
50 PACS/RIS K. Eichhorn, D. Sunderbrink
50.1 Einleitung
– 815
50.2 Radiologischer Workflow 50.2.1 50.2.2 50.2.3 50.2.4 50.2.5 50.2.6 50.2.7
50.4 IT-Infrastruktur – 816
Anforderung – 816 Anmeldung – 816 Untersuchung – 816 Bildbearbeitung – 817 Befundung – 817 Klinische Demonstration – 819 Befundverteilung – 819
– 820
50.5 Erfolgreiche Projektdurchführung durch professionelles Projektmanagement – 821 50.6 Zusammenfassung
– 822
50.3 Integration eines PACS/RIS in eine Krankenhausumgebung – 819
50.1
Einleitung
Die Digitalisierung der bildgebenden Verfahren in der Radiologie ist durchgängig für alle radiologischen Diagnoseverfahren erfolgt und die Befundung am Monitor akzeptiert. Durch die gleichzeitige Etablierung einheitlicher und robuster Kommunikationsstandards wie DICOM (Digital Imaging and Communication in Medicine) sind die Voraussetzungen für die Einführung von PACS/RISSystemen auf breiter Basis erfüllt. Es stellt sich längst nicht mehr die Frage, ob ein PACS/RIS eingeführt werden soll, sondern auf welche Art und Weise. Konzipiert wurde PACS vor mehr als 20 Jahren als Picture Archiving and Communication System und ermöglichte die Bildkommunikation zwischen einzelnen Komponenten wie Archivsystem, Befundungsworkstation, Nachverarbeitungsworkstation und den Arbeitsplätzen der Bildverteilung. Eine typische PACS/RIS-Konfiguration zeigt ⊡ Abb. 50.1. Heute integrieren die meisten PACS-Lösungen das Radiologische Informationssystem (RIS) als Workflowkomponente in ihr PACS-System oder ermöglichen eine effiziente Integration des RIS durch Kommunikationsserver. Zukünftig ist durch die rasante Entwicklung der Datenmengen bildgebender Systeme eine Integration von 3D-Nachverarbeitungsprogrammen bis hin zur Computer Aided Diagnosis (CAD) in den radiologischen Arbeitsplatz für eine optimale und effiziente Befundung erforderlich. Die nächste technische Herausforderung ist die optimale Unterstützung des klinischen Workflows über die Grenzen der Radiologie hinaus. Um diesen Anspruch zu
erfüllen, muss eine Integration des PACS in andere medizinische Informationssysteme erfolgen. Hierzu gibt es Kommunikationsstandards wie HL-7 (health level seven), der die Übertragung der Patienteninformationen zwischen Informationssystemen vereinheitlicht. Die Etablierung von Kommunikationsstandards ist für eine Optimierung des klinischen Workflows noch nicht ausreichend. Die Radiological Society of North America ( RSNA) hat die Initiative IHE (Integrating the Health Enterprise) ins Leben gerufen, die das Ziel hat, Profile (standardisierte Workflow-Szenarien) zu definieren und in der Kombination mit Komponenten unterschiedlicher Hersteller zu validieren. PACS hat längst die Grenzen der Radiologie überschritten und wächst zu einer Anwendung für das gesamte Krankenhaus. Andere klinische Abteilungen wie Kardiologie und Pathologie, wollen die Vorteile eines digitalen Bilddatenmanagements nutzen und ihre Bilddaten im PACS Archiv speichern und ähnliche Workflows realisieren. Zur Optimierung des Heilungsprozesses des Patienten besteht ein großes Potential durch die Routineanwendung computerunterstützter Verfahren für die Therapieplanung z. B. der Onkologie oder der computerunterstützten Chirurgie (CAS, Computer Aided Surgery), die digitale Bilddaten aus dem PACS als Planungsgrundlage benötigen. Innovationen der bildgebenden Verfahren und die explosionsartige Entwicklung der Bilddaten erfordern die geeignete Unterstützung der radiologischen Diagnostik durch Informationstechnologie-Systeme wie PACS und RIS. Vor diesem Hintergrund soll dem Leser bezogen auf die einzelnen Workflowschritte eine Orientierung für die film- und papierlose Radiologie gegeben werden.
816
Kapitel 50 · PACS/RIS
V
⊡ Abb. 50.1. Typische PACS/RIS-Konfiguration
50.2
Radiologischer Workflow
Ziel der Einführung von IT-Systemen ist die Optimierung des Arbeitsablaufes. Das kann nur durch das perfekte Zusammenspiel der einzelnen Komponenten erreicht werden. Anhand eines typischen Arbeitsablaufes (⊡ Abb. 50.2) sollen die Funktionsweisen der einzelnen Arbeitsplätze erklärt werden.
50.2.1 Anforderung
Der überweisende Arzt entscheidet, ob für die weitere Behandlung eine radiologische Untersuchung durchgeführt werden soll und fordert diese in der Radiologie an. Damit der Radiologe diese Anforderung bedienen kann, benötigt er Informationen über die klinische Fragestellung sowie weitere Informationen über z. B. Kontrastmittelallergien, Laborwerte, etc. Idealerweise übernimmt der behandelnde Arzt die Patienten-Stammdaten aus einem Krankenhaus-Informationssystem, ergänzt die Daten mit seiner Fragestellung und sendet diese Anforderung elektronisch an die Radiologie. Abhängig von den Zugriffsrechten des RIS kann direkt vom Arbeitsplatz des überweisenden Arztes eine Terminvereinbarung getroffen werden, wenn das RIS diesen direkten Zugriff auf den Terminplaner erlaubt. Nachdem im RIS die Patientendaten übernommen und der Termin in eine Arbeitsliste eingetragen wurde, erhält der überweisende Arzt eine Bestätigung.
Je nach Integrationstiefe kann der Arzt den aktuellen Status des Patienten in der Radiologie an seinem Arbeitsplatz verfolgen. Er kann erkennen, ob der Patient in der Radiologie angekommen ist, die Untersuchung begonnen hat oder Bild und/oder Befund schon verfügbar sind.
50.2.2 Anmeldung
In der Radiologie wird die Anforderung vom überweisenden Arzt in das eigentliche RIS übernommen. Die Anforderungen werden den einzelnen Untersuchungsplätzen zugeordnet und die Untersuchung in den Terminplan des bildgebenden Systems eingetragen. Hierzu erzeugt das RIS eine DICOM-Worklist, die von der Modalität beim RIS abgerufen wird. RIS-Systeme können so konfiguriert werden, dass automatisch vorhandene Voraufnahmen dieses Patienten aus dem Langzeitarchiv dearchiviert werden, sodass sie für die Befundung im schnellen Zugriffsspeicher verfügbar sind.
50.2.3 Untersuchung
An der Modalität wird die DICOM-Worklist vom RIS abgerufen und in die lokale Arbeitsliste des bildgebenden Systems übertragen. Hier wird der Patient ausgewählt und die Untersuchung gestartet. Durch die elektronische Übertragung ist die Konsistenz der Patientendaten gewährleistet.
817 50.2 · Radiologischer Workflow
Anforderung
Anmeldung Anmeldung Terminplanung Terminplanung
Untersuchung Untersuchung
Bearbeitung
Befundung Befundung
Demonstration
BefundBefundverteilung verteilung
⊡ Abb. 50.2. Generischer Workflow in der Radiologie
Die Informationen der Untersuchung wie Art, Startzeit, Dauer und weitere Informationen werden von der Modalität registriert und im DICOM-Format MPPS (Modality Performed Precedure Step) an das RIS zurückgesendet. Die MPPS-Informationen werden an das PACS übertragen, und die Modalität sendet die aufgenommenen Bildserien zur Archivierung an das PACS. Das Senden der Bilder zum PACS erfolgt vorwiegend im standardisierten DICOM-Format, das für den Datenaustausch von Modalitäten und radiologischen Informationssystemen konzipiert wurde. DICOM enthält Patienteninformationen und beschreibt in der aktuellen Version 3.0. nicht nur die Bildformate, sondern auch Übertragungsprotokolle und regelt Sicherheitsbelange. Folgende Services werden unterstützt: ▬ Archivierung und Übertragung von Bildern über Netzwerke (DICOM Standard Teil 7 und 8), ▬ Archivierung und Austausch von Bildern über Wechseldatenträger (DICOM Standard Teil 10), ▬ Suchfunktionen (DICOM Query), ▬ Druckfunktionen (DICOM Print), ▬ Workflowfunktionen (DICOM Modality Worklist, Modality performed procedure step), ▬ Komprimierung von Bilddaten (DICOM Standard Teil 5, z. B. JPEG, JPEG2000, RLE). Für die meisten medizinischen Geräte existieren DICOM Conformance Statements. Diese Dokumente beschreiben die unterstützten DICOM-Services. Theoretisch könnte man damit feststellen, ob die Geräte miteinander kommunizieren können, in der Praxis sind meist Anpassungen notwendig. Am Ende der Untersuchung gibt die MTRA am RISArbeitsplatz zusätzlich ein, welche radiologischen Leistungen durchgeführt wurden, die RöV-Werte und ggf. welche Kontrastmittel und Katheder verbraucht wurden. Diese Informationen sind insbesondere für die medizinische Dokumentation und die Abrechnung relevant.
50.2.4 Bildbearbeitung
Die von den Modalitäten gesendeten Datensätze können zur optimalen Darstellung an einer Workstation nachbearbeitet werden.
⊡ Tab. 50.1. Methoden der Bildbearbeitung Methode
Bildeindruck
Modifikation der Grauwerte
Bildkontrast Bildhelligkeit
Geometrische Transformation
Verschiebung (Translation) Bilddrehung (Rotation) Bildvergrößerung (Skalierung)
Faltung und Filterung
Kantenanhebung Glättung (Smoothing)
Um den Bildeindruck zu optimieren, werden verschiedene Methoden und Algorithmen auf die Bildpunkte angewendet (⊡ Tab. 50.1). Die oben beschriebenen Methoden werden vorwiegend für 2D-schwarz-weiß-Bilder angewendet. Für große Datensätze von MR- und CT-Systemen ist eine 3D-Bildbearbeitung notwendig und es werden ggf. zusätzliche 3D-Objekte generiert.
50.2.5 Befundung
Am Arbeitsplatz des Radiologen werden im RIS- oder PACS-System Arbeitslisten für bestimmte Aufgaben erstellt. Aus der Befundungsarbeitsliste wählt der Radiologe den Patienten aus. Dadurch werden aus dem PACS automatisch die aktuellen Bildserien und ggf. Voraufnahmen vom zentralen Archivserver auf den Arbeitsplatzrechner geladen und auf den Befundungsmonitoren frei konfigurierbar dargestellt.
Bilddarstellung Röntgen und Schichtaufnahmen Zur optimalen Darstellung von insbesondere schwarzweißen 2D-Schichtaufnahmen auf den Befundungsmonitoren wird die Fenstertechnik angewendet. Der Informationsgehalt von 4096 Graustufen wird auf die am Monitor darstellbaren Graustufen, z. B. 256 Graustufen, reduziert. Die Fenstertechnik definiert das abzubildende Signalintervall des Originalbildes und ermöglicht dadurch die zur Diagnose bestmögliche Bildqualität für die radiologische Fragestellung.
50
818
Kapitel 50 · PACS/RIS
Bilddarstellung von großen Serien
V
Die ersten PACS-Arbeitsplätze waren primär für die Arbeit mit konventionellen Röntgenbildern entwickelt worden. Die Weiterentwicklung der Bildverarbeitungssoftware, der Einsatz von Standard-HW mit hoher Performance und von verschiedenen Monitortypen (S/W, Farbe, hohe und mittlere Auflösung) erlauben nun sehr flexible Arbeitsplätze mit spezifischen Features für andere Modalitäten wie CT, MR, Ultraschall, Nuklearmedizin. Durch den enormen Zuwachs an Bildern, besonders im Schnittbildbereich, mussten neue Bildbetrachtungstools und Layouts entwickelt werden. Das Blättern durch Schichten und der »Cine Mode« reichten nicht mehr aus. Schichten können heute durch verschiedene Operationen mit ihren nachfolgenden Schichten kombiniert werden (»slice thickening«) und interaktive MPR-Tools (multiplanar reformat) erlauben die direkte Darstellung anderer Schichtebenen aus einem 3D-Datensatz. Für sehr große Datensätze z. B von Mehrzeilen CTSystemen ist die Befundung allein anhand von Schichten zeitlich nicht mehr möglich. Aus dieser Problemantik heraus hat die Society for Computer Applications in Radiology (SCAR) eine Initiative in Leben gerufen, die neue Methoden zur Befundung von großen Datensätzen erarbeiten soll. Die Initiative wird TRIP (Transforming the Radiological Interpretation Process) genannt und bearbeitet folgende Fragestellungen: 1. Verbesserung der Effizienz der Interpretation von großen Datensätzen, 2. Verbesserung der Kommunikation hinsichtlich Zeit und Effizienz, 3. Reduzierung von medizinischen Fehlern. Die computergestützte Interpretation großer Datensätze und die Art, wie den Radiologen in Zukunft diese Informationen am Bildschirm dargestellt werden, revolutioniert die Radiologie ähnlich wie 1895 der Blick Röntgens in den Körper des Menschen. Werden aus 2D-Bildstapel Volumen- oder 3D-Datensätze berechnet, so werden Zugriffe auf den dreidimensionalen Inhalt der Datensätze möglich. Techniken wie MIP (maximum intensity projection), Oberflächen- und Volumen-Rekonstruktionen stehen dann zur Verfügung. Neben der besseren optischen Orientierung stehen die Bezugslinien zu den Originalschichten zur Verfügung und erleichtern dadurch die Diagnose. An jedem radiologischen Arbeitsplatz muss daher die Nachverarbeitung von großen Bildserien mit 3D-Nachverarbeitungsmethoden zur optimalen Bilddarstellung möglich sein (⊡ Tab. 50.2).
Bildauswertung Um aus den Bilddaten objektive und reproduzierbare Messungen zur quantitativen Analyse von Gewebestruk-
⊡ Tab. 50.2. 3D-Nachbearbeitungsmethoden Methode
Anwendungen
MIP (Maximum Intensity Projection)
Gefäßdarstellung
MPR (Multiplanare Rekonstruktion)
Darstellung beliebiger Schichtebenen aus einem Volumendatensatz
VTR (Volume Rendering Technique)
Darstellung von Oberflächenstrukturen aus 3D-Datensätzen
turen durchzuführen, müssen Funktionen zur Distanz-, Winkel- und Volumenmessung implementiert sein. Für die Interpretation von großen Volumendatensätzen ist zukünftig die automatische Interpretation von Bildern denkbar. Erste kommerzielle CAD (Computer Aided Diagnosis)-Programme für spezielle Screeningverfahren wie die Mammographie und Lungendiagnostik sind schon verfügbar. Gerade diese Verfahren machen deutlich, dass das Potenzial von PACS weit über die Bildkommunikation und die Darstellung von DICOM-Bildern hinausgeht. Hier wird sich zukünftig die Spreu vom Weizen der Anbieter trennen, denn die Erforschung dieser Verfahren erfordert neben IT-Kenntnissen auch detaillierte Kenntnisse der Aufnahmeverfahren und der medizinischen Interpretation der gewonnenen Informationen.
Medizinische Monitoren Die auf dem Monitor dargestellten Bilder sind die Basis für die radiologische Befundung und die Informationsquelle für alle nachfolgenden therapeutischen Maßnahmen. Der medizinische Monitor ist daher die wohl wichtigste Schnittstelle zwischen der digitalen Information und dem befundenden Arzt. Es wurden daher in einer Konsensus-Konferenz (Halle 2001) Mindestanforderungen für medizinische Monitoren festgelegt, die dann in der DIN 6868 Teil 57 sowie in der Richtlinie zur Qualitätssicherung näher spezifiziert wurden. Die Röntgenverordnung § 16 schreibt dem Betreiber Abnahmeprüfungen bei Inbetriebnahme sowie regelmäßige Konstanzprüfungen in definierten Abständen vor. Die Empfehlungen für medizinische Monitoren für unterschiedliche Anwendungsfälle sind ausschnittsweise in ⊡ Tab. 50.3 dargestellt:
Befunderstellung Nachdem der Radiologe die Bildserien in geeigneter Form bearbeitet und gesichtet hat, kann aus dem Arbeitsplatz gesteuert direkt ein Befund erstellt werden. Es gibt verschiedene Methoden, den Befund in das RIS als Textbefund zur übertragen:
819 50.3 · Integration eines PACS/RIS in eine Krankenhausumgebung
⊡ Tab. 50.3. Anforderungen an Monitoren Anwendung
Kontrast
Matrix
Leuchtdichte (cd/m2)
Diagonale (Zoll)
Digitales Röntgen Thorax Mammographie Feinstrukturen
1:100
2000×2000
200
21
Digitales Röntgen Wirbelsäule Becken Abdomen Harntrakt
1:100
1000×1000
200
19
Computertomographie Kernspintomographie
1:40
1000×1000
120
15
▬ Der Radiologe gibt den Befund als Freitext in das Programm ein. ▬ Der Radiologe verwendet Textbausteine für die effiziente Erstellung von Normalbefunden und ergänzt den Befund durch einen frei eingetragenen Text. ▬ Der Radiologe nimmt seinen Befund als Text auf, der später vom Sekretariat oder durch ein Spracherkennungssystem in einen Text umgesetzt wird. Ist der Befund geschrieben, muss er kontrolliert und durch den befundenden Arzt direkt oder den Oberarzt/ Chefarzt freigegeben werden. Erst dann ist der Befund als Dokument zu archivieren und zu verteilen.
50.2.6 Klinische Demonstration
Während der Befundung kann der Radiologe signifikante Bilder markieren, Befunde durch Pfeile, Kreise etc. kennzeichnen und die Fälle den unterschiedlichen klinischen Falldemonstrationen zuordnen. Gemäß dieser Demonstrations-Worklist werden die Untersuchungen ganz, oder nur die signifikanten Bilder, auf einer Workstation geöffnet und in den meisten Fällen durch lichtstarke Projektoren auf einer Leinwand dargestellt. Während der klinischen Demonstration kann auf Vorbefunde und Voraufnahmen im Archiv schnell zugegriffen werden. Die elektronische Vorbereitung der klinischen Falldemonstrationen ist effizient, spart Zeit, und die Ergebnisse können besser dargestellt (3D-Nachverarbeitungen) und präsentiert (Kinodarstellungen) werden.
50.2.7 Befundverteilung
Als letzter Prozessschritt des radiologischen Workflows ist die schnelle Verteilung der Ergebnisse an den überweisenden Arzt ein wesentlicher Bestandteil, der die Ge-
samteffizienz eines klinischen Workflows entscheidend beeinflusst. Der überweisende Arzt muss zeitnah Zugriff auf die Resultate erhalten. Um das zu erreichen, sollte über ein Portal die Bildinformation und der Befund aus dem klinischen Arbeitsplatz aufrufbar sein. Technologisch wird dem überweisenden Arzt ein webbasierter Zugriff auf die Datenbasis der Radiologie für den Patienten bzw. für den Untersuchungsfall ermöglicht. Mit einem Browser kann der überweisende Arzt die radiologischen Bilder aufrufen und den korrespondierenden Befund einsehen. Ob der Arzt alle Bilder ansieht oder nur die signifikanten, kann ebenso eingestellt werden wie die Qualität der Bilder. Um die Netzwerkbelastung zu verringern sowie die Zugriffszeiten zu minimieren, werden häufig komprimierte Bilder dargestellt. Wichtig ist, dass der Arzt aus dem Kontext seines klinischen Arbeitsplatzes die richtigen Bilder aufrufen kann. Dazu ist eine Integration der Radiologie in das übergeordnete IT-System des Krankenhauses eine zwingende Forderung. Um die Informationen an dem Arbeitsplatz darzustellen, an dem sie zu einem definierten Behandlungsschritt benötigt werden, sind z. B. im OP besondere PCSysteme und Eingabegeräte (sterilisierbar, OP-tauglich) notwendig. Nur durch eine gute Integration des radiologischen Workflows in den Gesamtworkflow der Klinik sind Einsparungspotenziale erzielbar.
50.3
Integration eines PACS/RIS in eine Krankenhausumgebung
Die Einführung eines PACS ist keine Routineaufgabe und nicht allein auf die radiologische Abteilung beschränkt. Die Herausforderungen liegen in der Integration in die IT-Infrastruktur und in die Arbeitsabläufe der gesamten Klinik. Dies ist der Schlüssel zum Erfolg.
50
820
Kapitel 50 · PACS/RIS
Horizontale Integration. Alle Bilder und bildbezogene Informationen werden in einem integrierten Informationssystem zusammengebracht. Dadurch können bisher getrennte Archive für Radiologie, Kardiologie, Ultraschall, Pathologie etc. vereint werden. Der DICOM Standard wird hier ständig um neue Bildformate erweitert sowie um neue Objekte wie »Structured Reporting« ergänzt.
V
Vertikale Integration. Datenaustausch und WorkflowIntegration mit verschiedenen Informationssystemen (KIS, RIS, PACS). Hier spielen die IHE-Profile die entscheidende Rolle. Die Desktopintegration erlaubt die Nutzung dieser Informationssysteme aus einer Anwendungsumgebung heraus, ohne dass der Arbeitsplatz gewechselt oder ein anderes Softwaresystem aufgerufen werden muss. Portabilität von Applikationen. Klinische Applikationen (z. B. 3D-Rekonstruktionen) sind nicht an einen bestimmten Arbeitsplatz gebunden. Sie können an allen Arbeitsplätzen genutzt werden, an denen sie gebraucht werden. Roaming Desktop. Funktionalität, die einer bestimmten Rolle zugeordnet wurde und nicht mehr von einem bestimmten Arbeitsplatz abhängt. Sie ist über die Zugriffsrechte dieser Rolle definiert und kann an allen Arbeitsplätzen ausgeführt werden. Sicherheit und Datenschutz. Maßnahmen, um unerlaubten Zugriff auf medizinische Informationen zu verhindern. Sicherstellung der Datenintegrität. Elektronische Patientenakte. Die Nutzung von allen relevanten patientenbezogenen Informationen an einer Stelle, i. A. am Arbeitsplatz des behandelnden Arztes. Das PACS stellt hierzu die radiologischen Bilder meist durch eine web-basierende Integration zur Verfügung. Ebenso wird der Bild-Viewer zur Verfügung gestellt, der an die Anforderungen außerhalb der Radiologie angepasst ist.
50.4
IT-Infrastruktur
Bei der Konzeption der IT-Infrastruktur für eine PACSLösung wird besonderen Wert auf folgende Punkte gelegt: ▬ hohes Leistungsvermögen schon in der ersten Ausbaustufe, ▬ Berücksichtigung von Anforderungen für den weiteren Ausbau der IT-Infrastruktur in allen Ausbaustufen, ▬ hohe Skalierbarkeit der Gesamtlösung über die derzeit bekannten Anforderungen hinaus,
▬ einfache Migration von Systemkomponenten auf Nachfolgesysteme ohne wesentliche Ausfallzeiten (Austausch von Hardware im laufenden Betrieb), ▬ intuitives Management der IT-Infrastruktur. Die Gesamtlösung soll geeignet sein, auf abteilungsübergreifende Lösungen, z. B. zentrale Archivierungslösungen, bzw. auf klinikübergreifende Lösungen (KlinikumsVerbünde) erweitert zu werden. Alle Komponenten der IT-Infrastruktur (Server, SANKomponenten, Storage) sollen so abgestimmt sein, dass der Hersteller-Support durchgehend gesichert ist.
Server Die PACS-Server sind das zentrale Bindeglied der gesamten Lösung. Sie bestimmen wesentlich die Systemleistung und die Systemverfügbarkeit. Bei der Bildverarbeitung hängt die Systemleistung vom Gesamtdatendurchsatz ab und weniger von der Taktfrequenz des Prozessors. Die Server sind in sich hochredundant ausgelegt (Lüfter, Netzteile, optional Speicher). Um Hochverfügbarkeitslösungen zu realisieren, können sie in ein Cluster geschaltet werden. Mit einem solchen Cluster wird durch Redundanz eine fehlertolerante Verfügbarkeit von Anwendungssoftware und Daten erreicht. Dazu werden mehrere Server in einer Gruppe (Cluster) zusammengefasst. Diese Server greifen auf dieselben Daten zu, sie überwachen sich gegenseitig und übernehmen die Aufgaben des Partners bei dessen Ausfall. ⊡ Abb. 50.3 zeigt ein einfaches HA-Cluster, bestehend aus zwei vernetzten Servern und einem RAIDSystem zum Speichern der Daten. Um die Verfügbarkeit weiter zu erhöhen können solche Cluster auch über mehr als einen Raum installiert werden. Dadurch ist der Betrieb auch sichergestellt, wenn ein Raum komplett ausfällt.
Kurzzeitspeicher Der Kurzzeitspeicher ist so ausgelegt, dass üblicherweise die Untersuchungen der letzten 6–12 Monate gespeichert werden. Alle Bilder sind im direkten und schnellen Zugriff. Deshalb werden hier ausfallsichere Festplattensysteme (RAID Technologie, SCSI oder Fibre Channel) eingesetzt, um hohe Verfügbarkeit und Performance sicherzustellen.
Langzeitspeicher und Backup Der Langzeitspeicher beinhaltet das eigentliche PACS-Archiv. Die Daten müssen bis zu 30 Jahren archiviert und in angemessener Zeit wieder dearchiviert werden. Um dies sicherzustellen, ist ein sicheres Backup der Daten nötig, um im Verlustfall die Originaldaten wieder herstellen zu können.
821 50.5 · Erfolgreiche Projektdurchführung durch professionelles Projektmanagement
⊡ Abb. 50.3. PACS-Lösung Windows Cluster-System bis ca. 150.000 Untersuchungen pro Jahr
Bei einer Hardwarelebensdauer von ca. 5 Jahren ist auch ein entsprechender Hardwareaustausch und Einsatz von neuen Technologien mit Datenmigration einzuplanen. Magnetband-Technologie
▬ ▬ ▬ ▬ ▬ ▬
Sehr langsamer Zugriff auf die Informationen Begrenzte Kapazität Revisionssicherheit über Software Geringe Datensicherheit, Backup unbedingt notwendig Hohe Betriebskosten (Wartung, Bandkopien, Robotik) Extrem hoher Migrationsaufwand auf Nachfolgesysteme
Magneto-optische Technologie
▬ ▬ ▬ ▬ ▬ ▬
Sehr langsamer Zugriff auf die Informationen Sehr begrenzte Kapazität (Auslagern von Daten) Revisionssicherheit der Medien (WORM) Geringe Datensicherheit, Backup unbedingt notwendig Hohe Betriebskosten (Medien, Robotik) Extrem hoher Migrationsaufwand auf Nachfolgesysteme
Festplatten-Technologie
▬ ▬ ▬ ▬
Schneller Zugriff auf den gesamten Datenbestand Verkleinern des (teuren) Kurzzeitspeichers möglich Einfache Erweiterung Sehr hohe Datensicherheit, Backup nur für Desaster Recovery notwendig ▬ Geringer Migrationsaufwand ▬ Revisionssicherheit über Software
Storage Management Systeme (HSM) als zentrale Langzeitspeicher-Lösungen können die Speichertechnologien hinsichtlich einer für den Kunden optimalen Kapazität und Zugriffsgeschwindigkeit kombinieren. Kommerziell verfügbare Systeme lösen auch das Problem der Migration der Bilddaten auf neuere Speichermedien und sind beliebig skalierbar.
50.5
Erfolgreiche Projektdurchführung durch professionelles Projektmanagement
Mit einem PACS-Projekt soll innerhalb einer definierten Zeitspanne ein definiertes Ziel erreicht werden. Diese PACS-Einführung beeinflusst die gesamte Abteilung und Klinik: ▬ Interne Ablaufsteuerung der gesamten Radiologie ▬ Externe Ablaufsteuerung mit Klinikern, Zuweisern, Patienten ▬ Umstellung auf softwarebasierte Arbeitsweise ▬ Integration der IT-Infrastruktur ▬ Schnittstellen zu Informationssystemen Die Komplexität der Aufgaben erfordert ein professionelles, erfahrenes Projektmanagement, das alle Verfahren und Techniken beherrscht, die mit der erfolgreichen Abwicklung eines Projektes verbunden sind (⊡ Abb. 50.4). Der Projektablauf lässt sich in Phasen einteilen: ▬ Auftragsakquisition mit Projektqualifikation, Lösungsentwicklung und Angebotserstellung
50
822
Kapitel 50 · PACS/RIS
▬ Projektplanung mit Festlegung der Projektorganisation, der Arbeitsabläufe, Aufstellung des Projektplans und Vorbereitung des Standorts ▬ Projektimplementierung mit Installation, Lösungsintegration und Systemkonfiguration, Lösungserprobung und Anwenderschulung ▬ Projektabschluss mit Projektabnahme und Übergabe an Kunden und Projektbewertung
V
Der Projekterfolg basiert nur zum Teil auf technischen Faktoren. Als Gradmesser des Erfolgs einer PACS-Installation gelten die Optimierung der Arbeitsabläufe, die Zufriedenheit der Mitarbeiter, die Realisierung finanzieller Einsparungen und die Verbesserung der medizinischen Versorgungsqualität (⊡ Abb. 50.5).
50.6
Zusammenfassung
PACS ist heute ein akzeptiertes und etabliertes System zur Optimierung des radiologischen Workflows sowie des gesamten klinischen Ablaufs. Es unterstützt eine qualifizierte Befundung, eine sichere Archivierung von Bildern und eine effiziente Verteilung der Resultate an den Behandlungsplatz des Patienten. PACS ist nur ein Mosaikstein in der gesamten klinischen IT-Infrastruktur und führt nur dann zu optimalen Ergebnissen, wenn die Integration zur IT-Umgebung der Organisation gewährleistet ist und die Projekte professionell durchgeführt werden. Ein PACS muss zukunftssicher sein und sich den zukünftigen Anforderungen der Radiologie und der klinischen Fachabteilungen anpassen können. Neue Herausforderungen liegen in der Verbesserung der Befundung großer Bildserien durch die Integration geeigneter Nachverarbeitungsmöglichkeiten.
⊡ Abb. 50.4. Projektmanagement über alle Phasen der Projektlaufzeit
Lenkungsausschuss (Auftraggeber / Auftragnehmer) Auftraggeber
Auftragnehmer
Klinische Partner
Fremdfirmen (Netzwerk, KIS, ...)
Projektleiter Klinik Team Klinik: Arzt, MRTA, Medizin-Medizintechnik, IT-Abteilung, Verwaltung ...
⊡ Abb. 50.5. Projektorganisation
Radiologie IT Medizintechnik Bau & Logistik Verwaltung
Projektleiter AN Team AN: Technical Consultant, Application Consultant, Backoffice ...
Kunden- Subunter- Lieferanten dienst nehmer HW und SW
51 3D-Postprocessing für die virtuelle Endoskopie G.-F. Rust, S. Marketsmüller, N. Lindlbauer
51.1 Was ist virtuelle Realität? – 823 51.2 Wozu virtuelle Realität? – 823 51.3 Vorteile der 3D-Visualisierung anhand der virtuellen Endoskopie: Interessant oder relevant? – 824 51.3.1 Partialvolumen – 824 51.3.2 2D- oder 3D-Bilder – 824 51.3.3 Gefahren bei der 3D – Rekonstruktion
51.4 Zusammenfassung
– 825
– 826
Die in den letzten Jahren stets besser werdende Ortsauflösung der Schnittbildverfahren erlaubt eine immer detailgetreuere Darstellung der Organe des Körperinneren. Besonders die Mehrzeilen-Computertomographie ( Kap. 15) eröffnet im Hinblick auf die deutlich erhöhte Ortsauflösung und die erheblich verkürzten Untersuchungszeiten neue Möglichkeiten in der Diagnostik. Die verbesserte Visualisierung führt zu einer wesentlich höheren Authentizität aller untersuchten Körperteile. Die mit der Mehrzeilen-Computertomographie oder auch Mehrdetektor–Computertomographie (MDCT) verbundene hohe Ortsauflösung ist mit einem beachtlichen Zuwachs der zu beurteilenden Datenmenge verbunden. Das bisherige Verfahren der Befundung anhand axialer Schnittbilder stößt an Grenzen der menschlichen Machbarkeit. Axiale Schichtzahlen von weit über 1200 Schichten sind mit den aktuellen CT–Geräten (2×64 Detektorzeilen, Stand 2005/2006) keine Seltenheit mehr. Die Forderung nach alternativen dreidimensionalen Visualisierungsverfahren steigt mit zunehmender Zahl der zu befundenden zweidimensionalen axialen Bilder. Für bestimmte Organgruppen, wie z. B. den Darm, wird die 3D-Visualisierung mehr und mehr zum Standardverfahren für die diagnostische Beurteilung. Dies gilt insbesondere für Organhohlkörper, deren Begrenzungen zum Hohlraum sich durch einen deutlichen Sprung in der physikalischen Dichte auszeichnen, wie z. B. in der Bronchoskopie und Koloskopie. Das Problem, das aus der 3D-Visualisierung häufig erwächst, ist, dass die Beurteilung des Wahrheitsgehaltes von 3D-Oberflächen für den Betrachter kaum beurteilbar ist. Die Realität wird nur bedingt reproduziert. Hierin liegt die größte Gefahr von 3D-Flächen, die ALLES oder besser VIELES und in anderen Fällen NICHTS oder besser
WENIGES reproduzieren können. Bei einer rekonstruierten 3D-Oberfläche wurde bereits eine Entscheidung getroffen, welcher (An)Teil des Datensatzes zur Visualisierung Berücksichtigung findet. Eine Korrektur ist anhand der ausschließlich zugrunde gelegten 3D-Oberfläche nicht möglich.
51.1
Was ist virtuelle Realität?
Das Abbild der Realität wird durch einen die Realität verkörpernden physikalischen Messwert, wie z. B. der physikalischen Dichte, repräsentiert. Der eigentliche reale Gegenstand wird nicht durch seine Vielfalt und unterschiedlichsten Erscheinungsformen, sondern nur durch eine physikalische Messgröße repräsentiert. Im Falle der Computertomographie (CT) erfolgt dies durch die räumliche (digitalisierte) Verteilung der physikalischen Dichtewerte. Anhand dieser digitalisierten Dichteverteilung kann die Realität des untersuchten Körpers teilweise verblüffend realistisch und in dreidimensionaler Weise nachempfunden werden. Dies nennt man die »Virtuelle Realität« ( Kap. 48 »Virtuelle Realität in der Medizin«).
51.2
Wozu virtuelle Realität?
Die Chancen der virtuellen Realität sind bereits in der Einleitung angeklungen. Statt, wie im Falle der CT, eine sehr hohe Zahl von axialen Einzelbildern betrachten zu müssen, kann eine mehr intuitive Beurteilung von dreidimensionalen Oberflächen/Objekten, die aus den axialen Schichten berechnet wurden, erfolgen.
824
V
Kapitel 51 · 3D-Postprocessing für die virtuelle Endoskopie
Auch die Risiken der virtuellen Realität wurden bereits kurz angedeutet: Eine 3D-Oberfläche stellt immer nur einen Teil des Datensatzes dar – hoffentlich den »richtigen« oder besser gesagt, den für die aktuelle Fragestellung relevantesten Teil des Datensatzes! Auf der anderen Seite liegt hierin auch eine Chance, nämlich die Möglichkeit, aus den gesamten Daten nur den relevanten Anteil zu visualisieren – wenn auch an dieser Stelle offen bleiben muss, wie der Begriff der »Relevanz« mit Hilfe von Algorithmen implementiert werden kann. Aus dieser kurzen Darstellung wird deutlich, dass die Methoden der virtuellen Realität sowohl Chancen als auch Risiken enthalten können. Dies macht auch eine grundsätzliche allgemeine Empfehlung schwierig.
51.3
Vorteile der 3D-Visualisierung anhand der virtuellen Endoskopie: Interessant oder relevant?
Im Folgenden werden die wesentlichen Vorteile von virtuell endoskopischen Verfahren dargelegt: ▬ Deutlich verbesserte räumliche Darstellung und Verständnis des betrachteten Organs. ▬ Systematische Untersuchung des betrachteten Hohlorgans, wie z. B. des Darms. ▬ Deutlich längere visuelle Kontaktzeit des Beobachters mit dem Gegenstand des Objektes, z. B. mit der Schleimhaut des betreffenden Hohlorgans. Ein Detail der Darmschleimhaut ist z. B. in ein oder zwei einzelnen axialen Schichten zu erkennen. Mit Hilfe dreidimensionaler Verfahren wird die Beobachtungszeit für dieses Detail im Vergleich zu den zweidimensionalen axialen Schichten wesentlich verlängert. Beispiel: Bewegt man sich durch den Darm, so bewegen sich alle Strukturen des in ⊡ Abb. 51.1 gezeigten intraluminalen virtuellen Blicks mehrere Sekunden auf den Beobachter zu
⊡ Abb. 51.1. Intraluminale virtuelle Darstellung des Darms. Bei einem Fly-Through bewegt sich jedes Detail in der Größe von einem Voxel mehrere Sekunden auf den Betrachter zu – d. h. wesentlich länger als bei ausschließlicher 2D-Betrachtung
– d. h. wesentlich länger, als wenn man nur die betreffenden 2D-Schichten separat betrachten würde. Somit nimmt für den Arzt die Betrachtungszeit pro Flächeneinheit der Schleimhaut mit Hilfe von 3D-Oberflächen in der virtuellen Endoskopie beträchtlich zu. Erkennungsraten von pathologischen Befunden in radiologischen Bildern hängen signifikant von der Beobachtungszeit ab.
51.3.1 Partialvolumen
Einer der Hauptvorteile von 3D-Oberflächen im Vergleich zu 2D-Oberflächen liegt in der Option, diese nahezu partialvolumenfrei darzustellen. Im Abschn. 51.3.2 wird hierauf näher eingegangen. Der Begriff »Partialvolumen« bedeutet, dass sich ein abgebildetes Organ innerhalb einer endlich dicken 2D-(CT-) Schicht nur zu einem Teil in dieser Schichtdicke befindet. Der dargestellte, aktuell vorhandene Dichtewert berechnet sich also nicht nur aus dem Dichtewert des betreffenden Organs, sondern aus weiteren Dichtewerten anderer Organe, die ebenfalls in die betrachtete Schicht fallen: Ein bestimmtes Organ befindet sich – zusammen mit anderen Organen – also nur partiell in dem betrachteten Schichtvolumen. Der Dichtewert eines Voxels (dreidimensionaler Pixel) in einer CT-Schicht (Grauwert) ergibt sich deshalb als Mittelwert der Dichtewerte entlang des betrachteten Voxels. Deshalb ist ein anderes Wort für Partialvolumen »Kontrast-Minderung«. Eine partialvolumenfreie Darstellung ist eine Darstellung mit erhöhtem Kontrast.
51.3.2 2D- oder 3D-Bilder
Je dicker eine Schicht ist, desto höher ist der Partialvolumenanteil dieser Schicht, und desto geringer ist auch der Kontrast der betreffenden 2D-Schicht. 2D-Bilder sind jedoch immer inhärent partialvolumenbehaftet. 3D-
825 51.3 · Vorteile der 3D-Visualisierung anhand der virtuellen Endoskopie: Interessant oder Relevant?
Oberflächen können grundsätzlich mit einem geringeren Partialvolumen dargestellt werden als die entsprechenden 2D-Bilder (⊡ Abb. 51.2a). Der damit verbundene höhere Kontrast liefert eine entsprechend höhere Nachweisempfindlichkeit kleiner Strukturen, z. B. flacher Adenome. Auch die in ⊡ Abb. 51.2 im intraluminalen Bild dargestellte »rauhe Darmschleimhaut« ist ein Ausdruck des sehr hohen Kontrastes im Verbund mit einer hohen Ortsauflösung – dies entspricht dem Rauschen im CT-Datensatz. Die Vorteile von 3D-Oberflächen (nahezu partialvolumenfreie Darstellung) werden sehr häufig dadurch zunichte gemacht, dass versucht wird zu suggerieren, es handele sich bei dem betreffenden visualisierten Organ um den (realen) endoskopischen Blick auf die Schleimhaut. Dies ist i. d. R. nur dadurch möglich, dass entweder die 3D-Organoberflächen geglättet werden oder aber die zugrunde liegende Visualisierungsmethode eine glättende Wirkung hat (schlecht angewandtes Volume Rendering) oder beides der Fall ist. Im Falle der Computertomographie handelt es sich z. B. bei der Visualisierung der Darmschleimhaut nicht um den Darm, sondern um das CT des Darms! Das bedeutet – und dies ist zugleich ein einfaches Mittel, die Qualität der Oberflächenrekonstruktion zu prüfen – dass alle Artefakte, die das CT erstellt, auch auf der Darmschleimhaut visualisiert werden müssen: Rauschen, Aufhärtungsartefakte, Pitch-Artefakte und Kantenphänomene. Sind derartige Artefakte (⊡ Abb. 51.2) nicht zu erkennen, sollte man die betreffende virtuelle Schleimhautoberfläche sehr kritisch und mit Vorsicht betrachten. Auf diese Weise ist es z. B. möglich, dass auf der 3DDarmschleimhaut die Instabilitäten einer defekten Röntgenröhre, die Pitch-Artefakte bei zu hohem Pitch oder bei Memory-Defekten in der Gantry nicht sichtbar werden, obwohl diese im Originaldatensatz enthalten sind. Alle Artefakte können durchaus in der Größenordnung von pathologischen Veränderungen liegen. Der Versuch, durch Glättungsalgorithmen wie z. B. durch Glättung über nächste (Voxel-) Nachbarn oder durch eine falsch angewandte Form des Volume Rendering, derart »schöne« Bilder zu erzeugen, dass suggeriert wird, es handele sich bei den intraluminalen Bildern um das real endoskopische Bild des Darms, ist ein falscher Ansatz, denn: Die virtuelle Realität darf nicht durch Manipulationen geschönt werden, da sie in diesem Falle mit der »Realität« nichts mehr zu tun hat. Für diesen Fall reduziert sich die 3D-Visualisierung fast auf ein Computerspiel!
51.3.3 Gefahren bei der 3D – Rekonstruktion
In der ⊡ Abb. 51.3 wird ein Fall dargestellt, wie sich Strukturen verändern können, wenn man nur geringfügig ein einfaches Glättungsverfahren anwendet (Glättung über nächste Nachbarn). Die Oberflächen erscheinen zwar
a
b ⊡ Abb. 51.2a,b. a 3D-Bild mit kleinem Bildartefakt intraluminal (zentral der roten Markierung im unteren rechten Bild). Die entsprechende Koordinate in den partialvolumenbehafteten 2D-Bildern (zentral der roten Markierung in der oberen Bildreihe). (Im Bild links unten wird der Darm intraluminal halb aufgeschnitten dargestellt – »splitted Colon«), b Dieselbe Position wie in a, jedoch mit deutlicher Erhöhung des Kontrastes in den 2D-Bildern. Der ein Voxel große Bildartefakt in der intraluminalen Darstellung (unten rechts) ist jetzt als kleiner Artefakt in den 2D-Bildern zu erkennen
physiologischer, jedoch für den Preis des Verlustes von Details. Die Aufgabe der Visualisierung darf nicht sein, die Daten des Darms so zu verändern bzw. zu manipulieren, dass die erzeugten Bilder einem »realen« Darm zum Verwechseln ähnlich sehen, sondern die Daten so zu visualisieren, wie diese akquiriert wurden, also so, wie die Daten vorliegen. Nur so können Artefakte von NichtArtefakten unterschieden werden und nur so kann man sicher sein, dass nicht auf Kosten einer falschen Ästhetik die Diagnose verfälscht wird.
51
826
Kapitel 51 · 3D-Postprocessing für die virtuelle Endoskopie
⊡ Abb. 51.3. Glättung über nächste Nachbarn im Falle der virtuellen Koloskopie
⊡ Abb. 51.6. Lichtabsorption (links), um den Blick des Betrachters auf die kameranahen Schleimhautanteile zu fokussieren
es möglich, sehr weit in den Darm zu sehen. Meistens wird versucht, einen möglichst ungestörten Weitblick zu erhalten, sodass man dazu neigt, sich auf eine Region der Schleimhaut zu konzentrieren, die für die aktuelle Befundung von geringerer Bedeutung ist. Gegenstand der Befundung sind die Schleimhautanteile, die der (virtuellen) Kamera am nächsten sind. Das »Abschweifen« des Blickes in die Ferne kann man sehr einfach durch die Berechnung einer Lichtabsorption verhindern (⊡ Abb. 52.6 links).
V
⊡ Abb. 51.4. Durch nicht optimale Wahl der Transfer-Funktion beim Volume Rendering (Ray-Casting) nimmt das Rauschen auf Kosten der Detailinformation ab: Divertikel verschwinden im rechten Rechteck, und die Austarierung erscheint auf der rechten Seite weniger ausgeprägt
⊡ Abb. 51.5. Eine nicht optimale Anwendung des »Diffuse Lighting« kann einen erheblichen Einfluss auf die Kontrastauflösung der betreffenden 3D-Oberfläche nehmen
⊡ Abb. 51.4 zeigt ein weiteres Beispiel, wie Entrauschung Einfluss auf die Visualisierung nehmen kann – in diesem Falle nicht durch Glätten über nächste Nachbarn, sondern durch einen zu flachen Verlauf der TransferFunktion. In der ⊡ Abb. 51.5 ist ein Beispiel gegeben, welchen Einfluss ein falsches Diffuse Lighting nach sich ziehen kann. Dies geht mit dem Verlust von Kontrast und damit dem Verlust von Details einher. ⊡ Abb. 51.6 zeigt, welche Optionen und Vorteile virtuelle Realität auch haben kann. Auf der rechten Seite ist
51.4
Zusammenfassung
Die virtuelle Endoskopie kann mit Hilfe neuester Mehrdetektoren-Computertomographen und leistungsfähiger Software Hohlkörper sehr schnell und mit höherer Genauigkeit untersuchen als die herkömmlichen partialvolumenbehafteten 2D-Bilder. Die Manipulation von 3D-Oberflächen zur »schöneren« Darstellung der Darmschleimhaut wird dem Begriff der virtuellen Realität nicht gerecht. Wenn überhaupt, dann handelt es sich um eine virtuelle (manipulierte) Realität, die eigentlich nicht in die radiologische Routine gehört. Den bei der Visualisierung zugrunde liegenden Algorithmen kommt eine besondere Bedeutung zu, insbesondere im Hinblick auf die Nachweisbarkeit kleiner Läsionen. Zum weiterführenden und vertiefenden Studium empfehlen wir die Literatur von K.-H. Höhne, und zur praktischen Erfahrungsgewinnung das Visualization Took Kit, zu finden unter http://public.kitware.com/VTK.
52 Operationstischsysteme B. Kulik 52.1 Kurzer Abriss der technologischen Entwicklung der OP-Tischsysteme – 830
52.3.3 Patientenlagerung bei der Anwendung von monopolaren HF-Chirurgiegeräten – 836
52.2 Technik der Operationstischsysteme – 831
52.4 Wichtige sicherheitstechnische Vorschriften für OP-Tischsysteme – 837
52.2.1 52.2.2 52.2.3 52.2.4
52.5 Aufbereitung: Pflege, Wartung und Hygiene – 837
Aufbau eines OP-Tischsystems Systematik – 832 Ausbaustufen – 832 Mobilität und Flexibilität von OP-Tischsystemen – 832
– 831
52.3 Patientenlagerung und Vermeidung von Lagerungsschäden – 834 52.3.1 Dekubitusschaden – 834 52.3.2 Weitergehende Lagerungsschäden und rechtliche Verantwortung – 836
Das zentrale Element eines jeden Operationssaals bildet unbestreitbar der OP-Tisch. Überall dort, wo operative Eingriffe vorgenommen werden, sind OP-Tische unentbehrlich. Dementsprechend breit ist deren Palette, die vom einfachen mobilen OP-Tisch bis hin zu OPTischsystemen mit diversen Spezial-OP-Lagerflächen reicht. Einfache Ausführungen des OP-Tischs werden meist in Krankenhäusern mit kleineren Operationsabteilungen eingesetzt sowie in größeren Kliniken mit ausgegliederten Operationsräumen wie bspw. Ambulanz-OP-Eingriffsräumen. Des Weiteren werden sie häufig in der ambulanten Chirurgie (sog. Tageskliniken bzw. ambulanten Operationszentren) eingesetzt. Im Verhältnis zum kompletten OP-Tischsystem ist die Funktionalität auf die speziel-
52.5.1 Manuelle Reinigung und Desinfektion – 837 52.5.2 Automatische OP-Tischsystemreinigung und -hygiene – 837 52.5.3 Wartung – 838
52.6 Planerische Hinweise
– 838
Weiterführende Literatur – 838
len Anforderungen abgestimmt, wie bspw. in der HNO, Dermatologie, Gynäkologie oder Ophtalmologie. Diese OP-Tische sind durch verschiedene Zusatzteile auf- und umrüstbar und je nach Ausführung manuell oder elektromotorisch verstellbar. Die modernen OP-Tischsysteme zeichnen sich dadurch aus, dass sie durch ihre eingriffsbezogenen Lagerflächen zum einen den speziellen Anforderungen der einzelnen chirurgischen Disziplinen in Bezug auf optimale Lagerung des Patienten und bestmöglichen Zugang zum Operationsfeld gerecht werden und insofern durchaus mitentscheidend für den Erfolg des chirurgischen Eingriffs sind, zum anderen aber auch den technischen Anforderungen an Röntgentauglichkeit, Stabilität und Hygiene entsprechen (⊡ Abb. 52.1).
⊡ Abb. 52.1. OP-Tischsystem als zentrales Element des OP-Saals
830
Kapitel 52 · Operationstischsysteme
52.1
VI
Kurzer Abriss der technologischen Entwicklung der OP-Tischsysteme
Noch vor 150 Jahren, als Asepsis noch keinen Diskussionspunkt darstellte, wurden Operationen üblicherweise im Bett des Patienten vorgenommen. Aufgrund der niedrigen Betthöhe ging der Chirurg dazu über, den zu operierenden Patienten auf einen höheren Tisch zu lagern, um zum einen besseren Zugang zum Operationsfeld zu erhalten und zum anderen sich selbst eine ergonomischere Arbeitshaltung zu ermöglichen. Die Entwicklung von OP-Tischen erfolgte im Gleichschritt mit der Entwicklung der Chirurgie. Sie erfolgte quasiparallel zum ständig erweiterten Wissen und Können der Chirurgen und wurde im Laufe der Zeit maßgeblich von der Spezialisierung der einzelnen chirurgischen Disziplinen geprägt. Die medizinische Weiterentwicklung stellte Anforderungen an einen verbesserten Zugang zum Operationsfeld und damit an eine verbesserte Lagerung des Patienten. So entstanden »OP-Möbel«, deren Lagerfläche unterteilt war in Kopf-, Rücken-, Sitzteil und Beinplatte. Die Verfeinerung der Operationstechniken machte es erforderlich, bestimmte Körperstellen aufzuwölben (Wundschnitte), zwecks besserem Zugang ins Körperinnere, um sie dann zum Wundverschluss wieder in Flachlage zu bringen. Aus der allgemeinen Chirurgie haben sich in den vergangenen 60 Jahren die einzelnen chirurgischen Disziplinen entwickelt. Die Folge der Spezialisierung der Chirurgie wiederum war die Entwicklung von Spezial-OP-Tischen, die sich in Bezug auf Lagerflächenunterteilung und Anordnung von Bedienelementen unterschieden. Bei Kopfoperationen bspw. durften in diesem Bereich des OP-Tischs keine Bedienelemente angebracht sein, da sie vom unsterilen Personal während der Operation nicht betätigt werden durften- dies hätte die Verletzung der Sterilität bedeutet. In der Folge wurden spezielle OP-Tische für Kopfoperationen entwickelt. Die Entwicklung von OP-Tischen mit immer komplexeren Verstellmöglichkeiten der OP-Lagerflächen für andere Spezialdisziplinen der Chirurgie erfolgte analog (⊡ Abb. 52.2). Ein weiterer wesentlicher Einflussfaktor auf die OP-Tischentwicklung waren die technischen Errungenschaften bei der intraoperativen Bildgebung. Der mobile Röntgenbildverstärker ist aus dem OP nicht mehr wegzudenken. Weitere Bildgebungsverfahren wie CT und MR sollten in ihrer Anwendung mit OP-Tischen kombiniert werden, was dazu führte, dass außer Stahl nunmehr auch andere Werkstoffe wie z. B. Kohlefaser-verstärkter Kunststoff, der artefaktarm durchleuchtbar ist, eingesetzt wurde. Da von Operateuren also immer speziellere, auf die jeweilige Operation zugeschnittenen OP-Tische benötigt wurden, erstreckte sich die Weiterentwicklung der mo-
a
b ⊡ Abb. 52.2. Vom Operations- und Untersuchungstisch zum modernen OP-Tischsystem. a Operations- und Untersuchungstisch um 1840, b modernes OP-Tischsystem
bilen OP-Tische nicht nur auf die Unterteilung der OPLagerungsfläche, sondern auch auf die Tischsäule bzw. deren Trennung von der OP-Lagerfläche, was weitere Vorteile und Erleichterungen mit sich brachte. Die Vorgängermodelle der heutigen modernen OPTischsysteme hatten zwar eine auf Rollen fahrbare Tischsäule, sodass der OP-Tisch mobil und nicht ortsgebunden war, die Lagerfläche war aber fest mit der Säule verbunden. Dies hatte den Nachteil, dass das kompakte Gerät von einer Person nur sehr schwer zu bewegen war, was wiederum die Mobilität einschränkte. In der Folge wurden Säule und Lagerfläche getrennt. Moderne OP-Tischsysteme gibt es in stationärer, d. h. ortsgebundener und mobiler Ausführung. Bei der stationären Ausführung ist die Tischsäule fest im Fußboden verankert, die Elektroinstallation verläuft unsichtbar im Boden. Die OP-Lagerfläche ist abnehmbar und wird durch einen Transporter (synonym: Lafette) über die Tischsäule geschoben, von dieser übernommen, sodass der Transporter wieder entfernt werden kann. Da die
831 52.2 · Technik der Operationstischsysteme
Tischsäule mit dem Boden fest verschraubt ist, kann hier auf die ausladende Geometrie eines mobilen OP-Tischfußes verzichtet werden. Den Operateuren wird somit mehr Beinfreiheit ermöglicht. Ein weiterer Vorteil ist, dass zusätzlich notwendige medizintechnische Geräte wie bspw. ein fahrbarer Bildverstärker bzw. C-Bogen problemlos an das Operationsfeld herangeführt und positioniert werden kann. Bei einem mobilen OP-Tischsystem hingegen liegt der wesentliche Vorteil darin, dass dieses System mit einem Transporter frei im Operationssaal bzw. der OP-Abteilung bewegt werden kann. Hier entfällt die Installation, da wiederaufladbare Akkus die notwendige elektrische Energie liefern, deren Kapazität ausreicht, um im normalen OP-Betrieb etwa 100 Operationen mit diesem Operationstischsystem durchzuführen. Die OP-Tische bzw. Tischsysteme werden mit einem Handbediengerät entweder kabellos über Infrarotsignale oder kabelgebunden angesteuert. Die motorisch verstellbaren Funktionen können somit aus der Distanz aktiviert werden, ohne dabei das sterile OP-Umfeld zu beeinträchtigen. Einzelne Segmente der Lagerfläche, wie bspw. Beinplatten oder Kopfplatten, lassen sich abnehmen. Die Polstersegmente sind integralgeschäumt und bilden mit der eigentlichen Tragplatte eine Einheit. Sie sind leicht abnehmbar, röntgenstrahlendurchlässig und elektrisch leitfähig. Der technologische Fortschritt im Bereich der Medizintechnik hat letztendlich dazu geführt, dass hochwertige OP-Tischsysteme mit multifunktionalen Systemeigenschaften entwickelt wurden, die den heutigen hohen medizinischen, hygienischen und technischen Anforderungen gerecht werden.
52.2
Technik der Operationstischsysteme
52.2.1 Aufbau eines OP-Tischsystems
Im Einzelnen lässt sich der Aufbau eines Operationstischsystems wie folgt beschreiben (⊡ Abb. 52.3): ▬ Tischsäule. Ein OP-Tischsystem ist erhältlich mit einer stationären, d. h. mit dem Fußboden fest verbundenen und damit ortsgebundenen Säule oder mit einer mobilen und damit ortsungebundenen Säule. Beide Arten bieten gleichermaßen große Vorteile. ▬ OP-Lagerfläche. Die OP-Tischsäule kann mit vielfältigen, auswechselbaren Lagerflächen ausgestattet werden, die speziell auf die einzelnen chirurgischen Disziplinen abgestimmt sind und deren Segmente unabhängig voneinander in die gewünschte Lage zu verstellen sind. Das heißt, die OP-Lagerfläche ist mehrfach unterteilt (z. B. 4-, 5-, 6. oder 8-fach) in – Kopfteil/ Fußteil, das auf- und abschwenkbar ist und sich bei Bedarf auch abnehmen lässt, – Mittelteil bzw. Rückenteil, das meist mehrfach unterteilt und in spezielle Neigungswinkel verstellbar ist, – Beinteil, das aus einem quer- und/oder längsgeteilten Beinplattenpaar bestehen kann, das automatisch verstellbar ist mit den Möglichkeiten, beide Teile gleichzeitig, einzeln bzw. unabhängig voneinander in bestimmte Richtungen zu bewegen bzw. zu spreizen. Die OP-Lagerfläche ist so ausgestattet, dass sie bei Bedarf durch Hinzufügen oder Abnehmen von einzelnen Segmenten verlängert oder verkürzt werden kann. Ferner sollte sie längsverschiebbar sein, um die Ganzkörpererfassung mit dem C-Bogen zu ermöglichen,
⊡ Abb. 52.3. Aufbau und Elemente eines modernen Operationstischsystems
52
832
VI
Kapitel 52 · Operationstischsysteme
Polsterung: kommt kein großflächiges Polster zum Einsatz, sind die Polsterplatten integralgeschäumt, wobei die »Kanten« mit großen weichen Radien ausgeführt sind, um Druckstellen zu vermeiden. Die Polsterung ist strahlendurchlässig, sodass sie sich auch zum Röntgen oder zum intraoperativen Durchleuchten eignet. Entsprechend der ISO 2882 sowie DIN EN 60601-1 (VDE 0750, Teil 1) ist sie elektrisch leitfähig. ▬ Ansteuerung. Die Ansteuerung von Tischsäule und den jeweiligen Lagerflächen erfolgt drahtlos über eine Infrarotsteuerung. Alternativ kann sie auch mit einem sog. Kabelbediengerät durchgeführt werden. In speziellen Anwendungsbereichen kann die Ansteuerung zusätzlich über einen Fußschalter erfolgen, der vom Operateur bedient wird. Weitere Ansteuerungsmöglichkeiten wären das wandgebundene Bedientableau oder ein integriertes OP-Steuerungssystem, das die wesentlichen OP-Funktionen wie z. B. Leuchten, OPTisch, Endoskopiegeräte etc. über Touchscreenmonitor oder sprachgesteuert regelt. ▬ Transporter. Mit dem leicht fahr- und manövrierbaren Transporter (Lafette) wird die OP-Lagerfläche zur (mobilen oder stationären) Tischsäulen transportiert, die die Lagerfläche für die Dauer des Eingriffs übernimmt. Des Weiteren wird über Lafetten der Transport über längere Wege sowie der Wechsel der Lagerflächen im Kreisverkehr zwischen Umbettraum, Einleitung, Operationssaal, Ausleitung und Umbettraum bewältigt. ▬ Zubehör. Zum Standartzubehör gehören u. a. Armlagerungsvorrichtungen, Seitenhalter, Infusionshalter, Beinhalter, Kopfring, Rücken- und Gesäßstützen, Seitenstütze, Hand- und Körpergurte.
52.2.2 Systematik
Aufgrund der Vielzahl und Vielfalt von OP-Tischsystemen, die für allgemeine oder spezielle Eingriffe eingesetzt werden, lassen sich diese Systeme nach ihrer Systemeigenschaft sowie nach ihrer Betriebsart einteilen (⊡ Abb. 52.4).
⊡ Abb. 52.4. Übersicht und Einteilung von OP-Tischsystemen
52.2.3 Ausbaustufen
Da alle OP-Lagerflächen so konzipiert sind, dass sie zur sog. Standardtischsäule passen, wurde hiermit sozusagen ein Grundelement geschaffen, das problemlos um- und aufgerüstet werden kann und damit – entsprechend dem Baukastenprinzip – speziellen Anforderungen gerecht wird.
52.2.4 Mobilität und Flexibilität
von OP-Tischsystemen Moderne OP-Tischsysteme zeichnen sich durch Mobilität, Flexibilität und Kompatibilität aus. Nicht nur, dass bei einer mobilen OP-Tischsäule der Standort im OP-Saal nach Bedarf gewählt werden kann, sondern auch dadurch, dass die Kompatibilität zwischen verschiedenen, preislich unterschiedlichen OP-Tischsystemen, mobil oder stationär, gegeben ist. Um Flexibilität zu gewährleisten, sind die heutigen OP-Tischsysteme so konzipiert bzw. umrüstbar, dass sie unterschiedlichen chirurgische Disziplinen lagerungstechnisch gerecht werden. Sollten sich in der Zukunft Operations- und Lagerungstechniken ändern, ist es bei einem OP-Tischsystem nur noch erforderlich, eine entsprechend modifizierte Lagerfläche zu beschaffen, die kompatibel zum Grundelement OP-Tischsäule ist. In einer OP-Abteilung, die mit mobilen Operationstischen ausgerüstet ist, wäre in einem solchen Fall ein kompletter neuer OP-Tisch anzuschaffen, was einen nicht unerheblichen Kostenfaktor darstellt. Zeiteinspaarung ist heute mehr denn je ein wesentliches Kriterium zur effizienten Nutzung eines Operationssaals. Der Einsatz eines OP-Tischsystems, d. h. einer OP-Tischsäule, zweier Transporter sowie zweier OP-Lagerungsflächen erlaubt einen sog. »Kreisverkehr«: Während im OP-Saal ein chirurgischer Eingriff beendet wird, ist es möglich, den nächsten Patienten auf der zweiten Lagerfläche aus dem Umbettraum in den Vorbereitungsraum zu bringen, um die Anästhesie einzu-
833 52.2 · Technik der Operationstischsysteme
leiten. Nach Ausleitung des letztoperierten Patienten kann nach einer Zwischenreinigung des Operationsraums der bereits narkotisierte Patient in den OP-Saal gefahren werden, wo er, auf der OP-Lagerfläche liegend und eventuell bereits vorgelagert, von der OP-Tischsäule
übernommen wird. Dieser »Kreisverkehr« bietet den Vorteil, dass der Operationsbetrieb ohne große zeitliche Verzögerung ablaufen kann, auch speziell unter den zu berücksichtigenden Einwirkzeiten bei Lokalanästhesien (⊡ Abb. 52.5).
⊡ Abb. 52.5. Mobilität und Flexibilität von OP-Tischsystemen
52
834
Kapitel 52 · Operationstischsysteme
52.3
VI
Patientenlagerung und Vermeidung von Lagerungsschäden
Mit Operationslagerungen wird die Körperlage bezeichnet, in die der Körper des Patienten gebracht wird, um dem Operateur den bestmöglichen Zugang zum Operationsgebiet zu gewährleisten. Darüber hinaus wird angestrebt, die anatomischen Strukturen des Operationsfeldes optimal darzustellen. Folgende »Standardlagerungen« (⊡ Abb. 52.6) haben sich bewährt: ▬ Rückenlage/spezielle Rückenlage, ▬ Bauchlage/Bauchfreilage, ▬ Seitenlage, ▬ Steinschnittlage, ▬ Knie- Ellenbogen- Lage, ▬ sitzende/halbsitzende Lage. Für die Narkoseeinleitung und die Operation sollte der Patient in Zusammenarbeit von Anästhesist und Chirurg sowie den OP-Pflegekräften gelagert bzw. in die optimale Operationslage gebracht werden. Zuvor ist erforderlich, dass die verantwortlichen Fachärzte aufgrund des Allgemeinzustandes des Patienten entscheiden, welchen Belastungen – bedingt durch die Lagerung auf dem OPTisch – er ausgesetzt werden kann. Zu berücksichtigen sind hierbei Alter des Patienten, Gewicht, Konstitution, der augenblickliche Gesundheitszustand im Hinblick auf Herz, Lunge, Kreislauf, Stoffwechsel, Nervensystem, Muskulatur, Hautgewebevorbelastungen, die u. a. herrühren von Stoffwechselstörungen, Fettleibigkeit, rheumatischer Arthritis, Herz- und Gefäßschwächen oder Durchblutungsstörungen. Die genannten Faktoren beeinflussen in erheblichem Maße die Belastbarkeit des Patienten und müssen bei der Lagerung unbedingt berücksichtigt werden, da jede Form der Lagerung für den Patienten eine zusätzliche Belastung darstellt. Hinzu kommt, dass Narkosemittel und Muskelrelaxanzien die Belastung insofern noch verstärken, als sie insbesondere auf Atmung, Blutzufuhr und Nerven Einfluss nehmen. Während der Narkose ist das Schmerzempfinden ausgeschaltet, sodass der Patient weder Schmerzen durch Druck oder Zerrung empfindet noch aufgrund von unterbrochenen Schutzreflexen und abgebautem Muskeltonus reagieren kann. Das bedeutet: Der Patient kann schon zu Schaden kommen, bevor der eigentliche chirurgische Eingriff vorgenommen wird. Es ist bereits bei einfachen Lageveränderungen während der Operation erhöhte Vorsicht geboten. Die Intubationsnarkose wird beim Patienten in normaler Rückenlage eingeleitet. Erst nachdem das tiefe Narkosestadium mit entspannter Muskulatur erreicht ist, erfolgt die eigentliche Operationslagerung unter Berücksichtung patientenspezifischer Merkmale (s. oben).
Zu beachten ist, dass der für die Narkose und Infusion vorgesehene Arm des Patienten in seiner gesamten Länge und eben auf der gut gepolsterten Armlagerungsvorrichtung aufliegt; notfalls muss die Armlagerungsvorrichtung mit einer gepolsterten Cramer-Schiene verlängert werden. Bei falscher Lagerung kann es trotz weichem OPTischpolster bspw. zu Irritationen bzw. Lähmungen durch Schädigung oder Beeinträchtigung des N. radialis oder N. ulnaris kommen. Eine Überdehnung des Arms über den Winkel von 90° hinaus (Abduktion sowie Supination) kann eine Plexuslähmung zur Folge haben. Bei der Beinlagerung lassen sich die in sich abknickbaren Beinplatten von modernen OP-Tischen gut an die Beine anpassen, sodass der Auflagendruck auf eine ausreichend große Fläche verteilt wird und zudem eine möglichst optimale Operationslagerung erreicht wird. Die Verwendung von Beinhaltern dagegen (z. B. bei gynäkologischen oder urologischen Eingriffen) bergen bei unsachgemäßer Lagerung bzw. Anwendungen in erhöhtem Maß die Gefahr, Druckschäden und Zerrungen zu verursachen, u. a. durch Überstreckung der in der Narkose entspannten Beine, durch Druck falsch eingestellter (angelegter) Beinschalen sowie Anliegen der unteren Extremitäten an den Beinhalterstangen. Bei der Lagerung des Rumpfes muss mit derselben Sorgfalt vorgegangen werden. Die unveränderte Lagerung des Patienten über eine längere Zeitdauer hinweg kann zu einem weiteren Problem führen: dem Dekubitus (Wundliegen bzw. Sichdurchliegen).
52.3.1 Dekubitusschaden
Da Narkosemittel und Muskelrelaxanzien das Gewebe so entspannen können, dass der arterielle Druck schwächer ist als der äußere - vom Körpergewicht beeinflusste – Druck, kann die Blutzufuhr gestört und infolgedessen das Gewebe nur mangelhaft ernährt werden, sodass für den Patienten bei längerer Liegedauer in o. g. unveränderter Lage die Gefahr von Haut- und Gewebeschäden besteht. Ein so entstandener Dekubitus kann sich insbesondere an Körperstellen, die nur ein dünnes Hautgewebe über dem Knochen aufweisen, zur Nekrose (örtlicher Gewebstod) weiterentwickeln. Zu diesen besonders gefährdeten Körperstellen gehören: ▬ in Rückenlage: Fersen, Kreuzbein, Ellenbogen, Schulterblätter, Hinterkopf, ▬ in Bauchlage: Becken, Hüfte, Knie, Zehenspitzen, ▬ in Sitzposition: Fersen, Kreuzband, Ellenbogen, Kopf, ▬ in Seitenlage: Hüfte, Zehen, Knie. Gleichzeitig ist darauf zu achten, dass keine Hautquetschungen entstehen, die infolge von Durchblutungsmangel auch zu Nekrosen führen können. Diese Gefahr besteht insbesondere während länger dauernder Operationen.
So wurden nach Herzoperationen, in deren Verlauf der Patient hypothermiert wurde und monopolare Hochfrequenzgeräte zum Einsatz kamen, großflächige Gewebenekrosen festgestellt, die primär als Verbrennungen diagnostiziert wurden. Eingehende Prüfung der Ursache dieser als Verbrennung deklarierten Nekrose durch das Operationsteam, das technische Personal des Krankenhauses, den Technischen Überwachungsverein und den Herstellern des HF-Chirurgiegeräts ergaben keine phy-
⊡ Abb. 52.6. Schematische Darstellungen der unterschiedlichen Patientenlagerungen in Abhängigkeit vom operativen Eingriff. Aufführung der Lagerungen von links nach rechts: 1. Reihe: Universallagerfläche für Gallen-OP mit Bildverstärker, Nieren-/ Thoraxeingriff, gynäkologische Eingriffe, Struma-OP, neurochirurgische Eingriffe 2. Reihe: alternative Universallagerfläche für Gallen-OP mit integrierter Körperbrücke, Bildverstärkereinsatz für Abdomen, Becken und untere Extremitäten, für gynäkologische/urologische Eingriffe mit Beinhalterkombination 3. Reihe: Extensionslagerfläche für Schenkelhals-OP mit Bildverstärkereinsatz, Oberschenkeleingriffe in Seitenlage, Unterschenkeleingriffe mit Bildverstärkereinsatz 4. Reihe: Einfache, längsverschiebbare OP-Lagerfläche. Spezielle Lagerungen für Orthopädie, Traumatologie und Gefäßchirurgie: Lagerfläche fußwärts längsverschiebbar für Bildverstärkereinsatz im Thoraxbereich, Lagerfläche z. B. für HWS-Eingriffe 5. Reihe: Urologielagerfläche. Lagerfläche fußwärts verschiebbar für Bildverstärkerkontrolle vom Becken bis zur Niere, Lagerfläche eingerichtet für TUR-Eingriffe 6. Reihe: Kopfchirurgische OP-Lagerfläche für sitzende Position bei neurochirurgischen Eingriffen, für HNO-Eingriffe 7. Reihe: CFK-Lagerfläche. Artefaktarme Durchleuchtbarkeit 360° auf einer Länge von 1530 mm 8. Reihe: Kinderchirurgielagerfläche. Angesteckte Beinplatten für Eingriffe bei großen Kindern, abgenommene Beinplatten für Kleinkinder
52.3 · Patientenlagerung und Vermeidung von Lagerungsschäden 835
sikalisch begründete Erklärung. Erst eine differentialdiagnostische Untersuchung des Verdachts auf Drucknekrosen konnte exogene Verbrennungsursachen eindeutig ausschließen. Einen ersten Hinweis auf eine Druckschädigung gibt eine Rötung der Haut, die nicht unmittelbar nach einem Lagerungswechsel zurückgeht. Grundsätzlich ist die Dekubitusgefährdung bei einer übergewichtigen Person nicht größer als bei einer
52
836
Kapitel 52 · Operationstischsysteme
untergewichtigen. Der Unterschied besteht darin, dass bei Übergewichtigen die geschädigten Hautregionen zwar größer, die Hautschäden aber meist weniger ausgeprägt sind; während bei Untergewichtigen die geschädigten Hautregionen kleiner, die Hautschäden meist aber ausgeprägter sind.
Mögliche Ursachen für die Entstehung von Dekubitus aufgrund der OP-Lagerung
VI
Als mögliche Ursachen für das Entstehen eines Dekubitus aufgrund der OP-Lagerungen sind zu nennen: ▬ Harte und/oder durchgelegene Operationstischpolsterung. ▬ Längere Operationsdauer bei zunehmend älteren Menschen. ▬ Hohe Eigenlast besonders bei Adipositas. Andererseits aber auch bei kachektischen Patienten, bei denen Knochen der Haut aufgrund des fehlenden oder reduzierten Fettunterhautgewebes unmittelbar anliegen. Bevorzugte Körperstellen sind hier u. a. das Kreuzbein und die Fersen. ▬ Medikamentöse Beeinflussung (Anästhetika), die den Muskel- und Gefäßtonus herabsetzen. ▬ Punktuelle Belastungen, die durch notwendige Lagerungen während der Operation entstehen.
Dekubitusprophylaxe Dekubiti können durch folgende Maßnahmen vermieden werden: ▬ Kurze Operationsdauer anstreben, da erfahrungsgemäß nach spätestens 2 h mit Hautgewebeschäden zu rechnen ist. ▬ Rechtzeitiges Auswechseln von älteren und durchgelegenen OP-Tischpolstern gegen ausreichend dicke und weiche. ▬ Sorgfältige Anpassung der einzelnen Segmente der OP-Lageflächen an den Körper des Patienten. ▬ Druckentlastung durch Abpolsterungen an den prädisponierten Stellen. ▬ Vermeiden von Hautquetschungen und Faltenbildung beim Patienten, aber auch dem OP-Tischpolster beim Lagern und intraoperativen Umlagern des Patienten.
52.3.2 Weitergehende Lagerungsschäden
und rechtliche Verantwortung Eine optimierte Patientenlagerung ist die beste Dekubitusprophylaxe! Wie Analysen der Schadensfälle seitens
der Sachverständigen ergeben haben, kommen bei vielen angemeldeten Schadensfällen Operationslagerungsschäden dennoch regelmäßig vor, die für die Patienten und für die Nachsorge (Folgekosten) ein ernstes Problem darstellen.
Durch eine unsachgemäße und inkorrekte Lagerung des Patienten auf dem Operationstisch kann es von temporären Beeinträchtigungen bis zu irreversiblen schwerwiegenden Schäden kommen. Betroffen sind in erster Linie ▬ Nerven, die traumatisiert werden ( hier insbesondere der Plexus brachialis), ▬ Augen, ▬ Haut, ▬ Muskulatur, ▬ Sehnen und Bänder. Zur Klärung der Frage der rechtlichen Verantwortung für entstandene Lagerungsschäden haben der Berufsverband Deutscher Anästhesisten und der Berufsverband der Deutschen Chirurgen zwei richtungsweisende Regelungen erstellt: Die »Vereinbarung über die Zusammenarbeit bei der operativen Patientenversorgung« sowie die Vereinbarung »Verantwortung für die prä-, intra-, und postoperative Lagerung des Patienten«. Sie besagen, dass die Lagerung des Patienten auf dem OP-Tisch zwar vor der Operation Aufgabe des Anästhesisten ist und während der Operation die des Operateurs (wohlgemerkt unter Berücksichtigung des anästhesiologischen Risikos). Doch grundsätzlich bildet sie die gemeinsame Aufgabe des Chirurgen und Anästhesisten. Für den Chirurgen bedeutet dies, dass er die ärztliche und rechtliche Verantwortung dafür trägt, dass eine eventuelle Risikoerhöhung im anästhesiologischen Bereich, die aus einer veränderten (gewünschten) Lagerung resultiert, sachlich gerechtfertig ist. Dem Anästhesisten obliegt die rechtliche Verantwortung dafür, im Rahmen seines intraoperativen Aufgabenbereichs den spezifischen Risiken Rechnung zu tragen bzw. durch besondere Vorsichtsmaßnahmen entgegenzuwirken, die aus der Lagerung entstehen. Im Zusammenhang mit der Lagerung des Patienten bei Operationen, bei denen monopolare Hochfrequenzchirurgiegeräte zum Einsatz kommen, ist auf den wichtigen Punkt der Verbrennungsgefahr hinzuweisen.
52.3.3 Patientenlagerung bei der Anwendung
von monopolaren HF-Chirurgiegeräten Das HF-Chirurgiegerät ( Kap. 28) wird eingesetzt, um gezielt Gewebe durch thermische Energie zu trennen und gleichzeitig zu koagulieren. Hierzu sind monopolare HF-Chirurgiegeräte mit einer aktiven und einer passiven Elektrode versehen. An der aktiven Elektrode, der sog. Schneide- oder Koagulationselektrode, tritt aufgrund ihrer Anwendungsformgebung eine hohe Stromdichte auf, im Gegensatz zur großflächigen, passiven Elektrode (Neutralelektrode), die den Strom ableiten soll und daher eine niedrige Stromdichte aufweist. Ursächlich für Komplikationen bei der Anwendung der monopolaren HF- Chirurgie ist zum einen die nicht
837 52.5 · Aufbereitung: Pflege, Wartung und Hygiene
sachgerechte, erdschlussfreie Lagerung des Patienten und zum anderen die fehlerhafte Applikation der Neutralelektrode. Um lokale Verbrennungen, verursacht durch HF-Chirurgiegeräte, zu vermeiden, muss der Patient vollkommen isoliert vom OP-Tisch und seinen Zubehörteilen gelagert werden sowie durch die sachgerechte Anbringung der Neutralelektrode gesichert sein. Das heißt: ▬ Der Patient ist so zu lagern, dass er mit keinen elektrisch leitfähigen Teilen wie Metallteile des OP-Tisches, Halterung, feuchte Tücher ect. in Berührung kommt (auf Extremitäten ist besonders zu achten). Zwischen Patient, OP-Tisch und Halterung muss eine elektrisch isolierende, trockene, dicke Unterlage gelegt werden, die während der Anwendung der HF-Chirurgie nicht nass werden darf (u. a. durch Blut, Spülflüssigkeiten). Da zwischen Patient und Tischpolster trockene und nichtleitfähige Tücher gelegt werden müssen, ist zur Vermeidung elektrostatischer Aufladung für die Polster eine Mindestleitfähigkeit vorgeschrieben. Wäre diese nicht gegeben, könnten Entladungsfunken (aufgrund der Reibungselektrizität) mit einer gefährlichen Zündenergie für brennbare Narkosegase oder Alkoholdämpfe entstehen. ▬ Die neutrale Elektrode ist ganzflächig gut am Körper des Patienten zu applizieren (bevorzugte Applikationspunkte sind die oberen und unteren Extremitäten), sodass sie sich auch dann nicht lösen kann, wenn sich der Patient bewegt oder bewegt wird. Hierdurch wird ein zu hoher Übergangswiderstand vermieden, der den Stromrückfluss über die Neutralelektrode stört.
52.4
Wichtige sicherheitstechnische Vorschriften für OP-Tischsysteme
Nach DIN EN 60601-1 (VDE 0750, Teil 1) ist es aus Gründen des Explosionsschutzes notwendig, dass ▬ das Operationstischsystem an den Potentialausgleichsleiter angeschlossen ist (Ausnahme: Stationäre OP-Tischsysteme, die der Schutzklasse 1 entsprechen, brauchen nicht separat an den Potentialausgleich angeschlossen werden, da deren Schutzleiter (PE) diese Funktion übernimmt) und ▬ die Operationstischauflage elektrisch leitfähig ist, damit Reibungselektrizität ohne Funkenbildung über das geerdete Operationstischsystem abfließen kann. Ohne eine leitfähige Operationstischunterlage kann es zu sog. Büschelentladungen kommen. Diese können ein eventuell vorhandenes Luft-Gas-Gemisch zünden. Es dürfen nur Materialien aus Gummi oder Kunststoffe mit einem Oberflächenwiderstand zwischen 5×104 und 106 Ohm als Abdeckung der Operationstischlagerfläche verwendet werden. Auf das geerdete Operationstischsystem kommt zunächst die ableitfähige Operationstischauf-
lage. Darauf wird eine isolierende, starke und reißfeste Unterlage angebracht. Auf diese Tischpolsterung kommt weiterhin eine saugfähige Patientenunterlage. Nach VDE 0100-710 können Operationstischsysteme über eine FI-Schutzschaltung betrieben werden anstatt über ein IT-Netz (alter Begriff für Schutzleitersystem). OP-Tischsysteme sind der Klasse 1 gemäß Medizinproduktegesetzt (MPG) zugeordnet.
52.5
Aufbereitung: Pflege, Wartung und Hygiene
52.5.1 Manuelle Reinigung und Desinfektion
Nach jeder Operation müssen speziell die OP-Lagerflächen sowie die benutzten Transporter des OP-Tischsystems neu aufbereitet, d. h. sorgfältig gereinigt und desinfiziert werden. Die Reinigung und Desinfektion wird insbesondere in kleineren Krankenhäusern vielfach vom Hilfspersonal im Operationsbereich, gegebenenfalls auch vom Pflegepersonal, manuell durchgeführt. In Anbetracht der vielfältigen Unterteilung des gesamten OP-Tischsystem und des hohen hygienische Anspruchs stellt sich eine manuelle Reinigung als nicht immer zuverlässig dar. Sie ist überdies zeit- und personalaufwändig. Den hygienischen Aspekten, Wartungsarbeiten und eventuellen Reparaturen wird bereits bei der Konstruktion insofern Rechnung getragen, als z. B. das Oberteil des OP-Tisches ebenso wie die Verkleidung von Säule und Fuß überwiegend aus glattflächigen einzelnen Bauteilen aus Chromnickelstahl, die sich problemlos entfernen lassen, bestehen, bzw. insofern, als die elektrisch leitfähigen Kugellagerrollen, durch die der mobile OP-Tisch in alle Richtungen bewegt werden kann, für Inspektion und Reinigung von oben leicht zugänglich sind. Speziell hier zeigen sich deutliche Vorteile beim OP-Tischsystem, da sich Lagerflächen und Transporter leicht und problemlos in die entsprechenden Reinigungsräume fahren lassen; eventuell anstehende Reparaturen können, ohne dass der OP-Ablauf gestört wird, ebenfalls außerhalb des OP-Traktes durchgeführt werden.
52.5.2 Automatische OP-Tischsystemreinigung
und -hygiene Eine zweite Möglichkeit bieten sog. Dekontaminationsmaschinen, die die Reinigung, Desinfektion und Trocknung von geeigneten OP-Lagerflächen, Lafetten sowie OP-Zubehör automatisiert ausführen. Diese Alternative findet bisher hauptsächlich in größeren Operationszentren Anwendung, da sie im Gegensatz zur manuellen Reinigung und Desinfektion weder personal- noch zeitintensiv ist. Ein weiterer, nicht unerheblicher Vorteil ist darin
52
838
VI
Kapitel 52 · Operationstischsysteme
zu sehen, dass ein automatisierter Ablauf mittels Maschine – Einhaltung der Bedienungsanweisung vorausgesetzt – ein Maximum an Hygiene bietet. Bei der manuellen Reinigung dagegen ist das Ergebnis von der Sorgfalt des Personals, aber auch vom Zeitaufwand abhängig. In der Dekontaminationsmaschine beträgt die Zykluszeit, darunter sind die einzelnen Vorgänge wie Reinigung, Desinfektion, Zwischentrocknung, Klarspülvorgang und Endtrocknung zu verstehen, im Mittel 10 min. Hierbei muss angefügt werden, dass die Zykluszeit abhängig ist vom Grad der Verschmutzung und somit variiert. Alle während dieses Prozesses anfallenden Daten werden in einer Chargendokumentation festgehalten, um nachvollzogen werden zu können. Aus der Sicht des Pflegepersonals stellt dies nicht nur eine Erleichterung und damit eine erhebliche Verbesserung der Arbeitsbedingungen dar, sondern trägt darüber hinaus zur Optimierung sicherer Arbeitsabläufe im Operationsbereich bei.
52.5.3 Wartung
Neben der laufenden Reinigung und Desinfektion des OP-Tisches als Voraussetzung für aseptisches Arbeiten ist es aufgrund der vielfältigen elektromotorischen bzw. hydraulischen oder elektrohydraulischen Ansteuerung unerlässlich, das OP-Tischsystem regelmäßig zu warten, um Ausfallzeiten zu vermeiden und die Betriebssicherheit für Patient und OP-Personal sicherzustellen.
52.6
Planerische Hinweise
Die Planung der Einrichtung eines Operationssaals wird wesentlich von der chirurgischen Disziplin beeinflusst, die je nach Größe des OP-Raumes auch die Wahl des Fixpunktes einer fest montierten OP-Tischsäule bestimmt. An diesem Fixpunkt unter Einschluss der einzusetzenden OP-Lagerflächen orientieren sich wiederum OP-Leuchten, Deckenstativ für die Anästhesie und Chirurgie, deckengebundene C-Bogen oder Operationsmikroskope sowie Klimadecken, Klimafelder u. a. Die Abstimmung des Umfelds um ein fest installiertes OP- Tischsystem stellt eine sinnvolle Unterstützung der wirtschaftlich effektiven und ergonomischen Nutzung des OP-Raumes dar. Dieser ökonomische Aspekt wird auch in Zukunft weiterhin an Bedeutung gewinnen.
Weiterführende Literatur Krettek-Aschemann (2005) Lagerungstechniken im Operationsbereich. Springer Medizin Verlag, Heidelberg Lauven PM et al. (1992) Lagerungsschäden – ein noch immer ungelöstes Problem? Anästhesiol Intensivmed Notfallmed Schmerzther 27: 391–392
von der Mosel H (1992) Medizintechnik für Pflegekräfte. Bibliomed, Melsungen Oehmig H (1994) OP-Tisch-Technik heute. Trennung von Säule und Platte. KrankenhausTechnik 7: 18–21 Roos E (1992) Sinn und Zweck der erdschlussfreien Patientenlagerung auf OP-Tischen. MTD 11: 38–40 Schindler H (1985) Arbeitsgebiet Operationssaal. Lagerungen, Hygiene, Verfahren. Enke, Stuttgart Witzer K (1991) FMT-Fachwissen Medizin-Technik, Foge 7. MTD, Amtzell DIN 57 753, Teil 1/VDE 0753, Teil I/2.83, IV: Operationstischsysteme
53 Biomaterialien L. Kiontke 53.1 Klassifikation von Biomaterialien – 839 53.2 Entwicklungsgeschichte Endoprothetik – 839 53.3 Physiologische und pathologische Grundlagen – 841 53.4 Mechanik und Biochemie – 842 53.5 Faktoren für die Integration von Knochenimplantaten – 842 53.5.1 Bedingungen für die Osseointegration
53.7 Herausforderung »Verschleiß« 53.7.1 53.7.2 53.7.3 53.7.4 53.7.5 53.7.6 53.7.7
53.8 Ausblick
– 851
Literatur
– 852
– 842
– 848
Tribologie – 848 Ermüdungsabrieb – 848 Adhäsiver Abrieb – 848 Abrassiver Abrieb – 849 Metallgleitpaarungen – 849 Keramikgleitpaarungen – 850 Polyethylengleitpaarungen – 850
53.6 Mechanische Eigenschaften von Implantaten in der Endoprothetik – 845 53.6.1 Metalle als Knochenimplantat – 845 53.6.2 Keramiken in der Endoprothetik – 846 53.6.3 Polymere in der Endoprothetik – 846
Der Funktionsersatz menschlicher Organe und Gewebe durch körperfremde Materialien gewinnt in den nächsten Jahren zunehmend an Bedeutung. Förderlich sind hier das dramatisch wachsende Wissen über die pathophysiologischen Grundlagen der Organe und die biologischen Voraussetzungen für die Integration körperfremder Werkstoffe. Im Gegensatz zu Transplantaten bzw. zur zukünftigen Gewebereproduktion sind künstliche Implantate kostengünstig sowie unbegrenzt herzustellen und erlauben reproduzierbare Operationstechniken. Neben dem Knochen-, Knorpel- und Gelenkersatz am menschlichen Stützapparat werden körperfremde Werkstoffe heute standardisiert beim Gefäßersatz oder zur Gefäßaufweitung, beim Herzklappenersatz, als Hautimplantat, zum Ersatz der Linse des Auges, zur elektrophysiologischen Stimulation oder als Speicher für bioaktive Präparate verwendet. Eine vollumfängliche Betrachtung würde den Rahmen dieses Artikels sprengen.
53.1
Klassifikation von Biomaterialien
Neben den nicht-organischen Werkstoffen gibt es eine Vielzahl an organischen Biomaterialien zum Ersatz oder Teilersatz von Organen, deren Einsatz in der klinischen Praxis zumindest heute noch limitiert ist. Eine der wenigen Ausnahmen stellt der Herzklappenersatz mit modifizierten Xenografts vom Schwein oder Rind dar. Zudem gibt es eine Vielzahl an neuen Verfahren im Bereich des sog. Tissue Engineering, bei dem weitestgehend autologe Gewebeentnahmen auf einer Trägerstruktur vermehrt
und wieder reimplantiert werden. Mitfristresultate stehen in diesem Bereich aber noch aus. Darum wird sich dieser Artikel auf das häufigste Einsatzgebiet von Biomaterialien konzentrieren: die Endoprothetik. Zur Veranschaulichung der heute vielfältigen Einsatzgebiete von nicht-organischen Biomaterialien soll jedoch zunächst der Versuch einer Klassifikation unternommen werden (⊡ Tab. 53.1). Nähere Erläuterungen der dort verwendeten Begriffe gibt ⊡ Tab. 53.2.
53.2
Entwicklungsgeschichte Endoprothetik
Bereits 1840 pflanzte Carnochan in New York ein Stück Holz in ein menschliches Kiefergelenk. Seit 1906 verwendete man körperfremde Interponate wie Silber, Magnesium, Zink, Elfenbein, Gold, Zelluloid als Ersatzmaterial für kleinere Knochendefekte. Die eigentliche erste Ersatzarthroplastik wurde 1890 von dem Deutschen T. Gluck eingeführt: eine Kniegelenktotalprothese aus Elfenbein, verankert mit gipsbasiertem Zement. 1922 ersetzte Groves-Hey den Hüftkopf durch ein Elfenbeinimplantat. Die erste Abhandlung über eine Endoprothese und ihre klinischen Ergebnisse erschien 1939 im Journal of Bone and Joint Surgery unter dem Titel »Arthroplasty of the Hip«. Die Autoren Smith und Petersen berichteten über eine Femurkopf-Kappen-Prothese aus Glas, später dann aus Vitallium, einer Chrom-Kobalt-Legierung. Typisch für den beschriebenen Prothesentyp waren Nekrosen und somit der Verlust von Knochen unter dem Implantat.
840
Kapitel 53 · Biomaterialien
⊡ Tab. 53.1. Biomaterialien für Implantate Biomaterial
Biodynamik
Einsatzbereich
Aluminiumoxid-/Zirkonoxidkeramik
Bioinert
Artikulationsflächen in der Endoprothetik Dentalimplantate Mittelohrimplantate
Resorbierbare Keramiken (Hydroxylapatit)
Bioaktiv
Beschichtung von Endoprothesen Füllmaterial bei größeren Knochendefekten Dentalimplantate
Glasbasis/ Glaskeramiken
Bioaktiv
Beschichtung von Endoprothesen Füllmaterial bei größeren Knochendefekten Dentalimplantate Mittelohrimplantate
FeCrNi-Stahllegierungen
Biotoleriert
Implantate für zementfreie und zementierte Fixation in der Endoprothetik Knochenplatten- und Schrauben Drähte/Cerclagematerial
CoCr-Legierungen
Biotoleriert
Implantate für zementfreie und zementierte Fixation in der Endoprothetik Knochenplatten- und Schrauben Artikulationsflächen Herzklappenersatz Drähte/Cerclagematerial
Titanbasislegierung
Biokonduktiv
Implantate mit direktem Knochenkontakt Beschichtung von Implantaten
Rein-Titan Rein-Tantal
Biokonduktiv
Implantate mit direktem Knochenkontakt Beschichtung von Implantaten
Polyethylen (PE)
Bioinert
Artikulationsflächen in der Endoprothetik
Polypropylen (PP)
Bioinert
Nahtmaterial Herzklappenersatz
Polyethylenterephtalat (PET)
Bioinert
Künstliche Blutgefäße Nahtmaterial
Polyamid (PA)
Bioinert
Herzklappenersatz
A) Keramische Werkstoffe
B) Metallische Werkstoffe
VI
C) Polymere
Polytetrafluorethylen (PTFE)
Bioinert
Künstliche Blutgefäße
Polymethylmethacrylat (PMMA)
Bioinert
Knochenzement Intraokulare Linsen Zahnersatz
Polyurethan (PU)
Bioinert
Künstliche Blutgefäße Hautimplantate Herzklappenersatz
Polysiloxan
Bioinert
Hautimplantate Brustimplantate Herzklappenersatz Künstliches Herz
Polyetheretherketon (PEEK) Polysulfon (PSU) im Kohlenstofffaserverbund
Bioinert
Osteosynthese Hochbeanspruchte Knochenimplantate
Polyhydroxylmethacrylat (PHEMA)
Bioinert
Intraokulare Linsen
⊡ Tab. 53.2. Begriffsbestimmung (zu Tab. 53.1 und Tab. 53.3) Begriff
Definition
Bioinert
Keine Freisetzung von toxischen Substanzen, keine positive Interaktion mit dem Gewebe; Reaktion: Bindegewebskapsel um das Implantat
Biokonduktiv
Knöchernes Gewebe wird an die Implantatoberfläche geführt und in Strukturen und Poren fest integriert
Bioaktiv
Positive Interaktion mit Gewebedifferenzierung; Reaktion: Bindung von Knochen
841 53.3 · Physiologische und pathologische Grundlagen
Der erste zementfreie Hüftgelenkersatz wurde 1938 von P. Wiles erläutert: eine durch zwei Schrauben fixierte stählerne Hüftpfanne sowie ein durch den Schenkelhals verlaufender Schaft mit Stahlkopf. Moore und Bohlmann entwickelten 1940 die erste im Markraum des Oberschenkelknochens verankernde Vitalliumprothese. Die erste Endoprothese aus dem ältesten, heute noch als Knochenzement verwendeten Material in der Endoprothetik, Polymethylmethacrylat (PMMA) wurde 1950 von Judet eingeführt. Eine lange Spezialendoprothese mit Verankerung im Markraum des Oberschenkelknochens wurde 1954 erstmals von dem Franzosen Merle d‘Aubigné implantiert und fand bis in die 1960er Jahre Verwendung. Die bis dahin eher bescheidene Überlebensdauer der Prothesentypen wurde 1960 durch den Engländer J. Charnley revolutioniert. Seine erste Entwicklung bestand aus einer Hüftendoprothese mit PTFE-Pfanne und Kopfersatz aus 316L-rostfreiem Stahl (⊡ Abb. 53.1). Das theoretische Prinzip war hier ein im Markraum konisch verblockender Schaft, der sich bei möglichen Mikrobewegungen jederzeit wieder selbst verkeilen konnte. Außerdem erreichte man hierdurch eine sofortige Primärstabilität des Implantates. Der Schaft wurde durch den Zement PMMA fixiert. Eine weitere Besonderheit war ein großer Kopf mit 42 mm Durchmesser, der den Reibungswiderstand reduzieren sollte. Der große Nachteil dieser ersten Innovation von Charnley war der immense Kaltfluss des PTFEs (näher bekannt als Teflon) als Pfannenmaterial. Es kam zu frühen und schwerwiegenden Pfannenlockerungen. Darauf begründete er seine zweite, große Innovation, die bis heute in modifizierter Form beim Hüftgelenkersatz verwendet wird: eine zementierte Polyethylenpfanne mit relativ kleinem Metallkopf als Artikulationspartner. Parallel zu Charnley verfolgte McKee die Philosophie der Metall-Metall-Gleitpaarung am Hüftgelenk gemäß Wiles. McKee versorgte 1951 erstmals 3 Patienten mit einer metallenen Schraubpfanne, die nach Lockerungsproblemen 1970 durch eine zementierte Pfanne aus KobaltChrom ersetzt wurde (⊡ Abb. 53.2). Beide Grundkonzepte von McKee und Charnley beherrschten die Endoprothetik des Hüftgelenks über Jahrzehnte. Warum das so war, soll unten erläutert werden.
53.3
Physiologische und pathologische Grundlagen
Am Beispiel der Frakturheilung kann die Einheilung von Implantaten gut beschrieben werden. Wolff und Pauwels stellten fest, dass die Knochenmorphologie geänderten Belastungen folgt. Dies geschieht während der Wachstumsphase beim Kind genauso wie nach pathologischen Veränderungen von Gelenken und Stützapparat. Diesen
⊡ Abb. 53.1. Hüftgelenkprothese nach Charnley
⊡ Abb. 53.2. Hüftgelenkprothese nach McKee
Prozess der Anpassung nennt man auch Modelling oder Remodelling des Knochens. Bei einer Fraktur bildet sich zunächst ungerichteter, filzartiger Faserknochen. Faserknochen ist überall dort zu finden, wo eine beschleunigte Knochenneubildung von Bedeutung ist. Die Knochenbildung geht hierbei grundsätzlich von den Blutgefäßen aus, die im Frakturzwischenraum bindegewebig einsprießen und sich diffus verteilen. Im Anschluss daran bildet sich über Wochen neuer, lamellärer Knochen. Hierbei bestimmt die Lastverteilung das Zusammenwachsen und die Neuausrichtung der trabekulären Knochenstruktur. Die Knochentrabekel des lamellären Knochens stehen wie Säulen in
53
842
Kapitel 53 · Biomaterialien
Richtung der einwirkenden Kraft, um eine maximale Stabilität zu gewährleisten. Während dieses wochenlangen Remodellings kommt es zu einem ständigen Knochenabbau durch sog. Osteoklasten und Wiederaufbau durch Osteoblasten. Bei einer Fraktur erfolgt die Bildung faserigen Knochengewebes von beiden Seiten des Frakturspalts. Bei einem Implantat erfolgt dies nur von einer Seite des Zwischenraums. Das neue Gewebe wächst auf die Prothese zu. Hierbei ist nun die Größe der zu überbrückenden Distanz wichtig. Bei Distanzen über 1 mm benötigt die Einheilung eines Implantats mehrere Monate.
53.4
VI
Mechanik und Biochemie
Ein entscheidender Faktor für die Integration und Akzeptanz von Biomaterialien im menschlichen Körper ist die Art des angrenzenden, organtypischen Gewebes. Beispiele solcher Organe sind Blut, Gefäße, Herzmuskel, Fettgewebe, Haut und Knochen. Haben sich bei Gefäßund Herzimplantaten, wie bspw. beim Herzklappenersatz, bei Stents oder Gefäßersatzprothesen eher glatte und elastische Materialien fest etabliert, so finden wir bei Knochenimplantaten vorwiegend mechanisch rigide, oft angerauhte Implantate. Aber auch Ausnahmen von dieser Regel sind hier zu erwähnen. Beispielsweise forciert man in jüngster Zeit wieder mit rauhen Oberflächen beschichtete Implantate im Blutstrom, um das Einwachsen des Implantats biochemisch zu begünstigen. Dies steht zunächst im Widerspruch zu dem Ziel, durch glatte Oberflächen ein Anhaften von Plättchen sowie Leukozyten und damit die Auslösung einer entzündlichen und immunologischen Reaktion möglichst zu verhindern. Jedoch stellt man fest, dass bestimmte Werkstoffe in Verbindung mit einer mikroporösen Oberfläche eine Beschleunigung der Ummantelung des Implantats mit einem funktionsfähigen Endothel ermöglichen. Bei Versuchen mit beschichteten Koronarstents an Tieren ließen sich deutlich geringere Restenoseraten ermitteln. Verständlich wird dies dann, wenn man die reduzierenden Eigenschaften des Iridiumoxids berücksichtigt. Diese gewährleisten eine Unterdrückung der bei der Fremdkörperantwort freiwerdenden Radikale. Die freien Radikale nämlich in ihrer Eigenschaft als aggressive, fremdkörperlösende Substanz behindern auch die Bildung körpereigenen Gefäßendothels (Alt et al. 1999). Die theoretischen Betrachtungen über die Vor- und Nachteile eines Biomaterials sowie deren In-vitro-Einsatz kann oft nicht auf die Wirkung im menschlichen Organismus projiziert werden. Neue Erkenntnisse über Fremdkörperreaktion und biomechanische Antwort motivieren also immer wieder zur klinischen Untersuchung neuer Werkstoffe.
53.5
Faktoren für die Integration von Knochenimplantaten
Eine Endoprothese – bspw. zum Gelenkersatz – soll den natürlichen Belastungen des Körpers standhalten können. Druck- und Zugkräfte könnnen hierbei Spitzenwerte von bis zum 4,5-fachen des Körpergewichts erreichen. Welche Faktoren sind entscheidend für die Akzeptanz knöcherner Implantate? Man geht heute davon aus, dass ein möglichst homogener Ersatz des natürlichen Knochens bezüglich Mechanik und Knochenumbauvorgängen gewährleistet sein muss. Die Voraussetzungen für den knöchernen Einbau eines Implantats, die sog. Osseointegration (Braunemark et al. 1973), sind heute weitgehend geklärt. Ein geeigneter Werkstoff ist hierbei nur eine von vielen Bedingungen für eine gute Osseointegration.
53.5.1 Bedingungen für die Osseointegration
Primärstabilität des Implantats Nur wenn das Implantatdesign Relativbewegungen zum Knochen vermeidet, gelingt ein Anwachsen von Knochensubstanz ohne Bildung von störendem Bindegewebe. Die Primärstabilität wird in erster Linie durch die Art der mechanischen Verbindung (Fügen) zwischen Knochen und Implantat gewährleistet. Die ⊡ Abb. 53.3 zeigt als Beispiel eines heute üblichen Verbindungsverfahrens in der Endoprothetik die Keilverbindung durch Konusform. Ein weiterer Faktor für die Primärstabilität des Implantatmaterials ist eine möglichst hohe Beanspruchbarkeit bezüglich Druck, Zug und Biegung bei gleichzeitig dem Knochen angepasster Elastizität.
Biodynamisches Implantatmaterial Grundsätzlich eignen sich bioinerte, mit dem Organismus möglichst keine biochemischen Reaktionen eingehende Werkstoffe für endoprothetische Versorgungen. In der klinischen Praxis zeigen sich insbesondere biokonduktive Werkstoffe wie das Titan und seine Legierungen als überlegen bezüglich Geschwindigkeit und Umfang der Osseointegration. Ein ausschließlich inertes Material wie die Aluminiumoxidkeramik ist sogar für den direkten Knochenkontakt wegen Knochenverlustes auszuschließen. ⊡ Tab. 53.3 zeigt, dass es für jeden Einsatzbereich und jede Beanspruchungsform eines Implantats bevorzugte Werkstoffe geben muss. Die Titanbasislegierungen sowie bioaktive Keramiken wie Hydroxyapatit als Oberflächenmaterial erlauben eine ausreichende Osseointegration für eine stabile Langzeitfixierung von Implantaten. (Zur Erläuterung der in der Tabelle verwendeten Begriffe siehe ⊡ Tab. 53.2).
843 53.5 · Faktoren für die Integration von Knochenimplantaten
⊡ Tab. 53.3. Materialien in der Endoprothetik Biomaterial
Biodynamik
Verwendung
Aluminiumoxid-/Zirkonoxidkeramik ISO 6474
Bioinert
Artikulationsflächen
CoCr-Legierungen und medizinischer Stahl ISO 5832
Biotoleriert
Implantate für zementfreie und zementierte Fixation Artikulationsflächen
Polyethylen ISO 5834-1/-2
Biotoleriert
Artikulationsflächen Hüftpfannenkomponenten ohne Knochenkontakt!
Knochenzement (Polymethylmetacrylat)
Biotoleriert
Verbindung von Implantat (CoCr- oder Stahllegierungen) mit vitalem Knochen Temporäre Fixierung von Knochen
Titanbasislegierung ISO 5832-11
Biokonduktiv
Implantate mit direktem Knochenkontakt Beschichtung von Implantaten
Resorbierbare Keramiken/Gläser (Hydroxyapatit)
Bioaktiv
Beschichtung von Implantaten Füllmaterial bei größeren Knochendefekten
⊡ Abb. 53.3. Primärstabilität: Keilverbindung durch Konusform
Osteophile Implantatoberfläche Was macht einen Werkstoff mehr oder weniger geeignet für die Osseointegration? Maßgeblich ist hierbei seine Oberfläche und das Vermögen, das Anwachsen von Knochen zu unterstützen. Die Oberfläche von Titanimplantaten passiviert sich in der Umgebung von Luft oder oxidierenden Flüssigkeiten durch Bildung einer selbstheilenden Titanoxidschicht. Hydroxylionen binden sich leicht an der Titanoxidoberfläche und bieten eine Angriffsfläche für die Bindung von Aminosäuren. Dieser konduktiven Eigenschaft verdanken Titanimplantate eine beschleunigte Bildung von initialem Faserknochen nach instrumenteller Vorbereitung des Knochenbetts. Durch Koruntstrahlung von Titanimplantaten erreicht man zusätzlich eine Nachbildung der Knochenmakrostruktur, was eine Verankerung der Knochentrabekel am Implantat und in der »Kraterlandschaft« der Oberfläche zusätzlich begünstigt (⊡ Abb. 53.4, auch 4-Farbteil am Buchende).
Besonders vorteilhaft für das schnelle An- und Einwachsen des Knochens scheint eine neuartige Oberflächenstruktur zu sein: das sog. Trabecular Metal. Dieses besteht aus einer dem spongiösen Knochen ähnlichen amorphen Kohlenstoffträgerstruktur, welche im Vakkuum erhitzt und mit Tantal beschichtet wird. Es entsteht eine Struktur mit etwa 80% Porosität und 550 µm Porengrösse. Nach etwa 2–3 Monaten kann eine 2–3 mm dicke Struktur komplett von Knochen durchbaut werden. Trabecular Metal hat unter allen metallischen Implantaten die höchste Übereinstimmung mit der Komprimierbarkeit von spongiösem und der Elastizität von kortikalem Knochen. Die ⊡ Abb. 53.4c zeigt die mikroskopische Ähnlichkeit mit spongiösem Knochen (⊡ Abb. 53.4d). Das Material wird weitestgehend als Oberfläche für Hüftpfannen und zementfreie Kniesysteme, zur Wirbelkörperfusion oder für den Knochenersatz bei größeren Knochendefekten verwendet.
Hydroxyapatitbeschichtung (HA-Beschichtung) Die Kalziumphosphatbeschichtung von zementfrei fixierten Implantaten hat in den letzten Jahren zunehmendes Interesse gefunden. Das dafür erforderliche Hydroxyapatit (HA) entspricht dem anorganischen Grundmaterial Kalziumphosphat des Knochens. Die keramischen Eigenschaften dieses Materials erlauben ein rigides Anhaften an Implantatoberflächen, auch bei kraftvollem und reibungsintensivem Einbringen von Endoprothesenschäften oder Pfannen. Da der Knochen in den ersten Wochen eine chemische Bindung mit Hydroxyapatit eingeht, ist eine sehr feste Verbindung mit lebendem Knochengewebe zu erreichen, die fester ist als jede Art von Verbindung mit einer Metalloberfläche. An dieser Art Beschichtung lässt sich auch leicht nachvollziehen, wie wichtig die Berücksichtigung verschiedener Implantateigenschaften sein kann.
53
844
Kapitel 53 · Biomaterialien
Denn Hydroxyapatitbeschichtungen sind zwar rauh, aber nicht porös aufgebracht. Druck- und Zugkräfte, aber auch Scherkräfte werden sehr gut übertragen. Allerdings bestehen zwischen dem metallenen Implantat und der HA-Beschichtung große Unterschiede beim E-Modul, was eine sehr sorgfältige Fertigung und Implantationstechnik erfordert. Beim grobgestrahlten Titan findet sich nach knöcherner Integration ein festes Interface zwischen Knochen und Implantat. An HA-beschichteten Explantaten kann man jedoch sehr gut beobachten, dass das Hydroxyapatit im Rahmen des knöchernen Umbaus integriert wird und der Knochen dann wiederum einen direkten Kontakt mit der Implantatoberfläche besitzt. Der Vorteil der HA-Beschichtung liegt also in einer beschleunigten knöchernen Integration, was je nach Indikation gewünscht sein kann.
VI Vitale Knochenumgebung
c
d ⊡ Abb. 53.4a–d. a Titanexplantate mit deutlicher knöcherner Integration, b Anwachsen auf grobgestrahlter Oberfläche, c Trabecular Metal und d spongiöser Knochen
Wie vorausgehend beschrieben, ist die Langzeitstabilität einer Endoprothese maßgeblich von der knöchernen Integration abhängig. Fast ebenso wichtig wie das Implantat selbst und seine Eigenschaften ist also die Art des dieses umschließenden Gewebes. Vor Implantation einer Endoprothese findet man ein beschädigtes und krankhaft verändertes Gelenk. Diese Veränderungen betreffen in aller Regel den Gelenkspalt selbst, der durch Synovia (Gelenkflüssigkeit) und Knorpel die Kraft der sich gegeneinander bewegenden Skelettkomponenten überträgt. Durch Knorpelschädigung oder belastungsinduzierte Veränderung der Gelenkmorphologie entstehen neue Belastungszentren und »entlastete« Regionen, mit teilweise abbrassiver oder adhäsiver Gewebsschädigung, sowie Riss- und Lückenbildung. Der Körper reagiert darauf durch Bindegewebsbildung zur Schließung dieser Lücken oder entlasteten Bereiche. An den anschließend – krankhaft bedingt – neu belasteten Bereichen findet man oft eine reaktive Knochenneubildung in Form von Spangen, Höckern, Randzacken oder flächenhaften Auflagerungen. Diese werden Osteophyten genannt. Die Knochenneubildung und das Anwachsen an das Implantat ist nun entscheidend für die Integration des Implantats. Nur wenn ausreichend spongiöser, lamellenartiger, vitaler Knochen Kontakt mit dem Implantat hat, ist eine schnelle Einheilung des Implantats gewährleistet. Voraussetzung für die Herstellung des Primärinterface zum Implantat ist also die Entfernung aller störenden Zwischenschichten wie Bindegewebe, Osteophyten, Granulome, aber auch Knorpel und faseriger Knochen. Den zugehörigen Operationsschritt nennt man Anfrischen des Knochens. Osteophyten werden entfernt und z. B. die Hüftgelenkspfanne ausgefräst zur Erreichung des lamellären Knochens als Grundstock für die einzusetzende Titanpfanne.
845 53.6 · Mechanische Eigenschaften von Implantaten in der Endoprothetik
Belastung des Implantats Nehmen wir das Hüftgelenk als Beispiel für diesen Abschnitt. In der Einleitung wurde erläutert, wie wichtig die Kraftübertragung als Reiz für die Knochenbildung oder den Umbau ist. Dies trifft auch auf das Anwachsen von Knochen an Implantate zu. Lamellärer Knochen wird zunächst regional beschränkt abgebaut, und faseriger Knochen »überspringt« anschließend unter Einbindung versorgender Blutgefäße den Zwischenraum zum Implantat. Dieser darf 1–2 mm nicht überschreiten, um die langfristige Bildung von – zur Kraftübertragung ungeeignetem – Bindegewebe zu unterbinden. Kontinuierliche Druckkräfte zwischen angefrischtem Knochen und Implantat sind entscheidend für den beschriebenen Knochenumbau. Zunächst kann man durch die Form des Implantats (konische Verblockung, PressFit-Prinzip) eine kontinuierliche Vorlast auf den Knochen einwirken lassen. Ergänzend hat sich heute die postoperative, frühzeitige Teilbelastung des Gelenks als wirkungsvolle Maßnahme zur schnellen, effizienten Osseointegration etabliert.
Abrieb und Dauerfestigkeit Schon recht früh, beim Einsatz z. B. von PTFE (Teflon) als Pfannenkomponente, hat sich gezeigt, dass der Erfolg für die Langzeitstabilität von der Abriebfestigkeit bedeutend beeinflusst wird. Aber nicht nur im Pfannenbereich, sondern auch am Übergang von Schaftkomponenten zum Knochen entstehen Mikrobewegungen, die bei ungeeigneten Materialkombinationen zu metallischem Abrieb und in der Konsequenz zur Fremdkörperreaktion führen. Die allmähliche Resorption des vitalen Knochens und eine Schwächung des umgebenden Weichteilgewebes sind unausweichlich. Gemäß wissenschaftlicher Definition und den in der Praxis vorwiegend angewendeten Materialien und Methoden zur sicheren Primärstabilität und Osseointegration ist der Abrieb der heute bedeutendste Faktor für die Langzeitstabilität eines Knochenimplantats. Er soll in Abschn. 53.7 »Herausforderung Verschleiß« darum besonders beleuchtet werden.
53.6
Mechanische Eigenschaften von Implantaten in der Endoprothetik
Bis Ende der 1980er Jahre wurde mehrfach über Brüche von Endoprothesenschäften aus Stahl oder CoCr-Legierungen berichtet. Durch die Entwicklung neuer Designs und Prüfmethoden, wie die Finite-Elemente-Computermodell-Analyse und gelenkäquivalente Belastungssimulation, können diese Ermüdungsbrüche heute in aller Regel ausgeschlossen werden. Die Grundlagen der me-
chanischen Eigenschaften von Knochenimplantaten sind dennoch sehr wichtig für das Verständnis der Einsatzgebiete und zur Vermeidung von Fehlindikationen bei deren Einsatz.
53.6.1 Metalle als Knochenimplantat
Das Metallgefüge besteht aus kristallinen Körnern, den Kristalliten, deren chemische Zusammensetzung, Form, Größe und Anordnung die mechanischen Eigenschaften des Materials definieren. Die besondere plastische Verformbarkeit der metallischen Werkstoffe beruht auf frei beweglichen Elektronen innerhalb des Ionengitters, die das Gitter auch bei modifizierter Morphologie gut zusammen halten. Dabei kann ein Ion oft durch ein andersartiges ersetzt werden, was durch die gute Legierungsfähigkeit deutlich wird. Einige Metalle, wie Eisen, bestehen in der höchsten Reinheitsstufe aus einem eher heterogenen Kristallgemisch, welches gern oxidiert und damit eher spröde Eigenschaften hat. Die Ursache ist eine recht kurze Erstarrungsphase vom flüssigen in den kristallinen, festen Zustand. Durch Hinzufügen von bspw. Nickel oder Chrom verändert man das Erstarrungsverhalten. Das Wachstum von Kristallen wird nun über einen längeren Temperaturbereich gestreckt und damit zeitlich und von der Intensität her verlängert. Es entsteht entweder ein feineres Kristallgemisch, bei dem jedes Metall eigene Kristalle bildet, oder ein Mischkristall, bei dem die Bestandteile der Legierung ein gemeinsames Gitter innerhalb eines Kristalliten bilden. Die höhere Härte und Festigkeit von Legierungen gegenüber einem Einstoffmetall erklären sich aus den Unregelmäßigkeiten im Gitteraufbau. Haben die eingelagerten Atome der Legierungsbestandteile einen größeren Durchmesser als die Atome des Grundstoffs, bewirken sie eine Verspannung des Grundgitters. Bei äußerer Krafteinwirkung wird diese Verspannung und der zusätzliche Reibungswiderstand infolge der unterschiedlichen Atomgrößen und das Wandern des Gitters erschwert. Der Einfluss von Legierungsbestandteilen in medizinischen Metallimplantaten auf die mechanischen Eigenschaften soll durch ⊡ Tab. 53.4 kurz verdeutlicht werden. Die Homogenität und Ausrichtung des Metallgitters kann zusätzlich durch die Art der Verformung beeinflusst werden. Während bei Gusslegierungen das Kristallgefüge weitestgehend durch thermische Behandlung bestimmt wird, kann man durch Walzen, Schmieden, Ziehen oder Pressen die Kristallitform und den Faserverlauf zusätzlich günstig beeinflussen. Doch auch hier spielt der Legierungsanteil eine bedeutende Rolle. So nimmt die Schmiedbarkeit eines Stahls mit steigendem Kohlenstoffanteil ab. Beim Schmieden
53
846
Kapitel 53 · Biomaterialien
⊡ Tab. 53.4. Eigenschaften metallischer Legierungsbestandteile Legierungsbestandteil
VI
Einfluss auf das Metallgefüge
Kohlenstoff
(C)
Eisenbegleiter wie (Phosphor, Schwefel) bei Roheisen reduzierend: Veredelung des Stahls
Chrom
(Cr)
Steigert Festigkeit und Härte, erhöht die Korrosionsbeständigkeit, Warmfestigkeit und Schneidhaltigkeit
Nickel
(Ni)
Kornverfeinerung und Homogenisierung des Metallgefüges und dadurch Erhöhung von Zähigkeit, Festigkeit sowie Korrosionsbeständigkeit
Cobalt
(Co)
Erhöht Härte und Schneidhaltigkeit
Mangan
(Mn)
Verschleißfestigkeit, Nickelersatz (Kornverfeinerung)
Vanadium und Molybdän
(V) und (Mo)
Erhöhung von Härte, Korrosionsbeständigkeit, Zähigkeit und Warmfestigkeit
muss die Elastizitätsgrenze des Werkstoffs überschritten werden. Die Körner werden nicht nur verformt, sondern auch verlagert, wobei sie an den Korngrenzen gleiten und versetzt werden. Wichtig ist hier, dass die Kornverformung von der Lage im zu schmiedenden Werkstück abhängt. Das heißt, durch gezielte Schmiedetechnik werden die mechanischen Eigenschaften des Werkstücks dreidimensional optimiert. Für den Bereich der Knochenimplantate werden die heute üblichen Metalllegierungen in ⊡ Tab. 53.5 zusammengefasst.
53.6.2 Keramiken in der Endoprothetik
Im Bereich der Implantate werden Keramiken ausschließlich für auf Druck belastete und verschleißrelevante Implantate eingesetzt. Direkter Kontakt zwischen glatter Keramik und Knochen führte nie zur Integration des Implantats. Eine Ausnahme sind die Hydroxyapatitbeschichtungen. HA besteht aus dem bioaktiven Ca5(PO4)OH und fördert durch seine biochemische Tarnung die Osseointegration. Aluminiumoxidkeramiken (Alumina) hingegen wurden bereits vor ca. 30 Jahren als Gleitflächenmaterial eingeführt. Vor etwa 10 Jahren wurden Zirkoniumoxidkeramiken (Zirconia) erstmals in den USA für den Hüftgelenkersatz verwendet. Sie wurden bald gegen die zäheren Y-TZP-Zirkoniumkeramiken ersetzt. Aufgrund der kristallinen Struktur entspricht die Festigkeit einer Keramik dem Widerstand gegenüber Rissbrüchen. Im Gegensatz dazu entspricht die Festigkeit von Metallen dem Widerstand gegenüber plastischer Verformung. Um die Festigkeit einer Keramik zu verbessern, müssen Zähigkeit und Korngröße gleichermaßen berücksichtigt werden. Denn umso kleiner die Körner, desto höher die Festigkeit des Materials. Die Korngröße selbst wird maßgeblich durch das Erstarrungs- und Kristallisationsverfahren bestimmt.
Darüber hinaus kann man eine Erhöhung der Zähigkeit durch das Einbringen faserartiger, anisotroper Kristalle erreichen. Anders als in Kunststoffen, bei denen die künstlich eingebrachten Kermikfasern deutlich unterschiedliche Elastizitätsmoduli besitzen, besitzt das E-Modul von Fasern und Matrix der Keramik ähnliche Werte. Kommt es in der Keramik zu einem Riss, so läuft die Energie entlang der Kristallgrenzen in das Innere des Materials, bis sie an einem Partikel »verstreut« wird. Die Rissbildung stoppt an dieser Stelle. Fügt man nun faserartige Kristalle ein, wird die Energie unmittelbar und oberflächennah entlang der Faserkristalle umgeleitet und verteilt, wodurch der Riss frühzeitig zum Stillstand kommt.
53.6.3 Polymere in der Endoprothetik
Anders als die gitterförmigen Metallzusammensetzungen bestehen Polymere aus meist einfachen, gesättigten Kohlenwasserstoffketten, deren Moleküle aus einer großen Anzahl Struktureinheiten (Monomere) aufgebaut sind. Polymere finden sich durchaus auch in der Natur. Typische Biopolymere sind Zellulose, Stärke und Nukleinsäuren. Synthetische Polymere werden durch Polyreaktionen (Polymerisation, Polykondensation, Polyaddition) hergestellt. Bei der Herstellung durch Polymerisation werden meist ungesättigte Monomere (Alkene) an aktive Atomgruppen abgelagert. Man startet den Prozess durch Beifügen von Radikalen oder Ionen. Es ist zusätzlich möglich, durch sog. Komonomere der Polymerkette zusätzliche Verzweigungen aufzudrängen. Im Gegensatz zur Gefäßchirurgie, in der elastische Komponenten wie Polyester bzw. PTFE und Polyurethan Anwendung finden, kommen am Stützapparat eher rigide, abriebresistente Polymere zum Einsatz. Hierzu zählen ultrahochmolekulares Polyethylen (PE) als Gelenkflächenersatz und Polymethylmethacrylat als Füll- und Fixationskomponente.
53
847 53.6 · Mechanische Eigenschaften von Implantaten in der Endoprothetik
⊡ Tab. 53.5. Zusammensetzung und Kennwerte endoprothetischer Metallimplantate (Kennwerte nach ISO 5832 sind Rp (MPa): Streckgrenze, Rm (MPa): Bruchfestigkeit, A (%): Bruchdehnung; Zusammensetzung: Gew.-%) Legierung
Mechanische Kennwerte
Einsatzbereich
FeCrNiMnMoNbN Schmiedestahl (ISO 5832-9)
Rp 430 min RM 740 min A 30 min
Auf Biegung und Torsion beanspruchte Endoprothesenkomponenten, auch Knochenplatten und Schrauben
Zusammensetzung
C
Si
Mn
Cr
Mo
Nb
N
Fe
0,08
0,75
2,0–4,25
19,5–22
2,0–3,0
0,25–0,8
0,25–0,5
Basis
Zusammensetzung
C
Cr
Fe
Mn
Mo
Ni
Si
Co
0,35
26,5–30
1,0
1,0
4,5–7,0
1,0
1,0
Basis
C
Cr
Fe
Mn
Mo
Ni
Si
Co
0,35
26,5–30
1,0
1,0
4,5–7,0
1,0
1,0
Basis
Cr
Mo
Ni
Fe
C
Mn
Si
Co
26,0–30,0
5,0–7,0
1,0
0,75
0,35
1,0
1,0
Basis
Reintitan (ISO 5832-2)
Zusammensetzung
Gleichmäßig, großflächig belastete Implantate wie Hüftgelenkspfannen und Geflechte, die ein Anwachsen des Knochens begünstigen sollen
Rp 440 min Rm 550 min A 15 min
C
H
N
O
Fe
Ti
0,1
0,015
0,05
0,45
0,3
Basis Auf Biegung und Torsion beanspruchte Implantate, die Knochenanwachsen begünstigen sollen, Bsp. Endoprothesenschäfte und Pfannen
Rp 800 min Rm 900 min A 10 min
TiAlNb Schmiedelegierung (ISO 5832-11)
Zusammensetzung
Auf Druck und Verschleiß beanspruchte Hüftgelenkskugeln, sehr feines Gefüge und somit auch geeignet für MetallMetall-Gleitpaarungen
Rp 700 min Rm 1000 min A 12 min
CoCrMo Schmiedelegierung (ISO 5832-12)
Zusammensetzung
Auf Biegung und Torsion beanspruchte Teile wie Endoprothesenschäfte, auch in Verbindung mit PMMA
Rp 650 min Rm 1000 min A 20 min
CoNiCrMo Schmiedelegierung (ISO 5832-6) Zusammensetzung
Auf Druck und Verschleiß beanspruchte Hüftgelenkskugeln in Paarung mit Pfannen aus Polyethylen
Rp 450 min Rm 665 min A 8 min
CoCrMo Gusslegierung (ISO 5832-4)
C
H
N
Ta
Fe
Al
Nb
Ti
0,08
0,009
0,05
0,5
0,25
5,5–6,5
6,5–7,5
Basis
Polymethylmethacrylat (PMMA) PMMA, als Verglasungsmaterial auch Acryl- oder Plexiglas, in seiner Konsistenz für den medizinischen Einsatz Knochenzement genannt, ist ein thermoplastischer Kunststoff, der durch radikalunterstützte Polymerisation von Methacrylsäureestern hergestellt wird. Im Zweikomponentenverfahren wird er während des operativen Eingriffs angemischt und ist dann für etwa 5–8 min verarbeitbar. Dieses Verhalten sowie seine exzellente mechanische Festigkeit und Biotoleranz verleiht ihm ideale Eigenschaften
zur Verwendung als Füll- und Verbindungsmaterial. Der größte Einsatzbereich ist die Zementierung von metallenen Schäften, Sockeln oder Polyethylenpfannen beim künstlichen Gelenk- oder Zahnersatz.
Polyethylen Trotz seiner Belastbarkeit auf Druck und Torsion hat sich Polytetrafluorethylen im Gegensatz zum Polyethylen nach den ersten endoprothetischen Verwendungen durch Charn-
848
VI
Kapitel 53 · Biomaterialien
ley wegen des unverhältnismäßig hohen Abriebs nicht bewährt. Sogenanntes High-density-Polyethylen (UHMWPE) besteht weitestgehend aus unverzweigten Molekülketten und hat im Vergleich zu anderen Kunststoffen niedrige Festigkeit und Härte, aber hohe Zähigkeit. Der Grundstoff UHMWPE (ISO 5834-1/-2) wird nach Polymerisation in Platten vorbereitet, aus denen die endoprothetisch einzusetzenden Vorformen durch schneidende und spannende Prozesse erstellt werden. Um es endoprothetisch tauglich zu machen, wird es zusätzlich unterschiedlichen Prozessen zur Quervernetzung der Kohlenwasserstoffmolekülketten unterzogen. Härte, Druckbeständigkeit und Abriebresistenz erhöhen sich dadurch deutlich. Diese Prozesse unterscheiden sich leicht von Hersteller zu Hersteller. Wie unten noch beschrieben wird, kann einem der heute bedeutensten Probleme der Endoprothetik, nämlich dem Abrieb bei Artikulationen, nur mit ausgereiften und aufwändigen Fertigungsverfahren begegnet werden. Hierbei möchte man 2 wesentliche Ziele erreichen: ▬ eine Erhöhung des Vernetzungsgrads und damit erhöhte Abriebbeständigkeit, ▬ eine Reduktion der ungesättigten Kohlenstoffmoleküle (Radikale) innerhalb der Kette zur Vermeidung einer alterungsbedingten Versprödung des Materials.
53.7
Herausforderung »Verschleiß«
53.7.1 Tribologie
Durch die Einführung zementfrei verankernder Titankomponenten sowie standardisierter Operationstechniken erreichen moderne Endoprothesen heute ausgesprochen überzeugende Überlebensraten. Je nach Wahl des Materials der Gleitpaarung sowie der Belastungssituation kommt es allerdings zu mehr oder weniger drastischen, verschleißbedingten Komplikationen, die heute weitgehend die Überlebensdauer einer Endoprothese begrenzen. Da sich auch bei jüngeren Patienten immer öfter die Indikation zum Gelenkersatz stellt, ist dieses Thema in den letzten 10 Jahren erneut in den Vordergrund von Forschung und Weiterentwicklung gerückt. Die Lehre vom Reibungsverhalten und Abrieb gegeneinander artikulierender Komponenten nennen wir in diesem Zusammenhang Tribologie. Heute haben sich folgende Materialpaarungen als tribologische Komponenten im Gelenkersatz fest etabliert: ▬ Metall-Metall, ▬ Metall-PE, ▬ Keramik-PE, ▬ Keramik-Keramik. Die Variabilität der tribologischen Möglichkeiten beruht auf den unterschiedlichen Vor- und Nachteilen sowie
Indikationsbereichen. Bevor wir auf die technischen Möglichkeiten und Grenzen näher eingehen, soll auf die elementare Arbeit von Willert et al. (1978) hingewiesen werden. Schon seit Charnley wird eine Korrelation von Polyethylenabrieb und Osteolyse beobachtet, die zu Prothesenlockerung und frühzeitiger Revision des Implantats führt. Der teilweise massive Knochenverlust spornte Willert an, die Ursachen seiner Entstehung genauer zu untersuchen. Die abriebinduzierte Fremdkörperreaktion ist ausschlaggebend für die Resorption gesunden Knochens, wie sich früh feststellen ließ. Ständig sich neu bildende Phagozyten speichern die Abriebpartikel vorwiegend in der Gelenkkapsel. Es entwickelt sich im Ungleichgewicht ein Fremdkörpergranulom. Kleinere Partikel können durch Histiozyten phagozytiert werden. Hierbei spielen freie Radikale eine bedeutende Rolle. Je umfangreicher die Abriebreaktion, desto größer die Granulome. Große Granulome neigen im Zentrum dann zur Nekrose. Darüber hinaus entwickelt sich fibröses Narbengewebe, welches gesunde Zellen in der Konsequenz absterben lässt. In fortgeschrittenem Stadium dekompensiert die Gelenkkapsel, und die Reaktion weitet sich auf das umliegende Gewebe aus. Speziell übernehmen hier Teile des Knochenmarks und des Bindegewebes an der ZementKnochen-Grenze die Funktion von Phagozytose und Abtransport der Verschleißpartikel. In letzter Konsequenz wird auch der vitale Knochen durch das angrenzende Granulationsgewebe angegriffen und resorbiert. Heute ist davon auszugehen, dass ein Großteil aller aseptischen Prothesenlockerungen auf die Abriebreaktion zurückzuführen ist. Diese Erkenntnis führte zu neuen Anstrengungen und zur Verbesserung der tribologischen Eigenschaften von Materialien für Gleitpartner in der Endoprothetik. Grundlage ist hier zunächst das Verständnis der Mechanismen des Abriebs in der Endoprothetik.
53.7.2 Ermüdungsabrieb
Der Ermüdungsabrieb entsteht durch das Aufbrechen des oberflächennahen Materialgefüges an den artikulierenden Flächen. Tangentiale Scherkräfte und punktuelle Druckkraftspitzen sind die Ursache für Rissbildung in Bewegungsrichtung und anschließendes Lösen von größeren Partikeln aus der Oberfläche. Typischerweise erkennt man den Ermüdungsabrieb an gebogenen Scherrissen der Oberfläche, an deren Rand zunehmend Material abgetragen wird.
53.7.3 Adhäsiver Abrieb
Auch bei hochgenauer Fertigung kommt es – bspw. bei Metallgleitpartnern – zu feinsten Erhebungen an der
849 53.7 · Herausforderung »Verschleiß«
Oberfläche. Diese haben auch bei ausreichender Schmierung ständigen Kontakt zur gegenüberliegenden Seite, und es kommt zur adhäsiven, festen Verbindung von kleinsten Partikeln. Diese Partikel werden aus der Oberfläche herausgerissen und ergeben kraterförmige Oberflächenbilder (⊡ Abb. 53.5).
53.7.4 Abrassiver Abrieb
Befinden sich z. B. durch Ermüdung oder Adhäsion herausgelöste, härtere Partikel zwischen den gleitenden Oberflächen, so kommt es zum abrassiven Abrieb. Dieser ist besonders eindrucksvoll bei metallenen Gleitpartnern in Form von Rillenbildung in Laufrichtung zu erkennen. Bestehen diese Partikel aus einem deutlich härteren Material, wie etwa Keramik, so kommt es zur kurzfristigen, starken Abnutzung des Metalls oder Polyethylens.
53.7.5 Metallgleitpaarungen
⊡ Abb. 53.5a–c. a Adhäsiver Abrieb, b ermüdungsbedingter Abrieb, c abrassiver Abrieb
Die erste Metall-auf-Metall-Gleitpaarung wurde 1950 in den USA von Thompson und McKee für den Hüftgelenkersatz eingeführt. Sie bestand aus der klassischen CoCrMo-Legierung nach ISO 5832-4, die auch heute noch dafür verwendet wird. Das Material wurde erstmalig von Krupp in Deutschland für Zahnimplantate eingesetzt; es ist sehr abriebresistent und korrosionsbeständig. Nachfolgende Prothesendesigns von McKee hatten einen Spielraum zwischen Kopf und Pfanne von 0,15 mm. Dies ermöglichte das Eindringen von Synovialflüssigkeit zur Schmierung der Gleitflächen. 1960 kamen Prothesen anderer Hersteller auf den Markt, die keinen entsprechenden Spielraum aufwiesen. In Extremfällen kam es sogar zur gleichzeitigen Implantation von Köpfen und Pfannen unterschiedlicher Hersteller mit Kopfübermaß. Die Versagerquote durch mechanisches Verklemmen bzw. abrassiven und adhäsiven Abrieb war entsprechend groß, und man nahm nach der Einführung der Charnley-Prothesen schnell Abstand von dieser Kombination. 1965 verwirklichten Huggler und anschließend Müller (Schweiz) die Idee von McKee mit einer eigenen Prothese und kamen schnell zu dem Schluss, dass eine 0,2 mm-Distanz zwischen Kopf und Pfanne die besten Ergebnisse lieferte. Kombinationen von Materialien unterschiedlicher Hersteller wurden unterbunden. Die Bedenken blieben allerdings bestehen. 1977 wurde dann ein neuer Schmiedeprozess für diese CoCr-Legierung eingeführt, der die Karbidgröße um den Faktor 10 reduzierte. Später untersuchte man den Einfluss des Karbonanteils auf die Abriebbeständigkeit. Auch hier gab es deutliche Unterschiede zwischen den verwendeten CoCrLegierungen. Von Low-carbon (lc)-CoCr spricht man bei etwa 0,05% Karbonanteil. High-carbon (hc, ISO 5832-12)CoCr besitzt 0,2% Karbonanteil. Wang und Firkins stellten in ihren Arbeiten 1999 fest, dass der volumetrische Abrieb von 0,53 mm3 pro Millionen Zyklen bei lc-CoCr auf 0,25 mm3 pro Millionen Zyklen bei hc-CoCr sinkt. Der nach heutigem Wissensstand optimierte Werkstoff weist viele Vorteile bezüglich Abrieb und Prothesendesign auf. Untersuchungen haben gezeigt, dass diese Legierungen als Gleitpaarung in der Einlaufphase selbst-
53
850
VI
Kapitel 53 · Biomaterialien
polierende Eigenschaften haben und damit eine glatte, partikelfreie Oberfläche und optimales Spiel zwischen den Komponenten selbst erreichen. Darüber hinaus wird die vom Polyethylenabrieb bekannte Fremdkörperreaktion durch die immensen Unterschiede bei Partikelgröße und Anzahl unterbunden. Selbst bei Auslösung größerer Partikel aus der Oberfläche passivieren diese sich schnell in oxidierender Umgebung. Merrit und Visuri haben gezeigt, dass die Nickelund Kobaltexposition des Körpers durch Abrieb bei Metall-Metall-Gleitpaarungen deutlich geringer ist als die täglich aus der Umwelt aufgenommene Menge. Nickel, Kobalt und Molybdän werden an Albumin gebunden und über den Urin ausgeschieden. Allein Chrom verbleibt im menschlichen Körper. Da Kobalt und Chrom in höheren Konzentrationen kanzerogene Wirkung haben, wurden auch hier mehrere Untersuchungen an großen Patientenkollektiven durchgeführt, die keine Korrelation zu etwaigen Tumoren aufzeigten. So ist von Allen (1997) bei der hc-CoCr-Legierung als Artikulationskomponente eine Exposition von 1,8 μg/l Kobald im menschlichen Serum gemessen worden, wobei 100.000 μg/l zytotoxisch wären. Die klinischen Resultate der sog. Müller-Prothesen mit über 30 Jahren Standzeit ohne Beeinträchtigung der Artikulationskomponente untermauern die Vorteile dieser Philosophie und motivieren auch heute einen Großteil der klinischen Anwender zum Einsatz dieser Technologie.
Die bessere Benetzbarkeit mit wässrigen Flüssigkeiten ermöglichte zudem einen gegenüber Stahl- oder CoCrKöpfen um die Hälfte reduzierten Polyethylenabrieb. Einen weiteren günstigen Nebeneffekt sahen die Anwender im deutlichen Ausschluss etwaiger immunologischer Überreaktionen auf metallische Komponenten wie Nickel oder Chrom, da Keramiken absolut bioinert sind. Nicht zuletzt konnten durch die überragende Härte der keramischen Implantate Oberflächenbeschädigungen durch Zementpartikel oder chirurgische Instrumente vermieden werden. Um die Bruchfestigkeit und Zähigkeit des Materials zu erhöhen, wurde 1980 Zirkoniumoxid als keramisches Basismaterial für Hüftköpfe und Pfannen eingeführt. Man konnte durch eine Reduzierung der Mindestwandstärken des Materials mit Zirkoniumoxid auch erstmals kleinere Hüftköpfe und damit auch kleinere Pfannen einsetzen. Bedenken wegen eines höheren Abriebs bei der Paarung von Zirkoniumoxid mit Polyethylenpfannen wurden in den letzten Jahren geäußert, konnten aber bisher nicht nachgewiesen werden. Im klinischen Alltag haben sich Aluminiumoxidkeramik-Polyethylen-Gleitpaarungen heute fest etabliert. Die Bewusstseinsbildung hat operative Techniken beeinflusst, und die Bruchraten sind in den letzten Jahren kontinuierlich zurückgegangen.
53.7.7 Polyethylengleitpaarungen 53.7.6 Keramikgleitpaarungen
Die Fremdkörperreaktionen auf den Abrieb herkömmlichen Polyethylens sowie die Misserfolge der Metall-Metall-Gleitpaarungen der ersten Generation mit den Konsequenzen einer frühzeitigen Prothesenlockerung veranlassten zur Suche nach besseren Materialien mit geringen Abriebraten. 1970 begann Boutin in Frankreich mit der Entwicklung eines Kopfs und einer Pfanne aus Aluminiumoxidkeramik. Doch auch hier traten in den ersten 10 Jahren Probleme mit der Befestigung des Kopfs auf dem metallischen Schaft sowie Materialinhomogenitäten auf. Es kam gehäuft zu Brüchen der Keramik mit nachfolgender schwieriger Revision aufgrund diffuser Verteilung der Bruchpartikel. Nachdem man die Homogenität des Kristallgefüges in der Biokeramik verbessert hatte, erfreute man sich langjähriger Erfolge mit Abriebraten unter 10 μm pro Jahr. Das bleibende Problem keramischer Gleitpaarungen sind zu steil implantierte Pfannen. Hier wird häufig von kritischen Belastungen am Pfannenrand mit wiederkehrenden Subluxationen des Kopfs und resultierendem deutlichen Keramikabrieb berichtet; auch zu Keramikbrüchen kommt es in diesem Zusammenhang. Um diese ungewünschten Brüche zu umgehen, wurde die Paarung des Keramikkopfs mit Polyethylenpfannen eingeführt.
Nachdem das Debakel mit PTFE abzusehen war, setzte Charnley Polyethylen erstmalig 1962 in den von ihm entworfenen künstlichen Hüftgelenken ein. Als Hüftpfannenkomponente zeigte es bei der Artikulation gegen einen CoCr-Metallhüftkopf erstaunliche Primärerfolge und geringen Abrieb. Heute finden wir eine Reihe orthopädischer Implantate, die auf diese Kombination vertrauen. Dennoch stellt der Abrieb des UHMWPE (»ultra high molecular weight polyethylene«) den Hauptgrund für Prothesenrevisionen dar. Man geht heute davon aus, dass der lineare Abrieb des Polyethylens bei dieser Materialkombination etwa 100–300 μm pro Jahr beträgt. Durch die Einführung von Aluminiumoxidkeramikköpfen gegen 1970 konnte der Abrieb auf 50–150 μm halbiert und die Lebensdauer der Prothese damit deutlich verlängert werden. Es werden jedoch immer wieder Keramikkopfbrüche beobachtet, die zu einer schnellen Revision der Prothese zwingen. Aus diesem Grund untersuchte man die Möglichkeit der Oberflächenhärtung von Titanbasislegierungen nach ISO 5832-11. Die Idee war, sowohl das Allergierisiko als auch die Bruchgefahr eines Hüftkopfs zu reduzieren sowie die Vorteile des geringeren Abriebs der Keramiken nachzuahmen. Hierzu bediente man sich der Oberflächenhärtung durch Titannitridschichten, die ähnliche Härten wie Keramiken erreichen.
851 53.8 · Ausblick
Ein bedeutender Nachteil der Titannitridschicht ist jedoch die Dicke von nur 3–5 μm, was bei einer Beschädigung schnell zu höheren Abriebraten führen kann. Ende der 1980er Jahre wurde darum von Sulzer Medica eine Methode zur Oberflächenhärtung mittels Sauerstoffdiffusion (»oxygen diffusion hardening«, ODH) entwickelt. Es werden Härtungstiefen von 40 μm erreicht, während die Oberfläche der Köpfe gleichzeitig kratzfest gegen Zirkoniumoxidpartikel ist, die oft dem Acrylatzement als Röntgenkontrastmittel beigemischt werden. Auf Seiten des Polyethylens beschäftigt man sich seit 1998 mit einer weiteren neuen und vielversprechenden Methode, um die Vorteile des UHMWPE mit einem metallischen Kopf weiterhin zu nutzen, gleichzeitig aber den Abrieb noch deutlicher zu reduzieren. Schon seit 1986 beaufschlagt man Polyethylen mit γ -Bestrahlung. UHMWPE wird während des Fertigungsprozesses aus zwei Gründen mit ionisierender Strahlung behandelt: entweder zur Sterilisation fertiger Komponenten oder um eine höhere Quervernetzungsdichte und damit verbesserte Abriebeigenschaften zu erzielen. Man konnte durch diese Methode den Abrieb gegenüber unbestrahlten Gelenkkomponenten halbieren. Grundsätzlich ist die Quervernetzung umso besser, je höher die Bestrahlungsdosis gewählt wird. Allerdings entstehen bei der Bestrahlung auch Lücken, freie Radikale, in den Polymerketten, die mit zunehmendem Alter eine Versprödung des Materials und damit wiederum geringere Abriebresistenz zur Folge haben. William Harris (Boston) führte darum 1998 die Elektronenbestrahlung des erwärmten UHMWPE ein. Der Quervernetzungsgrad wird dadurch nochmals deutlich erhöht. In einer abschließenden erneuten Erwärmung über den Kristallitschmelzpunkt werden die verbliebenen freien Radikale abgesättigt. Die oxidationsbedingte, natürliche Alterung des Materials wird durch diesen Prozess vorgezogen, und das Polymer behält seine Abriebresistenz über einen sehr langen Zeitraum. Man konnte diese Vorteile im Vergleich zu anderen orthopädischen Polyethylenen bereits im Simulator nachweisen. Die Ergebnisse nach über 20 Mio. Zyklen – entsprechend einer Lebensdauer der Prothese
von 20 Jahren – waren erstaunlich. Der Abrieb war so gering, dass er selbst nach diesem Zeitraum nicht messbar war, der Kaltfluss des Materials blieb ebenso gering. Darüber hinaus scheint dieses Material auch bei abrassivem Abrieb selbstheilende Eigenschaften zu besitzen. ⊡ Tab. 53.6 verdeutlicht nochmals die technischen Möglichkeiten in Abhängigkeit von den Anforderungen.
53.8
Ausblick
Optimiertes Design unter Berücksichtigung der biomechanischen Anforderungen, geringer Knochenverlust, einfache Implantationstechnik und konsequente Minimierung des Abriebs: Das waren die technologischen Herausforderungen bei der Optimierung von Endoprothesen der letzten 2 Jahrzehnte. ▬ Das Ergebnis: Schnellere Belastbarkeit und eine deutlich verbesserte Überlebensdauer der Implantate. ▬ Die Konsequenz: Die Indikationserweiterung hin zu einem jünger werdenden Patientenkollektiv. Der aktive, im Berufsleben stehende Patient wünscht sich eine möglichst nahe Wiederherstellung seiner Lebensqualität. Es stellen sich neue Herausforderungen bei der Weiterentwicklung von Prothesen (⊡ Abb. 53.6). Ein Beispiel ist hier die möglichst anatomische Rekonstruktion der Hüfte und damit eine optimale Bewegungsfreiheit ohne Kompromisse. Grundvoraussetzung ist der Einsatz größerer Artikulationsdurchmesser, ähnlich der ersten Prothesen von Thompson und McKee. Man erreicht dadurch einen vergrößerten Bewegungsumfang des Hüftgelenks bei gleichzeitiger Verringerung des Luxationsrisikos. Die spezifische Anatomie eines jeden Patienten bestimmt jedoch die Pfannengröße, und die Kopfgröße war bis vor wenigen Jahren durch die Pfannengröße und die Mindeststärke des Polyethylens vorgegeben. Metall-Metall-Gleitpaarungen neuester Generation sowie das neuartige, elektronenbestrahlte UHMW-Polyethylen bieten hier die Möglichkeit, durch dünnere Mindestwandstärken die Kopfdurchmesser zukünftig zu vergrößern.
⊡ Tab. 53.6. Materialpaarungen für Patienten unterschiedlicher Aktivität und Lebenserwartung Patient
Materialpaarung
Lebenserwartung
Aktivität
Kopf
Pfanne
Linearer Abrieb (lm/Jahr)
bis mittel
moderat
Stahl CoCrMo CoCrMoC
UHMWPE
100–300
mittel bis hoch
normal
Aluminiumoxid Zirkoniumoxid TiAlNb-ODH
UHMWPE
50–150
hoch
hoch
CoCrMoC
CoCrMoC
2–20
Al2O3
Al2O3
2–20
CoCrMo TiAlNb-ODH
Elektronenbestr. UHMWPE (DurasulTM)
nicht messbar im Simulatorversuch nach 20 Mio. Zyklen
53
852
VI
Kapitel 53 · Biomaterialien
⊡ Abb. 53.6a,b. Moderne Hüftendoprothesensysteme. a AlloclassicSystem, b CLS-System
Insbesondere beim Einsatz im künstlichen Kniegelenk verspricht man sich vom elektronenbestrahlten UHMWPE deutlich längere Prothesenstandzeiten. Im Gegensatz zum Kugelgelenk einer Hüfte finden sich beim Knie großflächige, scharnierartige Bewegungen, die das Material mit Druck- und Scherkräften großflächig belasten. Aufgrund der ungleichmäßigen Flächenpressung sind Keramik-Keramik- bzw. Metall-Metall-Artikulationen an dieser Stelle nicht geeignet, und ein möglichst abriebarmes Polymer ist hier die einzige technische Möglichkeit zur Verschleißminimierung.
Literatur Garbe S (1998) Zwischen Biomechanik und Pathomechanik des Femurs. Huber, Bern Kienapfel H (1994) Grundlagen der zementfreien Endoprothetik. Demeter, Gräfelfing Morscher EW (1995) Endoprothetik. Springer, Berlin Heidelberg New York Tokio Muratoglu OK, Bragdon CR, O‘Connor DO, Jasty M, Harris W (1999) A novel method fpr crosslinking UHMWPE to improve wear with little or no sacrifice on mechanical properties. 45th Annual Meeting, Orthopedic Research Society, Anaheim/CA Rieker C, Windler M, Wyss U (1999) Metasul. Huber, Bern Willmann G, Zweymüller K (2000) Bioceramics in hip joint replacement. Thieme, Stuttgart Semlitsch M, Willert HG (1997) Clinical wear behaviour of ultra-high molecular weight polyethylene cups paired with metal and ceramic ball heads in comparison to metal-on metal pairings of hip joint replacements. Proc Instn Mech Engrs: vol 211, part H Willert HG, Semlitsch M, Buchhorn G, Kriete U (1978) Materialverschleiß und Gewebreaktion bei künstlichen Gelenken. Springer, Berlin Heidelber New York (Orthopädie 7, S 62–83) Wintermantel E, Suk-Woo Ha (2002) Medizintechnik mit biokompatiblen Werkstoffen und Verfahren, 3. Aufl. Springer, Berlin Heidelberg New York Tokio
54 Medizinische Robotersysteme H. Fischer, U. Voges
54.1 Einleitung
– 853
54.5 Medizinische Anwendungsfelder
54.2 Grundlagen
– 853
54.6 Technische Aspekte
54.3 Entwicklung
– 855
54.7 Perspektiven
54.4 Übersicht
– 855
54.4.1 54.4.2 54.4.3 54.4.4 54.4.5
Assistenzsysteme – 855 Aktive Haltesysteme – 855 Master-Slave-Manipulatoren – 856 Biopsieroboter – 857 Kommerzielle aktive Halte- und Führungssysteme – 857 54.4.6 Kommerzielle Telemanipulatoren – 857 54.4.7 Kommerzielle Chirurgie-/Biopsieroboter – 858
54.1
Einleitung
Robotersysteme für die Medizin stellten 1990 noch ein reines Forschungsthema dar. Inzwischen konnten die ersten Forschungsergebnisse in die Praxis umgesetzt werden, und im Jahre 2000 befanden sich schon mehrere Arten von Robotersystemen für unterschiedliche chirurgische Disziplinen im klinischen Einsatz, weitere sind inzwischen in Vorbereitung. Während man bei einigen Systemen schon fast von Routineeinsatz sprechen kann, sind andere noch in der Erprobungsphase. In der Forschungslandschaft widmet man sich einer ganzen Reihe von offenen Fragen und Weiterentwicklungen, z. B. in der Kombination von Robotern mit bildgebenden Verfahren bzw. ihrem Einsatz in besonderen Umgebungen wie z. B. im CT (Computertomograph) oder MRT (Magnetresonanztomograph). Ein solches MRT-kompatibles Assistenzsystem ist mittlerweile kommerziell erhältlich. Nach einer kurzen Einführung in die Grundlagen der Medizinrobotik und die Entwicklungen auf diesem Gebiet wird eine Übersicht über bereits existierende Systeme und ihre medizinischen Anwendungsfelder gegeben. Einige technische Aspekte der Nutzung derartiger Systeme werden erläutert, und ein Ausblick in die Zukunft schließt dieses Kapitel ab.
54.2
Grundlagen
Unter dem Begriff Roboter werden im allgemeinen Sprachgebrauch meist nicht nur die eigentlichen Robo-
Literatur
– 859
– 860
– 861
– 862
Weitergehende Internetinformationen zu den genannten Firmen bzw. Gerätenamen – 862
tersysteme im engeren Sinne verstanden, sondern auch die Telemanipulationssysteme. Streng genommen sind Roboter aber nur die autonom arbeitenden Systeme, wie wir sie in der Industrie, z. B. aus der Automobilfertigung, kennen: Der Roboter führt eine vorher definierte Aufgabe immer wieder gleichförmig durch; diese Tätigkeit arbeitet er ohne weiteren menschlichen Eingriff ab. Der Mensch kann nur einen Abbruch (Notaus) auslösen, aber keine interaktive Änderung. Eine Änderung ist nur durch Neudefinition der Aufgabe oder neues Einlernen (»Teachen«) des Roboters möglich. Ist hingegen der Mensch der Handelnde, der das System führt, so sprechen wir von einem Telemanipulationssystem oder auch einem Fernhantierungssystem. Nur die vom Bediener direkt vorgegebene Bewegung wird – möglichst zeitgleich – vom Arbeitssystem nachvollzogen. Das Eingabegerät (Bedieneinheit), das der Bediener führt, wird Master genannt, der Manipulator, der die Aktion ausführt, heißt Slave (Arbeitseinheit). Daher werden derartige Systeme auch Master-Slave-Manipulatorsysteme genannt. Eine Art Mischform zwischen den Telemanipulationssystemen und den Robotersystemen gibt es in Gestalt der interaktiv bedienbaren Systeme. Hier wird oft ohne Aufteilung in Master und Slave das Instrument selber direkt vom Bediener geführt. Eine Sollbahn, ein Arbeitsbereich oder auch zulässige Kräfte werden vorher definiert; will der Bediener z. B. diese Sollbahn verlassen, wird er daran durch entsprechende Kräfte gehindert und das bedienergeführte Instrument kann den zulässigen Arbeitsbereich nur nach Bestätigung einer Warnmeldung verlassen. Kri-
854
Kapitel 54 · Medizinische Robotersysteme
VI
⊡ Abb. 54.1. Prinzip eines Telemanipulatorsystems bei minimal invasiven Eingriffen (Bild: Intuitive Surgical)
tische Bereiche können so vermieden werden und eine z.B. anhand von Röntgenaufnahmen vorgeplante Operation kann exakt durchgeführt werden. ⊡ Abb. 54.1 zeigt das Prinzip eines Master-Slave-Manipulators anhand eines Operationstelemanipulators für die Herzchirurgie. Der Chirurg sitzt an der Konsole, die die Eingabesysteme (Mastermanipulatoren für jeweils eine Hand) sowie ein Sichtsystem beinhaltet. Die Masterbewegung wird in eine korrespondierende Bewegung der Instrumente übertragen, und der Telemanipulator führt die entsprechenden Aktionen aus. Der Assistent steht bereit für erforderliche Instrumentenwechsel, die noch per Hand erfolgen müssen. Der Abstand zwischen dem Master und dem Slave kann unterschiedlich überbrückt werden. Bei einer direkten, rein mechanischen Kopplung der beiden Geräte wird der Abstand relativ klein sein (maximal einige Meter). Diese Lösung ist jedoch aufgrund der hohen mechanischen Kopplung, verbunden mit Gestänge, Zugseilen etc., in der medizinischen Robotik kaum sinnvoll einsetzbar. ⊡ Abb. 54.2 zeigt eine derart direkte mechanische Kopplung zwischen Master und Slaveeinheit. Statt der direkten mechanischen Kopplung zwischen Master und Slave werden meist Rechnersysteme eingesetzt, die in Form einer Steuerung die Kopplung von Master und Slave übernehmen. Wird nur ein Rechner eingesetzt, der die Eingabeinformationen der Mastereinheit in die entsprechenden Steuerungsinformationen für die Slaveeinheit umsetzt, so ist über eine Kabelverbindung
⊡ Abb. 54.2. Rein mechanische Kopplung zwischen Master und Slaveeinheit
eine Entfernung von einigen Metern möglich. Haben hingegen sowohl der Master als auch der Slave jeweils einen eigenen Rechner, die z. B. über LAN miteinander verbunden sind, so kann die Entfernung zwischen den Systemen beliebig groß sein. Sogar über Kontinente hinweg können so Verbindungen zwischen Master und Slave aufgebaut und Telechirurgie praktiziert werden. Bei größerer Entfernung kann es aber je nach verwendetem Übertragungsverfahren zu Verzögerungen zwischen Aktion auf Masterseite und Reaktion auf Slaveseite sowie Erkennung auf dem zurückgeschickten Videosignal kommen, sodass langsamer und vorsichtiger gearbeitet werden muss.
855 54.4 · Übersicht
54.3
Entwicklung
Im Folgenden wird die Entwicklung der medizinischen Robotik kurz dargestellt. Die entsprechenden Systeme werden im Abschn. 54.4 »Übersicht« näher beschrieben. Der Einsatz von Robotik oder auch von rechnergeführten Systemen in der Medizin erfolgte in verschiedenen Stufen. So wurden zunächst Endoskop-FührungsSysteme (EFS) entwickelt (z. B. Robox (Oberle 1993), Fips (Gumb 1996), Felix (Selig 1999), Aesop (Uecker 1994, EndoAssist), die einerseits weniger sicherheitsrelevant sind, andererseits für den Chirurgen eine Arbeitserleichterung darstellen. Mit Hilfe der EFS ist es möglich, das Endoskop ohne menschlichen Assistenten zu halten und zu führen. Die Bedienung kann dabei über Joystick, Tastenfeld, Sprache, Kopfbewegung o. Ä. erfolgen. Anstelle einer expliziten Bedienung ist auch die automatische Instrumentenverfolgung (Tracking) möglich. Die wesentlichen Vorteile eines Endoskop-Führungs-Systems liegen darin, dass auf einen zusätzlichen Assistenten als Kameramann verzichtet werden kann und ein ruhiges Bild zur Verfügung steht. Die eingesetzten Endoskope sind dabei i. d. R. die auch standardmäßig verwendeten Systeme. Als Weiterführung der Endoskop-Führungs-Systeme sind Instrumenten-Führungs-Systeme (IFS) entstanden, die aber i. d. R. nicht für das Halten und Führen herkömmlicher Instrumente geeignet sind, sondern für speziell entwickelte – oft nicht nur starre, sondern auch flexible – Instrumente. Die Bedienung dieser Instrumente erfolgt über eine Mastereinheit, falls es sich um ein Telemanipulationssystem handelt [Tiska (Neisius 1997)]. Im Fall von Robotern [Robodoc (Bauer 1997), Caspar (Petermann 2000)] hingegen führen die IFS vordefinierte Aufgaben durch und haben ein sehr eingeschränktes interaktives Eingabesystem. Dieses dient dann meist zur Korrektur einer bereits vorgegebenen abzufahrenden Bahnkurve. Da der Einsatz eines einzelnen IFS nur im Fall eines Robotersystems sinnvoll ist, sonst aber wie bei einer normalen Operation beidhändiges Arbeiten auch bei Verwendung eines Telemanipulators möglich sein sollte, war der Schritt vom IFS zu einem System, das aus zwei IFS und einem EFS besteht, nicht weit [ARTEMIS (Voges 1995), daVinci (Shennib 1998), ZEUS (Stephenson 1998). Hier hat der Chirurg die Möglichkeit, alle Operationen, die keinen weiteren Assistenten erforderlich machen, als Solochirurgie durchzuführen.
54.4
54.4.1 Assistenzsysteme
Bei den Assistenzsystemen kann man zwischen den industriell oder kommerziell erhältlichen Systemen und Systemen aus dem Forschungs- bzw. dem universitären Umfeld unterscheiden. Grundsätzlich jedoch dienen diese Systeme zum Halten von Instrumenten und Kameras. Man unterscheidet zwischen passiven Haltesystemen, die von Hand positioniert werden und keine Aktoren (Motoren) beinhalten, und aktiven Systemen, die angetrieben die gewünschte Position anfahren. Im Sinne der Robotik werden hier nur aktive Systeme vorgestellt.
54.4.2 Aktive Haltesysteme
Im Forschungszentrum Karlsruhe wurden verschiedene aktive Halte- und Führungssysteme entwickelt. Ein solches System ist beispielhaft in ⊡ Abb. 54.3 dargestellt. Es dient zum Führen einer endoskopischen Kamera. Da das System für die minimal invasive Chirurgie (insbesondere Bauchraumchirurgie) vorgesehen war, besitzt es kinematisch eine mechanische Zwangsführung um den invarianten Einstichpunkt und kann elektrisch um diesen Punkt verfahren werden. Der invariante Einstichpunkt ist hierbei der Durchstichpunkt in der Bauchdecke. Eine
Übersicht
Im Folgenden wird eine Übersicht der Assistenzsysteme, der Telemanipulatoren sowie der Robotersysteme gegeben.
⊡ Abb. 54.3. FIPS, Endoskopführungssystem, Forschungszentrum Karlsruhe
54
856
VI
Kapitel 54 · Medizinische Robotersysteme
mechanische Beanspruchung bzw. Belastung dieser Einstichstelle (invarianter Punkt) wird durch die Art der mechanischen Konstruktion des Geräts verhindert. Die Eingabe erfolgt wahlweise durch eine Art Joystick oder aber mittels Sprachsteuerung. Für Forschungszwecke steht auch ein Kameratrackingsystem zur Verfügung. Der Chirurg kann somit intuitiv die Kamera in die gewünschte Position bringen. Sein Assistenzarzt ist nun nicht mehr länger mit der Führung und Positionierung der endoskopischen Kamera beauftragt und kann andere Aufgaben übernehmen. Ein großer Vorteil eines solchen einfachen Kameraführungssystems ist bspw. die Zitterfreiheit, d. h. der elektronische Assistent hält die Kamera auch über einen langen Zeitraum zitterfrei, was das Operieren für den Chirurgen erleichtert, da das Operationsfeld auf dem Bildschirm nicht verwackelt ist.
54.4.3 Master-Slave-Manipulatoren
Der erste wissenschaftlich eingesetzte Telemanipulator wurde als Demonstrator 1995 im Forschungszentrum Karlsruhe fertiggestellt und erprobt (⊡ Abb. 54.4). Es konnten damit komplizierte Szenarien erfolgreich und präzise durchgeführt werden. Durch die flexiblen distalen Gelenke an den Instrumenten war es zudem erstmals möglich, Strukturen im Inneren des menschlichen Körpers zu umfahren, und dadurch konnten auch komplizierte Eingriffe (z. B. Durchführen von chirurgischen Nähten um Organe herum) erstmals endoskopisch durchgeführt werden.
⊡ Abb. 54.4. ARTEMIS, Telemanipulatorsystem, Forschungszentrum Karlsruhe
Durch Integration von Kraft- und Momentensensoren war erstmals eine Kraftrückkopplung möglich. Dies zeigte jedoch auch, dass solche Systeme sehr viel komplizierter sind als man zunächst annahm. Vor allem auf der Instrumentenseite ist eine Integration von Sensoren bedingt durch die Größeneinschränkungen sehr schwierig, und der Wunsch des Operateurs, kostengünstige Einmalwerkzeuge zu verwenden, ist somit obsolet. Im Master-Slave-Manipulator der Universität Berkeley, USA, befinden sich in der Slaveeinheit, also in der Instrumentenspitze, ebenfalls Kraft- und Beschleunigungssensoren. Diese dienen zur Rückkopplung der in der Slaveeinheit auftretenden Kräfte in die Mastereinheit. Es können damit tatsächlich ausgeübte Kräfte auf die Finger des Chirurgen zurückvermittelt werden. Derartige Kraftrückkopplungen sind v. a. dann notwendig, wenn sich Operateur (Mastereinheit) und Manipulator (Slaveeinheit) nicht mehr unmittelbar im gleichen Operationssaal befinden, sondern örtlich entkoppelt sind. Sind zudem die Endeffektoren elektrisch angetrieben, besteht keine Rückmeldung über die Stärke der ausgeübten Kräfte z. B. zwischen den Branchen einer endoskopischen Fasszange. Durch zu starkes Greifen an der Mastereinheit können dann zu große Kräfte auf der Slaveseite ausgeübt werden, und dadurch kann Gewebe geschädigt werden. Bei einer solchen räumlichen und damit mechanischen Entkopplung ist eine Kraftrückkopplung von Vorteil, da eine Art taktiles Feedback wiedererlangt werden kann. Der Chirurg erhält dadurch wieder eine Information über seine Interaktion mit den unterschiedlichen Gewebetypen. Der möglichen mechanischen Zerstörung durch z. B. zu hohe Greifkräfte soll damit entgegengewirkt werden.
857 54.4 · Übersicht
Bei endoskopischen Standardoperationen erfolgt diese Rückkopplung optisch, unterstützt durch die direkte mechanische Kopplung der endoskopischen Instrumente, d. h. der Griff hat eine direkte Verbindung (evtl. über verschiedene Gelenke) zum distalen Endstück und damit auch zu den Fingern des Operateurs.
54.4.4 Biopsieroboter
In den letzten Jahren haben sich die diagnostischen Bildgebungsverfahren und v.a. die Auswerteverfahren enorm verbessert. Mit zunehmender Rechnergeschwindigkeit wurde es erstmals möglich, bewegte Szenarien in Echtzeit mittels dieser neuen Tomographen darzustellen. Dies ermöglicht nun sog. Chirurgieroboter für einfache Aufgaben, z. B. für die Biopsie bei Mammakarzinomen direkt im Magnetresonanztomographen einzusetzen. Aufgrund der Umgebungsbedingungen in solchen Tomographen ist dies jedoch nicht so einfach möglich, und so wurde seit 1998 im Forschungszentrum Karlsruhe ein Roboter für die Entnahme einer Gewebeprobe (Biopsie) unmittelbar im Magnetfeld eines Tomographen und unter Bildsteuerung entwickelt. Seit November 1999 kann dieser Manipulator erstmals auch für die klinische Evaluierung eingesetzt werden (Fischer 2000).
54.4.5 Kommerzielle aktive Halte- und
Führungssysteme Bei kommerziell erhältlichen aktiven Halte- und Führungssystemen befinden sich derzeit noch zwei zugelassene Systeme auf dem Markt. Die Firma Armstrong Healthcare, UK (Produktname EndoAssist) sowie die Firma MedSys s.a., Belgium (Produktname LapMan). Die Steuerung der Kamera im Falle EndoAssist erfolgt durch eine Kopfsteuerung, d. h. nach Aktivieren dieser Kopfsteuerung durch einen Fußschalter folgt die Kamera den Bewegungen des Kopfes. Im Falle von LapMan erfolgt die Steuerung über eine Eingabegerät am Instrument des Chirurgen. Beide Systeme haben keine mechanische Zwangsführung, d. h. sie können beliebig im Raum positioniert werden. Die Einhaltung des invarianten Punktes um den Einstichpunkt in der Bauchdecke wird bei diesen Systemen von der Softwaresteuerung übernommen. Prinzipiell sind beide Varianten – kinematisch festgelegter mechanischer invarianter Punkt und softwaregehaltener invarianter Punkt – gleichwertig. ⊡ Abb. 54.5 zeigt ein mittlerweile nicht mehr am Markt erhältliches, weiteres zugelassenes Endoskopführungssystem (Aesop) der Firma Computer Motion, USA. Aesop wurde 1994 erstmals auf den Markt gebracht, und bisher wurden damit weltweit mehr als 90.000 Operationen durchgeführt. Auch hier wird der invariante Punkt
⊡ Abb. 54.5. AESOP, Kameraführungssystem, Computer Motion, USA
durch die Softwaresteuerung eingestellt und beibehalten. Die Steuerung dieses Systems erfolgt zu Beginn manuell durch eine entsprechende Schalterkonsole und anschließend mittels Sprachsteuerung. Diese ist sprecherabhängig, weswegen der Chirurg zunächst ein Sprachtraining durchführen muss. Die Daten werden auf eine Chipkarte gespeichert, und mittels dieser Chipkarte kann er mit jedem Aesop kommunizieren. Dieses Sprachtraining erfolgt einmalig. Computer Motion wurde 2003 von der Firma Intuitive Surgical übernommen, und die Produktion von Aesop wurde eingestellt. Der Präzisionsroboter der Firma Universal Robot Systems, D, dient zum tremorfreien und exakten Führen einer endoskopischen Kamera bei neurochirurgischen Eingriffen. Er erreicht eine Positioniergenauigkeit von bis zu 0,01 mm. In situ können die Navigationsdaten besser umgesetzt und die anatomischen Landmarken vereinfacht wieder aufgefunden werden. Die wiederholgenaue, robotergestützte Operation verbessert die Dokumentationsmöglichkeit und damit auch die Qualitätssicherung (Urban 1999). Dieses System ist ebenfalls heute nicht mehr kommerziell erhältlich.
54.4.6 Kommerzielle Telemanipulatoren
Im Folgenden werden die Telemanipulatoren der Firmen Computer Motion und Intuitive Surgical (beide USA) kurz vorgestellt. ⊡ Abb. 54.6 zeigt ZEUS, einen Telemanipulator der damaligen Firma Computer Motion. Dieses System besteht aus mehreren Komponenten, die z. T. auch
54
858
Kapitel 54 · Medizinische Robotersysteme
räte zwei flexible Instrumente bedienen. DaVinci ist ein geschlossenes, integriertes System, das nur in seiner Gesamtheit genutzt werden kann.
54.4.7 Kommerzielle Chirurgie-/Biopsieroboter
VI ⊡ Abb. 54.6. ZEUS, Telemanipulatorsystem der Firma Computer Motion, USA
einzeln einsetzbar sind. So setzt es sich im Prinzip aus drei AESOP-Armen zusammen: zwei als Instrumentenführungssysteme für die Manipulation bzw. Interaktion mit dem Gewebe und ein weiterer Arm zum Führen der endoskopischen Kamera. Ein entsprechendes Bedieninterface auf der Eingabeseite ergänzt die Einheit. 1999 waren mehr als sieben derartiger ZEUS-Systeme weltweit in unterschiedlichen Anwendungsbereichen von Gynäkologie bis Herzchirurgie im Einsatz. Durch die Übernahme von Computer Motion durch Intuitive Surgical wurde die Produktion und Weiterentwicklung des ZEUS Systems 2003 eingestellt. Ergänzt wurde ZEUS durch HERMES, ein OP-Bedienkonzept, bei dem alle im OP verfügbaren Geräte und Systeme (u. a. OP-Tisch, Beleuchtung, HF-Koagulation, Insufflator, Videokonferenzsystem etc.) über eine Sprachsteuerung bedient und gesteuert werden konnten. ⊡ Abb. 54.7 zeigt daVinci von Intuitive Surgical. Es ist ein für die Herzchirurgie entwickeltes Telemanipulationssystem, dessen Entwicklung 1995 begann und das seit 1999 in Deutschland klinisch eingesetzt wird. Weltweit sind inzwischen ca. 300 Systeme installiert, in Deutschland neben Leipzig u. a. in Berlin, Dresden, Frankfurt/M., Hamburg und München. Mit diesem System wurden zunächst vor allem Bypassoperationen, aber auch Herzklappenoperationen durchgeführt. Inzwischen wurden Operationen im urologischen Bereich (Prostataresektion), im gynäkologischen Bereich sowie in der Laparoskopie durchgeführt. Der Chirurg sitzt an einer maximal 8 m abgesetzten Konsole, hat über Bildschirme ein 3-D-Bild vom Operationsgebiet und kann über zwei Eingabege-
Unter diesen Systemen versteht man den klassischen Begriff der Roboter, angewandt auf chirurgische Präzisionsarbeiten wie z. B. das Fräsen von Hüftschäften. Diese Roboter bewegen sich auf vor der Operation fest vorgegebenen Bahnkurven und arbeiten ein Programm ähnlich CNC-Maschinen Schritt für Schritt ab. ⊡ Abb. 54.8 zeigt ROBODOC von Integrated Surgical Systems (ISS), USA. Es wurde 1992 erstmalig vorgestellt und dient zum präzisen Platzieren von Hüftprothesen. Dieses System beinhaltet neben dem eigentlichen Roboter auch ein Planungssystem, mit dem die entsprechende Prothese ausgewählt und die optimale Lage der Prothese berechnet wird. Mit ROBODOC sind seit 1994 über 12.000 Operationen erfolgt, die meisten davon in Deutschland. Während in den Anfängen jeweils in einer ersten Operation der Oberschenkelknochen mit Schrauben markiert werden musste, um eine exakte Vorberechnung wie auch eine Online-Überwachung während den eigentlichen Roboterfräsarbeiten zu ermöglichen, wird in dem neuen System auf diese Markierung verzichtet, was zu einer geringeren Belastung für den Patienten führt, da u. a. keine Voroperation erforderlich ist. Ein weiteres Robotersystem ist Pathfinder der Firma Armstrong Healthcare, UK. Es dient zum präzisen Bohren, Fräsen oder kann für andere Arbeiten bei neurochirurgischen oder orthopädischen Eingriffen eingesetzt werden. In Deutschland war seit 1996 CASPAR von ortoMaquet, D, am Werk, das in der Aufgabenstellung und der Funktionalität weitgehend dem ROBODOC-System entspricht. Neben der Hüftgelenkoperation zählte auch die Kniegelenkoperation zum Einsatzbereich für CASPAR. Die Produktion von CASPAR wurde mittlerweile eingestellt. In Deutschland hatte der SurgiScope von Jojumarie sehr starke universitäre Anbindung und diente als Hilfswerkzeug für Präzisionsarbeiten im Hals-Nasen-OhrenBereich. Das System konnte hier bereits klinisch erprobt werden. Im Speziellen wurde es zur Mikroskopführung, zur Führung der Biopsienadel oder des Endoskops sowie als Bohr- und Schraubassistent eingesetzt. Nicht zuletzt wurde gerade eine neuartige Strahlenbehandlung mit Hilfe dieses Systems erprobt. Hierbei diente das System zur präzisen Positionierung von sog. radioaktiven Pellets z. B. bei der Prostataresektion. Ein vorhandener Tumor soll dadurch gezielt mittels radioaktiver Strahlung zerstört werden. Das System wurde mittlerweile vom kommerziellen Markt genommen und dient nun vorwiegend zu Forschungszwecken.
859 54.5 · Medizinische Anwendungsfelder
⊡ Abb. 54.7. daVinci, Telemanipulatorsystem der Firma Intuitive Surgical, USA
⊡ Abb. 54.8. ROBODOC, Operationsroboter der Firma ISS, USA
Melzer und dem industriellen Partner Innomedic GmbH, D. Das System erhielt als erstes MRT-kompatibles System weltweit in 2005 die CE-Zulassung. Eingesetzt wird das System vorwiegend für die perkutane, bildgestützte Schmerztherapie an verschiedensten Organen wie z. B. Leber, Wirbelsäule, etc. Das letztgenannte Präzisionssystem besitzt eine direkte Interaktion mit der Planungssoftware und dem Tomographen, und es wird in diesem Bereich daran gearbeitet, das System direkt online mit dem MRT zu betreiben, d. h. die Bildsequenzen können direkt vom Assistenzsystem ausgewertet und umgesetzt werden. Dadurch ist eine Operation unmittelbar unter direkter Bildnavigation erstmals möglich, und die Präzision des Eingriffs wird dadurch erhöht. Alle eingesetzten Materialien sind MRTkompatibel, und es wurden spezielle optische Sensoren sowie pneumatische Antriebe explizit für dieses System entwickelt. Die pneumatischen Aktoren sind dabei die ersten ihrer Art weltweit und können entlang ihrer Verfahrbahn auf 0,1 mm exakt positioniert werden. Aufgrund der MRT-kompatiblen Materialien ist die Störung des Assistenzsystems während der Bildaquisition deutlich minimiert. In der nun folgenden klinischen Evaluierung werden weitere Einsatzgebiete, wie bspw. Eingriffe in der Neurochirurgie, erprobt und weiter entwickelt.
54.5 ⊡ Abb. 54.9. Innomotion, MRT-kompatibles Assistenzsystem
⊡ Abb. 54.9 zeigt das System Innomotion der Firma Innomedic GmbH aus Deutschland. Dies ist das erste kommerziell erhältliche Assistenzsystem für den Einsatz unmittelbar im Magnet-Resonanz-Tomographen (MRT). Entwickelt wurde das System vom Forschungszentrum Karlsruhe zusammen mit dem klinischen Partner Prof.
Medizinische Anwendungsfelder
Im Bereich der Bauchraumchirurgie (z. B. Cholezystektomie, Prostatektomie) sowie der allgemeinen endoskopischen Chirurgie werden die einfachen Systeme, wie bspw. die Kameraführung, sicherlich am häufigsten verwendet. Ihre unterstützenden Wirkungen sind: ▬ Bereitstellung eines ruhigen, zitterfreien Bildes, ▬ kontrollierte Kameraführung direkt vom Chirurgen – ein zusätzlicher Assistent als Kameramann ist nicht erforderlich.
54
860
VI
Kapitel 54 · Medizinische Robotersysteme
Werden neben dem EFS auch noch Instrumentenhaltesysteme eingesetzt, die einfache Instrumente wie Fasszangen in einer festen Position halten und vom Chirurgen bei Bedarf leicht verstellt werden können, so hat der Chirurg die Möglichkeit, weitgehend allein eine Operation, nur assistiert durch die OP-Schwester, durchzuführen, die sog. Solochirurgie ist nunmehr machbar (Schurr 1998). Der Einsatz von Robotiksystemen erlaubt es, z. B. in der Orthopädie (Hüftprothesen, Knieoperationen), aber auch in der HNO (Kiefer- und Gesichtschirurgie), im Vergleich zur manuellen Chirurgie wesentlich exaktere chirurgische Arbeiten durchzuführen. So kann der Hüftroboter den Oberschenkelknochen exakter ausfräsen als der Chirurg es kann. Dadurch hat die Prothese anschließend eine Passgenauigkeit von über 90% gegenüber dem manuellen Verfahren mit ca. 30% Kontaktfläche. Knochenzement als Verbindungsunterstützung zwischen Implantat und Knochen kann dadurch reduziert werden. In der Neurochirurgie werden diese exakten Maschinen vorwiegend zum präzisen Führen und Halten von sehr filigranen Operationsinstrumenten und Kameras eingesetzt. Hier findet man die zwingende Kombination der sehr hohen Exaktheit der Robotersysteme mit einfachen Aufgaben wie den Haltefunktionen. Der Neurochirurg profitiert von der Schnittstelle des Roboters zur Planungssoftware, sodass eine exakte Positionierung anhand der Bilddaten erfolgen kann. Dies ist gerade im neurochirurgischen Bereich von höchstem Interesse. Innomotion von der Firma Innomedic GmbH, D, soll zu solch einem System modifiziert werden und neben endoskopischen Kameras auch Instrumente präzise halten und führen. Genauigkeiten von unter 1 mm sind hierfür zwingend erforderlich. Die Verwendung von Telemanipulationssystemen schließlich ermöglicht dem Chirurgen, feinere und exaktere Operationsschritte und damit konventionelle endoskopische Eingriffe sehr viel exakter durchzuführen. Hier sind besonders die Bypassoperationen in der Herzchirurgie und die Prostatektomien in der Urologie zu nennen (Selig 2000). Die bisher sehr traumatischen offenen klassischen Operationsmethoden können durch diese präzisen Manipulatoren erstmals endoskopisch durchgeführt werden, was für die Patienten von großem Vorteil ist. Grundsätzlich zeigen die Telemanipulationssysteme folgende Möglichkeiten auf: ▬ Die Bewegungsabläufe lassen sich skalieren: z. B. kann eine Bewegungsvorgabe des Chirurgen von 10 cm in eine Instrumentenbewegung von z. B. 1 cm umgesetzt werden. Dadurch sind exaktere Aktionen möglich. ▬ Ein Bewegungstremor kann herausgefiltert werden, Zittern wird eliminiert, höhere Sicherheit wird erreicht.
▬ Ein Indexing ist möglich: Der Chirurg kann sich eine optimale Arbeitsposition aussuchen und muss nicht in verspannter Körperhaltung entsprechend der Position der Arbeitsinstrumente operieren. Optimale Ergonomie für den Chirurgen kann erreicht werden, ermüdungsfreieres Operieren ist möglich. ▬ Zwischen verschiedenen Koordinatensystemen kann ausgewählt werden. So ist es möglich, z. B. in Weltkoordinaten, Instrumentenkoordinaten oder Bildschirmkoordinaten die Instrumente zu steuern. Damit kann je nach Einsatzgebiet und je nach Präferenz des Chirurgen das günstigste Steuerungsverfahren gewählt werden. ▬ Kräfte können an der Instrumentenspitze erfasst und dem Chirurgen am Bediengerät vermittelt werden. Forschungsarbeiten auf dem Gebiet der Manipulatorentwicklung haben gezeigt, dass durch die Kompliziertheit der Gesamtsysteme immer häufiger einfache endoskopische Instrumente für bisher konventionell durchgeführte Operationen entwickelt werden konnten. Diese sog. Spinoffs ermöglichen es dann auch, einfache endoskopische Eingriffe mit den völlig neuen Techniken der minimal invasiven Chirurgie durchzuführen.
54.6
Technische Aspekte
Der Einsatz von Teletechniken erfordert ein Umdenken und auch ein Einarbeiten in diese Techniken (Voges 2000). Der Arzt muss sich ein entsprechendes technisches Verständnis aneignen, im Operationssaal ist nicht nur medizinisches, sondern auch technisches Personal erforderlich. Dabei ist jedoch eine Akzeptanzschwelle zu überwinden, wenn der Kontakt zwischen Arzt und Patienten nicht mehr direkt, sondern nur über Telekommunikationseinrichtungen erfolgt. Ebenso kann eine psychologische Hemmschwelle auftreten, wenn nicht mehr der Arzt, sondern ein Roboter bzw. ein Telemanipulator am Operationstisch steht und den Eingriff vornehmen soll. Dem Patienten muss einerseits verständlich gemacht werden, welche Vorteile für ihn mit dem Einsatz einer solchen Technik verbunden sind, und andererseits muss er darauf vertrauen können, dass trotz Maschine auch ein Arzt am Operationstisch zugegen ist und die Operation überwacht. Robotik- und Manipulatorsysteme für den Einsatz in der Chirurgie stellen besondere Anforderungen an die Integration in die statischen und dynamischen Strukturen der Operationssäle in den Kliniken. Hierzu wurden bereits zahlreiche Konzepte entwickelt, die den gesamten Bereich von Anforderungen – von der Aufrüstung bereits existierender Einrichtungen bis hin zur speziell an die Möglichkeiten und Bedürfnisse des Robotereinsatzes angepassten Neueinrichtung – abdecken. Auf
861 54.7 · Perspektiven
einige Anforderungen soll im Folgenden eingegangen werden. Bauliche Voraussetzungen sind neben ausreichend Platz für die schnelle und leichte Ankopplung des Manipulatorsystems an den Operationstisch ggf. auch ein erschütterungsfreier Boden und/oder eine Möglichkeit der Deckenaufhängung. Die Aufstellung der Bedieneinheit muss unter dem Gesichtspunkt erfolgen können, dass bei Bedarf eine direkte Sicht auf den Patienten und das Manipulatorsystem wie auch die sonstigen Informationen (Anästhesiedaten etc.) gegeben ist. Das OP-Team muss eine spezielle Einführung in die Handhabung der Geräte und die Behebung der während der Betriebs möglicherweise auftretenden Probleme erhalten. Darüber hinaus ist die Anwesenheit eines Technikers erforderlich, damit ein bestimmungsgemäßer Aufbau und Einsatz des Systems erfolgt und auftretende Probleme rechtzeitig richtig erkannt und behoben werden können. Die Interdisziplinarität im OP-Team wird erhöht, und das Technikverständnis des Chirurgen ist gefordert. Der Chirurg muss sich einem ausgiebigen Training unterziehen, um die sich von der herkömmlichen Operation unterscheidende Bedienung der Mastereinheit bzw. des gesamten Telemanipulationssystems und die zusätzliche Funktionalität zu erlernen. Die Bedieneinheit sollte zwar intuitiv bedienbar sein, aber verschiedene Einstellmöglichkeiten, die sonst nicht gegeben sind (z. B. Selektion des Koordinatensystems, der Skalierung, der Gerätezuordnung), erfordern ein Sichvertrautmachen, um auch in kritischen Situationen korrekt, sicher und schnell handeln zu können. Dies macht den Bedarf für Simulatoren und Trainer ersichtlich: Ähnlich wie bei Flugsimulatoren erscheint es sinnvoll, Trainings- und Simulationssysteme für die Telechirurgie einzusetzen, an denen die Chirurgen fortlaufend geschult werden können.
54.7
Perspektiven
Die Entwicklung des Demonstrators ARTEMIS und seine langjährige Erprobung wie auch die inzwischen eingesetzten kommerziellen chirurgischen Telemanipulatoren und Roboter haben gezeigt, dass durch den Einsatz von Teletechniken im Operationssaal eine Reihe von Vorteilen erzielt werden können. Dazu zählen ▬ die bessere Bildqualität durch den Einsatz von Endoskopführungssystemen, ▬ die bessere Operationsqualität durch die exaktere Instrumentenführung mit Hilfe der Telemanipulationssysteme, ▬ die bessere Operationsqualität durch eine ermüdungsfreiere, ergonomischere Arbeitshaltung, ▬ die bessere Operationsqualität durch die Integration eines 3-D-Sichtsystems.
Aber es bleiben noch weitere wichtige Ziele für die künftigen Entwicklungen: ▬ modularer und flexibler Systemaufbau, ▬ flexible und leichter wechselbare Instrumente bzw. Multifunktionsinstrumente, ▬ bedarfsorientierte Anpassung an die Erfordernisse der Telechirurgie, ▬ vielseitige Einsatzmöglichkeit in allen relevanten chirurgischen Disziplinen, ▬ breitere Einsetzbarkeit in besonderen Umgebungen wie CT, MRT. Die Modularität des Systems wird sich nicht nur auf die Mechanikkomponenten beziehen, sondern auch im Softwareaufbau niederschlagen. So kann unter Einsatz einer verteilten, objektorientierten Realzeitarchitektur diese Modularität im Softwaresystem umgesetzt werden. Multiagentensysteme werden soft- und hardwaremäßig realisiert, ebenso eine offene Systemstruktur, die die Integration von unterschiedlichen Master- und Slave-Systemen zulässt. Neben der eigentlichen Telemanipulation werden auch weitere Teletechniken in das Telepräsenzsystem eingebunden, sodass u. a. auch Teleconsulting und Teleplanung unterstützt werden. Die Anwendbarkeit in unterschiedlichen Disziplinen ist weiterhin eine Voraussetzung für eine wirtschaftliche Akzeptanz eines solchen Systems. Der Einsatz von Teletechniken in der Chirurgie wird immer weitere Kreise ziehen. Nicht in allen Bereichen, in denen der Einsatz erprobt wird, wird er sich auch etablieren. Oft wird es nur eine Operation geben; nach dem Motto der Presseinformationen: »Chirug A hat als erster die Operation B mit Hilfe des Robotiksystems C durchgeführt.« »Nachfolger gibt es nicht, da die Durchführung einer derartigen Operation B mit einem Robotiksystem eher Nachteile als Vorteile bringt...«. Oder es wird noch eine lange Zeit dauern, bis sich derartige Operationen durchsetzen. Einige Kliniken werden in den nächsten Jahren noch die Vorreiter sein müssen und die Möglichkeiten, aber auch die Grenzen der Telechirurgie ergründen. Bis zu einem flächendeckenden Einsatz derartiger Systeme wird es wohl noch 10 Jahre dauern. Nicht nur der Preis (oft über 1 Mio. Euro) ist ein Hinderungsgrund, sondern auch die noch mangelhafte Funktionalität. Die bisherigen Erfolge beim Einsatz von Telemanipulations- und Robotiksystemen in der Chirurgie zeigen, dass derartige Systeme ihren berechtigten Platz in der Medizin haben und sinnvoll eingesetzt werden können. Nichtsdestotrotz besteht auch weiterhin Forschungs- und Entwicklungsbedarf: Die Einsatzgebiete können noch erweitert werden; dafür sind entsprechende Änderungen und Weiterentwicklungen bei den Sytemen erforderlich. Die medizinische Vorgehensweise muss sich ggf. an die Möglichkeiten, die die Robotik bietet, anpassen. Gänzlich
54
862
Kapitel 54 · Medizinische Robotersysteme
neue Operationstechniken, die bei rein manueller Vorgehensweise nicht machbar sind, müssen erprobt werden. Eine enge Kooperation zwischen Technikern und Medizinern ist in diesem Feld erforderlich.
Literatur
VI
Bauer A, Börner M, Lahmer A (1997) Experiences with a computer-assisted robot (RobodocTM) for cementless hip replacement. In: Dillmann R, Holler E, Meinzer HP (eds) 2nd IARP Workshop on Medical Robotics, Nov 1997, Forschungszentrum Karlsruhe, S 133–134 Cakmak, H, Maass, H, Kühnapfel, U (2005) VSOne, a virtual reality simulator for laparoscopic surgery. Minimally Invasive Therapy & Allied Technologies, 14: 134–44 Fischer H et al. (2000) Manipulator für die Therapie von Mammakarzinomen im Magnetresonanztomographen (MRT). »Nachrichten Forschungszentrum Karlsruhe«, 32/1–2/2000, S 33–38 Gumb L, Schäf A, Trapp R et al. (1996) Vorrichtung zur Führung chirurgischer Instrumente für die endoskopische Chirurgie. DE-OS 19609034 (12.9.1996), DE-PS 19609034 (1.7.1997), EP-PS 59600577 (16.9.1998) Gutmann B, Gumb L, Goetz M, Voges U, Fischer H, Melzer A (2002) Principles of MR/CT Compatible Robotics for Image Guided Procedures. Education Exhibit (Certificate of Merit), Radiology Suppl. p 677 Gutmann B, Lukoschek A, Fischer H, Melzer A (2003) Development of an assistant robotic system for interventional radiology inside CT and MR scanners. Curac Melzer A, Gutmann B, Lukoschek A et al. (2003) Experimental Evaluation of an MR compatible Telerobotic System for CT/MR-guided Interventions. Radiology Suppl. p 409 Neisius B (1997) Konzeption und Realisierung eines experimentellen Telemanipulators für die Laparoskopie. Dissertation, Univ Karlsruhe Oberle R, Voges U (1993) A telerobotic approach towards endoscope guidance. In: 1st European Congress of the European Association for Endoscopic Surgery. Köln, 03.–5.6.1993 Petermann J, Schierl M, Heeckt PF, Gotzen L (2000) The CASPAR-system (Computer Assisted Surgery Planning And Robotics) in the reconstruction of the ACL. First follow-up results. 5th International Symposium CAOS, Davos, Schweiz, 17.–19.2.2000 Schurr MO, Buess G, Neisius B, Voges U (1998) Robotics and allied technologies in endoscopic surgerey. In: Szabo Z (Hrsg) Surgical technology international VII – International developments in surgery and surgical research. Universal Medical Press, San Francisco, pp 83–88 Selig M, Fischer H, Gumb L et al. (1999) Voice controlled camera guiding system FELIX for endoscopic cardiac surgery. 11th Annual Scientific Meeting of the Society for Minimally Invasive Therapy (SMIT), sponsored by the Center for Innovative Minimally Invasive Therapy (CIMIT). Boston/MA, Sept 16–18, 1999 Selig M et al. (2000) Minimal invasive Herzchirurgie. »Nachrichten Forschungszentrum Karlsruhe«, 32/1–2/2000, S 55–60 Shennib H, Bastawisy A, Mack MJ, Moll FH (1998) Computer-assisted telemanipulation: An enabling technology for endoscopic coronary artery bypass. Ann Thorac Surg 66: 1060–1063 Stephenson ER, Snakholkar S, Ducko CT, Damiano RJ (1998) Robotically assisted microsurgery for endoscopic coronary artery bypass grafting. Ann Thorac Surg 66: 1064–1067 Uecker DR, Lee C, Wang YF, Wang Y (1994) A speech-directed multimodal man-machine interface for robotically enhanced surgery. Proc 1st Int Symp Medical Robot and Comp Assisted Surgery. Pittsburgh, pp 176–183
Urban V, Wapler M, Weisener T, Schonmayr R (1999) A tactile feedback hexapod operating robot for endoscopic procedures. Neurol Res 21/1: 28–30 Voges U, Dautzenberg P, Kühnapfel U et al. (1995) Experimenteller Telemanipulator für die minimal invasive Chirurgie. 2. Statuskolloquium des Projektes Mikrosystemtechnik, Karlsruhe, 28.–29.11.1995, Wissenschaftliche Berichte, FZKA-5670 (Nov 1995), S 106–111 Voges U, Holler E (2000) Teletechniken und chirurgische Robotik. »Nachrichten Forschungszentrum Karlsruhe«, 32/1–2/2000, S 39–54 Wendt O, Remmele T, Gutmann B et al. (2004) Assistant manipulator system for image guided percutaneous Interventions. Curac 2004
Weitergehende Internetinformationen zu den genannten Firmen bzw. Gerätenamen DaVinci: www.intuitivesurgical.com EndoAssist, LapMan: www.medsys.be/lapman/body.htm EndoAssist, Pathfinder: www.armstrong-healthcare.com/ Innomotion: www.innomedic.de Robodoc: www.robodoc.com Robox, Artemis: www.iai.fzk.de/projekte/medrob/artemis
55 Medizinische Gasversorgungssysteme P. Neu
55.1
Normen – 863
55.1.1 55.1.2 55.1.3 55.1.4 55.1.5 55.1.6 55.1.7 55.1.8 55.1.9
Herstellung – 863 Design – 864 Risikoanalyse – 864 Konstruktion – 864 Materialien – 865 Wartung und Reparatur – 865 Kennzeichnung – 865 Versorgungsquellen – 865 Notversorgung – 867
Gaseanwendungen spielen eine zentrale Rolle im Krankenhaus. Sie müssen daher ständig sicher und zuverlässig zur Verfügung stehen. Es handelt sich dabei um die Gase Sauerstoff, Lachgas, medizinische Atemluft und Kohlendioxid. Die Spezifikationen für diese Arzneimittel und deren Prüfmethoden sind im Europäischen Arzneibuch festgelegt. Auch Narkosegasableitungen und Vakuumsysteme sind im weiteren Sinne Gasversorgungsanlagen. Für sie gelten aber eigene Normen und Spezifikationen, weswegen sie im Folgenden ausgeklammert bleiben. Gase benötigen für ihre Lagerung und den Transport aufgrund ihrer physikalischen Eigenschaften stets sekundäre Materialien wie Tanks oder Druckgasbehälter und Leitungssysteme. Für die Entnahme und ihre Anwendungen werden Ventile, Druckminderer und Leitungssysteme benötigt. Dabei müssen alle Teile sowohl einzeln als auch das ganze Entnahmesystem nicht nur für den Druck ausgelegt sein, sondern sie müssen auch spezifisch gasartgeeignet sein. Bei den Gasversorgungssystemen unterscheidet man aufgrund differenzierter Eigenschaften sogenannte Hochdrucksysteme mit Drücken größer 30 bar und sogenannte Niederdrucksysteme. Bei den medizinischen Gasversorgungssystemen handelt es sich meist um Niederdrucksysteme. Für Hochdrucksysteme gelten andere technische Vorschriften für die Anlagensicherheit. Dies betrifft nicht nur die Druckfestigkeit der Materialien, sondern auch und gerade ihre chemische Stabilität gegen Sauerstoff und Lachgas – v. a. beim Einsatz von nichtmetallischen Werkstoffen. Hierauf wird im Abschn. 55.1.2 »Design«
näher eingegangen.
55.1.10 Analytische Überprüfung der Gasqualität – 867 55.1.11 Mikrobiologische Kontamination – 867 55.1.12 Dokumentation – 868
55.2
Normen und Informationsquellen – 868 Weiterführende Literatur – 868
55.1
Normen
Grundlage waren und sind nationale Normen, die heute in europäische Normen und Richtlinien überführt sind oder überführt werden. Das kann in Einzelfällen dazu führen, dass nationale Normen andere Forderungen haben als international festgelegte. Diese Normen werden zur Zeit international harmonisiert. Damit hier nicht zu große Verwirrung entsteht, sind die neuen internationalen Normen eher Empfehlungen. Ein Hersteller und Betreiber muss allerdings begründen, warum er davon abweicht. Notwendigerweise gelten für die Einführung neuer Normen stets Übergangsfristen, was zu möglichen Verwirrungen führen kann. Die nationalen Behörden sind dann aufgefordert, hier die Risiken zu minimieren. Im Abschnitt Kennzeichnung wird auf ein solches Beispiel näher eingegangen. Gasversorgungssysteme im medizinischen Bereich unterliegen zusätzlich den Anforderungen des Medizinproduktegesetzes.
55.1.1 Herstellung
Die EU Richtlinie 93/42 EWG Medical Device Directive legt generelle Anforderungen an Hersteller von Medizinprodukten fest. Der Hersteller von medizinischen Gasversorgungssystemen muss nach dieser Richtlinie die beiden folgenden Bedingungen erfüllen: ▬ Er muss ein vollständiges, von einer benannten anerkannten Stelle (Notified Body) zertifiziertes Qualitätsmanagementsystem besitzen.
864
Kapitel 55 · Medizinische Gasversorgungssysteme
▬ Die erstellte Anlage muss eine Baumusterpüfung und Abnahmeprüfung nach den Anhängen 3 und 4 dieser Richtlinie von einem Notified Body erhalten.
VI
Unter Notified Body ist hier eine zertifizierte Stelle oder besser ein zertifiziertes Unternehmen gemeint. In vielen Fällen ist es der Hersteller selbst. Mit dem CE Zeichen wird bestätigt, dass die Anlage oder auch Teile davon in Übereinstimmung mit den »Grundlegenden Anforderungen« in Bezug auf Sicherheit von Patienten, Betreibern und Dritten geplant, erstellt und geprüft wurde. Dies scheint auf den ersten Blick problemlos. Doch wie kennzeichnen sie das Versorgungssystem mit dem CE-Zeichen? Das Problem beginnt mit den ersten Veränderungen, Erweiterungen und Reparaturen am System, die vom Betreiber – meist dem Krankenhaus – vorgenommen werden. Streng genommen muss der Hersteller des existierenden Systems hier eine Konformitätserklärung abgeben. Das heißt, er muss den Veränderungen zustimmen, denn anders kann er ja seinen Verpflichtungen, wie der Produkthaftung aus dem Medizinproduktegesetz, nicht nachkommen.
55.1.2 Design
Generell sollten Gasversorgungssysteme so konstruiert werden, dass keine »toten Säcke« entstehen. Diese sind schwer zu reinigen, und Kontaminationen können sich in ihnen besonders bei längerem Stillstand ausbilden. Wenn tote Säcke nicht zu vermeiden sind, sollten diese Abschnitte des Rohrleitungssystems einzeln abgesperrt werden können, und Rückschlagventile sollten eine Rückströmung in das Gasversorgungssystem verhindern, damit im Falle von auftretenden Fehlern das separate Freispülen des Anlagenteiles möglich ist. Damit bei auftretenden Problemen und Fehlern nicht das gesamte System ausfällt, sollte dieses möglichst redundant ausgelegt werden. Eine vollständige Redundanz des gesamten Systems ist kaum möglich, dennoch sollten einzelne Abschnitt durch Ventile abtrennbar sein und über eigene Gaseinspeisungsmöglichkeiten verfügen. Dies gilt vor allem für Ringsysteme. Sie besitzen gegenüber anderen Konstruktionssystemen den Vorteil, keine toten Säcke zu haben. Sie reagieren besonders schnell auf plötzlich ansteigenden Gasbedarf. Druck und Druckverteilung im System bleiben sehr gleichmäßig. Sie haben aber den Nachteil, dass eine Isolierung von fehlerhaften oder kontaminierten Bereichen nur unter Bildung von toten Säcken möglich ist. Häufig werden keine völlig neuen Gasversorgungsanlagen gebaut, sondern alte bestehende Anlagen werden erweitert, ergänzt oder teilerneuert. In solchen Fällen stellen diese neuen Teile Medizinprodukte dar, die ein CEZeichen bekommen. Es ist dabei selbstverständlich, dass
diese Teile während der Bauphase vom arbeitenden System abgetrennt sein müssen. Bei Bau und Inbetriebnahme der neuen Anlagenteile muss Sorge dafür getragen werden, dass die Anlagenteile sich nicht negativ beeinflussen. Sie dürfen erst in Betrieb gehen, wenn sie entsprechend nach Medizinproduktegesetz abgenommen und zertifiziert wurden. Das gilt natürlich besonders für Erweiterungen an Anlagen mit bestehenden CE-Zeichen. Besonders ist zu beachten, dass in der späteren Nutzung Überprüfungen der Dichtigkeit und andere Prüfungen, die eine Unterbrechung der Versorgung erfordern, nur schwer oder gar nicht durchführbar sind. Die Anlagen müssen die physikalischen und chemischen Eigenschaften der im System transportierten Gase berücksichtigten. Dies gilt v. a. für die Verlegung der Anlagen in Gebäuden. Sauerstoff und Lachgas sind als brandfördernd eingestuft. Sie können im Falle von Leckagen aus den Anlagen in die Umgebung austreten und ein Gefahrenpotential bilden. Die Rohrleitungen müssen daher in den Verlegungskanälen getrennt von weiteren Installationen wie z. B. Elektroversorgung verlegt werden oder es müssen Mindestabstände eingehalten werden. Eine Flutung der Kabel- und Rohrschächte mit Stickstoff für Brandfälle sollte diskutiert werden, auch wenn sie in keiner Vorschrift erwähnt wird.
55.1.3 Risikoanalyse
Gasversorgungsanlagen müssen so konstruiert und betrieben werden, dass Patienten, Nutzer und Betreiber nicht mehr als unbedingt nötig gefährdet werden. Hierzu ist es notwendig, Risikoanalysen durchzuführen. Im Folgenden sind die Hauptrisiken eines solchen Systems aufgeführt: 1. Druckfestigkeit der Leitungen und der damit verbundenen Komponenten wie Druckminderer und Entnahmestellen, 2. Leckdichtigkeit von Leitungen, Ventilen und Entnahmestellen, 3. Gasartspezifität muss eingehalten werden, 4. Sicherheit gegen Kontamination durch angeschlossene Geräte und Systeme, 5. Isolation von einzelnen Bereichen vom gesamten System bei möglichen Fehlern, 6. Abtrennung von besonders kritischen Bereichen wie OP und Intensivmedizin und Anschlussmöglichkeit von Notversorgungsquellen.
55.1.4 Konstruktion
Die Konstruktion hat nach den erstellten Material- und Stücklisten und Zeichnungen zu erfolgen.
865 55.1 · Normen
Abweichungen davon sind zu dokumentieren. Während der Bauphase sollten Materialien wie Rohre vor Witterungseinflüssen geschützt gelagert werden. Es ist eine Überlegung wert, ob das System in der Bauphase ständig unter Gas gehalten und gespült wird, um das Eindringen von Kontaminationen zu vermeiden – eine in der Pharma-, Lebensmittel- und Elektronikindustrie gängige Praxis. Alle Materialien und Arbeitsprozesse müssen von vornherein so ausgewählt und durchgeführt werden, dass eine nachträgliche Reinigung nicht notwendig wird. Insbesondere darf das System nicht mit irgendwelchen Flüssigkeiten gereinigt werden. Es kann trotz intensivstem Spülen und Prüfen nicht sichergestellt werden, dass diese Mittel vollständig aus der Anlage entfernt wurden.
55.1.5 Materialien
Die Materialien, aus denen die Systeme und ihre Komponenten bestehen, müssen den physikalischen und chemischen Anforderungen und Belastungen standhalten. Als metallische Werkstoffe kommen meist Kupfer und Messing zur Anwendung. Es ist darauf zu achten, dass diese bereits als fettfrei und Sauerstoff bzw. Lachgas geeignet beschafft werden und nicht nachträglich gereinigt werden müssen. Besonderes Augenmerk ist hierbei auf die Verwendung des richtigen Lötmaterials für Kupferleitungen zu achten. Neben den metallischen Werkstoffen kommen eine Reihe von Kunststoffen zum Einsatz, in den meisten Fällen als Dichtmaterial. Aus rein technischen Gesichtspunkten bieten sich halogenierte Kunststoffe an, da sie die höchste Beständigkeit gegen Sauerstoff besitzen. In Brandfällen – mehr noch aber bei unbemerkten Verpuffungen im System – können diese Materialien hochgiftige Reaktionsprodukte freisetzen. Die aktuellen Normen und europäischen Richtlinien empfehlen die Verwendung von nicht-halogeniertem Material. Das hat aber wesentlichen Einfluss auf das Design, die Risikobewertung und die Konstruktion. Denn diese Stoffe sind gegen Sauerstoff und Lachgas nicht stabil, was sich in ihrem sehr niedrigen Sauerstoffindex zeigt. Hinweise hierzu erhält man von allen Herstellern dieser Materialien. Da diese Materialien nicht stabil gegen Sauerstoff sind, müssen die Anlagen und Komponenten so konstruiert werden, dass sie möglichst minimierten Kontakt zum Gas haben und Druckstöße sowie hohe Strömungsgeschwindigkeiten in diesem Bereich vermieden werden.
55.1.6 Wartung und Reparatur
Wartungen und Reparaturen müssen so ausgeführt werden, dass sie die CE-Zertifizierung des Systems erhalten. Dies bedeutet, dass Reparatur und Teiletausch nur von
zertifizierten Unternehmen ausgeführt werden dürfen. Es wird hierzu streng genommen eine Konformitätsbescheinigung des Herstellers der Gasversorgungsanlage benötigt. Es ist zu diskutieren, ob nicht auch der Eigentümer und Betreiber der Anlage, sofern er einen Sicherheitsbeauftragten nach Medizinproduktegesetz besitzt, aus praktischen Gründen dies tun kann, sofern gewisse Randbedingungen eingehalten werden. 55.1.7 Kennzeichnung
Leitungen und Entnahmestellen von Gasversorgungssystemen müssen eindeutig gekennzeichnet werden. Ab 1.7.2006 dürfen die Hersteller nur noch Equipment mit der Farbgebung nach ISO 32/DIN 739 oder farbneutral in Verkehr bringen (⊡ Tab. 55.1). Dabei kann das Nebeneinander von nationalen und harmonisierten internationalen Normen zu Verwirrungen führen. Um dies zu vermeiden, werden Übergangslösungen notwendig. In Deutschland gibt es nach Vorschlag der obersten Landesbehörden vier Möglichkeiten zur Umstellung und Anpassung an die neue Norm. (Informationen hierzu unter folgender web-Adresse: www.sm.badenwuerttemberg.de/sixcms/media.php/1442/Gaskennfarben-Information.pdf) Dabei ist für die eindeutige Kennzeichnung neben der farblichen Kennzeichnung auch die farbneutrale Kennzeichnung mit dem Namen der Gasart oder der chemischen Kurzformel möglich. Die letztere bietet den Vorteil, auch von nicht in der Farbgebung geschultem Personal erkannt zu werden. 55.1.8 Versorgungsquellen
Die medizinischen Gase können aus unterschiedlichen Vorratsquellen in das System eingespeist oder selbst erzeugt werden. Für Sauerstoff und Distickstoffmonoxid (Lachgas oder Stickoxydul) kommen prinzipiell zwei verschiedene Arten der Versorgungsquellen in Frage. Bei geringeren Mengen wird das Gas aus Hochdruck-Druckgasbehältern eingespeist. Bei größeren Mengen wird aus ökonomischen Gründen aus isolierten cryogenen Flüssigtanks versorgt. Die Einspeisung in die Gasversorgung erfolgt dabei auf unterschiedliche Weise. Da die Gasversorgungssysteme in einem Druckbereich von 5–10 bar arbeiten, können die Druckgasbehälter nur über eine Entspannungsstation, die den Druck der Flaschen auf ca. 200 bar bei Sauerstoff und ca. 50 bar bei Lachgas und Kohlendioxid reduziert. Hierfür sind Druckminderer- und Umschaltstationen notwendig. Sie reduzieren nicht nur den Druck, sondern schalten auch häufig von einem leeren automatisch auf den nächsten vollen Behälter um. In modernen Anlagen können die
55
866
Kapitel 55 · Medizinische Gasversorgungssysteme
⊡ Tab. 55.1. Farbkodierung von medizinischen Gasen und Gasgemischen (ISO 32/ DIN EN 739) Medizinische Gase
Symbol
Farbkodierung
Bemerkungen
Sauerstoff
O2
weiß
nach ISO 32
Lachgas
N2O
blau
nach ISO 32
Helium
He
braun
nach ISO 32
Kohlendioxid
CO2
grau
nach ISO 32
Luft
Air
schwarz-weiß
nach ISO 32, Luft für Beatmung
Luft
Air-800
schwarz-weiß
nach ISO 32, Luft für chir. Werkzeuge
Xenon
Xe
hellbraun
Vakuum
Vac
gelb
Luft-Sauerstoffgemisch
Air/ O2
weiß-schwarz
nach ISO 32
Sauerstoff-Lachgasgemisch 50% O2 (V/V)
O2/N2O
weiß-blau
nach ISO 32
Sauerstoff-Heliumgemisch (He≤80% (V/V)
O2/He
weiß-braun
nach ISO 32
Sauerstoff-Kohlendioxidgemisch (CO2≤7% (V/V)
O2/CO2
weiß-grau
nach ISO 32
Helium-Sauerstoffgemisch (O27% (V/V)
CO2/O2
grau-weiß
nach ISO 32
Stickstoffmonoxid-Stickstoffgemische (NO≤1000 µl/l)
NO/N2
schwarz-hellgrün
nach EN 1089-3
Medizinische Gasgemische
VI
Drücke in den Druckgasbehältern auch fernüberwacht werden. Beim Umgang mit Druckgasbehältern sind die entsprechenden Vorschriften zu beachten. Sicheres Betreiben von Druckgasbehältern und die Nutzung von medizinischen Gasen ist nur möglich, wenn die spezifischen Eigenschaften der Gase und der Behälter berücksichtigt werden. Hierzu haben der deutsche, aber auch der europäische Industriegaseverband Nutzungshinweise erstellt. Da sich das Gas in den Behältern unter Hochdruck befindet, muss in allen Anwendungsfällen eine mehrstufige Entspannungsstation zur Druckreduzierung eingesetzt werden. Es ist darauf zu achten, dass die Dimensionierung dieser Station auf die maximalen Bedarfsmengen im Versorgungsnetz ausgelegt ist. Die Entspannungsstation sollte dabei von der Mengenauslegung über Reserven verfügen, da die maximale Verbrauchsmenge im Gasnetz nicht ohne Weiteres exakt angegeben werden kann. Theoretisch wird sie natürlich durch die Zahl der Entnahmestellen und deren maximalen Gasdurchfluss bestimmt. Die Versorgung aus cryogenen Flüssigbehältern erfolgt über einen Verdampfer. Gewöhnlich wird tiefkalter flüssiger Sauerstoff bei niedrigen Drücken transportiert und gelagert (kleiner 3 bar). Um auf den für die Einspeisung in das Gasversorgungssystem notwendigen Druck von mindestens 5 bar zu kommen, werden so genannte Verdampferanlagen eingesetzt. Sie bestehen gewöhnlich aus einem einfachen Metallrohr (meist Aluminium oder Stahl). Aus
Gründen der besseren Wärmeübertragung ist das Rohr mit Wärmeleitblechen versehen. Die Wärme der Umgebungsluft wird dazu benutzt, die entsprechenden flüssigen Sauerstoffmengen zu verdampfen, um im Vorratstank und im System einen Druck von 15–17 bar aufzubauen. Dies geschieht allein durch mechanische Steuerung und bedarf keines Kompressors, keiner Pumpe oder sonstigen elektrischen Steuerung. Bei der Eigenerzeugung im Krankenhaus handelt es sich um medizinische Druckluft und Vakuum. Für die Erzeugung der medizinischen Druckluft kommen die unterschiedlichsten Kompressoren zum Einsatz, auf die hier im Detail nicht eingegangen werden kann. Sie lassen sich in Kompressoren mit Ölschmierung und Schmierungsfreiheit einteilen. Letztere besitzen den Vorteil, dass hier keine Ölabscheidung und Absorber installiert werden müssen, um die niedrigen Grenzwerte für Öl und Kohlenwasserstoffe des europäischen Arzneibuches einzuhalten. Generell müssen hinter den Kompressoren Gasreiniger installiert werden, um die Grenzwerte des Arzneibuches einzuhalten. Die neuen gültigen Grenzwerte für die Restverunreinigungen liegen teilweise deutlich niedriger als die der alten Norm. Von daher sind teilweise umfangreiche Nachrüstungen oder eine komplette Neuanschaffung der Kompressoren notwendig. Die Diskussion über den einzuhaltenden Feuchtewert ist eine müßige, denn die Einhaltung der Werte für die übrigen Verunreinigungen
867 55.1 · Normen
erfordert den Einsatz von Gasreinigern, die aber nur dann wirksam sind, wenn der Feuchtewert deutlich unter dem Wert von 800 ppm liegt.
55.1.9 Notversorgung
Da die Gasversorgungssysteme zu den lebenserhaltenden Systemen im Krankenhaus zählen, ist für eine entsprechende Versorgungssicherheit zu sorgen. Die EN 737 sieht hierfür drei unabhängige Quellen vor. Im Falle von Sauerstoff aus cryogenen Verdampferanlagen und Druckgasbehälterversorgung besteht die Notversorgung in fast allen Fällen aus zwei weiteren Behälterbatterien. Die Umschaltung erfolgt automatisch bei Druckabfall in den Druckgasbehältern oder bei einem Mindestfüllstand der Verdampferanlage. Die Umschaltung muss so schnell erfolgen, dass die Patientenversorgung nicht beeinträchtigt wird. Für besonders kritische Krankenhausbereiche ist eine Einspeisemöglichkeit in der Nähe der Bereiche vorzusehen, meist sind dies mobile Druckgasbehälter. Dabei sollten die Druckgasbehältnisse nicht über Kunststoffschläuche, auch wenn sie aus sauerstoffgeeignetem Material bestehen, angeschlossen werden. Siehe die Diskussion über einsetzbare Materialien. Für die Planung der Notversorgung spielen die Verbrauchsmengen des Krankenhauses und die Versorgungssicherheit des Gaselieferanten die Hauptrolle. Im Gegensatz zum europäischen Ausland gibt es in Deutschland keine exakte Vorschrift für die Reichweite der Notversorgung. Hier wird sich auf die schnelle Lieferfähigkeit des Gasversorgers verlassen. Doch der Betreiber des Gasversorgungsnetzes ist dafür verantwortlich. Er sollte sich also vergewissern, dass die Notversorgung an Bedarf und Reaktionsfähigkeit des Gaselieferanten angepasst ist. Die beste Lösung stellt die Aufnahme der Notversorgungsreichweite und Lieferfähigkeit in den Liefervertrag mit den Gaseherstellern dar. Dabei sollte die Notversorgung für mindestens 48 h ausreichend sein.
55.1.10
Analytische Überprüfung der Gasqualität
Bei den von den Gasversorgungssystemen transportierten Gasen handelt es sich um Arzneimittel. Daher dürfen diese die Qualität der von ihnen transportierten Gase nicht negativ beeinflussen. Als Qualitätskriterien dienen heute die Spezifikationen (Monografien) des europäischen Arzneibuches. In den Monografien sind nicht nur die Grenzwerte für die Verunreinigungen, sondern auch die Nachweismethoden festgelegt. Hierbei wird zwischen Herstellung und Qualitätsüberprüfung für den Anwender unterschieden.
Für den Fall, dass das System mit zugelassenen Arzneimitteln versorgt wird, übernimmt der pharmazeutische Hersteller die Qualitätskontrolle. Hier ist nur noch eine einfache Qualitätskontrolle z. B. an den Entnahmestellen notwendig. Wird kein zugelassenes Arzneimittel bei der Tankversorgung mit flüssigem medizinischem Sauerstoff in das System gespeist oder das Gas wie medizinische Luft vor Ort erzeugt, so sind die Kontrollen, wie sie für die Herstellung beschrieben sind, notwendig. Die Überprüfung muss dann auch nach Arzneimittelgesetz erfolgen. Das erfordert Verfahren, die nicht vor Ort, sondern nur unter Laborbedingungen mit Hilfe komplexer Geräte durchgeführt werden können. Die Qualitätsüberprüfung des Gases muss in regelmäßigen Abständen am gesamten System, d. h. u. a. an jeder Entnahmestelle überprüft werden. Also müssen entweder Proben gezogen werden, die dann im Labor untersucht werden können, oder man muss auf einfachere Methoden zurückgreifen. Üblich und im Arzneibuch beschrieben ist dabei die Überprüfung mit Prüfröhrchen. Diese haben jedoch ganz bestimmte Nachteile. Die Stärke der Verunreinigungen liegt häufig an der Nachweisgrenze der Prüfröhrchen. Überhaupt verlangt der Umgang mit den Prüfröhrchen und den Probennahmegeräten einige Übung und Erfahrung. Daher müssen die Herstellervorschriften genauestens eingehalten werden. Hauptfehlerquellen sind in falschem Gasdurchfluss wie bspw. dem Durchleiten falscher Gasmengen oder in einer nicht vorschriftsgemäßen Lagerung der Röhrchen zu finden. Beim Ölnachweis mit den Prüfröhrchen ist zu beachten, dass diese nur bestimmte Öle nachweisen können. Viele hochsynthetische, für Sauerstoff geeignete Öle, ergeben keine Anzeige. Zudem ist die Reaktion des Röhrchens bei den geringen Grenzwertmengen nur schwer zu erkennen. Sämtliche Prüfungen sind zu dokumentieren.
55.1.11
Mikrobiologische Kontamination
In letzter Zeit wird zunehmend nach einer möglichen mikrobiologischen Kontamination der Gase im System gefragt. Zwar gibt es noch keine amtlichen Grenzwerte dafür, doch sollte der Level der Kontamination so gering wie möglich werden. Ursache für eine solche Kontamination kann das Gas, aber auch das System selbst sein. Über den mikrobiologischen Status von medizinischen Gasen gibt es in der Literatur einige Angaben. Die Ergebnisse dieser Arbeiten sind aber nur schwer vergleichbar, da es keine validierte Probennahme speziell für unter Druck stehende Gase gibt. Da Gase nie ohne entsprechendes Equipment gehandelt werden können, muss bei solchen Arbeiten sichergestellt werden, dass Kontaminationen nicht vom Equipment hervorgerufen werden.
55
868
VI
Kapitel 55 · Medizinische Gasversorgungssysteme
Allgemein geht aus den Untersuchungen hervor, dass Gase keine mikrobiologische Kontamination zeigen. Ursache hierfür sind der hohe Druck, die tiefen Temperaturen und als Hauptfaktor der äußerst geringe Feuchtigkeitsgehalt (kleiner 67 ppm). Anders verhält es sich mit dem Gasversorgungssystem. Seine Komponenten werden nicht steril gefertigt oder mikrobiologisch gereinigt. Auch herrschen beim Zusammenbau der Anlage keine kontrollierten Bedingungen. Für alle Teile der Anlage sollte aber gelten, dass sie möglichst frei sind von Kohlenwasserstoffen und Stoffen, die als Nährboden für mikrobiologisches Wachstum dienen können. Die Anlagenteile sollten daher verschlossen oder verpackt transportiert und gelagert werden. Vor allem die Rohrleitungssysteme sollten dabei nach Einbau möglichst schnell mit Gas gespült oder beaufschlagt werden (siehe Konstruktion).
55.1.12
Dokumentation
Im Medizinproduktegesetz sind die Anforderungen und die Aufbewahrungsfristen für die wesentlichen Dokumentationen festgeschrieben. Gasversorgungssysteme haben jedoch eine wesentlich längere Einsatzdauer als die üblichen Medizingeräte. Folglich müssen auch die Dokumentationen wesentlich länger aufbewahrt werden. Bei diesen langen Zeiten muss beachtet werden, dass bei der elektronischen Aufbewahrung sichergestellt wird, dass das Material auch dann noch lesbar ist, wenn sich die Speichertechnologie und Software grundlegend geändert hat.
55.2
Normen und Informationsquellen
In der Übersicht sind die wesentlichen Normen, die bei medizinischen Gasversorgungssystemen erfüllt werden müssen, aufgeführt. Sie erhebt keinen Anspruch auf Vollständigkeit.
Die wesentlichen Normen für Gasversorgungssysteme
▬ ▬ ▬ ▬ ▬
EN 737 Medizinische Gasversorgung Teile 1–6 EN 738 Druckminderer Teil 1–4 EN 739 Niederdruck Schlauchleitungssysteme EN 793 Medizinische Versorgungseinheiten EN 13348 Kupfer- und Kupferlegierungs-Rohre für medizinische Gase ▬ EN 13220 Flowmeter ▬ DIN 13260 Teil 2 Entnahmestellen
Auf den fogenden Webseiten finden Sie u. a wesentliche Informationen zum Thema Medizin Produkte Gasversorgungsanlagen: ▬ www.emea.eu.int ▬ www.europa.eu.int ▬ www.eudra.org ▬ www.zlg.de ▬ www.bfarm.de ▬ www.eiga.org ▬ www.industriegaseverband.de
Weiterführende Literatur Franz F, Franz B (Hrsg) (2006) 1×1 der Gase. Air Liquide, Düsseldorf
56 Inkubatoren G. Braun, R. Hentschel
56.1 Einführung
– 869
56.4 Risiken der Inkubatortherapie
56.2 Aufbau und Funktionsweise eines Inkubators – 870 56.2.1 56.2.2 56.2.3 56.2.4 56.2.5
Temperaturregulation – 870 Regulation der Luftfeuchtigkeit – 870 Regelung des Sauerstoffs – 871 Waage – 871 Röntgenschublade – 871
56.3 Inkubatorbauarten
56.1
– 872
56.4.1 Temperatur – 872 56.4.2 O2-Therapie – 873 56.4.3 Hygiene – 873
Literatur
– 873
– 871
Einführung
Inkubatoren werden zur Stabilisierung und Aufrechterhaltung des thermischen Gleichgewichts bei Früh- und Neugeborenen eingesetzt. Im Jahr 1907 wurde von dem Pädiater Pierre Budin in seinem Buch »The Nurseling« die Abhängigkeit der Mortalität von der Rektaltemperatur beschrieben. Neugeborene, welche auf eine Rektaltemperatur von 36°–37°C erwärmt wurden, erreichten eine Überlebensrate von 77%, Säuglinge mit einer Rektaltemperatur zwischen 32,5°C bis 33,5°C hingegen nur eine von 10%. Es wird angenommen, dass bereits 200 Jahre v. Chr. die Ägypter »Brutkästen« einsetzten. Im Jahre 1947 wurde ein von dem amerikanischen Arzt Chapple maßgeblich konzipierter Inkubator auf den Markt gebracht. Dieser Inkubator war der Vorläufer der heutigen Inkubatoren: transparente Plexiglashaube, Bakterienfilter zur Luftansaugung, integriertes Luftumwälzsystem, Luftbefeuchtung und eine Alarmeinrichtung gegen Übertemperatur wurden erstmals in diesem Modell realisiert (Frankenberger u. Güthe 1991). Frühgeborene sind nicht in der Lage, ihr thermisches Gleichgewicht selbständig aufrechtzuerhalten (Bauer 2005). Das Verhältnis von Körperoberfläche zum Körpervolumen beträgt beim Neugeborenen 2,7-mal soviel wie beim Erwachsenen. Bei Neonaten mit 1000 g Geburtsgewicht ist das Verhältnis sogar 4-mal höher. Der Wärmeverlust erfolgt auf vier Arten durch: 1. Konduktion (Wärmeleitung durch Abgabe von Wärme an die Liegefläche); 2. Konvektion (Abkühlung durch Luftströmung);
3. Evaporation (Verdunstung über die Haut); 4. Radiation (Wärmestrahlung vom Säugling in die Umgebung). Wärmeverluste werden durch Vasokonstriktion verringert. Durch die Erhöhung des Gefäßwiderstandes kühlen zuerst die Extremitäten ab, bevor die Körperkerntemperatur absinkt. Der Vergleich zwischen Körperkerntemperatur und den peripheren Körperteilen ermöglicht somit einen frühzeitigen Hinweis auf ein thermisches Ungleichgewicht (Brück u. Püschner 1996). Nur neugeborene Kinder besitzen braunes Fettgewebe, welches zwischen den Schulterblättern, hinter dem Herzen und an den großen Gefäßen liegt. Diese Energiereserven reichen nur bedingt, die Körpertemperatur im Normbereich zu halten. Neugeborene sind auch nicht in der Lage, durch erhöhte Muskelaktivität (Zittern) Wärme zu erzeugen. Frühgeborene verdunsten aufgrund ihrer dünnen Haut mehr Flüssigkeit als reife Neugeborene. Kältestress ist aus folgenden Gründen unbedingt zu vermeiden: ▬ geringere Sauerstoffaufnahme, z. B. mit negativem Einfluss auf die Lungenreife durch zu geringe Surfactantproduktion. Somit können sich Beatmungsprobleme ergeben, welche durch künstliche Beatmung kompensiert werden müssen; ▬ erhöhte Gefahr von Infektionen; ▬ negativer Einfluss auf das Wachstum; ▬ der Stoffwechsel wird negativ beeinflusst, z. B. Hypoglykämie (Unterzuckerung), metabolische Azidose (zu niedriger pH-Wert). Das Risiko einer pathologischen Gelbsucht (Icterus gravis) wird erhöht.
870
Kapitel 56 · Inkubatoren
Es kommt also sowohl auf die Konstanthaltung der Temperatur als auch auf eine Minimierung des Flüssigkeitsverlustes an.
56.2
VI
Aufbau und Funktionsweise eines Inkubators
Inkubatoren schaffen ein »Mikroklima«, welches sich von der Umgebungsluft deutlich unterscheiden kann. In diesem Mikroklima können Temperatur, Luftfeuchtigkeit und Sauerstoffgehalt innerhalb gewisser Grenzen individuell reguliert werden. Zudem isoliert der Inkubator den Patienten im Sinne eines Schutzes vor Erregern, die auf dem Luftweg übertragen werden. Inkubatoren sind i. d. R. für ein Körpergewicht von bis zu 5 kg konzipiert. Der Anwender kann dabei sowohl die Höhe als auch die Neigung der Liegefläche verändern. Dies ermöglicht eine gute Ergonomie und Zugriffsmöglichkeit zum Patienten für das Pflegepersonal. Zudem kann zum optimalen Mutter-Kind-Kontakt der Inkubator tief abgesenkt werden.
56.2.1 Temperaturregulation
Der Inkubator saugt über einen austauschbaren Luftfilter Raumluft an. Die Raumluft wird über ein Heizelement erwärmt, in dessen Mitte sich ein Lüfter befindet. Die warme Luft wird über Luftleitkanäle an den Längsseiten des Inkubators nach oben zum Patienten geführt. Dadurch entsteht ein Warmluftvorhang. Dieser Vorhang reduziert die Abkühlung des Inkubators bei geöffneten Inkubatortüren. Die Luft wird i. d. R. über die Stirnseiten wieder abgegeben. Gemessen wird die Lufttemperatur dabei über mehrere NTC-Sensoren. Die Herausforderung für die Hersteller besteht darin, ein zugfreies und homogenes Raumklima zu schaffen. Besondere Anforderungen werden an den Lüfter gestellt: Dieser muss möglichst geräuscharm arbeiten, um den Stress und die Gefahr einer Hörschädigung für den Patienten soweit als möglich zu reduzieren. Inkubatoren unterschreiten ein Betriebsgeräusch von 50 dB(A). Es ist jedoch eine Forderung für zukünftige Entwicklungen, die Geräuschentwicklung weiter zu senken. Der Anwender hat zwei Möglichkeiten, die Temperatur im Inkubator zu bestimmen: 1. Lufttemperaturregelung: Der Anwender wählt eine geeignete Lufttemperatur. Durch einen Temperaturfühler im Inkubator wird die Temperatur gemessen und mit dem Sollwert verglichen. Der Inkubator wird die eingestellte Lufttemperatur somit konstant halten. Weicht die Ist-Temperatur vom Sollwert ab, wird der Anwender durch ein Alarmsignal informiert. In der Regel liegt die Alarmgrenze bei ±1,5°C vom Sollwert.
2. Hauttemperaturregelung: Der Anwender platziert einen Hauttemperatursensor am Thorax, ein zweiter kann an den Extremitäten angebracht werden. Die gewünschte Hauttemperatur am Thorax wird vom Anwender eingestellt. Der Inkubator wird die Lufttemperatur in Abhängigkeit von der Hauttemperatur regeln. Weicht die Ist-Temperatur vom Sollwert ab, wird der Anwender durch ein Alarmsignal informiert. In der Regel liegt die Alarmgrenze bei ±0,5°C vom Sollwert. ! Inkubatoren sind nicht in der Lage zu kühlen. Bei hohen Außentemperaturen und bei größeren Säuglingen kann der Sollwert nicht eingehalten werden. Die Temperatur kann abhängig vom Inkubatortyp in einem Bereich von ca. 20°C bis ca. 39°C in 0,1°C-Schritten eingestellt werden.
56.2.2 Regulation der Luftfeuchtigkeit
Es werden zwei Konstruktionsprinzipien zur Feuchte-Erzeugung genutzt: Entweder wird das Wasser über einem Kocher verdampft und danach abgekühlt in den Inkubator eingeleitet, oder es wird über ein beheiztes Wasserbecken in der Inkubatorzelle erzeugt. Gemessen wird die Feuchte über kapazitive Bauelemente. Feuchte wird nicht nur benötigt, um den Thermohaushalt der Säuglinge aufrecht zu erhalten, sondern auch, um den Mund-Nasen-Rachenraum anzufeuchten. Die Luftfeuchte kann zumeist zwischen 30% und 99% relativer Luftfeuchtigkeit eingestellt werden. Der Anwender hat je nach Bauart des Inkubators zwei Möglichkeiten, die Luftfeuchtigkeit zu steuern: 1. Manuelle Feuchteregelung: Der Anwender wählt eine geeignete relative Luftfeuchte. Über einen Feuchtigkeitssensor wird die relative Luftfeuchte gemessen und mit dem Sollwert verglichen. 2. Automatische Feuchteregelung: Im Automodus wird bei einer höheren Lufttemperatur entsprechend auch die relative Luftfeuchte erhöht. Luft kann in Abhängigkeit von der Temperatur unterschiedlich viel Feuchtigkeit binden, sodass bei Unterschreiten einer kritischen Temperatur KondenswasserBildung eintritt, während bei höheren Temperaturen mehr Feuchtigkeit aufgenommen werden kann. Aufgrund der im Verhältnis zur Außentemperatur hohen Innenraumtemperatur besteht die Gefahr der Kondenswasserbildung an den Inkubatorscheiben. Damit ist die Möglichkeit, den Säugling zu beobachten, unter Umständen eingeschränkt. Der Effekt ist verstärkt bei einer gewählten Luftfeuchtigkeit von >70% zu beobachten. Von zahlreichen Herstellern werden zur besseren Isolation optionale Innenraumscheiben angeboten. Diese haben sich
871 56.3 · Inkubatorbauarten
in der Praxis nicht durchgesetzt – insbesondere deshalb, weil dann der Feuchtigkeitsbeschlag zwischen den beiden Scheiben nicht mehr ohne großen Aufwand vom Pflegepersonal abgewischt werden kann. ! Inkubatoren sind nicht in der Lage, die Luft zu trocknen. Wählt man eine Sollfeuchte, welche geringer ist als die Umgebungsluftfeuchtigkeit, wird der Istwert nie die Umgebungsluftfeuchtigkeit unterschreiten.
56.2.3 Regelung des Sauerstoffs
Als Option kann bei allen auf dem Markt verfügbaren Geräten die Luft mit Sauerstoff angereichert werden. Dabei kann die Luft je nach Inkubatorbauart auf bis zu 70 Vol-% angereichert werden. Bei stationären Inkubatoren wird der Sauerstoff über die zentrale Gasversorgung eingespeist. Bei Transportinkubatoren für Krankenwagen- oder Hubschraubertransport ist sowohl der Betrieb über die zentrale Gasversorgung als auch über Gasflaschen möglich. Gemessen wird der Sauerstoff im Inkubator über Brennstoffzellen, welche auch in Langzeitbeatmungsgeräten eingesetzt werden. Das Funktionsprinzip der Brennstoffzelle ist in Kap. 21 über die O2-Messung näher beschrieben. Aufgrund des Gefährdungspotenzials einer O2-Fehldosierung wird die O2-Messtechnik redundant gestaltet. Das Signal von zwei Brennstoffzellen wird miteinander verglichen. Weichen die Werte deutlich voneinander ab, werden automatisch oder manuell durch den Anwender die Brennstoffzellen kalibriert.
56.3
Inkubatorbauarten
Nach ihrem Einsatzzweck werden die Inkubatoren grundsätzlich in drei Bauformen unterteilt: 1. Stationäre Inkubatoren: Werden für die Langzeitversorgung der Früh- und Neugeborenen auf Wach- und Intensivstationen verwendet (⊡ Abb. 56.1). 2. Transportinkubatoren: Werden zum »Inhousetransport« vom Kreissaal auf die Pädiatrische Intensivstation oder zur Verlegung in andere Kliniken mit einem Fahrzeug oder Hubschrauber benutzt (⊡ Abb. 56.2). Diese letztgenannten Inkubatoren besitzen sowohl eine eigene Stromversorgung über Akkumulatoren als auch eine Gasversorgung über Gasflaschen. Im Krankenhaus oder im Fahrzeug können die Geräte über das 220 Volt-Netz und über die zentrale Gasversorgung mit Energie versorgt werden, um die mobile Energieversorgung zu schonen. Die auf einem mit Schwingungsdämpfern ausgerüsteten Chassis gelagerten Inkubatoren werden auf handelsübliche Krankentragegestelle mit einklappbarem Fahrgestell adaptiert. Bedingt durch die beengten Platzverhältnisse während des Transports z. B. in Hubschraubern sowie durch die überschaubaren Transportzeiten wird meist auf die Befeuchtungsoption verzichtet. Intensivtransportinkubatoren sind mit einem Beatmungsgerät, einem Patientenüberwachungsmonitor, Spritzenpumpen und einer Absaugvorrichtung ausgestattet.
56.2.4 Waage
Neben der Körpertemperatur ist auch das Körpergewicht ein wichtiger diagnostischer Parameter in der Neonatologie. Nach dem heutigen Stand der Technik hat sich das Wiegen im Inkubator durchgesetzt. Damit wird Kältestress für das Neugeborene vermieden, wenn dieses anstatt auf einer konventionellen Waage in Raumluft, im Inkubator gewogen wird.
56.2.5 Röntgenschublade
Um das Handling für notwendige Röntgenaufnahmen zu vereinfachen, ist bei Inkubatoren neuerer Bauart unter der Liegefläche eine Schublade eingebaut. In diese Schublade lassen sich gängige Röntgenkassetten einlegen. Dadurch entfällt das Platzieren des Neugeborenen direkt auf eine kalte und harte Röntgenplatte.
⊡ Abb. 56.1. Inkubator für Einsatz auf Station (Abbildung mit freundlicher Genehmigung der Fa. Weyer)
56
872
Kapitel 56 · Inkubatoren
3. Spezielle Inkubatoren: Für Untersuchungen im MRT gibt es einen nichtmagnetischen Transportinkubator, welcher in das MRT eingeschoben werden kann. Auch dieses Gerät besitzt die Möglichkeit der Luftanfeuchtung, der künstlichen Beatmung, und ist zur Überwachung des Patienten mit einem Pulsoximeter ausgestattet. Geeignet ist das Gerät für Thorax- und Gehirnuntersuchungen. Das Problem von »Inhouse-Transporten« kann durch ein neuartiges Transportkonzept erheblich vereinfacht werden. Jeder therapiepflichtige Säugling wurde bisher
VI
⊡ Abb. 56.2. Transportinkubator mit Fahrgestell (Abbildung mit freundlicher Genehmigung der Fa. Dräger)
auf einer Reanimationseinheit versorgt, dann mit einem Transportinkubator vom Kreissaal oder Sectio-Op in die Kinderabteilung verlegt und dort auf seinen Behandlungsplatz umgebettet. Das bedeutete mehrmalige Umlagerung und somit Kältestress für das Neugeborene sowie die Gefahr der unabsichtlichen Manipulation an Infusionen und Beatmungsschläuchen. Üblicherweise werden Neugeborene auf Reanimationseinheiten, d. h. einem Wärmebett mit einer beheizten Gelmatratze und einem integrierten Heizstrahler erstversorgt. Nach der Stabilisierung im Kreissaal werden die Patienten oft in wenigen Minuten auf die Intensivstation verlegt. Erst auf der Intensivstation werden die Säuglinge in den stationären Inkubator umgelagert. Somit werden die Patienten zweimal bei Raumtemperatur umgelagert und erfahren also Kältestress. Sowohl die Reanimationseinheit als auch der Transportinkubator müssen dann wieder zeitaufwändig aufgerüstet werden. Um diese Standardsituation zu verbessern, wird ein stationärer Inkubator mit integriertem Heizstrahler an einen Andockwagen gekoppelt. Dieser Inkubator kann somit zur Erstversorgung als Reanimationseinheit benutzt werden (⊡ Abb. 56.3). Auf dem Andockwagen finden sich alle notwendigen relevanten Geräte für eine Intensiveinheit: Beatmungsgerät, Absaugung, Patientenüberwachungsmonitor, Spritzenpumpen und Handbeatmungsbeutel. Der Andockwagen ist mit O2- und Druckluftflaschen bestückt, um auch während des Transports die Beatmung zu gewährleisten. Der Wagen wird ohne Werkzeug an den Inkubator angekoppelt. Bei Ankunft auf der neonatologischen Intensivstation wird der Wagen dann direkt am Intensivplatz abgekoppelt, um die Therapie mit Stationsgeräten weiterzuführen. Mit diesem Konzept wird Kälte- und Umlagerungsstress verringert, Ressourcen werden geschont, und das Handling für das Personal wird vereinfacht.
56.4
Risiken der Inkubatortherapie
56.4.1 Temperatur
⊡ Abb. 56.3. Inkubator mit Andockwagen für Inhousetransport (Abbildung mit freundlicher Genehmigung der Fa. GE)
Wie in der Einführung beschrieben, ist die Konstanthaltung der Körpertemperatur für Neugeborene von großer Bedeutung. Deshalb ist eine engmaschige Temperaturüberwachung unabdingbar. Bei Neugeborenen wird meistens alle zwei Stunden rektal die Temperatur gemessen. Befindet sich der Säugling im thermostabilen Gleichgewicht, kann der Zyklus auf 4 h ausgedehnt werden. Kühlt das Kind aus, spricht man von Hypothermie. Wird das Kind über 37,0°C durch den Inkubator erwärmt, spricht man von Hyperthermie. Aufgrund des erhöhten Flüssigkeitsverlusts kommt es bei einer Hyperthermie zu Elektrolytstörungen. Weitere Folgen sind Hyperventilation und Tachykardien. Bei thermostabilen Kindern korreliert die Hauttemperatur
873 Literatur
sehr gut mit der Körperkerntemperatur. Somit vereinfacht die Betriebsart »Hauttemperaturregelung« die geeignete Temperaturwahl für den Anwender. Auf keinen Fall darf die Hauttemperaturregelung bei Kindern im Schockzustand angewendet werden, da in dieser Situation eine unbeabsichtigte Überwärmung eintreten kann. Auch bei Säuglingen mit Fieber ist die Hauttemperaturregelung nur mit größter Vorsicht anzuwenden, denn in diesem Fall ist die Hauttemperatur höher als die Körperkerntemperatur.
56.4.2 O2-Therapie
Sauerstoff ist ein Medikament, welches bei Fehldosierungen ein hohes Gefahrenpotenzial darstellt. Deshalb muss bei Gabe von O2 der arteriell gemessene O2-Partialdruck bestimmt werden. Bei der O2-Therapie ist es unabdingbar, den Patienten mit einem Pulsoximeter oder einer transkutanen O2-Sonde kontinuierlich zu überwachen. Kommt es zu einer O2-Unterversorgung (Hypoxämie), besteht die Gefahr einer respiratorischen Insuffizienz mit der Folge von Apnoen. Bei dauerhafter O2-Mangelversorgung kommt es zur Hirnschädigung. Die Überdosierung von O2 (Hyperoxämie) kann bei Frühgeborenen unterhalb der 38. Schwangerschaftswoche zu schweren Augenschäden führen. Es kann sogar zur Netzhautablösung, der Retinopathie schwersten Grades, kommen. Sauerstoff fördert die Explosions- und Brandgefahr. Nach Händedesinfektion sollte sicherheitshalber gewartet werden, bis das Desinfektionsmittel abgetrocknet ist. Aus diesem Grund dürfen auch keine Desinfektionsmittel oder brennbaren Flüssigkeiten wie Alkohol oder Benzin im oder auf dem Inkubator abgestellt werden.
56.4.3 Hygiene
Aufgrund des warmen Klimas und der hohen Luftfeuchtigkeit ist der Inkubator ein idealer Raum zur Ausbreitung von Keimen. Dadurch ist das Neugeborene zusätzlich infektgefährdet. Deshalb sollte nach Beendigung der Behandlung eines Patienten oder spätestens nach sieben Tagen der Inkubator ausgetauscht und der benutzte Inkubator sorgfältig gereinigt und wischdesinfiziert werden.
Literatur Bauer K (2005) Neonatologie. In: Speer C, Gahr M (Hrsg) Pädiatrie, 2. Aufl. Springer, Berlin Heidelberg New York Brück H, Püschner PA (1996) Thermomonitoring. Drägerwerk, Lübeck Frankenberger H, Güthe A (1991) Inkubatoren. Verlag TÜV Rheinland
56
Danksagung
Für die freundliche Unterstützung mit Abbildungen und Schemata möchten wir folgenden Personen, Institutionen und medizintechnischen Unternehmen unseren Dank aussprechen: ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬ ▬
Abiomed Inc., Danvers/MA (USA) Air Liquide Deutschland GmbH, Düsseldorf Arrow International Inc. (USA) BD Deutschland GmbH, Heidelberg B. Braun Melsungen AG, Melsungen Bebig GmbH, Berlin Berlin Heart AG, Berlin Biotronik GmbH, Berlin CardioWest Technologies (USA) Carl Zeiss AG, Feldbach (Schweiz) DeBakey (USA) Dräger Medical Deutschland GmbH, Lübeck Fraunhofer Institut für Biomedizinische Technik, St. Ingbert Fresenius Medical Care Deutschland GmbH, Bad Homburg GE Medical Systems Ultrasound, Solingen Fujinon (Europe) GmbH, Willich Given Imaging GmbH, Hamburg Gulmay Medical Systems Ltd., Camberley/Surrey (UK) Impella Cardiosystems GmbH, Aachen Institut Biomedizinische Technik, Universität Karlsruhe Institut für Angewandte Informatik, Forschungszentrum Karlsruhe Institut für Mathematik und Datenverarbeitung in der Medizin, Universität Hamburg
▬ Institut für Med. Informationsverarbeitung, Biometrie und Epidemiologie, Ludwig-Maximilians-Universität München ▬ Institut für Medizinische Informatik, Universitätsklinikum der RWTH Aachen ▬ Institut für Medizintechnik und Biophysik, Forschungszentrum Karlsruhe ▬ Institut für Radiotherapie, Aarau (Schweiz) ▬ Intuitive Surgical Inc. (USA) ▬ ISS (USA) ▬ Jaeger Tönnies GmbH, Würzburg ▬ Jarvik Heart Inc., New York/NY (USA) ▬ Johnson & Johnson GmbH, Norderstedt ▬ Jojumarie GmbH, Berlin ▬ Karl Storz GmbH & Co KG, Tuttlingen ▬ Karp, J., Prof. Dr., University of Pennsylvania/PA (USA) ▬ Katada, Kazuhiro, Prof. Dr., Fujita Health University, Aichi (Japan) ▬ Klinik für Nuklearmedizin, RWTH Aachen ▬ KLS Martin GmbH & Co KG, Umkirch ▬ KrankenhausTechnik Management, FH Gießen ▬ Laser- und Medizin-Technologie GmbH, Berlin ▬ Laserzentrum Zentrum Hannover e.V. ▬ Lawton GmbH & Co KG, Fridingen ▬ Maquet GmbH & Co KG, Rastatt ▬ Mc Donald, R.J., Dr., Radiology Regional Center Ft. Meyers, FL, USA ▬ MDS Nordion Ltd., Ottawa/ON (Canada) ▬ Medizinische Hochschule Hannover, Abt. Informatik / Biometrie ▬ Medizinische Informatik, FH Dortmund
928
Danksagung
▬ Medizinische Informatik, Universität Heidelberg/FH Heilbronn ▬ Medos Medizintechnik, Stolberg ▬ Medtronics GmbH, Düsseldorf ▬ Muehllehner, G., Prof. Dr., University of Pennsylvania, PA, USA ▬ ndd Medical Technologies, Zürich (Schweiz) ▬ Olympus Optical Co. (Europa) GmbH, Hamburg ▬ Optiscan Imaging Ltd., Melbourne (Australien) ▬ Pentax GmbH, Hamburg ▬ Philips Healthcare Information Technology, Hamburg ▬ Philips Medizin Systeme GmbH, Böblingen ▬ Philips Nuclear Medicine/PET, Idstein ▬ PolyDiagnost GmbH, Pfaffenhofen ▬ Rendoscopy AG, Gauting ▬ RheinAhrCampus, Remagen ▬ Sensor Medics BV, Bilthoven (Niederlande) ▬ Siemens AG, Bereich Medizinische Technik, Erlangen ▬ Siemens Medical Solutions, Erlangen ▬ SMT medical GmbH & Co, Würzburg ▬ Sorin Group Deutschland GmbH, München ▬ Spiegelberg KG, Hamburg ▬ Sulzer Orthopedics GmbH, Freiburg ▬ Teamplan GmbH, Tübingen ▬ Thompson, R., Dr., Cedars Sinai Medical Center, Los Angeles/CA (USA) ▬ Thoratec Corporation, Pleasanton/CA (USA) ▬ Townsend, B., Dr., University of Pennsylvania/PA (USA) ▬ Universitätskinderklinik Freiburg ▬ Varian Medical Systems Inc., Palo Alto (USA) ▬ Viasys Healthcare, Conshohocken/PA (USA) ▬ Viasys – Jaeger-Toennies, Höchberg ▬ Viasys – SensorMedics, Yorba Linda/CA (USA) ▬ Waxmann, A., Dr., Cedars Sinai Medical Center, Los Angeles/ CA (USA) ▬ Weyer GmbH, Kürten-Herweg ▬ World Heart Corporation, Ottawa/ON (Canada) ▬ Zentrum für medizinische Forschung, Experimentelle Chir. Endoskopie, Universität Tübingen ▬ Zoetermeer, Niederlande ▬ Zoll Medical Deutschland GmbH, Köln
Sachverzeichnis
A α-stat-Methode 474 A0-Konzept 22 A0-Wert 22 Abbildungsfehler, geometrischer 769 Ableitelektrode 157 Ableitstrom 55 Ableitsystem 151 Ableitung, driftende 90 Abnahmetechnik 92 Abplatzeffekt 488 Abrieb, adhäsiver 848 Abtasteinheit 261 Abtastrate 175 Abtastsystem 259 Abtastzeit 266 Abtasttheorem nach Shannon 625 Access Point 729 ACE-Strategie 243 Acetatdialyse 453 Activated clotting time (ACT) 475 Active can 406 Adaptation 206 Admittanz 218 Adsorbens 445 Adsorption 445 AEP-Stimulator 162 Afterglow 256
Afterloading – Gerät 546 – Verfahren 549 AFU-Planung 68 Aktionspotential 131, 200 Aktivitätsmonitoring 116 Aktographie 171 Aktor, pneumatischer 859 Alarmglocke 700 Albarranhebel 352 Algorithmus – evolutionärer 780 – graphischer 333 Aliaseffekt 320 Aliasing 625 Alles-oder-Nichts-Gesetz 579 Aluminiumoxidkeramik 846 Alveolarvolumen (VA) 120 AMI-Code 763 Analgesie, patientenkontrollierte 565 Anästhesiegasbande 672 Aneurysma-Clip 167 Anforderungskatalog 751 Angebotsauswertung 752 Anlaufkurve 566 Annihilation 290 Anregung, kodierte 317 Antifaradisationskondensator 522 Anwender 46 Aortic-root-Kanüle 469
Apnoe 171, 385, 709 – ventilation 396 – zeit 663 Applanationssensor 710 Applanationstonometrie 691 Araldit 152 Archivierung 784 – digitale 338 Argonbeam 531 Argonbeamer 518 Argonplasmakoagulation (APC) 353 Array-Technologie 276 Arrhythmieüberwachung 646 Artefakt 140, 181, 188, 259, 294, 627 – biologischer 140, 181 – physiologischer 148, 627 – technischer 140, 148, 627 Artefaktunterdrückung, automatische 161 Artificial liver support 448 ASB-Druck 387, 391 Assistenzsystem 855 Asynchronie, thorakoabdominale 710 Asystoliealarm 646 Atemgasanfeuchter 380 Atemgasvolumen 109 Atemstromgeschwindigkeit 108 Atemstromgleichrichter 105 Atemstromstärke 105 Atemwegswiderstand 116 Atemzugvolumen 377
930
Sachverzeichnis
Atemzug-zu-Atemzug-Analyse 124 ATM 727 Atmungsstörung, schlafbezogene 170 Audiogramm 210 Audiometer 207 Audiometrie 193 – praktische 194 – objektive 217 Auditory Fatigue 206 Aufbaueffekt 542 Aufblähkurve 240 Aufhärtungskorrektur 262 Aufladung, elektrostatische 57, 140 Auflösungsvermögen – axiales 313 – laterales 327 Augmented-reality-Technologie 801 Averager 151, 156 Averaging 150, 160, 635 AV-Hysterese 589 Awareness 686 Axialpumpe 574
B Backpressure 121 Balanced Scorecard 79 Ballonkatheter 654 Ballonpumpe, intraaortale 570, 576 Basismonitoring 645 Batchsystem-Gerät 451, 455 Beatmung, modifizierte volumenkontrollierte 394 Beatmungsgerät, druckluftunabhängiges 379 Beatmungstherapie, nichtinvasive 395 Bedienphilosophie 642 Beinaheunfall 45 Belastungsform, rektangulärtrianguläre 125 Benutzungsoberfläche, graphische 798 BERA 227 Berger– Effekt 143 – Formel 238 Berührungsspannung 53 Beschaffungsmaßnahme, medizintechnische 62 Beschallungsverfahren 612 Beschleunigungsspannung 254 Bestandsbegehung 62 Bestandspotential, korneoretinales 187
Betatron 541 Betreiber 46 Betriebsqualifikation 21 Bewegungsartefakt 259 Bewertungsmatrix 69 Bikarbonatdialyse 453 Bildauswertung 765 Bildbearbeitung 765, 767 Bilddarstellung 765 Bildgebung – diffusionsgewichtete 281 – funktionelle medizinische 367 – molekulare 285 Bildschirmkanal 642 Bildspeicherung 765 Bildverarbeitung, digitale 765 BiLEVEL 173 Bioimpedanz, thorakale elektrische 659 Biokompatibilität 596 Biomedizinische Technik 7 Biopotentialdifferenz, zeitveränderliche 92 Biosensor 618 Biosignal 132, 136, 170, 175, 618 Biosignalanalyse 635 Bioverträglichkeit 596 BIPAP 391 Blanking 584 Blank-Scan 294 Blasenoxygenator 467 Blasenstimulator 599 Blended Learning-Konzept 810 Bluff Body 110 Blutdruckmessung 647 Blutgas 125 Blutgasanalyse 628 Blutgasmessung, transkutane 665, 668 Blutgeschwindigkeit 315 Blutpumpe, arterielle 466 BMTE 61 Bodyplethysmographenkammer 118 Bodyplethysmographie 116, 117 BOLD-Imaging 281 Bolometer 369 Bovie 505 Boyle-Mariotte-Gesetz 117 Brachytherapie 544, 545 Brain-Computer-Interface 599 Brennfleckgeometrie 254 Brennstoffzelle 124, 671, 871 Bridge 729 Brummspannung 88 Brustimpedanz 401 BTPS 108 Bubble 316, 324
Bubble-point-pressure 468 Buchthal-Analyse 154 Büschelentladung 837 Bypass, kardiopulmonaler 463
C Cabrera-Kreis 94 Care Koagulation 529 Case Engineer 808 Cavakatheter 654 CCITT-Rauschen 215 CE-Kennzeichnung 43 Cerebral perfusion pressure (CPP) 687 Chemikalienbeständigkeit 19 Chirurgie, computerunterstützte 815 Chopper 628 Chromoendoskopie 353 Chronaxie 586 CIC-Gerät 232 Cine-Mode 818 CIS-Strategie 243 Clearance 447 Click 110, 221 Closed-loop-System 617 Clusteranalyse 634 CO2 – Analysator 124 – Partialdruck 126, 664 – Rebreathing-Methode 126 Cochlea-Implantat (CI) 203, 214, 232, 241, 574, 598, 760, 762 Cochlea-Implantation 651 Cochleaprothese, elektrische 242 Cochleostomie 245 Cocktailparty-Effekt 217 Cold-Spot 372 Collision broadening effect 673 Compton-Effekt 542 Compton-Ereignis 292 Computational Intelligence 779, 780 Computer Aided Diagnosis (CAD) 815 Computer-Based Training (CBT) 803 Computergraphik 791 Cone-Beam-CT (CBCT) 554 Connected-Components-Analyse 774 Contact Quality Monitor 536 Continuous-Flow-System 382 Coolidge-Röhre 541 CO-Partialdruck 120 CPAP-Gerät 183, 382 Crestfaktor 524 Creutzfeldt-Jakob-Erkrankung 34
931 Sachverzeichnis
Cross circulation 465 Cross-Channel-Verification 695 CROS-Versorgung 236 CT-Scanprotokoll 254 Curietron 550
D 3D-Anatomieatlas 792 Dampfdesinfektionsapparat 24 Dampfströmungsverfahren 23 Datennebel 263 Defibrillation 399 Defibrillationsimpuls 401 – konfiguration 40 Defibrillator, atrialer 404 Dekontaminationsanlage 22 Dekontaminationsmaschine 837 Dekrement 159 Dekubitusschaden 834 Demand-Flow-Gerät 382 Demandschrittmacher 587 Depolarisation 88, 131, 199 Desikkation(s) 529 – strom 530 Desinfektion(s) 16 – mittelkonzentrat 19 – mittelwirkstoff 18 Desorptionszeit 27 Detektor – optischer 455 – pixelierter 302 Detektortotzeit 301 Device-Endokarditis 573 DGHM-Liste 17 Dialysat 446 Dialysator-Re-use 457 Dialyse 444 Dialysedosis 454 Dialysewasser 33 Diathermie 604 DIC-Charakteristik 605 Dichtlippe 112 DICOM-Standard 317, 339, 786, 815 Differenzverstärker 87, 132, 136, 143, 153, 624 Diffuse Lighting 826 Diffusion(s) 120, 444 – selektive 444 – effekt 281 – verstärker 29 Digitally Encoded Ultrasound (DEU) 317
Dipolmodell 146 Diskriminanzanalyse 635 Diskriminationskurve 214, 215 Display, haptisches 794, 799 Dissektion 524 Dissoziationskurve 126 Distorsionsprodukt, otoakustisches 225 Docking Station 640 Dokumentationsunterstützung 736 Doppelballonenteroskopie (DBE) 353 Doppelechoverfahren 281 Doppelnadelverfahren 456 Doppelpumpenverfahren 456 Dopplereffekt 693 Dopplerverschiebung 315 Dose Error Reduction System 562 Dosimetrie 543 Dosis 543 Dosismodulation, zeitliche 266 Dosisreduktion 265 DPOAE-Gehörgangsonde 226 Drehanode 254 Drehpendeltest 190 Dreistufentheorie 50 Driveline 572 Drop-out-rate 638 Druck – hydrostatischer 559 – intrapulmonaler 378 – kritischer (Pcrit) 173 – osmotischer 133, 444 Druckdom 652 Druckgenerator 380 Druckmessung, intrauterine 694 Druckpuls 485 Dual Demand 591 Dual Imaging 505 Dual-Energy-Bildgebung 269 Dual-Source Computertomograph 269 Dünnfilmbeschichtungstechnik 256 Dünnfilmtransistor (TFT) 256 Duplexbetrieb 319 Durchatembarkeit, freie 391 Durchgangszeitdifferenz 110 Durchsichtverfahren 311
E Echoplanar-Imaging (EPI) 274 Eckfrequenz, spektrale 683 ECTS Punkt 8 Effekt, biochemischer 288
A–E
Effizienz, geometrische 298 Einkammerschrittmacher 587 Einmalatemfilter 108 Einmalendoskop 366 Einmalsensor 107 Einstichaktivität 154 Einzelfaserelektrode 155 Eisensulfatdosimetrie 544 EKG – Nomenklatur 88 – Signalerkennungsalgorithmen 405 – Vorverstärker 87 Elektretmikrophon 221, 233 Elektrochirurgie 516 Elektrocorticographie (EcoG) 148 Elektrode – dispersive 522 – elektrotherapeutische 613 – endokardiale 583 – intracochleäre 242 – polarisierte 133 Elektrodenbewegung, thermische 139 Elektrodensauganlage 99 Elektroden(übergangs)impedanz 89 Elektrodenübergangswiderstand 160 Elektrodesikkation 517 Elektroenzephalographie (EEG) 140 Elektrogramm (EG) 95 Elektro-Hydro-Thermosation (EHT) 533 Elektromyograph 150 Elektronenstrahl-Computertomographie (EBCT) 267 Elektronenstrahlepitaxie 370 Elektroneurographie 156 Elektronystagmographie 187 Elektrookulographie 187 Elektropalpation 605 Elektrostimulator, implantierbarer 595 Elektrotomie 517, 520 Emission – otoakustische (OAE) 119, 220 – transitorisch evozierte otoakustische (TEOAE) 221, 224 Empfänger, pyroelektrischer 369 Endomikroskopie 358 Endoprothetik 839 Endoskopführungssystem 857 Endoskopie, virtuelle 793 Energieauflösung 292 Entropie 683 Entscheidungsunterstützung 736 Epoxydharz-Konnektor 581 Erdelektrode 157 Erdungselektrode 228
932
Sachverzeichnis
Ergospirometrie 123, 127 portable 126 Ergospirometriemessplatz 97, 123 Ermüdungsabrieb 848 Erste-Fehler-Philosophie 50 ESW-Generator 501 Etagenverkabelung 721 Ethylenoxid 26 Evidence-based medicine 733 Evidenzkriterium 31 Expertensystem 637 Extended Field of View (EFOV) 334 Extremwert-Betrachtung 70 Exzitation 199
F 9-Felder-Graphik 125 Fachabteilungssystem 743 Fächerstrahlkonzept 253 Fachplaner 64 FAEP-Normwert 162 Fahrradergometer 97, 101 – drehzahlabhängige 98 – drehzahlunabhängige 98 Faltung 767 Fast Fourier Transformation (FFT) 140, 147, 320, 636 Fastl-Rauschen 215 Faszilitierung 166 FDDI 727 Feature extraction 647 Feder-Masse-Modell 799 Fernhantierungssystem 853 Festeinbau 62 Fick’sche Gleichung 126 Fick’sches Prinzip 655 Field-of-View (FOV) 267 Filterkernel 258 Finger-Peristaltikpumpe 559 Firewall 730 Fistula needles 456 Flächenschallquelle 501 Flat-Panel-Detektor 257 Fleischsches Staurohr 108 Flicker 58 Flow Rate 106 Flow-Chart 476 Flowgenerator 380 Flowsystem, kombiniertes 383 Flowtriggersystem 383 Flüssigtank, cryogener 865 Flussklemmen, venöse 470
Flusssensor 106, 117 Fluss-Volumen-Kurve 112, 113 Flying Focus 260 Fokussierung, dynamische 328 Formaldehydgas-Sterilisation 27 Formant 212 Fotostimulation 132, 143, 145 Fotostimulator 143 Fourier-Scheiben-Theorem 257 Fourier-Transformation 274, 280 Fowler-Test 210 Framegrabber 339 Freehand-System 760 Freiburger Sprachverständlichkeitstest 213, 214 Frenzel-Brille 187 Frequenz 195 – Phasen-Diagramm 115 Frequenzgang 139 Frequenzkodierung 274 Fricke-Dosimetrie 544 Fulguration 516 Füllfaktor 256 Funktion, psychometrische 211 Fuzzy Logik 647, 781 FWHM-Angabe 493
G Galvani-Spannung 133 Galvanokaustik 516 Gamma Knife 552 Gantry 253, 261, 547 Gantryverkippung 261 Ganzkörperantenne 276 Ganzkörperplethysmograph 117 Gap junction 579 Gasnasswaschverfahren 27 Gasreiniger 866 Gasströmungsgeschwindigkeit 105 Gasversorgungssystem 863 Gasvolumen, intrathorakales (ITGV) 118 Gate-Control-System 609 Gate-Control-Theorie 606 Gefahr 49 Gefährdung 49 Gehörgangselektrode, extratympanale 245 Geiger-Müller-Zählrohrdetektor 255 Geländeverkabelung 721 Geldosimetrie 544 Geräteableitstrom 140
Geräteumgebung 62 Geräuschaudiometrie 210 Gewährleistungszeitraum, vorgegebener 72 Glasfaserkabel 722 Gleichgewicht, thermisches 869 Gleichtaktunterdrückung 137, 143 Gleitpaarung, keramische 850 Gouraud-Shading 784 Gradient, magnetischer 273 Gradientenechotechnik 274 Gradientensystem 276 Graseby-Kapsel 710 Grauwertdiskretisierung 262 Grauwertmodifikation 767 Green Book Industriestandard 727 Grenzrisiko 50
H Hagen-Poiseuille, Gesetz 108 Halbleitermaterial, infrarotempfindliches 623 Halbwert(s)zeit 289 Half Wave Rectification 199 Hall-Sonde 622 Haltesystem, passives 855 Hämodialyse 446 Hämofilter 446 Hämofiltration 446 Handprothese 600 – bidirektionale 600, 601 Harmonische 314 Hat-and-Head-Verfahren 771 Hauptstromverfahren 671, 674 HBFG 64 Headbox 143 Heat and Moisture Exchanger 380 Hechl’sche Querwindung 201 Helmholtz-Kapazität 133 Helmholtzsche Doppelschicht 133 Herzbildgebung 267 Herzchirurgie, minimalinvasive 465 Herzdraht 580 Herzdreieck, kleines 94 Herzfrequenzvariation 158, 177 Herzschrittmacher 596, 598 – transthorakaler 401 Herzschrittmachertherapie 579 Herzzeitvolumen (HZV) 126, 632, 647, 655 High pressure drop excursion 477 High-Flux Dialyse 453
933 Sachverzeichnis
High-PRF-Doppler 320 Hirndruckmessung, epidurale 688 Hirnstammaudiometrie 228 Hirnstammelektrode 203 Hirnstimulation, tiefe 598 Histogrammspeicher 296 Hittorfsche Röhre 539 HL-7 704, 746, 786, 815 Hochfrequenzsignal 272 Hochfrequenzsystem 276 Hochfrequenztherapie 611 Hochleistungsröntgenröhre 255 Hochpass 139 Hochverfügbarkeitskonzept 703 Hochvolttherapie 545 Hörfeldaudiometrie 211, 239 Hörgerät – konventionelles schallverstärkendes 232 – nichtlineares 237 – volldigitales 235 Hörprothetik 232 Hörschwellenkurve 204 Hörstörung – konduktive 201 – recruitmentpositive 202 – retrocochleäre 203 Hörstrahlung 198 Hörtest, subjektiver 203 Hounsfield-Einheit (HU) 261 Hub 728 HU-Gerät 71 Human-Computer-Interface 599 Hybrid-Endoskop 349 Hydrophon 492 Hygieneplan 30 Hypermedia-System 804 Hyperpolarisation 199 Hyperthermie 679 Hypothermie 679 – induzierte 475 Hysteroskopietrainingssimulator 794
I ICP-Messung, intraventrikuläre 690 ICRU-Referenzpunkt 543 ICSPE 99 Immunadsorption 448 Impedanz, akustische 195, 485 Impedanzaudiometrie 196, 217 Impedanzkardiographie (IKG) 659 Impedanzpneumographie 663, 709
Impfung 17 Implantat, radioaktives 550 Implantatmaterial, biodynamisches 842 Implantattelemetrie 758 Impulsform, biphasische 400 Impulsoszillometrie 115 Inbetriebnahmeplanung 62 Index, mechanischer (MI) 325, 345 Indexersystem 549 Indikatorgasmethode 111 Inertgas 27, 120 Infektionsgefährdung 16 Infektionsschutzgesetz 30 Information, metabolische 287 Informationsmanagement, strategisches 734 Informationssystem – heterogenes 744 – holistisches 744 – medizinisches 743 – radiologisches 815 Infrarotspektrometer 628 Infrarotvideoanlage 183 Infusion, retrograde 469 Infusionsfilter 559 Infusionsspritzenpumpe 561 Infusionssystem, automatisiertes 563 Infusionstherapie 557 Ingenieur Krankenhaustechnik 7 Ingot 300 Inhibition 199 Inhouse-Transport 872 Inion 136 Initialflow 386 Inkubator 708 Inline-Röntgen 506 Inlinesystem 507 Innervationsmuster 154 Insertion 16 Insomnie 170 Installationsqualifikation 21 Instrumentendesinfektionsmittel 18 Instrumentenverfolgung, automatische 855 Integrated Care Therapiekonzept 450 Integration, curriculare 812 Intelligenz, künstliche 127, 637, 806 Interaktionswerkzeug 791 Interferometer, supraleitendes 629 Interpeaklatenz 161 IntraBreath-Methode 122 Intrakardialsauger 470 In-vivo-Korrektur 670 Ionenimplantation 552
E–K
Ionenleitfähigkeit 129 Ionisationsdosimetrie 543 Ionisationskammer 543 Iontophorese 518, 607, 613 IR-Quantenempfänger 369 Isograuwertfläche 264 Isolationsklasse 52 Isophone 204 Isophonenfeld 204 it-Diagnostikkurve 605 IT-System, medizinisches 56
J J-Elektrode 583 Jitter 155 Junction Point 99
K Kalibration 106, 125 Kalorimetrie 544 Kaltkathode 548 Kammereichung 117 Kapnogramm 674 Kapnographie 663, 674 Kapselendoskopie 362 Karbonisation 521 Kardioplegiepumpe 466 Kardiotokographie (CTG) 693 Kardiotomiereservoir 466, 469 Kardioverterdefibrillator, implantierbarer 404 Kaskadenfiltration 448 Katheter, intraarterieller 652 Kauter 515 Kavitation 489 Kegelstrahlrekonstruktion 256 Kegelstrahltomograph 268 Kernel 767 Kernspin 272 Kerntemperatur 367 Kirchhoff ’sches Gesetz 368 Klassifikation, syntaktische 779 Klemmenstrom 529 Knochenleitungshörer 199 Knochenleitungshörgerät 202, 241 Koagulation 520, 528 Kodierung 317 Kohlendioxidpartialdruck, transkutaner 669
934
Sachverzeichnis
Koinzidenzdetektion 291 Koinzidenzschaltkreis 291 Koinzidenzzählrate 289 Kollapswelle 489 Kollimation, elektronische 289 Kombielektrode 713 Kombinationsgerät 285, 298 Kommunikationsunterstützung 736 Konformitätsbescheinigung 865 Konformitätsbewertungsverfahren 43 Kontaktspannung, elektrochemische 88 Konturmodell, aktives 777 Konzentrator 728 Kopfhörer, supraauraler 209 Kopplung, kapazitive 523 Koronarstent, beschichteter 842 Korotkow-Töne 649 Körperkerntemperatur 475, 869 Körperstrom, gefährlicher 53 Kortexstimulation, transkraniell motorische 166 Krankenakte, elektronische 739 Kreislaufunterstützungssystem, mechanisches 570 Kritikalität 73 Kryptosystem 730 – asymmetrisches 730 – hybrides 731 – symmetrisches 731 Kunstherz 570 Künstliche Niere 456 Kurventechnik 400 Kurzschluss, impedanzloser 55 Kurzwellenkondensatorfeldmethode 604
L Labor, virtuelles 806 Laboroxymeter 668 Lafette 830 LAN 719 Langenbeck-Test 210 Langzeitbeatmungsgerät 377 Larynxmikrophon 172 Lasergriffel 612 Laserscanningspektroskopie 358 Late enhancement 282 Latenzdifferenz, cochleo-mesencephale 229 Laufbandergometer 101 Lautheit 204
Lautheitssummation, biaurale 215 Lautheitsvergleich, interauraler 210 Leck, definiertes 119 Leckagekompensation 396 Leckstrom 455 Leistungsverzeichnis, detailliertes 68 Leitfähigkeitsdetektor 543 Leitzeit, zentral motorische 166 Letalalarm 646 Leuchtdiodenarray 143 Lichtkonversionstechnologie 309 Lichtwellenleiter 722 Light Spot Hydrophone 492 Linear-Array 327 Linearität 108 Linearscanner 326 Lithotripter, elektrohydraulischer 502 Lokalisationsdiagnostik 315 Lokalisationsverfahren 273 Longitudinalwelle 194 Look-Up-Tabelle 767 Löschbalkenmodus 642 Low-Flow-Perfusion 475 Luftleitungskurve (LL) 207 Lungenfunktionsgerät, rechnergestütztes 114 Lungenkapazität, totale (TLC) 111 Lüscher-Test 210
M Magnet, supraleitender 275 Magnetfeldtherapie, pulsierende 604 Magnetookulographie (MOG) 188 Magnetenzephalographie (MEG) 148 Maintenance of Wakefulness Test (MWT) 174 MAN 719 Manchester-Code 763 Mapping 146 Marching-Cube-Algorithmus 784 MARS-System 449 Maskierung 216 Mass Flow Meter 109 Massenspektrometer 123 Massenspektrometrie 114 Maßnahme, medikotechnische 15 Master of Medical Education 812 Master-Slave-Manipulatorsystem 853, 856 Matrix-Array 329 Maximum-Intensity-Projection (MIP) 263, 279, 818
Maximum-Likelihood-Algorithmus 296 Medianwert 643 Medical Information Bus 643 Medizin, molekulare 285 Medizinproduktebuch 46 Medizinprodukte-Sicherheitsplanverordnung (MPSV) 38, 45 Mehrfachsteckdose, ortsveränderliche 57 Mehrzeilensystem 256 mel 204 Membranoxygenator 467, 468 Mensch-Maschine-Interaktion 791 Merkmal, pixelbasiertes 772 Merkmalextraktion 772 Messeinrichtung, photoplethysmographische 650 Messfehler 617 Messgröße 617 Messkette, biologische 618 Messmethode – oszillometrische 649 – strahlungsfreie 272 Messtechnik 618 Messung, maternale 695 Messverfahren, phasensensitives 279 Messzelle, paramagnetische 671 Methode – antidrome 158 – orthodrome 158 Mikroaxialpumpe 576 Mikro-CT 268 Mikroklima 708, 870 Mikrophon, omnidirektionales 233 Mikrotron 546 Miniaturendoskop 352 Miniaturvideokamera 188 Mischersystem 381 Misch-Ventilation 384 Mithörschwelle 205 MLC-Technik, dynamische 553 Modality Performed Precedure Step (MPPS) 817 Mode Switching 591 Modelling 841 Mode-Switch-Algorithmus 405 Modiolus 200 Modulationstransferfunktion 255 Modulationsverfahren 205 Molmasse 110 – native 115 Monitoring 132 – metabolisches 116 – therapeutisches 174 Mother-Baby-Endoskop 353
935 Sachverzeichnis
Motivation, instrinsische 74 Motor Unit Potential (MUP) 155 MPBetreibV 46 MPR-Tool 818 MR-Spektroskopie 280 Multidimensional Imaging (MDI) 332 Multi-Lamellen-Kollimator (MLC) 548 Multiplexer 88 Multischichtverfahren 279 Multitransducertechnik 620 Multizeilensystem (MSCT) 268
N N2-Gasanalysator 122 Nachladeverfahren 541 Nadelelektrode – konzentrische 152 – transtympanale 245 Nadelmyographie 154 Nadelstrahlprinzip 252 Nafion-Schlauch 671 NAL-Verfahren 238 Narkosegasableitung 863 Nasenbrille 708 Nasenklemme 112 Nasion 136 NBG-Code 586, 587 nCPAP 173 – Drucksensor 172 – Therapie 169 Nebenkeulen 323 Nebenstromverfahren 671 Nernst’sches Reizschwellengesetz 516 Nervenleitgeschwindigkeit (NLG) 132, 157, 632 Nervenstimulation, transkutane elektrische 604, 609 Netz, neuronales 780 Netzwerk, heterogenes 724 Netzwerkarchitektur 725 Netzwerkkomponent, aktiver 728 Neurographie 152 Neuroprothese 595 Neurotransmitter 197 Neutralelektrode 836 Neutralleiter 52 Newton’sches Bewegungsgesetz 194 Nicht-Labor-Monitor-System 172 Nicht-Rückatemsystem 380 Niederdrucksystem 654 Niederfrequenzbereich, elektrotherapeutischer 607
Niedrigkontrastauflösung 266 Nierenersatztherapie 443 Nierenlithotripter 501 Nonkontaktkoagulation 531 Non-stick-Technologie 533 Normotonie 651 Normoventilation 397 Notfalltherapie, endoskopische 349 Notified Body 864 NRZ-Code 762 Nullliniendrift 139 Nullpunkt, elektrischer 92 Nullpunktdrift 653 Nullpunktstabilität 690 Nur-Photonen-Maschine 547 Nutzenpotential 735 Nutzsignal 88, 181, 205, 215, 317 Nyquist-Frequenz 625 Nyquist-Limit 321 Nystagmographie 185 Nystagmus – optokinetischer (OKN) 186, 190 – perrotatorischer 190
O O2 – Bindungskurve 474, 665, 714 – Gehaltdifferenz, arteriovenöse (avDO2) 126 – Partialdruck 664, 873 – Sättigung 171, 177, 474, 633, 707 Oberflächenelektrode 133, 152, 157, 227 Oberflächennapfelektrode 160 Oberflächenreizelektrode 158 Oberflächenspule 276 Offline-Röntgen 506 Ohm, akustisches 218 Ohm’sches Gesetz der Akustik 195 Ohr-Kuppler-Transferfunktion 238 Ohrsimulator 239 Oldenburger Satztest 214 Operationslagerung 834 Operationsroboter 801 Operationstelemanipulator 854 OP-Lagerfläche 831 Organisation, tonotope 200, 242 Organisationsunterstützung 736 Orthopantographie 251 Orthovoltgerät 545 Ortsauflösung 257 OSI/ISO-Modell 720, 786
K–P
Ösophagusimpulselektrode 403 Ösophagus-Stimulation 579 Osseointegration 842 Ossikel 197 Oszillation, okuläre 186 Otoplastik 233 Outlinesystem 507 Oxygenator 467
P PACS 250 Paddel 401 Pager-System 643 PAL-Norm 351 Panel-PC 641 Panoramaschichtaufnahme 782 Parallelinfusion 565 Parameterextraktion 243 Partialdruck – arterieller (pa) 126 – gemischtvenöser 120 Partialdruckdifferenz 120 Partialdruckmessung, transkutane 713 Partial-Effekt 781 Partialvolumen 824 Partialvolumenartefakt 259 Patientendatenmanagement 701 Patientendatenverwaltungssystem 742 Pay-per-use 67 PCWP-Wert 654 PDCA-Zyklus 76 PD-Cycler 450, 458 Peak 313 Peak-Flowmetrie 110 Pencil-Strahlform 251 Perfusionsdruck, zerebraler 688 Perfusionsdruckbereich 688 Perfusionsmessung 264, 281 Permanentmagnet 275 PFC-Syndrom 712 Phasenkodierung 274 Phon 204 Phonation 212 Phonem 212 Phonetik 212 Phong-Shading 784 Phonskala 204 Phosphorspektroskopie 281 Photoeffekt 542 Photoelektronenvervielfacher 291, 301
936
Sachverzeichnis
Photolithographie 256 Photopeak-Ereignis 292 Phototherapie 612 pH-stat-Methode 474 PiCCO-Technologie 656 Piezoeffekt 313 Pigmentverfahren 625 Pitch 259 Pitch-Artefakt 825 Pitchfaktor 266 Pixel 263, 313, 318 Pixelclusterung 773 Pixeltopologie, diskrete 781 Pixel-Transformation 767 Planck’sches Strahlungsgesetz 367 Planung, präoperative 794 Plasmaseparation 448 Plethysmogramm 711 POGO-Formel 238 Point of Care 641 Pol, indifferenter 582 Polarisationsspannung 90, 133 Polygraphie, ambulante 174 Polysomnographie 172, 175 Portalbildgebung 554 Positionssensor 330 Potential – akustisch evoziertes (AEP) 161, 227 – bioelektrisches 628 – ereignisbezogenes (ERP) 167 – evoziertes 160 – exzitatorisch postsynaptisches (EPSP) 131, 200 – frühes akustisch evoziertes (FAEP) 227 – inhibitorisch postsynaptisches (IPSP) 131, 141 – motorisch evoziertes (MEP) 165 – somatosensorisch evoziertes (SEP) 163 – visuell evoziertes (VEP) 162 Potentialdifferenz, elektrische 132 Potentialmaximum 135 Potentialmuster, reizevoziertes 201 Power-Doppler 322 Priming 472 Prinzip, paramagnetisches 124 Problem, inverses 257 Produktklassifizierung 41 Produktqualität 80 Projektion, synthetische 250 Prothesenlockerung 850 Protonenspektroskopie 281 Provokationsmethode 145 Prozessdokumentation, zeitnahe 739
Prozessierungskapazität 295 Prozessor, biauraler 216 Psychoakustik 203 Public Access Defibrillation 402 Public Private Partnership (PPP) 66 Pulssequenz 274 Pulsverfahren 312 Puls-CO-Oxymeter 667 Pulse Transit Time (PTT) 179 Pulsed-Dose-Rate 545 Pulsoxymeter 667, 873 Pulsoxymetrie 665, 710 – 2-Wellenlängen 666 – fetale 695 Pulsreflexionsverfahren 319 Punkt, präaurikulärer 136 PWC-Verfahren 100
Q QRS-Triggerung 400 Qualität 73 Quanteninterferometer, supraleitendes 188 Quellenableitung 143 QWIP-Detektor 369
R Radionuklid, positronenemittierendes 285, 289 Radionuklidtherapie 545 Radonraum 257 RAID-Technologie 703 Randbeugungswelle 488 Rapid-Strand-Technik 551 Raumbuch, technisches 64 Rauschen 139, 150, 317 RDG 21 Reaktions-Audiometrie, elektrische (ERA) 201, 227 Realität, virtuelle 823 Realtime-Compound-Imaging 334 Realtime-Verfahren 311 Rebreathing-Methode 122 Recall-Aufnahme 771 Recruitment 202 Reduced lead set 645 Referenzpotential 136 Reflex – akustikofazialer 219
– vestibulookulärer (VOR) 186 Reflexionsgesetz 196 Reflexionskoeffizient 196, 217 Reflexionsverfahren 312 Reformatieren, multiplanares (MPR) 263 Reinigungsmittel 20 Reintonaudiogramm 207 Reiz, amplitudenmodulierter 231 Reizantwort, kortikale 165 Reizartefakt 223 Reizparadigma 205 Reizsequenz, nichtlineare 223 Reizstrom, stochastischer 610 Reizstromdiagnostik 605 Reizstromgerät 607 Reizung, monokuläre 163 Rejektionsfaktor 137 Rekonstruktion, sekundäre 263 Rekonstruktionsalgorithmus 297, 304 Release-Phase 392 Remodelling 841 Repeater 728 Repetitionszeit (TR) 274 Repolarisation 88, 131 Reservoirkondensator 584 Residualkapazität, funktionelle (FRC) 111, 122 Residuum 114 Resistanceschleife 118 Resonanzfrequenz 272 Resonator 276 Restrauschen 223, 227 Rheobase 586 Richtfunkverbindung 723 Richtmikrophon 236 Ringartefakt 260 Rinn’scher Stimmgabelversuch 208 Rinne-Test 206 Risikoanalyse 864 Risikomanagement 480 Risikoscore 571 RKI-Liste 23 Roboter, stereotaktischer 549 Rohdatenzeile 277 Röhrenspannung 266 Rollerpumpe 465, 466 Röntgenschublade 871 Röntgenstrahlung, polychromatische 262 Rotationstest 190 Rotationstherapie, intensitätsmodulierte 554 Router 729 RöV-Wert 817
937 Sachverzeichnis
Rückatembeutel 126 Rückprojektion, gefilterte 259 Rückwärts-Telemetrie 243
S Sakkade 186 Sammelelektrode 92 SAR-Monitor 278 SARS 367 Sauerstoffdiffusion 851 Sauerstoffpartialdruck, transkutaner 669 Sauerstoffsättigung, fetale 695 Schallempfindungsschwerhörigkeit 201 Schallgeschwindigkeit 195 Schallimpedanz 487 Schallintensität 493 Schallpegel 195 Schallpuls 195 Schallquelle, sphärische 504 Schallschatten 313 Schallschnelle 195 Schallwelle, elektrohydraulische 502 Schichtdicke 259, 266, 328 Schichtselektion 274 Schlafapnoesyndrom 169 Schlafdiagnostik 170 Schlaflabor 170 Schlaflatenztest, multipler (MSLT) 174 Schlafstadieneinteilung 177 Schleifringtechnologie 253 Schlüssel-Schloss-Prinzip 317 Schmalbandgeräusch 209 Schneiden, argonassistiertes 527 Schnittbild, überlagerungsfreies 249 Schnittbildverfahren 311, 823 Schockraum 250 – virtueller 249 Schrittmacher – dromotroper 592 – frequenzadaptiver 591 – implantierter 16 Schulungsbeauftragte 47 Schutzkleidung 16, 19 Schutzleiter 52, 95 Schutzziele 50 Schwächungskoeffizient 260 Schwarzer Körper 368 Schwarzkörperstrahlung 367 Schwelle, anaerobe 125 Schwellenschwundtest 211
Schwellwert, adaptiver 773 Schwerkraftinfusion 558 SCORM-Standard 809 SDDI Industriestandard 727 Second Harmonic Imaging 323 Seed 550 Segmentierung 773, 796 Segmentierungsverfahren, kantenorientiertes 774 Seitenstromverfahren 674 Seitstromanalyse 123 Sektor, elektronischer 327 Sektor-Phased-Array-Verfahren 330 Sensorapplikation, epidurale 691 Sequenzdokumentation 364 Seufzer-Funktion 393 Shannon’sches Abtasttheorem 260, 321 Shimverfahren 275 Shutter-Methode 115 Signal – biochemisches 628 – biomechanisches 630 – biooptisches 633 – biothermisches 633 – polygraphisches 172 – polysomnographisches 177 Signal-(zu)-Rausch-Verhältnis 267, 276, 297, 371 Signalprocessing 140 Silbenkompressor 234 Simulator, medizinischer 800 Single failure safety 584 Single fibre EMG 155 Single pass system 446 Single-Breath-Methode 120, 121 Single-Photon-Emitter 289 Sinogramm 257, 295 Sinuspumpe 115 SISI-Test 210 Skalpelektrode 694 Slave 385 Slew rate 584 SmartCare 397 Snake-Ansatz 777 Sobel-Operator 772 Softwaretrick 125 Solochirurgie 860 Sonagramm 212 Sonographie, endoskopische 358 Spallationseffekt 498 Speckle Reduction Imaging (SRI) 335 Specklemuster 335 SPECT 285 Spektralanalyse 683 – zeitvariante 146
Spektroskopie, photoakustische 672 Sphygmomanometer 648 Spinecho 273 – experiment 273 – sequenz 274 Spirogramm 105 Spirozeptor 109 Spontanatmung – assistierte 386 – druckunterstützte 386 Spontanfluss 315 Sprachaudiometrie 212 Sprachdiskriminationstest 212 Sprachperzeption 212 Sprachverständlichkeitsindex 213 Spraykoagulation 530 SQUIDS 150 Standard-Gerätekonfiguration 63 Standardkodierung 320 Standardlagerung 834 Stapediusreflex 219 Steady state 100 – Methode 122 – Potential 163 Stefan-Boltzmann-Gesetz 370 Step-and-Shoot-Technik (SS) 553 Step-and-Shoot-Verfahren 309 Stereozilien 198 Sterilisation 24 Sterilisationsparameter, prozessrelevante 26 Sterilität 17 Sternverteiler 728 STIKO 17 Stimmgabel 199 Stimulated acoustic emission (SAE) 325 Stimulation, passagere 579 Stimulationssystem, biatriales 592 Stirling-Kältemaschine 371 Storage Management System (HSM) 821 Störgrößeneinkopplung 591 Störpegelgrenzwert 207 Störphänomen 58 Störstrahlung 371 Störung, patientenbezogene 646 Stoßfrontdicke 487 Stoßwelle 485 Stoßwellen-Emitter, elektromagnischer 503 Strahlaufhärtungsartefakt 260 Strahlcharakteristik 255 Strahlentherapie, interne 287 Strahlentherapieplanungssystem 287
P–S
938
Sachverzeichnis
Streustrahlenkollimator 256 Streustrahlenraster 256 Streuung, inelastische 542 Stroboskop 143 Strom, diadynamischer 609 Stromversorgung, sichere 56 Strom-Zeit-Produkt 266 Submissionstermin 69 Subsekundenscanner 256 Subtraktionsmethode 322 Subtraktionstechnik 324 Sudden Infant Death Syndrome (SIDS) 171, 710 Sudden-onset 405 Supraleitungsmagnet, solenoidartiger 275 Surface Rendering 333 Sweep estimator 330 Switch 729 Synapse, axodendritische 201 Synchrotron 546 System – parakorporales 575 – tutorielles 806 Szintillationsdetektor 256, 543 Szintillator 291
T T4-Gesetz 368 Taktwaschanlage 20 T-Anschluss 115 Target Controlled Infusion (TCI) 564 TECAP-Messung 205 Teilinformationssystem 742 Telechirurgie 861 Telegammagerät 547 Telekonferenz 757 Telemanipulationssystem 853 Telemetrie 626 Teletherapie 544 Temperatur, myokardiale 474 Temperaturgleichgewicht 367 Template 156 – binäres 769 Template matching 647 TENS-Gerät 609 Test, überschwelliger 210 Testton, gepulst 207 Therapie, perkutane 544 Thermal Index (TI) 344 Thermistor 623, 679 Thermodilution 620
Thermographie 367 Thermokammschreiber 143 Thermokammschreibverfahren, digitales 89 Thermokonvektionsstrom 190 Thermolumineszenzdosimetrie 543 Thoraximpedanz 660 Thoraximpedanzkurve 709 Thumbnail 363 Tiefenselektion 693 Tiefpass 139 Tiffeneau-Test 105 Time-of-Flight – Impuls 110 – PET 291 – Technik 279 Tischsäule 831 Tissue Doppler Imaging (TDI) 322 Tissue Engineering 839 Titanimplantat 843 TOCO-Messverfahren 694 TOF-PET-Gerät 307 Tomogramm, rekonstruiertes 259 Tomographie 250 Tomosynthese 251 Tonaudiometrie 206 Tongenerator 162 Tonheit 204 Tonotopie 198 Tonotopieprinzip 243 Total Artificial Heart (TAH) 570, 576 Totale intravenöse Anästhesie (TIVA) 564 Totalreflektion 312, 334 Trabecular Metal 843 Tracer 269 Trackingtechnik 797 Trackingverfahren, elektromagnetisches 798 Transferfaktor 120 Transkapnode 713 Transmissionsschwerhörigkeit 201 Transmissionsverfahren 312 Transmitter 200 Transoxode 714 Transportinkubator 871 Trapping 288 Tretkurbelergometer 102 Triangulierung 264 Tribologie 848 Triggerfenster 390, 392 Triggerschwelle 383 Triggersignal 160 – QRS 88 TRIP 818
Triplexmode 321 Trommelfeldimpedanz 218 Trompetenkurve 566 Tubus 546 Tumorcharakterisierung 325 Turbospinechosequenz 278 Twisted-Pair-Datenkabel 722 Tympanogramm 218 Tympanometrie 217
U Überdruckbeatmung, nasale kontinuierliche 173 Ultrafiltration, blutvolumengesteuerte 454 Ultraschall-Flowmeter 110 Ultraschalldiffusion 345 Ultraschallgel 313 Ultraschallmolmassenspirometrie 123 Ultraschallpneumographie 114 Ultraschallsensor 107 Ultraschallvernebler 345 Umkehrosmoseanlage 453 Unschärfe, physikalische 290 Unterschiedsschwelle 205 Uvulopalatopharyngoplastik 183
V Validierung 25 Ventkatheter 469 Ventsauger 466 Venturi-Rohr 109 Verarbeitungsunterstützung 736 Verdampferanlage, cryogene 867 Verfahren, agglomeratives 776 Vergleichskosten 64 Verschlusseffekt 209 Verstärkermodul, retroaurikulär implantiertes 240 Verstärkungsregelung, automatische 234 Vertäubung 205 Vertäubungspegel 209 Verträglichkeit, elektromagnetische (EMV) 57 Verwischungstomographie 251 Vestibularisprüfung, kalorische 190 Vibrationshörer 207 Videookulographie (VOG) 188
939 Sachverzeichnis
Viewing-Station 263 Vigilance system 480 Vitalkapazität, forcierte (FVC) 105 Volumen-Rendering 263, 825 Volumensignal 106 Volumentransducer, digitaler 109 Volumenverifikation 112 Voxel 263, 296, 824
W Wahrnehmungsschwelle 584 WAN 719 Wanderwellenprinzip 548 Wandler – chemoelektrischer 620 – elektrischer 620 – mechanoelektrischer 621 – photoelektrischer 622 – potentiometrischer 620 – thermoelektrischer 622 Washout-Vorgang 122 Wasserschallsensor 495 Wasserscheiden-Transformation 776 Wasserstoffperoxid-NiedertemperaturPlasmasterilisation 28 Weaning 378, 389, 397 Weber-Test 206 Wedge-Position 654 Wellenzahl 195 Werkstoff, optimierter 849 Wernicke’sches Areal 201 Wheatstone-Brücke 109 Wiederaufbereitungsarbeit 16 Wiedergabekurve, normal akustische 237 Wilhelm-Tell-Effekt 691 Wilson-Stern 93 Wirbelstrombremse, elektromechanische 98 Wirkelektrode 613 Work Flow 79 Work of Breathing (WOB) 394 Workflow, radiologischer 819 Workgroup-Hub 728 Würzburger Hörfeldskalierung 211
X Xenograft 839 Xenongas 255
Z Zählrate, rauschäquivalente (NEC) 305 Zeitauflösungsvermögen 206 Zentrifugalpumpe 467 Zerfallrate 289 Zervikalnystagmus 186 Zirkulation, extrakorporale 463 Zone, tote 108 ZPA-Leitung 54 Zufallsereignis 292 ZVD-Kurve 654 ZVS 56 Zweikammer-Herzschrittmacher 587 Zweisensorsystem 591 Zyklotron 290, 546
S–Z
Farbteil
⊡ Abb. 10.10. Bildschirmdarstellung einer Bodyplethysmographie mit Resistance- und Verschlussdruckschleifen (Werksfoto: Ganshorn Medizin Electronic GmbH, Niederlauer)
942
Farbteil
⊡ Abb. 11.5. Charakterisierung von 128 Ag/AgCl-Elektroden über einen Zeitraum von 10 Tagen. Darstellung der Mittelwerte des Betrages der Impedanz aller Elektroden als Funktion der Signalfrequenz
⊡ Abb. 11.16. Beispiele für eine Signalanalyse
943 Farbteil
⊡ Abb. 11.26. Schema zur Bestimmung der motorischen Nervenleitgeschwindigkeit (NLG) des N. medianus. Gereizt wird in der Ellenbeuge, neben der Sehne des M. biceps brachii, und am Handgelenk
medial der Sehne des M. palmaris longus. Die Ableitung kann mit Oberflächenelektroden über dem M. flexor pollicis brevis erfolgen
944
Farbteil
⊡ Abb. 12.5. Polysomnographische Ableitung eines Patienten im Schlaflabor mit der Darstellung des Videobildes im oberen Fesnter. Folgende Biosignale sind dargestellt: das EEG C3:A1 und C4:A2, das
EOG, das EMG vom Mundgrund, der Flow, die Atemanstrengung, Schnarchgeräusche, die Sauerstoffsättigung, das EKG, die Herzfrequenz, das EMG vom Bein und die Körperlage
⊡ Abb. 12.6. Polysomnographische Darstellung insbesondere der respiratorischen Parameter einschließlich ihrer Bewertung durch die Markierung erkannter Apnoen oder Hypopnoen und Entsättigung
945 Farbteil
⊡ Abb. 12.7. Darstellung von Ergebnissen der Auswertung insbesondere der neurophysiologichen Biosignale. Es sind die Klassifikation der Schlafstadien nach Rechtschaffen und Kales, die Frequenzanalyse des
EEG zweidimensional als Funktion der Zeit und das zeitliche Auftreten von alpha- und delta-Wellen im EEG wiedergegeben
946
Farbteil
a
b
d
c
e
f
⊡ Abb. 15.5a–f. a Moderne Hochleistungsröntgenröhre, b Anschnitt und c Prinzip der Röntgenröhre mit Drehanode (Philips), d Prinzip des Multizeilen-Detektors, e kompletter Detektor eines 64-Zeilen CT-Sys-
tems (Siemens), f Realisierung eines 41 cm × 41 cm großen Flächendetektors mit 2048×2048 Pixeln (General Electric)
947 Farbteil
⊡ Abb. 15.9a–i. Oben: Angiographie mit dem CT (CTA). a Maximum-Intensity-Projection (MIP), b Volumen-Rendering, c Ausschnittsvergrößerung des Knies und Darstellung von der Rückseite, d Knocheneliminierung mit einer Bone-Removal-Technik. e Unten: Koronale Reformatierung, f–i Volumen- und Oberflächen-Rendering: i Virtuelle Endoskopie des Darms zusammen mit der g Darstellung der virtuellen Endoskop-Trajektorie und eines h virtuell aufgeschnittenen Darmstücks in Zylinderkoordinaten
⊡ Abb. 15.10a–d. a Perfusionsmessung bei Schlaganfallpatienten, b Abbildung eines Lungenemphysems, c Bildgebung (CTA) der Kopfgefäße und d Herzbildgebung (CTA): Koronarstent
948
Farbteil
⊡ Abb. 17.1. Projektions-PET-Bilder einer Patientin mit rezidivem Mammakarzinom 3 Jahre nach initialer Mastektomie rechts. Aufgrund steigender CA15-3-Werte wurden sowohl Röntgen-, CT- und Ultraschalluntersuchungen als auch eine Tc-Knochenszintigraphie durchgeführt, jedoch alle ohne Befund. Erst die PET-Untersuchung zeigt das
⊡ Abb. 17.3. Beispiel einer Strahlentherapieplanung eines Lungenkrebspatienten. Die morphologische Bildinformation der CT ist grau dargestellt, die funktionale (metabolische) der PET in gelb. Die roten Areale markieren das geplante Bestrahlungsvolumen vor dem Vorliegen der PET-Information (Bilder mit frdl. Genehmigung von Dr. A. Waxman und Dr. R. Thompson, Cedars Sinai Medical Center, Los Angeles, USA)
Ausmaß des Rezidivs mit Knochenmarkbefall, axillären sowie mediastinalen Lymphknotenmetastasen als auch fokalen Knochenmetastasen (Bilder mit frdl. Genehmigung von Dr. J.F. Gaillard, Hôpital des Instructiones des Armées Val de Grace, Paris, Frankreich)
949 Farbteil
⊡ Abb. 17.13. Prinzip der Datenspeicherung der Projektionen der gemessenen Aktivitätsverteilung (links) in Sinogrammen mit Polarkoordinaten (rechts). (Abb. mit frdl. Genehmigung von W. Böning, Technische Universität München)
a
b
⊡ Abb. 17.20a–d. Verschiedene Szintillationskristalle für die PET. a Ausgangsmaterialien zur Herstellung und gewachsenes Rohmaterial (Ingot), b BGO-Kristalle zum Block verklebt mit Photomultiplier (PMT),
a
c
d
c GSO-Einzelkristalle im Vergleich mit 1 Cent Münze, d LYSO-Kristalle, verklebt zu vorgefertigten Detektoreinheiten
b
⊡ Abb. 17.21a,b. In kommerziellen PET-Systemen eingesetzte Photoelektronenvervielfacher (engl.: Photomultiplier-tubes = PMTs). a PMT mit flacher Kathode, b PMT mit sphärischer Kathode zur Verbes-
serung der Homogenität des Zeitverhaltens. Im linken Graph von b kennzeichnet die hellblaue Fläche Areale mit gleichem Zeitverhalten (Abb. mit freundlicher Genehmigung der Fa. Philips)
950
Farbteil
a ⊡ Abb. 17.31a,b. a Zählratencharakteristik eines modernen PET-Systems, b Erhöhung der NEC-Rate durch Designverbesserungen gegenüber Vorgänger- (rot) und Nachfolgersystem (grün). Die blau unterlegten Areale kennzeichnen die typischen Aktivitätsbereiche für klinische
b
FDG-Untersuchungen (links) und Untersuchungen mit kurzlebigen Tracern (rechts) (Abb. mit freundlicher Genehmigung von F. Benard, Universite de Sherbrooke (a) und Fa. Philips (b))
⊡ Abb. 17.33. Veranschaulichung der Zunahme der relativen Empfindlichkeit als Funktion des Objektdurchmessers (Patientengröße und -gewicht). Die gelben Kurven symbolisieren die durch die TOF-Information zusätzlich gewonnene Ortsinformation über die Annihilation, deren Auflösung gegenwärtig ca. 10 cm beträgt. Damit passen in einen schlanken Patienten ca. 2,5 Perioden dieser Funktion (links), was einem relativen Empfindlichkeitsgewinn von 2,5 entspricht, in einen normalen Patienten von ca. 3 und in einen fülligen Patienten von ca. 4. Damit kompensiert die TOF-Information den Zählratenverlust durch die Abschwächung (Abb. mit freundlicher Genehmigung von J. Karp, University of Pennsylvania, Philadelphia)
⊡ Abb. 17.35. Charakteristische Layouts der Software zur Bedienung von kombinierten PET-CT-Geräten. Links ein Akquisitionsbildschirm, rechts ein Beispiel eines Analysebildschirms mit den transaxialen (linke Spalte), sagittalen (mittlere Spalte) und koronalen (rechte Spalte)
Schnitten der PET- (obere Reihe), CT- (mittlere Reihe) und kombinierten (untere Reihe) Aufnahmen eines Patienten (Abb. mit freundlicher Genehmigung der Fa. Philips)
951 Farbteil
⊡ Abb. 18.10. Das Prinzip von »Digitally Encoded Ultrasound« (DEU) und »Coded Excitation«
⊡ Abb. 18.11. Beispiel Duplexprinzip (A. carotis communis). B-Mode mit »sample volume« (oben), pw-Spektrum (unten)
⊡ Abb. 18.14. Beispiel Farbdopplerbild (Mitralinsuffizienz, bestehend aus drei Jets an einer SJM-Klappenprothese, transösophageale Sonde)
⊡ Abb. 18.28. Konventionelle Technik (links) vs. »active matrix array« (rechts) ⊡ Abb. 18.13. Beispiel Farbdopplerbild mit Aliaseffekt (Abgänge der beiden Nierenarterien von der Aorta)
952
Farbteil
⊡ Abb. 18.36. Fetales Gesicht im Oberflächenmodus
⊡ Abb. 18.33. Rekonstruktion der dritten Ebene (z-Achse) aus einem 3D-Datensatz
⊡ Abb. 18.34. Darstellung des 3D-Kubus mit den drei zugehörigen, jeweils senkrecht aufeinander stehenden 2D-Ebenen (Multiplanarmodus)
953 Farbteil
⊡ Abb. 18.37. Herzinnenwände (linker Vorhof und Aortenbulbus) im Oberflächenmodus
954
Farbteil
a ⊡ Abb. 19.4a. Feinkaliberendoskop, technische Daten siehe Text, Bildbeispiele von oben nach unten: Stent in der Carotis, normaler Gallengang, entzündeter Harnleiter
955 Farbteil
b ⊡ Abb. 19.4b. Feinstkaliberendoskope (Wichtigste technische Daten: links: 3000 Pixel, d=0,55 mm, Blickwinkel 70°, rechts: 6000 Pixel, d=1,1 mm, Blickwinkel 70°). Klinische Beispiele: Tränengangendoskopie
(Mitte) und 4 Einblicke in die Milchgänge der weiblichen Brust (unten). (Abbildungen mit freundlicher Genehmigung der PolyDiagnost GmbH)
956
Farbteil
⊡ Abb. 19.5. Mother-Baby-Endoskop zur Diagnostik und Therapie biliopankreatischer Erkrankungen. Mother: 12 mm ∅, Instrumentierkanal 3,24 mm, Baby: 3 mm ∅, Instrumentierkanal 1,9×1,3 mm mit Dormiakörbchen, Spülkanal 0,55 mm ∅ mit Wasserstrahl
⊡ Abb. 19.6. Doppelballonenteroskopie (DBE) siehe Text. Endoskop mit Overtubus, beide ballonarmiert, Röntgenbild der anterograden und retrograden Anwendung. Endoskopische Bilder: Adenom, hae-
morrhagische Enteritis, Angiodysplasie (von links nach rechts) (Abbildung mit freundlicher Genehmigung der Fujinon GmbH)
957 Farbteil
⊡ Abb. 19.8a,b. Blick durch ein Vergrößerungsendoskop auf die Darmschleimhaut. a ohne und b mit Chromographie (Abbildung mit freundlicher Genehmigung der Fujinon GmbH)
⊡ Abb. 19.9a,b. Effekt der elektronischen Kontrastverstärkung zur Hervorhebung von Detailstrukturen. a Normalbild, b mit digitaler Strukturverstärkung (Abbildung mit freundlicher Genehmigung der Olympus Optical Co. (Europa) GmbH)
958
Farbteil
a
bb
ba ⊡ Abb. 19.10a,b. Elektronische Farbdifferenzierungsverfahren eröffnen ganz neue Möglichkeiten der Diagnostik. a Prinzip FICE-System (Fujinon), b klinische Beispiele ba FICE-Bild einer Barrett-Läsion (Fuji-
non), bb NBI-Bilder: Barrett-Läsion und Colonpolyp (Olympus) (Abbildungen mit freundlicher Genehmigung der Fujinon GmbH und der Olympus Optical Co. (Europa) GmbH)
959 Farbteil
a
b
c
⊡ Abb. 19.11a–c. Endomikroskopie. a Distalende des Spezialendoskops mit integriertem Endomikroskop, b Prinzip der Bildgebung in horizontalen Schnittebenen, c histologisches Bild und endomikros-
kopisches Korrelat. (Mit freundlicher Genehmigung der Fa. Optiscan/ Australien)
960
Farbteil
a
b ⊡ Abb. 19.12a,b. Ultraschallendoskope. a Verschiedene Gerätschaften zur Endosonographie: Linearscanner (links oben), Radialscanner (rechts oben), Minisonden (links unten). Endosmographisches Bild (rechts unten): Zystischer Pankreastumor mit Umgebungskreisläufen (Farbdopp-
ler-Darstellung), b Zwei-Ebenen-Rekonstruktion mit Spezial-Minisonde (links submuköser Magentumor, rechts breitbasiges Adenom im Rektum) (Abbildungen mit freundlicher Genehmigung der Hitachi Medical Systems GmbH und der Olympus Optical Co. (Europa) GmbH)
961 Farbteil
a
⊡ Abb. 19.16. Miniaturisiertes Kombigerät (Lichtquelle und Videoprozessor) für die flexible Endoskopie (Abbildung mit freundlicher Genehmigung der Karl Storz GmbH & Co. KG)
b
c ⊡ Abb. 19.13a–c. Kapselendoskopische Bilder. a Aktive Blutung, b Morbus Crohn, c Tumor (Abbildungen mit freundlicher Genehmigung der Given Imaging GmbH)
962
Farbteil
⊡ Abb. 20.1. Das Spektrum der elektromagnetischen Wellen und seine typischen Bänder
⊡ Abb. 20.5a–c. Anwendungsbeispiele der IR-Bildgebung in der medizinischen Diagnostik. a Abkühlung der Hand als Reaktion der Gefäßverengung beim Rauchen, b Temperaturänderung der Oberschenkel bei sportlicher Belastung auf dem Ergometer (Arcangelo Merla: Functional Infrared Imaging Lab., University »G. d‘Annunzio«, Italien; Merla, Di Donato und Romani 2002) und c Wiedererwärmungssequenz eines Basalzellenkarzinoms nach Abkühlungsprovokation (Schumann et al. 2005)
963 Farbteil
⊡ Abb. 23.1. Medizinische Lasersysteme mit ihren Wellenlängen
⊡ Abb. 23.17. Eindringtiefe von Laserstrahlung in die Haut und mögliche Hautschäden in Abhängigkeit von der Wellenlänge [nm]
⊡ Abb. 23.18. Übersicht über die Laserklassifizierung (für eine Emissionszeiten von 103 s)
964
Farbteil
⊡ Abb. 25.1. Prinzip der Diffusion
⊡ Abb. 25.3. Prinzip der Hämodialysebehandlung
965 Farbteil
⊡ Abb. 25.4. Flussschema der Online Hämodiafiltration
⊡ Abb. 25.5. Prinzip der Peritonealdialysebehandlung
⊡ Abb. 25.6. Hämodialyse-Therapiesystem
966
Farbteil
⊡ Abb. 25.7. Monitor eines Hämodialysesystems
⊡ Abb. 25.8. Extrakorporaler Blutkreislauf und Hydrauliksystem eines Dialysegeräts
967 Farbteil
⊡ Abb. 27.7. Viele räumliche DruckpulsFeld-Parameter werden normgemäß aus den axialen und radialen Druckverteilungen des Überdrucks abgeleitet. Für die Bewertung der Zertrümmerungswirkung ist allerdings die Energie E12mm in der Zone innerhalb eines 12 mm Durchmessers sowie die Energie E5MPa in der Zone, in der der positive Druck 5 MPa übersteigt, von weitaus größerer Bedeutung
⊡ Abb. 27.8. Energien (Kreissymbol) werden durch räumliche Integration der Energieflussdichte (Rautensymbol) bestimmt. Bei kreissymmetrischer Schallquelle kann man die Energie in Abhängigkeit vom Radius der Querschnittsfläche im Fokus angeben. Biologisch wirksame Flächen sind diejenigen, deren Rand von Schwellwerten wie dem für Stressfaserbildung in Zellen (0,1 mJ/mm²) oder Endothelablösung (0,3 mJ/mm²) begrenzt wird. Auch für Konkrementzertrümmerung gibt es solche Grenzwerte. 1. Fokusenergieflussdichte 2. Radius r2 der Fläche, die Energieflussdichten größer als 0,3 mJ/mm² einschließt;
3. Radius r3 der durch die Druckhalbwertsbreite FWHM eingeschlossenen Fläche, Integration ergibt die Fokusenergie; 4. Radius r4 der Fläche, die Energieflussdichten größer als 0,1 mJ/mm² einschließt; 5. Radius r5 (hier 6 mm) der Fläche eines typischen Konkrements oder eines Standard-Modellsteins, Integration ergibt eine für die Steinzertrümmerung relevante effektive Energie; Die Integration bis zum Rand des messbaren Bereiches ergibt die Gesamtenergie im Fokus. Der Wert wird i. Allg. gut angenähert durch Integration bis zur 5 MPa Grenze (nicht im Bild gezeigt)
968
Farbteil
⊡ Abb. 28.8. HF-chirurgische Schnitte mit unterschiedlichen Crestfaktoren. Oben: Mit unmoduliertem Strom resultiert ein »glatter« Schnitt (pure cut), der am Schnittrand nur eine minimale, thermische Wirkung zeigt. Mitte: Modulierter Strom verursacht einen »verschorften« Schnitt (blend cut), durch dessen thermische Wirkung am Schnittrand
ein schmaler Koagulationssaum resultiert. Unten: Stark modulierter Strom verursacht einen »stark verschorften« Schnitt (super blend cut). Aus der kräftigen, thermischen Wirkung resultieren ein breiter Koagulationssaum und eine leichte Karbonisierung am Schnittrand
969 Farbteil
⊡ Abb. 28.15. Kontinuierliche Statusanzeige über die Anlagequalität der geteilten Neutralelektrode
⊡ Abb. 28.12. Moderne HF-Chirurgie-Behandlungseinheit mit HF-Gerät und Argonbeamer. Die Argongasflasche wird im Gerätewagen deponiert
⊡ Abb. 28.13. Gegenüberstellung einer argonunterstützten Koagulation (links) und einer Spraykoagulation (rechts)
970
Farbteil
⊡ Abb. 29.9. Linearbeschleuniger Varian Clinac 21 EX® (links) mit Strahlführung (rechts) (Quelle: Fa. Varian Medical Systems/ Palo Alto, USA)
⊡ Abb. 29.10. Miniaturbeschleuniger Zeiss INTRABEAM® (links) mit Beschleunigersektion (rechts) (Quelle: Fa. Zeiss/ Oberkochen)
971 Farbteil
⊡ Abb. 29.12. Ruthenium-106-Applikator mit Ausschnitt für die Hornhaut
⊡ Abb. 29.14. Einfluss eines Stents auf das Zellwachstum; links ohne und rechts mit radioaktiver Beschichtung (Quelle: aus Vorlesungsskript ETH Zürich, CH)
⊡ Abb. 29.15. Multilamellenkollimator (MLC) (Quelle: Fa. Varian Medical Systems/ Palo Alto, USA)
972
Farbteil
⊡ Abb. 30.1. Ausgedehnte Infusionstherapie bei Intensivpatienten
⊡ Abb. 30.11. Allgemeine und servicerelevante Daten, mit handelsüblichem Browser abrufbar
973 Farbteil
⊡ Abb. 31.1. Das HeartMate VE ist das weltweit am meisten implantierte Assist Device. Die granulierte Titanbeschichtung der inneren Oberfläche ermöglicht das Einwachsen von Bindegewebszellen (A) und die Entwicklung einer stabilen Neointima (B). Dadurch besteht nur ein geringes Risiko thromboembolischer Komplikationen, eine Antikoagulation mit 100 mg Aspirin pro Tag ist ausreichend Vorteile: Geringe Thromboembolierate, kein Cumarin erforderlich, hoher pulsatiler Fluss. Nachteile: Häufige Infektionen der Aggregattasche, Verschleiß der biologischen Klappen, Aggregatversagen bei langer Unterstützungsdauer
⊡ Abb. 31.4. Schematische Darstellung einer biventrikulären Unterstützung MEDOS HIA. Das linksventrikuläre Device pumpt Blut vom linken Vorhof in die Aorta ascendens. Alternativ ist auch eine Kanülierung der linken Ventrikelspitze anstelle des linken Vorhofes möglich. Die rechtsventrikuläre Pumpe transportiert Blut vom rechten Vorhof in die A. pulmonalis. A: Die Pumpkammern und die Klappen sind vollständig aus Polyurethan gearbeitet, was die Erkennung von Thromben erleichtert. (Quelle: Medos Medizintechnik AG, Stolberg)
974
Farbteil
⊡ Abb. 33.5. Schematische Darstellung einer bidirektionalen Handprothese
⊡ Abb. 35.28. Thermographische Registrierung der Oberflächentemperatur des Handrückens einer 20-jährigen Probandin vor und 2 min
⊡ Abb. 35.31. Mapping der kortikal erfassbaren bioelektrischen Potentiale während einer Blickwendung nach rechts. Es ist die Dynamik der Potentialverteilung in 1-msAbschnitten in einem Zeitbereich von 5 ms vor bis 9 ms nach dem Beginn der Sakkade dargestellt
nach dem Rauchen einer Zigarette. Die Verminderung der Temperatur infolge einer Reduzierung der Durchblutung ist gut zu erkennen
975 Farbteil
⊡ Abb. 37.2. Monitorbild mit Arrhythmie-Ereignisfenster
⊡ Abb. 37.7. Unterschiedliche Druckkurven und Minitrends im Monitorbild
⊡ Abb. 37.8. Messorte und typische Druckverlaufskurven in verschiedenen Herz- und Gefäßabschnitten
976
Farbteil
⊡ Abb. 37.9. PA-Katheter in Wedge-Position
⊡ Abb. 41.7. Technische Möglichkeiten zur klinischen Hirndruckmessung
977 Farbteil
⊡ Abb. 42.8. Beispiel von am CTG eingegebenen Notizen
⊡ Abb. 42.10. Beispiel eines intelligenten Alarms
978
Farbteil
⊡ Abb. 42.11. Beispiel für eine Übersichtsdarstellung
⊡ Abb. 42.15. Dokumentationsbeispiel für einen krankenblattbasierenden Patientenbericht (Partogramm)
979 Farbteil
⊡ Abb. 42.18. Identifizierung fernübertragener CTG-Daten per Telefonsymbol
980
Farbteil
⊡ Abb. 45.4. Aktenübersicht mit Hüft-TEP-Pfad
⊡ Abb. 45.8. Aktenübersicht nach erstem Behandlungstag
981 Farbteil
⊡ Abb. 47.3a–c. Grauwertspreizung. a Der Ausschnitt einer Röntgenaufnahme zeigt die spongiöse Knochenstruktur aus dem Bereich des Kiefergelenkes nur mangelhaft, da die Röntgenaufnahme stark unterbelichtet wurde, b das zugehörige rot dargestellte Histogramm ist nur
Referenzbild
Registrierung
schmal besetzt. Durch Histogrammspreizung werden die Säulen im blauen Histogramm linear auseinandergezogen und das zugehörige Röntgenbild in c erscheint kontrastverstärkt
Kontrastangleich
Recall- Untersuchung Subtraktion ⊡ Abb. 47.6. Unimodale Registrierung. In der dentalen Implantologie werden Referenzbild und Recall-Untersuchung zu verschiedenen Zeiten aufgenommen. Die geometrische Registrierung mit nachfol-
Segmentierung gendem Kontrastangleich ermöglicht die digitale Subtraktion der Bilder. Die Knochenresorption ist im segmentierten Bild rot dargestellt (Lehmann et al. 2005)
982
Farbteil
⊡ Abb. 47.7. Multimodale Registrierung und Fusion. 1. Reihe: T1gewichtete MR-Schnittbilder einer 66-jährigen Patientin mit rechts parietalem Glioblastom. 2. Reihe: korrespondierende PET-Schichten nach multimodaler Registrierung. 3. Reihe: Fusion der registrierten Schichten zur Planung des Operationsweges. 4. Reihe: Fusion der
MR-Daten mit einer PET-Darstellung des sensomotorisch aktivierten Kortexareales. Das aktivierte Areal tangiert nur das perifokale Ödem und ist daher bei der geplanten Resektion nicht gefährdet (Klinik für Nuklearmedizin, RWTH Aachen, aus: Wagenkneckt et al. 1999)
983 Farbteil
⊡ Abb. 47.9. Statische Schwellwertsegmentierung eines CTSchnittbildes. Der CT-Schnitt aus dem Bereich der Wirbelsäule kann statisch segmentiert werden, da durch die Normierung der HounsfieldEinheiten (HU) auf einen Bereich [–1000, 3000] sog. Knochen- [200, 3000] oder Weichteilfenster für Wasser [–200, 200], Fett und Gewebe [–500, –200] sowie Luft [–1000, –500] fest definiert werden können
⊡ Abb. 47.10a–e. Dynamische Schwellwertsegmentierung einer Mikroskopie. a Die Mikroskopie einer Zellkultur wurde b global, c lokal adaptiv und d pixeladaptiv segmentiert. Nach morphologischer Nach-
bearbeitung zur Rauschunterdrückung sowie einer Connected-Components-Analyse ergibt sich e die endgültige Segmentierung (Metzler et al. 1999)
a
b
c
d
e
f
g
h
⊡ Abb. 47.12a–g. Kantenbasierte interaktive Live-Wire-Segmentierung. Zunächst setzt der Benutzer mit dem Cursor (gelb) einen Startpunkt an der Grenze zwischen weißer und grauer Hirnsubstanz a. Sodann wird die jeweilige Verbindung zur aktuellen Cursorposition mit rot angezeigt b–e. Je nach Cursorposition kann die Kontur dabei auch zwischen ganz unterschiedlichen Verläufen im Bild hin und her
springen d,e. So kann der Benutzer eine geeignete zweite Stützstelle auswählen. Das so fixierte Kurvensegment wird blau dargestellt. Mit drei weiteren Stützstellen e–g ist in diesem Beispiel die Segmentierung bereits abgeschlossen, und die Kurve wird durch Positionierung des Cursors in der Nähe des Starkunktes geschlossen (Institute for Computational Medicine, University Mannheim, nach König u. Hesser 2004)
984
Farbteil
a
b
c
d
e
f
g
⊡ Abb. 47.13a–g. Hierarchische Region-Merging-Segmentierung. Die Röntgenaufnahme der Hand a wurde auf verschiedenen Auflösungsstufen segmentiert b, c und d. Je nach Größe der Objekte können
diese in der passenden Hierarchieebene lokalisiert e, mit Ellipsen approximiert f oder als Knoten in einem Graphen visualisiert g werden
⊡ Abb. 47.14. Ballon-Segmentierung einer Zellmembran. Die Einzelbilder zeigen den Ballon zu verschiedenen Zeitpunkten während der Iteration. Beim Berühren der Zellmembran verhindern die starken Bildkräfte die Weiterbewegung der Kontur. Die internen Kräfte wur-
den in dieser Applikation so modelliert, dass sie dem Verhalten einer physikalischen Membran entsprechen. Dies ist am »Adhäsionsrand« des Ballons im Bereich des Dendriten (unten links) deutlich erkennbar (Metzler et al. 1998)
985 Farbteil
⊡ Abb. 47.15. Segmentierung mit einem dreidimensionalen Ballon-Modell. Der CT-Volumendatensatz aus dem Bereich der Wirbelsäule (links) wurde mit einem 3D-Ballon-Ansatz segmentiert. Der Bandscheibenvorfall (Prolaps) ist in der oberflächenbasierten 3D-Rekonstruktion nach automatischer Segmentierung deutlich erkennbar (rechts). Die Darstellung erfolgte mit Phong-Shading (vgl. Abschn. 47.9) (Bredno 2001a)
⊡ Abb. 47.16a–j. IDEFIX – Identifizierung dentaler Fixturen. a In der Röntgenaufnahme des seitlichen Unterkiefers stellt sich ein dentales Implatant dar. b Zur Merkmalsextraktion wird das Bild mit einem lokal adaptiven Schwellwert binarisiert. c Die morphologische Filterung trennt einzelne Bereiche und eliminiert Störungen. d In diesem Beispiel wurden drei Regionen segmentiert. Die weitere Verarbeitung ist für das blaue Segment dargestellt. Nach dessen Ausblendung wird die morphologische Erosion c durch eine nachfolgende Dilatation kompensiert e und vom Zwischenbild b subtrahiert. Über eine beliebige Koordinate des blauen Segmentes aus d kann nun das korrespondie-
rende Objekt extrahiert g und durch Karhunen-Loève-Transformation in eine Normallage gebracht werden h. Geometrische Dimensionen können nun als regionenbasierte Merkmale bestimmt und zu einem Merkmalsvektor zusammengefasst werden. Die Klassifikation im Merkmalsraum erfolgt mit dem statistischen k-Nearest-Neighbor-Klassifikator i, der das blaue Segment zuverlässig als Branemark Schraubenimplantat identifiziert j. Im Rahmen des Trainings wurden zuvor die (hier: geometrischen) Merkmale verschiedener Implantattypen ermittelt und in den Merkmalsraum i als Referenz eingetragen (Lehmann et al. 1996)
986
Farbteil
⊡ Abb. 47.17a–c. Quantifizierung synaptischer Boutons auf einer Zellmembran. Die Zellmembran wurde in der Mikroskopie (⊡ Abb. 47.12) mit einem Ballon-Modell segmentiert. Hierbei können lokale Konfidenzwerte ermittelt werden, die die Zugehörigkeit einzelner Konturabschnitte zur tatsächlichen Zellmembran unscharf klassifizieren
a. Die Zellkontur wird extrahiert, linearisiert, normalisiert und binarisiert, bevor die Besetzung der Zellmembran mit synaptischen Boutons unterschiedlicher Größe durch morphologische Filterung analysiert wird b. Die Konfidenzwerte aus a werden bei der Mittelung der Besetzung entlang der Zellmembran berücksichtigt c (Lehmann et al. 2001b)
⊡ Abb. 47.18. Schritte der Bildinterpretation zur automatischen Erhebung des Zahnstatus. Das OPG enthält alle für den Zahnstatus relevanten Informationen. Die symbolische Beschreibung der Szene erfolgt zunächst durch ein semantisches Netz. Der dargestellte Teil des Netzes repräsentiert trotz seiner bereits beträchtlichen Komplexität nur den oval markierten Ausschnitt aus dem linken Seitenzahnbereich. Im Zahnstatus wird dieselbe Information anders aufbereitet. Die Zähne werden hierzu nach dem Schlüssel der Fédération Dentaire Internatio-
nale (FDI) benannt: die führende Ziffer kennzeichnet den Quadranten im Uhrzeigersinn, die nachfolgende Ziffer die von innen nach außen fortlaufende Platznummer des Zahnes. Vorhandene Zähne werden durch Schablonen repräsentiert, in denen Füllungen im Zahnkörper oder in der -wurzel blau markiert werden. Kronen und Brücken werden neben den Zähnen rot gekennzeichnet. Der grüne Kreis an 37 weist auf einen kariösen Prozess hin
987 Farbteil
⊡ Abb. 47.19. 3D-Visualisierungen. Durch das dreidimensionale Modell der inneren Organe auf Basis des Visible Human (Spitzer et al. 1996) bietet der Voxel-Man 3D-Navigator eine bisher unerreichte Detaillierung und zahlreiche Interaktionsmöglichkeiten. In der direkten Volumenvisualisierung sind neben räumlichen Ansichten auch andere Darstellungen wie simulierte Röntgenbilder möglich. (Institut für Mathematik und Datenverarbeitung in der Medizin, Universität Hamburg; aus Pommert et al. 2001)
988
Farbteil
⊡ Abb. 48.3. Links virtueller Anatomieatlas (Müller et al. 1999); rechts virtueller Patient (Müller et al. 1997)
⊡ Abb. 48.4. Bronchoskopie-Simulator mit individuellen CT-Daten
989 Farbteil
⊡ Abb. 48.8. VR-basierte medizinische Simulation
⊡ Abb. 48.10. Modellierung einer virtuellen Gebärmutter
⊡ Abb. 48.14. Graphical User Interface
⊡ Abb. 48.15. Simulation von Arthroskop und Tasthaken
990
Farbteil
c
d ⊡ Abb. 53.4a–d. a Titanexplantate mit deutlicher knöcherner Integration, b Anwachsen auf grobgestrahlter Oberfläche, c Trabecular Metal und d spongiöser Knochen
,Z]KS]VL*QVLMIZJMQ\MV";\ÛZ\b/UJ0?ÛZbJ]ZO