Hans Lazarus · Charlotte A. Sust · Rita Steckel · Marko Kulka · Patrick Kurtz Akustische Grundlagen sprachlicher Kommunikation
Hans Lazarus · Charlotte A. Sust · Rita Steckel · Marko Kulka · Patrick Kurtz
Akustische Grundlagen sprachlicher Kommunikation Mit 173 Abbildungen und 117 Tabellen
123
Dr.- Ing. Hans Lazarus Dipl.-Psych. Dipl.-Päd. Charlotte A. Sust Dr. Dipl.-Psych. Rita Steckel Cand. Phys. Marko Kulka ABoVe GmbH Dresdener Str. 11 35435 Wettenberg
[email protected] Dr.-Ing. Patrick Kurtz Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) Friedrich-Henkel-Weg 1–25 44149 Dortmund
[email protected] Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
ISBN 978-3-540-49984-8 Springer Berlin Heidelberg New York Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de © Springer-Verlag Berlin Heidelberg 2007 Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Buch berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Sollte in diesem Werk direkt oder indirekt auf Gesetze, Vorschriften oder Richtlinien (z. B. DIN, VDI, VDE) Bezug genommen oder aus ihnen zitiert worden sein, so kann der Verlag keine Gewähr für die Richtigkeit, Vollständigkeit oder Aktualität übernehmen. Es empfiehlt sich, gegebenenfalls für die eigenen Arbeiten die vollständigen Vorschriften oder Richtlinien in der jeweils gültigen Fassung hinzuzuziehen. Satz: Digitale Vorlage der Autoren Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Einbandgestaltung: WMXDesign GmbH, Heidelberg Gedruckt auf säurefreiem Papier
68/3180/YL – 5 4 3 2 1 0
Geleitwort
Das vorliegende Buch ist in wesentlichen Teilen aus Forschungsprojekten der Bundesanstalt für Arbeitsschutz und Arbeitmedizin (BAuA) hervorgegangen. Im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales angesiedelt, unterstützt die BAuA Politik, Wirtschaft, Sozialpartner und Öffentlichkeit bei der Gestaltung einer sicheren, gesunden und wettbewerbsfähigen Arbeitswelt. Dabei stützt sie sich auf ein breites Spektrum multidisziplinärer Forschungsaktivitäten im Bereich von Sicherheitstechnik, Ergonomie und Arbeitsmedizin, zum Umgang mit chemischen und biologischen Stoffen und zunehmend auch zu Themen aus der Psychologie und Ökonomie. Ein Arbeitsschwerpunkt der Bundesanstalt beinhaltet seit vielen Jahren Forschungsthemen, die sich mit der Lärmminderung sowie der schalltechnischen Gestaltung und Optimierung von Arbeitsplätzen, Maschinen, Geräten und Räumen befassen, um Belastungen und gesundheitliche Beeinträchtigungen wie Stress, Belästigung und Schwerhörigkeit zu vermeiden und die Arbeitsqualität zu verbessern. BAuA / Verlag
Vorwort und Danksagung
In den letzten Jahren sind eine Reihe von Forschungsarbeiten durchgeführt worden, die recht unterschiedliche Aspekte der sprachlichen Kommunikation beleuchten. Neben den vielfältigen Ergebnissen zur Sprachqualität und zur Schwerhörigkeit, zu den Auswirkungen von Verkehrslärm, Zweitsprache und Gehörschutz, zur akustischen Gestaltung von Schulen, Ausbildungsstätten, Callcentern, Büros und Betrieben sowie zur Entwicklung der Kommunikationsgeräte, wurde auch der Stand der Technik neu formuliert (DIN EN ISO 9921, DIN 18 041). Insofern war es zweckmäßig, diese erarbeiteten Ergebnisse in einem Buch zusammenzutragen und in den Kontext der psychoakustischen und schalltechnischen Grundlagen zu integrieren. Ein so umfangreiches Projekt kann nur durch eine entsprechende Unterstützung und die Mitarbeit vieler realisiert werden. Daher gilt zunächst der besondere Dank dem Bundesministerium für Bildung und Wissenschaft und der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin, die diese Projekte gefördert haben, sowie dem Springer-Verlag, der die Veröffentlichung zu dieser Thematik ermöglicht hat. Danken möchten die Autoren aber auch all denjenigen, die zum Gelingen beigetragen und die Realisierung dieses Projektes unter den gegebenen Rahmenbedingungen überhaupt ermöglicht haben. Bei der Literaturrecherche und –aufarbeitung haben Leonie Volberg, Sven Hanning, Wibke Albers, Anna Wittenborg, Rosa-Linde Fischer und Alexander Schimanski wertvolle Beiträge geleistet. Die Erstellung und Anfertigung der Grafiken lag in den Händen von Meike Mößner, Kolja Hegelich, Alexander Schimanski und Wibke Albers. Bei der redaktionellen Überarbeitung und der Erstellung des druckfertigen Manuskriptes hat Wibke Albers wertvolle Dienste geleistet. Die Autoren
Übersicht
Einführung 1 2
Vorbemerkungen zur Sprachkommunikation Wahrnehmung und Messung von Schall
Produktion von Sprache: gesprochene Sprache 3 4 5
Akustische Eigenschaften gesprochener Sprache Linguistische Eigenschaften der Sprache Sprechen in realer Umgebung und Hörer–Feedback
Übertragung von Sprache: vom Sprecher zum Hörer 6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz 7 Vorhersage der Sprachverständlichkeit: Sprachindices Verstehen von Sprache: akustische Sprachqualität 8 9 10 11
Kommunikation bei Schwerhörigkeit und mit Gehörschutz Einfluss psycholinguistischer Faktoren auf die Sprachverständlichkeit Sprachliche Kommunikation: Bewertung und Sprachqualität Lautheit von Sprachreizen, Belästigung durch Geräusche
Anwendung: Verbesserung der Kommunikation 12
Gestaltung von Räumen und Kommunikationsgeräten
Inhaltsverzeichnis
1 Vorbemerkungen zur Sprachkommunikation ..................................... 1 1.1 Einführung in das Buch, das Sprecher–Hörer–Modell ..................... 1 1.2 Bemerkungen zu Fachbegriffen........................................................ 5 2 Wahrnehmung und Messung von Schall .............................................. 9 2.1 Messung und Analyse von Schallereignissen................................... 9 2.2 Bestimmung der Hörschwelle......................................................... 18 2.3 Bestimmung der Mithörschwelle.................................................... 20 2.4 Hörschwelle von verbalen Reizen .................................................. 25 2.5 Mithörschwelle von verbalen Reizen ............................................. 27 2.6 Sprachaudiometrie mit Wörtern und Sätzen................................... 30 3 Akustische Eigenschaften gesprochener Sprache .............................. 41 3.1 Analyse des Schalldruckverlaufs der Sprache ................................ 41 3.2 Häufigkeitsanalyse der Amplituden gesprochener Sprache ........... 44 3.3 Frequenzspektrum gesprochener Sprache ...................................... 51 3.4 Räumliche Verteilung der Sprechpegel .......................................... 56 3.5 Sprechgeschwindigkeit und –pausen .............................................. 58 4 Linguistische Eigenschaften der Sprache ........................................... 61 4.1 Beschreibung der Sprachlaute durch die Phonetik ......................... 61 4.1.1 Artikulatorische Phonetik ........................................................ 61 4.1.2 Akustische Phonetik ................................................................ 65 4.1.3 Perzeptive Phonetik ................................................................. 67 4.2 Beschreibung der kleinsten Sprachelemente durch die Phonemik . 67 4.3 Beschreibung von Sätzen und Satzelementen ................................ 69 5 Sprechen in realer Umgebung und Hörer–Feedback........................ 71 5.1 Sprechweise und Artikulation......................................................... 71 5.2 Schallpegel leise und laut gesprochener Sprache in ruhiger Umgebung ............................................................................................ 72 5.3 Schallpegel gesprochener Sprache bei Umgebungsgeräuschen ..... 79 5.4 Sprecher–Hörer–Entfernung........................................................... 85
5.5 Parameter von leise und laut gesprochener Sprache....................... 88 5.5.1 Energieverteilung über der Frequenz ...................................... 88 5.5.2 Grundfrequenz der Sprache ..................................................... 91 5.5.3 Formantfrequenzen der Sprache.............................................. 92 5.5.4 Sprechgeschwindigkeit............................................................ 96 5.5.5 Parameter der Sprache und Sprechweise, Zusammenfassung . 97 5.5.6 Sprechen von Schwerhörigen .................................................. 98 5.6 Verständlichkeit unterschiedlich gesprochener Sprache .............. 101 5.6.1 In Ruhe und unter Lärm gesprochene Sprache...................... 101 5.6.2 Unterschiedlich laut gesprochene Sprache ............................ 103 5.6.3 Deutlich gesprochene Sprache............................................... 107 5.6.4 Sprechweise und Sprachverständlichkeit, Zusammenfassung .......................................................................... 109 5.7 Sprechpegel und Entfernung bei Gesprächen im Alltagsbereich . 109 5.8 Sprechverhalten und Hörer–Feedback.......................................... 114 5.9 Sprache hohen Schallpegels und ihre Verständlichkeit................ 120 5.10 Sprachverständlichkeit von Sprache bei mehreren Sprechern.... 123 5.11 Emotionslage des Sprechers ....................................................... 129 6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz .................................................................................. 133 6.1 Vorbemerkung .............................................................................. 133 6.2 Störung des Sprachreizes.............................................................. 134 6.2.1 Einführung............................................................................. 134 6.2.2 Einschränkung des Frequenzbereichs des Sprachreizes ........ 135 6.2.3 Amplitudenbegrenzte, amplitudenkomprimierte Sprache ..... 146 6.2.4 Zeitunterbrochene Sprache .................................................... 151 6.3 Verdeckung und Störung der Sprache durch Geräusche .............. 154 6.3.1 Verdeckung durch Geräusche konstanten Pegels .................. 154 6.3.2 Verdeckung durch Geräusche bei Normal– und Schwerhörigen................................................................................ 161 6.3.3 Verdeckung durch zeitlich veränderliche, technische Geräusche ....................................................................................... 169 6.3.4 Verdeckung durch Sprachgeräusche und zeitveränderliche sprachähnliche Geräusche für Normal– und Schwerhörige ........... 180 6.4 Störung der Sprache durch Nachhall ............................................ 193 6.5 Richtungshören, Alter und Sprachkompetenz .............................. 205 6.5.1 Richtungshören von Normal– und Schwerhörigen................ 205 6.5.2 Blickkontakt zwischen den Gesprächspartnern ..................... 210 6.5.3 Mehrfachstörungen................................................................ 211 6.5.4 Junge und ältere Hörer........................................................... 215 6.5.5 Zweitsprache.......................................................................... 219
7 Vorhersage der Sprachverständlichkeit: Sprachindices ................. 229 7.1 Übersicht....................................................................................... 229 7.1.1 Direkte Kommunikation ohne Verwendung elektroakustischer Mittel .............................................................................................. 229 7.1.2 Kommunikation über ein öffentliches Ansagesystem ........... 230 7.1.3 Kommunikation über ein Kommunikationssystem ............... 230 7.2 Verfahren mit bewerteten Schallpegeln........................................ 231 7.2.1 A–bewerteter Signal–Geräuschabstand (SNR)...................... 231 7.2.2 Grenzkurven (NR) ................................................................. 235 7.2.3 Sprach–Störschallpegel (SIL)................................................ 236 7.2.4 Beispiele für die Bestimmung des SNR und SIL .................. 243 7.3 Verfahren mit Spektren: Sprachindices ........................................ 247 7.3.1 Sprachindices, Prinzipien ...................................................... 247 7.3.2 Artikulationsindex (AI), Sprach–Verständlichkeitsindex (SII)................................................................................................. 257 7.3.3 Sprach–Übertragungsindex (STI).......................................... 267 7.3.4 Artikulationsverlust für Konsonanten (ALcons)...................... 275 7.4 Sprachverständlichkeit im Freien und in Räumen........................ 278 7.4.1 Grundregeln der Raumakustik............................................... 278 7.4.2 Direktes und diffuses Schallfeld............................................ 282 7.4.3 Berechnung des STI in verschiedenartigen Räumen ............. 291 7.5 Vergleich unterschiedlicher Sprachvorhersage–Verfahren .......... 294 7.5.1 Vergleich der Verfahren und deren Treffsicherheit für die Vorhersage...................................................................................... 294 7.5.2 Auswahl der Verfahren zur Bestimmung und Vorhersage.... 302 7.6 Bestimmung der Sprachverständlichkeit aus den Vorhersageverfahren .......................................................................... 303 8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz.......... 309 8.1 Schwerhörigkeit: Entwicklung, Bewertung.................................. 309 8.1.1 Formen der Schwerhörigkeit, Problematik............................ 309 8.1.2 Was bedeutet Schwerhörigkeit .............................................. 310 8.1.3 Lärmschwerhörigkeit: Entstehung, Entwicklung, Grenzwerte, Prävention....................................................................................... 312 8.1.4 Altersbegleitende Schwerhörigkeit........................................ 319 8.1.5 Verbreitung der Schwerhörigkeit .......................................... 322 8.1.6 Verfahren zur Ermittlung und Bewertung der Schwerhörigkeit.............................................................................. 324 8.1.7 Vergleich Schwerhörigkeit – Fehlsichtigkeit ........................ 346 8.1.8 Alters– und Lärmschwerhörigkeit im Überblick ................... 348 8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen ............................................................................ 350
8.2.1 Vorbemerkung, Einführung................................................... 350 8.2.2 Übersicht über die Sprachverständlichkeit bei Schwerhörigen................................................................................ 354 8.2.3 Mithörschwellen für Schwerhörige im Vergleich zu Normalhörenden ............................................................................. 356 8.2.4 Alter, Schwerhörigkeit, Geräusch, Nachhall ......................... 361 8.2.5 Intensitäts–, Frequenz– und Zeitauflösung bei Schwerhörigen................................................................................ 365 8.2.6 Schlussfolgerungen................................................................ 366 8.3 Verhalten und soziale Interaktion von Schwerhörigen................. 368 8.3.1 Begleiterscheinungen der Schwerhörigkeit ........................... 368 8.3.2 Die Tabuisierung der Störung................................................ 370 8.3.3 Subjektives Erleben der Schwerhörigkeit.............................. 372 8.3.4 Die Auswirkungen auf Verhalten, Kommunikation und soziale Beziehungen ................................................................................... 375 8.3.5 Die Auswirkungen der Störung auf die physische und psychische Gesundheit ................................................................... 380 8.3.6 Der Umgang mit der Störung ................................................ 382 8.3.7 Der Umgang mit Schwerhörigen im Überblick..................... 386 8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung ... 387 8.4.1 Gehörschutz in Lärmbereichen.............................................. 387 8.4.2 Sprachverständlichkeit und Gehörschutz .............................. 388 8.4.3 Sprachverständlichkeit bei Gehörschutz mit spezifischer (pegelabhängiger) Schalldämmung ................................................ 394 8.4.4 Sprachverständlichkeit, Gehörschäden und Gehörschutz...... 401 8.4.5 Sprachproduktion, Sprachkommunikation und Gehörschutz 408 8.4.6 Bewertung der Sprachkommunikation mit Gehörschutz....... 415 8.4.7 Gehörschutz und akustische Verständigung im betrieblichen Alltag – Konsequenzen und Perspektiven ...................................... 417 8.4.8 Gehörschutz und Sprachkommunikation im Überblick ........ 423 9 Einfluss psycholinguistischer Faktoren auf die Sprachverständlichkeit.......................................................................... 425 9.1 Vorbemerkung .............................................................................. 425 9.2 Der Einfluss phonetischer und phonemischer Faktoren ............... 426 9.3 Der Einfluss lexikalischer Faktoren auf die Sprachverständlichkeit........................................................................ 428 9.4 Der Einfluss von Satzbau und Satzinhalt auf die Sprachverständlichkeit........................................................................ 431 10 Sprachliche Kommunikation: Bewertung und Sprachqualität .... 437 10.1 Die subjektive Bewertung der Sprachqualität ............................ 437
10.2 Die Messung der Sprachqualität................................................. 441 10.3 Die subjektive Befindlichkeit bei der Sprecher–Hörer–Interaktion ............................................................... 448 10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation........................................................................ 461 10.5 Qualität der Sprachkommunikation bei bestimmten Tätigkeiten .......................................................................................... 486 11 Lautheit von Sprachreizen, Belästigung durch Geräusche........... 499 11.1 Belästigung und Sprachverständlichkeit..................................... 499 11.2 Subjektiv empfundene Lautheit von Sprachreizen ..................... 511 11.3 Arbeitsleistung unter Lärm ......................................................... 516 12 Gestaltung von Räumen und Kommunikationsgeräten ................ 521 12.1 Grundsätze der Anwendung ....................................................... 521 12.2 Schule, Unterrichtsräume ........................................................... 522 12.3 Dienstleistungssektor: Büroarbeit, Bildschirmtätigkeit, Callcenter............................................................................................ 537 12.4 Kommunikationsgeräte............................................................... 541 12.5 Kennzeichnung von Räumen zur Sprachverständlichkeit .......... 544 12.6 Einwegkommunikation: die Medien........................................... 545 Literaturverzeichnis .............................................................................. 547 Sachverzeichnis ...................................................................................... 599
Abkürzungsverzeichnis
A A AI ALcons ANR AW (n/h) Į c C C D, ţ Df Dft DL, ţL DV E EDT f fi fo ft fu F gi GdB GS GW HVE HVP HVS HVT
Alter in Jahren Frequenzbewertungskurve A Artikulationsindex Articulation Loss von Konsonanten Active Noise Reduction Auftretenswahrscheinlichkeit von Wörtern (niedrig/hoch) Absorptionsgrad Anstieg des Sprechpegels pro Anstieg des Geräuschpegels (dB/dB) Frequenzbewertungskurve C Konsonant (auch K) Differenz Frequenzband in Hz Frequenzband des Tiefpasses Pegeldifferenz in dB Diskriminationsverlust Sprachmaterial Einsilber Frühe Nachhallzeit in s (Early Decay Time, s. Abschn. 6.4) Frequenz in Hz (Hertz) Mittenfrequenz des Frequenzbandes (i) (in der Regel der Oktave) (obere) Grenzfrequenz eines Frequenzbandes Mittenfrequenz einer Terz (im Hörbereich) untere Grenzfrequenz eines Frequenzbandes Formant Gewichtsfunktion Grad der Behinderung Gehörschutz Gesamtwortverstehen Hörverlust für Einsilber in dB Prozentualer Hörverlust in % Hörverlust für Sprache in dB Hörverlust für Töne in dB
XVIII
Abkürzungsverzeichnis
HVZ HVZS i I K K KI KT L L mit Index: A C eq F HSS
Hörverlust für Zahlen in dB Hörverlust für Zweisilber in dB als Index, Frequenzband (i) (in der Regel Oktave) mit der Mittenfrequenz fi Schallintensität Kapsel Konsonant (auch C) Impulszuschlag in dB Tonzuschlag in dB Schalldruckpegel, Schallpegel in dB
(alle in dB) Frequenzbewertung A Frequenzbewertung C Äquivalenter Dauerschallpegel, Mittelungspegel Zeitbewertung Fast Hörschwelle für Sprache (Verständlichkeitsschwelle, in Gegenwart von Geräuschen Mithörschwelle genannt) HSSo Hörschwelle für Sprache (Bezugswert) HST Hörschwelle für Töne (in Gegenwart von Geräuschen Mithörschwelle genannt) HSTo Hörschwelle für Töne (Bezugswert) HVE Hörverlust für Einsilber HVS Hörverlust für Sprache (in Gegenwart von Geräuschen Mithörschwelle genannt) HVS,N Hörverlust für Sprache in Gegenwart von Geräuschen (Mithörschwelle) HVT Hörverlust für Töne HVT,f Hörverlust für Töne einzelner Frequenzen HVZ Hörverlust für Zahlwörter HVZS Hörverlust für Zweisilber i Schallpegel im Bandpass (i) (in der Regel Oktave) I Zeitbewertung Impuls j Schallpegel der Terz (j), (fj < 50 Hz) max Maximalpegel min Minimalpegel okt Oktavschallpegel im Hörbereich r Beurteilungspegel (rating level) S Schallpegel der Sprache S Zeitbewertung Slow (nur als 2. oder 3. Index) SIL Sprach-Störgeräuschpegel
Abkürzungsverzeichnis
XIX
SN Signal-Geräuschabstand, Signal-Geräuschverhältnis t Terzschallpegel (im Hörbereich) T Schallpegel eines Testtones W Schallleistungspegel eines/r Gerätes, Maschine SW Schallleistungspegel eines Sprechers 1m Schallpegel in 1m Abstand 1%, 90% Perzentil L‘’ für das Gehör wirksame Schallpegel in dB L’ bezogener Schallpegel (L’ = L – L0) in dB m Modulationsgrad / Modulationsübertragungsfunktion MCL Most Comfortable Loudness (Pegel angenehmster Lautstärke) MdE Minderung der Erwerbstätigkeit N Geräusch (auch G) N, n Anzahl NH, N Normalhörende PB-Wörter Phonetisch ausbalanciertes Sprachmaterial p Schalldruck in Pa (Pascal) qi Gewichtsfunktion R Schalldämmung des Gehörschutzes in dB r Entfernung in m r Korrelationskoeffizient rH, rHo Hallradius in m RR Rosa Rauschen s Standardabweichung S Sprachmaterial Sätze S Stöpsel Schw Schwerhörigkeit SH, S Schwerhörige SG(n) Sprachgeräusch (n Anzahl der Sprecher; m: mehrere Sprecher) Si Sprachmaterial Silben (SiSi sinnlose Silben) SII Sprach–Verständlichkeitsindex (Speech-Intelligibility-Index) SIL Sprach–Störschallpegel SM Sprachmoduliertes Geräusch S/N Signal–Geräuschabstand, Signal-Geräuschverhältnis in dB SNRA Signal–Geräuschabstand, A-bewertet in dB SR Sprachähnliches Rauschen STI Sprach–Übertragungsindex (Speech-Transmission-Index) SV Sprachverständlichkeit in %
XX
Abkürzungsverzeichnis
SVE SVZ SVZS t T T u V VW (n/h) w W W WR
Sprachverständlichkeit von Einsilbern Sprachverständlichkeit von Zahlwörtern Sprachverständlichkeit von Zweisilbern Zeit Nachhallzeit in s Zeitintervall (Mittelungszeit-, Bewertungszeitraum) Richtungsindex (uH Hörer, uS Sprecher) Vokal Vorhersagewahrscheinlichkeit (der Wörter in Sätzen, niedrig/hoch) Häufigkeitsverteilung Häufigkeitssummenverteilung Sprachmaterial Wörter Weißes Rauschen
// []
Kennzeichen für ein Phonem Kennzeichen für einen Laut
1 Vorbemerkungen zur Sprachkommunikation
1.1 Einführung in das Buch, das Sprecher–Hörer–Modell In diesem Buch werden wesentliche Aspekte der sprachlichen Kommunikation beleuchtet und analysiert, indem Befunde empirischer Forschung aufgearbeitet und im Kontext psychoakustischer Modelle diskutiert werden. Gespräche und sprachliche Mitteilungen gehören zum alltäglichen Zusammenleben. Dabei dient Sprache nicht nur dem Informationsaustausch, sondern sie vermittelt ebenso die Emotionslage des Sprechers und bewirkt eine solche beim Hörer. So wie im Tierreich (Vögel, Säuger) akustische Interaktion vor allem Gegenwart und eine spezifische Intention signalisiert, könnte die menschliche Kommunikation mit sprachlichen Lauten ähnliches bedeuten. Die Kommunikation mittels Sprache enthält nicht nur bedeutende und unbedeutende Information für den Gesprächspartner, sondern sie vermittelt latent auch situative Befindlichkeit. Ebenso werden Aufforderungen oder Bitten an den Gesprächspartner gerichtet (Schulz von Thun 2003). Sie kann ein Gefühl der Gemeinsamkeit geben, aber auch eine Ab– oder Ausgrenzung bewirken (Dialekte, Soziolekte). Nicht umsonst wird deshalb das Gehör auch „das soziale Organ“ genannt. Auf der einen Seite ist in den letzten Jahren dieses „soziale Organ“ beträchtlich „gewachsen“: Medien und Telefon sowie mobile Telefone (Handy) erobern den Markt; Personen kommunizieren weltweit und somit häufig in ihrer Zweitsprache. Auf der anderen Seite werden die Möglichkeiten der Kommunikation durch hohe Geräuschpegel, Schwerhörigkeit, zu hohe Sprechpegel (Lautsprecher) und durch akustisch schlecht gestaltete Räume und Kommunikationsgeräte eingeschränkt. Die langfristigen Folgen einer reduzierten Sprachkommunikation sind dagegen kaum erforscht. Außer einer eingeschränkten Lebensqualität kann sie zur Vereinsamung und sozialen Isolierung führen, Stress und Leistungsminderung bewirken, aber auch Unfälle verursachen, die durch überhörte Signale oder Missverständnisse bedingt sind, wie es beispielsweise beim Zusammenstoß zweier Passagierflugzeuge auf den Kanarischen Inseln im Jahre 1977 mit über hundert Toten der Fall war.
2
1 Vorbemerkungen zur Sprachkommunikation
Die Sprachkommunikation stellt eine wesentliche Grundlage persönlicher Entfaltung, familiärer und freundschaftlicher Beziehungen (Wohnung, Garten) und der Gestaltung der Freizeit (Fernsehen, Theater, Film, Radio) dar. Nicht außer Acht zu lassen sind in diesem Zusammenhang die neuen Forschungsergebnisse zur Sprachentwicklung, die auch die pränatale Phase mit einbezieht (vgl. Spreng 2003). Die Sprache dient zudem wesentlich zur Integration eines Menschen in das kulturelle Leben. Schließlich ist sie das zentrale Instrument zur Vermittlung von Wissen und Kenntnissen in Aus– und Weiterbildung und legt damit die Grundlagen zu einem kompetenten Verhalten in der Öffentlichkeit und am Arbeitsplatz. Dabei ist die Informationsübermittlung mittels Sprache häufig nur ein Mittel zum Zweck, beispielsweise um andere Tätigkeiten wie Aneignung von Wissen oder sachlichen Erfahrungsaustausch zu ermöglichen. Von solchen „Mitteln“ wird aber im Allgemeinen ein reibungsloses Funktionieren (im Hintergrund) erwartet. Um in Räumen Bereiche für eine ungestörte, entspannte sprachliche Kommunikation zu schaffen, bedarf es eines differenzierten Wissens über die Sprachproduktion, über das Verstehen von Sprache und über die Sprecher–Hörer–Interaktion während eines Gesprächs. Ebenso sind für die akustische Gestaltung von Theaterräumen und der akustischen Übermittlung von Information über Medien Kenntnisse über die Gewichtung der Verständlichkeit notwendig. Das vorliegende Buch soll dazu beitragen, die Vielschichtigkeit der Sprachkommunikation zu verstehen, zu analysieren und positiv zu unterstützen. Vor 20 Jahren wurde erstmalig eine umfassende Übersicht über das Gebiet der sprachlichen Kommunikation im Kontext der Lärmforschung mit dem Titel „Sprachliche Kommunikation unter Lärm“ von den Autoren Lazarus, Lazarus–Mainka und Schubeius (1985, Kiehl Verlag Ludwigshafen) vorgelegt. Das Sprecher–Hörer–Modell wurde in dieser Monographie als roter Faden gewählt. In der Zwischenzeit wurde auf diesem Forschungsfeld intensiv gearbeitet. Die Übersichtsarbeiten von Suter (1992) und Bronkhorst (2000), die im englischen Sprachraum vorliegen, vermitteln einen Einblick in die vorliegenden empirischen Arbeiten zur psychoakustischen Sprachforschung. Ein Teil der Ergebnisse konnte genutzt werden, um einige Grundregeln und Qualitätsmaßstäbe zur Gestaltung der Umgebung in nationalen und internationalen Normen festzuhalten (DIN 33410 1981, ISO 9921–1 1996, ISO 9921 2003). Somit schien es lohnend und angebracht, die Monographie von 1985 vollständig zu überarbeiten und in einer zweiten Auflage die alten und neuen Ergebnisse zusammenzufassen. Die Darstellung der akustischen Grundlagen der Sprachkommunikation orientiert sich wieder an dem Sprecher–Hörer–Modell im Kontext der Psychoakustik. Zu Beginn werden die Gesetzmäßigkeiten der Wahrnehmung
1.1 Einführung in das Buch, das Sprecher–Hörer–Modell
3
und des Verstehens von Sprache erläutert (Kap. 2). Ausgehend vom Sprecher, der die Sprache produziert (Kap. 3, 4, 5), wird die Übertragung der Sprache zum Hörer und deren Störungen (Kap. 6, 7) behandelt. Der Hörer, der auf eine gute Qualität der Sprache angewiesen ist, muss die Sprache hören und verstehen können, auch wenn er schwerhörig ist oder Gehörschutz trägt (Kap. 8, 9, 10). Anwendungsmöglichkeiten zur Verbesserung der Sprachkommunikation schließen das Buch ab (Kap. 11, 12). Auch wenn ein klares vereinbartes Grundlagenwissen der Sprachkommunikation noch nicht oder nur in Ansätzen vorliegt, ist es doch an der Zeit den Versuch zu unternehmen, ein solches zu schaffen. Bedingt durch die Vielzahl von Experimenten und Messverfahren wurde Wert darauf gelegt, die Entwicklung der Forschung zu zeigen, die Ergebnisse übersichtlich darzustellen und Schlussfolgerungen zu ziehen. Offene Gebiete wie die Anstrengung des Sprechers und die Verständlichkeit laut gesprochener Sprache (Kap. 5), die Mess– und Bewertungsverfahren zur Vorhersage der Sprachverständlichkeit (Kap. 7), die Definition der Sprachqualität (Kap. 10) und das Problem der Schwerhörigkeit (Kap. 3, 6, 8) werden diskutiert und so weit möglich Grundsätze erarbeitet. Dabei werden nicht nur die Ergebnisse, sondern auch die Wege dorthin beschrieben. Das schien erforderlich, um es den unterschiedlichen Fachdisziplinen zu ermöglichen, sich in das Gebiet einzulesen. Denn es werden vorwiegend nicht nur technisch–physikalische, sondern meistens auch psychoakustische und sozialpsychologische Zusammenhänge erläutert. Das Buch hat die Intention, bezugnehmend auf das barrierefreie Gestalten der Umwelt, auch die problembehaftete Wahrnehmung der Sprache älterer Menschen und Schwerhöriger in die fachliche Analyse und Darstellung zu integrieren. Ein weiterer Schwerpunkt ist die Sprachqualität. Die Methoden, wie die Qualität der Sprachkommunikation ermittelt und bewertet werden kann und wie sie für einzelne Bereiche der Kommunikation definiert wird (Kap. 10), werden ausführlich diskutiert. Auch werden Kriterien für die Beschreibung von Gesprächen in gesprächsnaher Umgebung abgeleitet, die Analyse und Optimierung der Sprachverständlichkeit in Räumen, sowie in der Schule und im Büro (Kap. 12), behandelt. Leitgedanke der Diskussion und Darstellung ist immer: x wie können die verschiedenen Gesprächsituationen am besten analysiert und beschrieben werden und welche Daten gibt es dazu; x wie kann die Umgebung gestaltet werden, damit eine weitgehend ungestörte Sprachkommunikation für alle Gesprächsteilnehmer möglich ist; x wann kann man im gewissen Umfang Einschränkungen tolerieren, dabei aber trotzdem einen machbaren Stand der Technik erreichen.
4
1 Vorbemerkungen zur Sprachkommunikation
Dabei ist es das Ziel, junge und ältere Personen, Schwerhörige und Personen, die eine eingeschränkte Sprachkompetenz im Sprechen und Hören aufweisen (z.B. Zweitsprachler), als gleichberechtigte Gesprächspartner zu betrachten. Für alle diese potenziellen Kommunikationspartner wird das gleiche Qualitätsniveau der Sprachverständlichkeit angestrebt. Das vorliegende Buch soll einem Ingenieur und Planer dazu dienen, die Umgebung und die Geräte benutzerfreundlich, d.h. für eine natürliche Kommunikation geeignet, im Sinne des Umwelt– und Arbeitsschutzes und der Ergonomie zu gestalten. Es geht einerseits um die Analyse der akustischen Situation und andererseits um den wirtschaftlichen Einsatz von Ressourcen. Eine gute Sprachqualität sichert und unterstützt betriebliche Kommunikation und ermöglicht auf diese Weise Höchstleistung in Verbindung mit minimalem Stressrisiko. Zudem soll das Buch aber auch Anregungen zur Gestaltung einer optimalen sprachlichen Kommunikation im privaten Wohnbereich liefern. Es soll vor allem akustisches Grundlagenwissen über die Funktionsweise und das Wesen der sprachlichen Kommunikation – verdeutlicht am Sprecher–Hörer–Modell – vermittelt werden. Es wird Wert darauf gelegt, so weit möglich alle Fachrichtungen anzusprechen, die sich mit dem Prozess der Sprachkommunikation befassen, also Arbeitsmedizin, Umweltmedizin, Hals–Nasen–Ohren–Medizin, Akustik, Arbeitswissenschaft, Arbeitspsychologie, Psychologie, Kommunikationswissenschaften, Nachrichtentechnik, Musikwissenschaften, Linguistik. Das Buch richtet sich ebenso an Fachleute wie auch an Studenten dieser Fachrichtungen. Kenntnisse über Sprechverhalten und Sprachverstehen sind bei der Konstruktion von Kommunikationsgeräten und bei der automatischen Spracherkennung und –produktion wichtig. Auch wenn Lautsprecheranlagen, automatische Spracherkennungssysteme, Kommunikationsgeräte und Hörgeräte in diesem Bericht nur am Rande behandelt werden, muss bedacht werden, dass das Wissen über Sprachverhalten ihre gemeinsame Schnittstelle ist. Für diese spezifischen Gebiete der Sprachkommunikation wird auf die einschlägige Literatur verwiesen, so z.B. für die Gestaltung von: x Auditorien und Hörsälen: Ahnert u. Tennhardt 2002; DIN 18041 (2004); x Elektroakustischen Anlagen: Ahnert u. Steffen 1999; Eggenschwiler et al. 2001; Ballou 2002a; Mapp 2002; DIN 18041 (2004); x Akustischen Kommunikationsgeräten: Möller 2000; Feneberg et al. 2004; x Anlagen für Schwerhörige: Ballou 2002b; DIN 18041 (Anhang C); x Hörgeräten: Kießling et al. 1996;
1.2 Bemerkungen zu Fachbegriffen
5
x Systemen der automatischen Spracherkennung und Sprachproduktion: Gibbon et al. 2000; Möller 2002; ISO/TR 19358 (2005); oder für die Beschreibung der Sprache und des Gehörs z.B.: x Psycholinguistik: Rickheit et al. 2004; x Phonetik: Pompino–Marschall 2003; x Psychoakustik: Zwicker u. Feldtkeller 1967, Kollmeier 2004. Hinweise zur Benutzung des Buches: Es ist detailliert nach dem oben beschriebenen Sprecher–Hörer–Modell gegliedert. Um eine leichte Lesbarkeit für Personen möglichst vieler Fachrichtungen zu ermöglichen, wurden die Sachverhalte recht ausführlich ohne spezifische Kenntnisse vorauszusetzen beschrieben. Auch wurde auf Formeln und Gleichungen so weit wie möglich verzichtet. Die Darstellung der Experimente und Exkurse, die eine eher historische Entwicklung aufzeigen, wurden kleingedruckt. Soweit sinnvoll, wird am Schluss eines Abschnittes eine in einen Kasten gesetzte Zusammenfassung angeboten.
1.2 Bemerkungen zu Fachbegriffen Für dieses Buch war es erforderlich, eine Vielzahl von Ergebnissen einzelner Untersuchungen heranzuziehen. Dabei wurde versucht, die dort aufgeführten Definitionen, Bezeichnungen und Begriffe in ein einheitliches System zu bringen oder wenigstens eine einheitliche Schreibweise zu benutzen. Ein Teil der Bezeichnungen ist in Kapitel 2 und 3 definiert und im Abkürzungsverzeichnis aufgeführt. Zu ergänzen sind folgende Punkte: x Für den Signal–Geräuschabstand (der Logarithmus des Verhältnisses der Schallintensität des Signals (Sprache) zu der des Geräusches), auch Sprach–Geräuschabstand genannt, werden synonym folgende Bezeichnungen benutzt: S/N–Abstand, S/N–Verhältnis, S/N–Pegel, S/N–Level. Als Abkürzung wird sowohl SNR und SNRA (Signal–to–Noise Ratio, unbewertet und A–bewertet) als auch LSN und LSNA (als Schallpegel L, unbewertet und A–bewertet) benutzt (häufig ist der Index A weggelassen, da aus dem Zusammenhang hervorgeht, dass er A–bewertet ist). x Der Schallpegel der vom Sprecher produzierten Sprache, ist der Sprechpegel (LSA,1m); der Schallpegel der Sprache, der am Ohr des Hörers (auch aus einem Lautsprecher) ankommt, ist der Sprachpegel (LSA). x Die genauere Bezeichnung des Schallpegels, er wird immer in dB angegeben, erfolgt verbal im Text oder als Index zum Schallpegel L (der Index bedeutet in laufender Reihenfolge in der Regel: Quellenbezeich-
6
x
x
x
x
1 Vorbemerkungen zur Sprachkommunikation
nung (Sprecher S, Geräusch N), Frequenzbewertung (A, C), Zeitbewertung (Fast F, Slow S, Peak), Mittelung (äquivalenter Dauerschallpegel eq, Perzentil %), Zeitintervall (Mittelungszeit T) oder Messentfernung von der Quelle (1 m) (z.B. LSAeq,1m); Indices, die nicht notwendig sind, werden weggelassen (z.B. eq: LSA,1m). Wenn nicht anders bezeichnet, werden A–bewertete Pegel am Ohr der Person angegeben. Das Dezibel (dB) ist die Einheit für ein Verhältnis von physikalischen Größen, das als Zehnerlogarithmus angegeben wird, hier des Schalldruckpegels; sein Bezugswert p0 = 10-5 Pa (s. Gl. 2.1-4). Der äquivalente Dauerschallpegel und der Mittelungspegel (Leq,T) sind begrifflich identisch. Sie stellen den Pegel der gemittelten Schallintensität über ein Zeitintervall (T) dar. Die Mithörschwelle (Abschn. 2.3) wird als Bezeichnung für einen Signal–Geräuschabstand unter vorgegebenen Bedingungen mit einem Störgeräusch (oder entsprechenden Störbedingungen, z.B. Nachhall) benutzt. Solche Bedingungen sind z.B.: - 50 % Sprachverständlichkeit bei einem Störgeräusch, - 75 % Sprachverständlichkeit bei einem Störgeräusch, - mittlere Bewertung (BW=3, bei einer Skala 1 bis 5). Die Differenz der Mithörschwelle wird häufig zum Vergleich der Mithörschwelle von zwei Personengruppen oder Situationen unter sonst vorgegebenen gleichen Bedingungen gebildet, z.B.: - zwischen Schwerhörigen und Normalhörenden (Bezug), - zwischen einem fluktuierenden Geräusch und einem konstanten Geräusch (Bezug). Dabei bedeutet eine Zunahme/Abnahme der Mithörschwelle immer eine Verschlechterung/Verbesserung der Situation für die Sprachverständigung. Wird eine Differenz zu einem Bezugswert gebildet, stellen negative Werte eine Verbesserung und positive Werte eine Verschlechterung der Situation dar. Die Sprachverständlichkeit wird als Prozent verstandener Sprachitems angegeben. Häufig werden die Prozentsätze der Sprachverständlichkeit miteinander verglichen und entsprechende Differenzen gebildet. Da jedoch die Sprachverständlichkeitsskala stark nichtlinear ist, sagen Differenzen von Sprachverständlichkeiten – außer dass sie positiv oder negativ sind – wenig aus. Aus diesem Grunde wird seit längerer Zeit in Experimenten eine Mithörschwelle (Signal–Geräuschabstand bei 50 % oder 75 % verstandener Sprache) gebildet. Soweit die Datenlage es ermöglicht, wird im Buch auch so verfahren. Von einigen Autoren wird vorgeschlagen, die arcsin–Funktion der Sprachverständlichkeit zu bil-
1.2 Bemerkungen zu Fachbegriffen
x
x
x
x
7
den. Sicher ist das ein viel versprechender Weg. Hier wurde wegen einer einheitlichen Darstellung davon Abstand genommen. Der Begriff Lärm wird bei ungewollten, d. h. unerwünschten, schädigenden, beeinträchtigenden oder störenden Geräuschen oder Schallereignissen benutzt. Ein Geräusch ist ein Schallereignis, das im Gegensatz zum Schallereignis Signal oder Sprache steht und nicht zum Wahrnehmungs– und Verstehensprozess beiträgt. Die Begriffe Umwelt–, Umgebungs–, Arbeits–, Grund– und Hintergrundgeräusch werden in ähnlicher Weise benutzt und bis auf das letztere, das in Normen definiert ist, von Fall zu Fall beschrieben. Die Sprachqualität (s. Abschn.10.4) ist durch ihre Parameter (bspw. Bewältigung, Konzentration) gegeben. Ihre Bewertung (BW) wird anhand einer Skala (BW 1 bis 5, mittlere BW = 3) bspw. durch die Frage nach der Bewältigung oder nach der Konzentration ermittelt. Um eine Gesprächssituation zu beschreiben, wird entweder der Skalenwert selbst oder ein Signal–Geräuschabstand bei einem vorgegebenen Skalenwert (mittlere, hohe Qualität: BW = 3, 4.2) angegeben (SNRA(BW = 3) = ….dB). Damit können Differenzen von Signal–Geräuschabständen als Maß für die Sprachverständlichkeit gebildet und so verschiedene Situationen miteinander verglichen werden, was wegen der Nichtlinearität der BW-Skalen sonst nicht möglich wäre. Der Begriff Bewertung ist einerseits durch Begriffe wie Frequenz– und Zeitbewertung und Gefährdungsbewertung festgelegt, andererseits wird die subjektive Einschätzung von Prozessen, die bei einer sprachlichen Kommunikation ablaufen (Sprechen, Hören, Verstehen) auf einer Skala (z.B. zur Konzentration, Bewältigung, Belästigung) als eine Bewertung (BW) verstanden. Der Begriff Beurteilung ist einerseits durch den Beurteilungspegel definiert, andererseits werden Systeme (Räume, Geräte) und Ereignisse in allgemeiner Weise „beurteilt“. Es wird auf deutsche Normen (DIN) und VDI–Richtlinien, aber auch auf internationale Normen, ISO– und IEC–Normen Bezug genommen. Die meisten akustischen Normen sind auf der ISO–Ebene entstanden und bleiben in seltenen Fällen eine rein internationale Norm (ISO). In den meisten Fällen werden sie über die europäische Ebene (EN) als nationale deutsche Norm (DIN EN ISO) gültig. Häufig wird die Ursprungsnorm (ISO, IEC) zitiert, auch wenn sie schon in deutsche Normen (DIN ISO oder DIN EN ISO) überführt worden ist. Die entsprechende deutsche Norm wird dann dazu angegeben. Es gibt aber auch rein deutsche Normen (DIN, VDI). Eine Zusammenstellung der akustischen Normen ist in Parthey et al. (2004) enthalten. Alle Normen sind vom DIN (Berlin) zu beziehen.
2 Wahrnehmung und Messung von Schall
2.1 Messung und Analyse von Schallereignissen Schallmessungen, Frequenz– und Zeitbewertung, Oktaven, Terzen, Häufigkeitsverteilung, Amplitudenmodulierte Schwingung, Mittelungspegel, äquivalenter Dauerschallpegel, Beurteilungspegel Ein Sprecher oder eine in Betrieb genommene Maschine mit vibrierenden Teilen erzeugt in ihrer Umgebung Schwingungen der Luftmoleküle, d.h. die Schallquelle emittiert Schall. Diese Schwingungen geben ihre Energie weiter, es entstehen Schallwellen, die das Ohr erreichen und Hörempfindungen auslösen. Schall lässt sich im Schallfeld durch den Schallwechseldruck, kurz Schalldruck (p) genannt, vollständig beschreiben. Der Schalldruck ist eine Funktion der Zeit p = p(t), er wird in Pascal (Pa) gemessen. Die einfachste Form der Schalldruckschwingung ist eine Sinus– oder Kosinus–Schwingung (Gl. 2.1-1, -2)
p( t )
ˆp cos 2ʌft
2~ p cos 2ʌft ,
(2.1-1) ~ wobei pˆ der Spitzenwert und p der Effektivwert der Schwingung mit der Frequenz (f) und der Periodendauer (T) ist (Abb. 2.1-1) § ¨¨ T ©
1· ¸. f ¸¹
(2.1-2)
Komplexere Schalldruckverläufe (Abb.2.1-1) werden beispielsweise durch Sprechen erzeugt oder von Maschinen und Fahrzeugen abgestrahlt. Sie können als unabhängige Teilschwingungen, die sich aus unterschiedlichen Schallquellen und Frequenzen zusammensetzen, aufgefasst werden. Die Gesamtintensität von solchen Schallereignissen addiert sich nicht aus den Schalldruckamplituden, sondern aus den Schallintensitäten aller Teilschwingungen. Die Schallintensität I einer Schalldruckschwingung ist dem Quadrat des Schalldruckeffektivwertes (~ p 2 ) proportional (Gl. 2.1-3):
I 2 ,5 10 7 ( ~ p / Pa )2 W / cm 2 .
(2.1-3)
10
2 Wahrnehmung und Messung von Schall
Abb. 2.1-1. Zeitverlauf des Schalldrucks p(t) und der Pegel des Schalldruckspektrums mit konstanter relativer Bandbreite (Terz, Oktave) L über der Frequenz (0.1– 10 kHz) und mit konstanter absoluter Bandbreite L’ über der Frequenz (0.5, 1.5, 2.5 kHz) von typischen Schallereignissen (t, Zeit; f, Frequenz (0.1–10 kHz; T, Periodendauer (2 und 20 ms); pˆ , Spitzenwert; WR: Weißes Rauschen, RR: Rosa Rauschen, TR: Terzrauschen (1 kHz), ST: Sinuston (0.5 kHz), RK: Rechteckklang)
Der Bereich des Schalldrucks, den der Mensch zwischen der Hörp | 10 5 Pa ) und der Schmerzschwelle (~ p | 10 2 Pa ) wahrnehschwelle (~ men kann, umfasst ca. 7 Zehnerpotenzen. In der Regel gibt man nicht den Schalldruck, sondern den dekadischen Logarithmus des Schalldruckquadrates, den Schalldruckpegel oder kurz den Schallpegel L, an (Gl. 2.1-4): § ~ p · L 10 lg ¨¨ ¸¸ © p0 ¹
2
§ ~ p · 20 lg ¨¨ ¸¸ , p0 10 5 Pa . © p0 ¹
(2.1-4)
Wird der Schallpegel durch die Schallintensität I ausgedrückt, ist der Schallpegel (Gl. 2.1-5): § I · L 10 lg ¨¨ ¸¸ , I 0 © I0 ¹
10 16 W / cm 2 .
(2.1-5)
Die Messung des Schalldrucks und des Schalldruckpegels wird mit einem Schallpegelmesser vorgenommen. Ein Schallpegelmesser (DIN EN 61672–1, –2; Abb. 2.1-2) besteht aus einem Mikrofon, das den Schallwechseldruck in eine proportionale elektrische Spannung umwandelt. Diese dem Schalldruck proportionale Spannung wird verstärkt und kann den in der Messtechnik üblichen Analyseverfahren, wie der Häufigkeitsanalyse oder der Frequenzanalyse, unterzogen werden.
2.1 Messung und Analyse von Schallereignissen
11
Abb. 2.1-2. Schallpegelmesser, schematische Darstellung (p(t): Verlauf des Schalldrucks; L: Schallpegel)
Im Schallpegelmesser wird die dem Schalldruck proportionale Spannung mittels der Frequenzbewertungskurven A, B, C, D (Abb. 2.1-3), die im Schallpegelmesser eingebaut sind, frequenzbewertet oder es wird mittels Frequenzfiltern eine Oktav– oder Terzanalyse vorgenommen. Von der unbewerteten oder frequenzbewerteten Wechselspannung wird anschließend der Effektivwert und der Schallpegel gebildet: d.h. die Wechselspannung wird quadriert und entweder x jeweils über ein Zeitintervall gemittelt, x mit einer gleitenden zeitlichen Mittelung mit der folgenden Zeitbewertung geglättet – Fast (Zeitkonstante für die Amplitude 125 ms), – Slow (1 s) oder – Impuls (Einschwingzeitkonstante 35 ms, Ausschwingzeitkonstante 1.5 s) oder x der Augenblickswert (peak) bestimmt.
Abb. 2.1-3. Frequenzbewertungskurven A, B, C (DLA,B,C = LA,B,C - L)
12
2 Wahrnehmung und Messung von Schall
Diese Werte werden, um eine Spannung, die dem Schalldruck bzw. Schalldruckpegel proportional ist, zu erhalten, radiziert bzw. anschließend logarithmiert. Die so bestimmten Messwerte kann man am Messinstrument ablesen. Sie können aber auch gespeichert oder aufgezeichnet und weiteren Analysen zugeführt werden. Dieser Messprozess kann mit Geräten in analoger und digitaler Technik realisiert werden. Der Schalldruckverlauf kann mit den Parametern des Zeitverlaufs und denen des Frequenzspektrums genauer beschrieben werden. Der Zeitverlauf des Schalldrucks wird durch den Augenblickswert des Schalldrucks p(t) beschrieben. Die beiden Kenngrößen des Zeitverlaufs sind der arithmetische Mittelwert (Gl.2.1-6) und der Effektivwert (~p ) (Gl. 2.1-7) des Schalldrucks, jeweils gemittelt über ein Zeitintervall (T):
p
1 T
T
(2.1-6)
³ p( t ) dt . 0
Der Effektivwert ist die Wurzel aus dem arithmetischen Mittelwert des Schalldruckquadrats. Die Leistung bzw. Intensität I(t) eines Schallereignisses ist zu jedem Zeitpunkt dem Schalldruckquadrat I(t) a p2(t) proportional. Die Schallenergie in einem Zeitintervall T entspricht der Summe (Integral) des Schalldruckquadrates über dieses Zeitintervall. Die mittlere Schallintensität I (Gl. 2.1-7) entspricht dem Quadrat des Effektivwertes:
I( t )~ ~ p2
~ p 2( t )
1 T
T 2
³ p ( t )dt .
(2.1-7)
0
Weil das Quadrat des Schalldruckeffektivwertes der Schallintensität proportional ist, muss bei der Messung und Beschreibung eines Schallwechseldruckverlaufs die Mittelung nicht über diesen, sondern dessen Quadrat vorgenommen werden. Bedingt durch die gleitende Mittelwertbildung im Schallpegelmesser ergibt sich bei zeitlich schwankenden Schallereignissen kein konstanter Wert, sondern der angezeigte Schallpegel L(t) ändert sich mit der Zeit. Er bestimmt sich (Gl. 2.1-8) aus dem sich zeitlich p ( t ) bzw. der mittleren Schallintensität I : ändernden Effektivwert ~
~ § 1 T t p2 ( t ) · p( t ) dt ¸ . L( t ) 20lg 10lg ¨ 2 ¨T ¸ p0 p 0 © t ¹
³
(2.1-8)
Die Anzeige des Schallpegelmessers schwankt entsprechend der zeitlichen Änderung des gemessenen Schallereignisses (z.B. der Sprache) und der gewählten Zeitbewertung. Als Messwert kann entweder ein mit dem Auge abgelesener maximaler Anzeigewert oder ein gemittelter Pegelwert angegeben werden. Für einen Zeitabschnitt von mehreren Sekunden oder
2.1 Messung und Analyse von Schallereignissen
13
Minuten sowie bei Pegelschwankungen über 5 dB ist das Ablesen dieser Werte sehr ungenau. Deswegen wird für längere Zeitabschnitte ein mittlerer Schallpegel ermittelt, ein nach dem Prinzip der Energieäquivalenz ermittelter Schallpegel, der äquivalente Dauerschallpegel (Leq), der auch Mittelungspegel (Lm { Leq; DIN 45641) genannt wird. Der äquivalente Dauerschallpegel (Leq; Gl. 2.1-9) eines zeitlich schwankenden Schallp ( t ) oder Schallpegels L(t) für ein Zeitintervall T berechnet sich drucks ~ aus dem Mittelwert der Schallintensität bzw. des Effektivwertquadrates p( t )) 2 a 10 0,1L ( t ) , (Gl. 2.1-4,-5,-7,-8): des Schalldruckverlaufs I(t) a (~
Leq
1 10 lg T
10 lg
1 T
T
³ 0
I( t ) dt I0
1 10 lg T
T
³ 0
p2( t ) dt p02
(2.1-9)
T
³ 10
0 ,1 L( t )
dt .
0
Der Mittelungspegel des A–bewerteten Schallpegels (LAeq) gebildet über eine Beurteilungszeit zusammen mit einem Impulszuschlag (KI) und Tonzuschlag (KT) ergibt den Beurteilungspegel (LAr) (Gl. 2.1-10):
LAr LAeq K I KT
LAIeq KT .
(2.1-10) Der Impulszuschlag bestimmt sich aus der Differenz des Mittelungspegels, gemessen mit der Zeitbewertung „Impuls“ (LAIeq) und dem äquivalenten Dauerschallpegel (LAeq = LAFeq= LASeq): KI = LAIeq - LAeq. Der Tonzuschlag kann bisher nur aufgrund seiner Auffälligkeit abgeschätzt werden (DIN 45681). Der Beurteilungspegel ist der Pegelwert, der zur Beschreibung und Kennzeichnung von Geräuschimmission im Umweltschutz und Arbeitsschutz (DIN 45645–1, –2, DIN EN ISO 11690–1, ISO 9612), und zum Vergleich mit dort geltenden Grenz– und Richtwerten herangezogen wird. Die Beurteilungszeit ist für den Arbeitsschutz T = 8 Std.; für den Umweltschutz jedoch werden die Werte differenzierter verwendet (z.B. Tag: T = 24 Std.; oder Tag T = 16 Std., Nacht T = 8 Std., Abend T = 4 Std.). Um zeitliche Schwankungen des Schalldrucks oder des Schallpegels nicht allein durch einen Mittelungspegel darstellen zu müssen, bedient man sich der Häufigkeitsverteilung des Schallpegels oder des Schalldrucks. Dafür wird der kontinuierliche Zeitverlauf L(t), p(t) innerhalb des gewählten Zeitabschnittes in einen Zeitverlauf mit N diskreten Werten Li, pi (i = 1, 2, 3, ..., N) umgewandelt. Zusätzlich wird der Pegel oder der Schalldruck in K Klassen der Breite 'L, 'p mit den diskreten Klassenwerten Lk, pk (k = 1, 2, 3, ..., K) aufgeteilt. Gezählt wird die Anzahl nk der diskreten Werte (Li, pi), die in die
14
2 Wahrnehmung und Messung von Schall
vorgegebenen Pegel– oder Schalldruckklassen Lk, pk fallen (absolute Häufigkeitskurve). Angegeben wird jedoch die (relative) Häufigkeitsverteilung w(Lk), w(pk), die den Anteil (nk/N) der diskreten Werte (Li, pi) an der Gesamtzahl der Werte des betrachteten Abschnitts darstellt (Gl. 2.1-11): K
N
¦n
(2.1-11)
.
k
k 1
Dagegen entspricht die Häufigkeitssummenverteilung W(Lk), W(pk) der aufsummierten Häufigkeitsverteilung. Die Häufigkeitssumme gibt den Anteil der diskreten Werte (Li, pi) des betrachteten Zeitverlaufs an, der die Werte Lk, pk über– oder unterschreitet. Für den Pegel gilt dann (Gl. 2.1-12) k
W ( Lk )
¦n
j
/ N.
(2.1-12)
j 1
Die Werte der Häufigkeitssummenverteilung liegen zwischen 0 und 1 (Abb. 2.1-4). Aus den Häufigkeitssummenverteilungen lassen sich bestimmte Schwellenwerte (Perzentile) ableiten, die angeben, wie viel Prozent der Schallereignisse bzw. in welchem Prozentanteil der Zeitdauer des betrachteten Messintervalls dieser Schwellenwert überschritten wird.
Abb. 2.1-4. Häufigkeitsverteilung w(Lk) und Häufigkeitssummenverteilung W(Lk) eines Pegelverlaufes L(t), Ll; Anzahl der diskreten Werte N = 8, Anzahl der Pegelklassen K = 3, Breite der Pegelklasse 'L = 10 dB
2.1 Messung und Analyse von Schallereignissen
15
So werden häufig das 1 %, 5 %, 50 % und 95 % Perzentil des Schallpegels ermittelt, wobei der 1 %–Pegel (L1%) der Spitzenpegel sowie der 50 %–Pegel (L50%) der Zentralwert ist und der 90 oder 95 %–Pegel das Hintergrundgeräusch charakterisieren. Effektivwert, Mittelungspegel und Perzentile dienen also zur Beschreibung des Zeitverlaufs von Schallereignissen. Interessiert man sich dagegen für die Verteilung der Schallintensität über den Frequenzen, so wird eine Frequenzanalyse durchgeführt. Der Schalldruck (p(t)) wird einer Frepi ), quenzanalyse unterzogen (pi(t)) und anschließend der Effektivwert ( ~ dessen Quadrat der Schallintensität proportional ist, in den einzelnen Frequenzbändern (i) der Bandbreite (Dfi) ermittelt. Das Ergebnis der Frequenzanalyse ist das Schalldruckspektrum. Ein Bandpass filtert aus dem gesamten Schalldruckspektrum nur die Schalldruckschwingungen heraus – er lässt sie passieren –, deren Frequenzen im Durchlassbereich eines Bandpasses zwischen der oberen (fo) und unteren Grenzfrequenz (fu) des Filters liegen. Man kann sich einen Bandpass auch zusammengesetzt vorstellen aus einem Hochpassfilter, das ab der Grenzfrequenz fu = fh und aus einem Tiefpassfilter, das bis zu der Grenzfrequenz fo = ft alle Frequenzen durchlässt. Ein ideales Bandpassfilter ist in Abbildung 2.1-5 skizziert. Es ist gekennzeichnet durch die beiden Grenzfrequenzen bzw. die Bandbreite Dfi = fo - fu und die Mittenfrequenz (Gl. 2.1-13,-14)
fm
fi
fo fu .
(2.1-13)
Die bekanntesten Bandpassfilter sind das Oktavfilter und das Terzfilter. Beim Oktavfilter sind die Mittenfrequenzen und die Bandbreiten der nächsthöheren Oktave um den Faktor 2 erhöht (Tabelle 2.1-1):
fi 1
2 f i ,Dfi 1
2 Dfi .
(2.1-14)
Abb. 2.1-5. Ideales Bandpassfilter für den Schallpegel (L) mit der Mittenfrequenz fi = f o f u ; untere Grenzfrequenz fu , obere Grenzfrequenz fo, Bandbreite Df = fo fu, Oktavfilter fo = 2 fu
16
2 Wahrnehmung und Messung von Schall
Die relative Bandbreite der Oktaven und Terzen Dfi/fi ist konstant, die absolute Bandbreite (Dfi) nimmt nach hohen Frequenzen hin zu. Eine Oktave besteht aus 3 Terzen. Das Schalldruckspektrum wird in der Akustik meistens als Oktav– oder Terzschallpegel (Li), das sind die Schallpegel L i 20lg~ pi / p 0 in den einzelnen Frequenzbändern (i), angegeben. Der Hörfrequenzbereich kann in 9–10 Oktaven eingeteilt werden; für das Verstehen von Sprache sind jedoch nur 8 Oktaven (i = 1–8) maßgebend, häufig werden jedoch nur 6 Oktaven (i = 3–8) benutzt (Tab. 2.1-1). Tabelle 2.1-1. Mittenfrequenz (fi) von Oktav– und Terzfiltern, Grenzfrequenzen der Oktavfilter (i = 1 bis 8) lfd. Nr.
Oktave Grenzfrequenz fu in Hz fo in Hz
i
Mittenfrequenz fi in Hz
1
63
45
89
2
125
89
178
3
250
178
355
4
500
355
710
5
1000
710
1410
6
2000
1410
2800
7
4000
2800
5600
8
8000
5600
11200
Terz Mittenfrequenz ft in Hz 50 63 80 100 125 160 200 250 315 400 500 630 800 1000 1250 1600 2000 2500 3150 4000 5000 6300 8000 10000
Wie die Ermittlung des Schalldruckeffektivwertes und des Schallpegels des gesamten Schallereignisses, können diese Werte ebenso für jeden Bandpass i ermittelt werden. Wird der entsprechende Frequenzbereich in n p aus der QuadratBandfilter aufgeteilt, so ergibt sich der Effektivwert ~ pi ) (Gl. 2.1-15): summe der Effektivwerte der einzelnen Bandfilter ( ~
2.1 Messung und Analyse von Schallereignissen
~ p
n
¦ ~p
2 i
17
(2.1-15)
.
i 1
Das Quadrat dieses Effektivwertes ist der gesamten Intensität des Schallereignisses proportional. Ein Schallereignis, das mit einem Bandpass (i) gefiltert wird, kann als eine amplitudenmodulierte Schwingung aufgefasst werden. Eine amplitudenmodulierte Schwingung (Abb. 2.1-6) ist eine Schwingung höherer Frequenz (fi), deren Amplitude pˆ i nicht konstant ist, sondern zeitlich mit einer niedrigen Frequenz der Modulationsfrequenz (fj < fi) schwankt. Je schmaler das Bandpassfilter ist, umso gültiger lässt sich ein bandpassgefilterter Schalldruckverlauf pi(t) durch eine amplitudenmodulierte Kosinus–Schwingung mit der Mittenfrequenz fi darstellen (Gl. 2.1-16):
pi ( t )
ˆpi ( t )cos( 2ʌ f i t ) .
(2.1-16) Sind die langsamen Modulationsschwingungen mit der Frequenz fj cosinusförmig, so kann man auch schreiben (Gl. 2.1-17):
ˆpi ˆp j cos( 2ʌ f j t ) cos( 2ʌ fi t ) ˆp 1 mcos( 2ʌ f t ) cos2ʌ f t .
pi ( t )
i
j
(2.1-17)
i
Die Amplitude der amplitudenmodulierten Schwingung setzt sich aus der Amplitude der Modulationsschwingung ( pˆ j ) und der höherfrequenten bandpassgefilterten Schwingung ( pˆ i ) zusammen. Das Verhältnis dieser beiden Amplituden ist der Modulationsgrad m pˆ j / pˆ i , der zwischen 0 und 1 liegt. Im Weiteren (Abschn. 3.1, 6, 7) wird jedoch ein Modulationsgrad benutzt, der durch ein Verhältnis der Schallintensitäten gegeben ist.
Abb. 2.1-6. Amplitudenmodulierte Schwingung
Wird der bandpassgefilterte Schalldruckverlauf pi(t) ebenso wie beim Schalldruckpegelmesser einer Effektivwertbildung und einer gleitenden
18
2 Wahrnehmung und Messung von Schall
Mittelung unterzogen, so ändert sich der Effektivwert ~ pi ( t ) entsprechend der gewählten Zeitbewertung. Die Zeitbewertung mit der Zeitkonstante T stellt einen Tiefpass mit der Grenzfrequenz fo = 1/T dar, der bei Fast Schwingungen unterhalb etwa 8 Hz und bei Slow unterhalb etwa 1 Hz durchlässt. Die Schwankungen des Effektivwertes entsprechen somit den mehr oder weniger geglätteten langsamen Modulationsschwingungen pˆ i ( t ) | 2 ~ pi ( t ) . Die Wurzel aus dem gleitenden quadratischen Mittelwert, pi ( t ) , wird auch Hüllkurve das ist der sich zeitlich ändernde Effektivwert ~ (Envelope) genannt. Bisher wurde die Messung und Darstellung eines einzigen Schallereignisses beschrieben. Bei der Beurteilung von Geräuschsituationen spielt aber das Verhältnis der Amplitude des Signals, das wahrgenommen werden soll, zu der des störenden Geräusches eine wichtige Rolle. Das Signal–Geräuschverhältnis (signal–to–noise ratio; Gl. 2.1-18) oder der Signal–Geräuschabstand ist die Differenz zwischen dem Schallpegel des Signals LS und dem des Geräusches LN:
LSN
LS LN
10lg I S / I N
20lg pS / p N .
(2.1-18) Ist die Schallintensität (IS) bzw. der Schalldruck (pS) des Signals größer als die Intensität, bzw. der Schalldruck des Geräusches (IN, pN), erhält man ein positives Signal–Geräuschverhältnis. Das Signal–Geräuschverhältnis wird jeweils für die gleiche Frequenzbewertung oder im gleichen Frequenzfilter gebildet. Man erhält so den A–bewerteten Signal– Geräuschabstand LSNA = LSA - LNA oder den Signal–Geräuschabstand im Bandpass (i) LSNi = LSi - LNi (s.a. Abschn. 1.2).
2.2 Bestimmung der Hörschwelle Ruhehörschwelle für Töne, Hörfläche des Gehörs: Frequenzbereich für Sprache, Musik, Tonaudiogramm
Intensitäts–
Ein akustisches Signal kann erst dann wahrgenommen und gehört werden, wenn es eine bestimmte Intensität aufweist. Die Grenze, d.h. der Schallpegel oberhalb dessen der Mensch ein Signal wahrnehmen kann, wird als Hörschwelle (LHS) oder auch Ruhehörschwelle bezeichnet. Die Hörschwelle hat keinen konstanten Wert, sondern wird durch eine Anzahl von akustischen, messtechnischen und individuellen Faktoren bestimmt. Wird die Schwelle in einem schallisolierten Raum mit einem reinen Ton gemessen, dessen Dauer mindestens eine halbe Sekunde ist und beidohrig über Kopfhörer einer normalhörenden Person dargeboten, muss der Ton (z.B. 4 kHz) im Mittel einen Schalldruck von p = 10 PPa bzw. einen Schallpegel von L = -6 dB haben (Abb. 2.2-1), damit er noch gerade empfunden bzw. wahr-
2.2 Bestimmung der Hörschwelle
19
genommen werden kann: die Hörschwelle (Ton) ist dann LHST = -6 dB. Die Hörschwelle (Abb. 2.2-1) steigt nach tiefen und hohen Frequenzen hin an: Bei 100 Hz wird der Schallpegel eines Tones von L = 25 dB und bei 10 kHz der Schallpegel von L = 15 dB gerade noch wahrgenommen. Die obere Grenze des Hörvermögens ist durch die Schmerzgrenze gegeben, die für kurzfristig auftretende Schallereignisse bei L = 130–140 dB liegt. Eine zeitweilige Hörschwellenverschiebung (Vertäubung) oder eine bleibende Hörschwellenverschiebung (Verlust) tritt dagegen schon bei Schallpegeln ab L = 80 dB auf (Abb. 2.2-1), wobei bleibende Hörschäden erst durch Geräuscheinwirkung entstehen, die sich über längere Zeiträume (Monate oder Jahre) erstrecken. Die bleibende Hörschwellenverschiebung wird als Hörschwelle für Töne (LHST) (Sinustöne) entsprechender Frequenz gemessen und als Differenz zur Hörschwelle ohrgesunder junger Personen (LHSTO; Abb. 2.2-1), d.h. als Hörverlust (LHVT) angegeben: LHVT = LHST LHSTO. Die Hörfläche gibt den für den Menschen wahrnehmbaren Intensitäts–Frequenzbereich an (Abb. 2.2-1).
Abb. 2.2-1. Hörfläche des menschlichen Gehörs, begrenzt durch die Hörschwelle (Ruhehörschwelle) für Sinustöne ohrgesunder junger Personen (LHSTo, nach DIN 45630–2, ISO 226), durch die Schmerzgrenze und durch die Grenze für eine Gefährdung des Gehörs (Oktavschallpegel); angegeben ist der Intensitäts (Pegel)– Frequenz–Bereich von Sprache und Musik; die Werte gelten am Ohr des Hörers (nach Fant 1960; Reichardt 1960; Weissing 1965; Zwicker 1982)
Die Messung der Hörschwelle (Zwicker u. Feldtkeller 1967) wird so vorgenommen, dass ein Testsignal (Sinuston) mit ansteigendem und absteigendem Pegel und sich ändernder Frequenz der Person so lange darge-
20
2 Wahrnehmung und Messung von Schall
boten wird, bis sie den Ton gerade noch bzw. gerade nicht mehr wahrnehmen kann (Messung der Hörschwelle nach Békésy). Der Mittelwert zwischen den beiden Pegelwerten wird als Schwelle definiert. Abweichend von dieser Methode (Békésy) wird im medizinischen Bereich die Hörschwelle mit festen Frequenzen gemessen (Böhme u. Welzl– Müller 1988; Lehnhardt 1996) und das Verfahren als Tonaudiometrie bezeichnet. Der Schallpegel wird beginnend bei unterschwelligen Pegeln in diskreten Schritten von 1, 2 oder 5 dB stufenweise angehoben, bis der Proband eine Hörempfindung anzeigt. Die diskreten Schallpegel des Testtons können aber auch wiederholt mit ansteigenden oder fallenden Pegelwerten oder in zufälliger Reihenfolge dargeboten werden. In diesem Fall hat die Person nur zu sagen, ob sie einen Ton wahrnimmt. Der Pegel, der zu 50 % wahrgenommenen Signalen führt, wird als Schwelle bezeichnet. Diese Art der Darbietung eines Testtons findet vor allem in der Sprachaudiometrie Anwendung (Hahlbrock 1970).
2.3 Bestimmung der Mithörschwelle Tonhörschwelle bei Geräuschen, kritische Bandbreite, Frequenzgruppe, Verdeckung, Maskierung, zentrale Verdeckung, Weitabverdeckung Wird die Schwelle für ein gerade noch hörbares Signal nicht in völliger Ruhe, sondern im Kontext von Geräuschen erhoben, so spricht man von der Bestimmung der Mithörschwelle. Diese wird auch Verdeckungs– oder Maskierungsschwelle genannt, Verdeckung und Maskierung werden hier synonym benutzt. Bei der Bestimmung der Mithörschwelle registriert man diejenigen Schallpegel, die der Testschall haben muss, damit er neben dem Geräusch gerade noch mitgehört werden kann (s.a. Zwicker u. Feldtkeller 1967; Kollmeier 2004). Die Testtöne werden vom Geräusch verdeckt, so dass die Mithörschwelle oberhalb der Pegelwerte der Hörschwelle liegt. Während man für die Ruhehörschwelle einen bestimmten minimalen Pegelwert des Testsignals angeben kann, ist der Pegel des Testsignals bei der Beschreibung der Mithörschwelle von dem Schallpegel des verdeckenden Geräusches abhängig. Die Verfahren zur Bestimmung der Mithörschwelle sind denen zur Bestimmung der Hörschwelle gleich oder sehr ähnlich (s. Abschn. 2.2). Die Mithörschwelle ist im Gegensatz zur Hörschwelle weniger von individuellen Faktoren, sondern im Wesentlichen von den Parametern des verdeckenden Geräusches wie Pegel und Frequenzspektrum abhängig. Da die Struktur des Testsignals und des verdeckenden Geräusches bezüglich ihres Zeitverlaufs und Frequenzspektrums sehr unterschiedlich
2.3 Bestimmung der Mithörschwelle
21
sein kann, und damit konsequenterweise für jede Kombination eine Mithörschwelle definiert werden müsste, verwendet man, um allgemeine Aussagen machen zu können, gut definierte Schallereignisse, in der Regel weißes Rauschen, rosa Rauschen, gleichmäßig verdeckendes Rauschen (einem Rauschen mit einer speziellen Frequenzgewichtung, das eine von der Frequenz unabhängige Mithörschwelle erzeugt), Schmalbandrauschen, Rauschen mit einem Spektrum, das dem der Sprache entspricht (sprachsimulierendes, sprachähnliches Rauschen oder auch kurz Sprachrauschen (SR) genannt) und auch Sinustöne (Abb. 2.1-1). Als Testsignal werden Sinustöne, Schmalbandrauschen oder auch, wenn es die Fragestellung erfordert, Sprachsignale (Silben, Worte, Sätze) benutzt. Während Sinustöne oder Klänge aus einem oder mehreren diskreten Spektrallinien bestehen, hat Rauschen ein kontinuierliches Spektrum. Rauschen besteht aus regellosen Amplitudenschwankungen in einem festgelegten Frequenzbereich. Weißes, rosa und gleichmäßig verdeckendes Rauschen stellen jeweils ein Breitbandrauschen dar, dessen Frequenzbereich je nach Fragestellung unterschiedlich vorgegeben wird, häufig von 0.1– 10 kHz. Die verschiedenen Rauscharten unterscheiden sich durch ihren Spektralverlauf. Weißes Rauschen hat eine konstante Schallintensitätsdichte, d.h. die Intensität pro 1 Hz ist konstant. Aus diesem Grunde steigt der Oktavschallpegel des weißen Rauschens mit 3 dB/Oktave an, da die nächst höhere Oktave immer die doppelte Schallintensität enthält. Das rosa Rauschen hat eine konstante Schallintensität pro Terz oder Oktave, das Oktavschallspektrum ist konstant. Sprachähnliches Rauschen hat ein Spektrum, das dem Langzeitspektrum der Sprache gleicht. Bandpassrauschen entsteht durch eine Filterung von Breitbandrauschen mit einem Bandpass (Terz, Oktave), Schmalbandrauschen hat ein schmales Spektrum (Abb. 2.1-1). In Abbildung 2.3-1 ist die Mithörschwelle von Sinustönen, verdeckt durch weißes Rauschen, angegeben. Weißes Rauschen verdeckt reine Töne unterhalb 500 Hz nahezu gleich stark. Im Bereich höherer Frequenzen (f > 500 Hz) steigt die Verdeckung des Signaltons um 10 dB an. Werden Sinustöne durch ein breitbandiges Rauschen verdeckt, so spricht man von einer „zentralen“ Verdeckung, denn breitbandiges Rauschen übt nur jeweils in dem Frequenzbereich einen verdeckenden Effekt aus, in dem der Testton lokalisiert ist: Das verdeckende Geräusch hat auf das Signal nur innerhalb eines gemeinsamen Frequenzbandes eine direkte verdeckende Wirkung. Breitbandgeräusche maskieren Signale nur innerhalb dieses Frequenzbandes, der so genannten kritischen Bandbreite (Dfk). Für den Hörmechanismus spielt die kritische Bandbreite (Frequenzgruppe) eine wichtige Rolle. Fletcher entwickelte 1940 die Vorstellung, dass die Maskierung von Signalen durch Breitbandgeräusche im Wesentlichen in dem Frequenzbereich stattfindet, in dem auch das Testsignal liegt.
22
2 Wahrnehmung und Messung von Schall
So maskiert ein Geräusch sehr hoher Frequenz ein Sprachsignal kaum, während ein Geräusch, dessen Frequenzband im Frequenzbereich des Sprachsignals liegt, dieses stark maskiert und die Sprachverständlichkeit reduziert. Fletcher führt in seinen Überlegungen aus, dass der Pegel des verdeckten Signals dem auf die kritische Bandbreite bezogenen Schallpegel des weißen Rauschens entsprechen könnte. Wie aus Abbildung 2.3-1 hervorgeht, liegt der auf 1 Hz bezogene Schallpegel des weißen Rauschens (93 dB - 10 lg (20 - 0.1) kHz/1 Hz = 50 dB) unterhalb der Frequenzen von 500 Hz etwa 17 dB unter dem Pegel des gerade hörbaren Testtons (LT = 67 dB). Diese 17 dB = 10 lg (Dfk / Hz) entsprechen dem Zuwachs an Bandbreite Df gegenüber 1 Hz um ca. 50 Hz, und wurden von Fletcher als kritische Bandbreite angesehen. Anschließend an diese Arbeiten wurde in den letzten 30 Jahren eine Reihe von Untersuchungen durchgeführt, in denen die Mithörschwelle von Sinustönen und Schmalbandrauschen im Kontext von Rauschen bestimmt wurde (u.a. Zwicker u. Feldtkeller 1967, Scharf 1970). In diesen Untersuchungen konnte allgemein festgestellt werden, dass die kritische Bandbreite größer ist, als von Fletcher angenommen wurde.
Abb. 2.3-1. Mithörschwelle (LT) eines Testtons der Frequenz (fT), verdeckt durch weißes Rauschen (0.1–20 kHz), bei den Schallpegeln (LN) (nach Zwicker 1982)
Die Mithörschwelle von Tönen kann bei gleichmäßig verdeckendem Rauschen im Bereich einer vorgegebenen Frequenz bestimmt werden (Zwicker 1954), indem die Anzahl der Signale (Testtöne) erhöht wird. Jeder hinzukommende Ton ist um eine geringe Frequenzverschiebung niedriger. Das verdeckte Signal (Testtöne) verändert sich somit in seiner Bandbreite und in seinem Pegelwert. Der Schallpegel LTges entspricht der Schallintensität des gesamten Signals. Wie aus der Abbildung 2.3-2 zu entnehmen ist, bleibt die Schwelle bei zunehmender Bandbreite des Testsignals vorerst konstant. Die Mithörschwelle ist bis zu einer bestimmten Bandbreite – der kritischen Bandbreite – durch die Schallintensität des
2.3 Bestimmung der Mithörschwelle
23
Testsignals gegeben. Wird die Bandbreite des Testsignals weiter erhöht, nimmt der Wert der Mithörschwelle (LTges) bzw. die Intensität des Testsignals zu. Dieses Ergebnis zeigt, dass die Mithörschwelle innerhalb des jeweiligen Frequenzbandes der kritischen Bandbreite allein durch die Schallintensität des Signals und des maskierenden Geräusches bestimmt ist. Die kritische Bandbreite wird auch Frequenzgruppe genannt.
Abb. 2.3-2. Bestimmung der kritischen Bandbreite (Frequenzgruppe Dfk). Dargestellt ist die Mithörschwelle (LTges) eines Testsignals, bestehend aus (n) einzelnen Sinustönen einer Frequenz, die durch gleichmäßig verdeckendes Rauschen maskiert sind. Die einzelnen Sinustöne liegen im Frequenzband (Df) mit der Mittenfrequenz bei 1 kHz (nach Zwicker 1982)
Die Bandbreite der Frequenzgruppen ist von der Frequenz abhängig (Abb. 2.3-3). Unterhalb von 500 Hz ist die Bandbreite der Frequenzgruppe ca. Dfk = 100 Hz, oberhalb von 500 Hz hat sie eine konstante relative Bandbreite (Df/f), die Bandbreite entspricht dann etwa der einer Terz.
Abb. 2.3-3. Breite des Frequenzbandes (Dfk, DfS) in Abhängigkeit von der Mittenfrequenz (fi): für Sinustöne (Frequenzgruppe Dfk, nach Zwicker 1982) und für Sprache (Bandbreite DfS für gleiche Sprachverständlichkeit, d.h. Artikulation nach Abb. 7.3.2-2)
24
2 Wahrnehmung und Messung von Schall
Die Stärke der Maskierung von akustischen Signalen (Sinustöne und Sprachreize) durch Geräusche ist somit abhängig von der kritischen Bandbreite bzw. Frequenzgruppe. Die kritische Bandbreite spielt deshalb auch bei der Vorhersage der Sprachverständlichkeit aus dem Spektrum der Sprache und dem des Geräusches eine wichtige Rolle (Abschn. 7.3). Wie ausgeführt wurde, ist die Schallintensität innerhalb einer Frequenzgruppe für die zentrale Verdeckung maßgebend. Die Mithörschwelle eines Signals ist etwa gleich dem Schallpegel der Frequenzgruppe, in die die Frequenz des Signals fällt. Werden Sinustöne durch ein schmalbandiges Geräusch verdeckt, ist nicht nur innerhalb (zentrale Verdeckung), sondern auch außerhalb dieses schmalen Frequenzbandes eine Verdeckung zu beobachten (Weitabverdeckung) (Abb. 2.3-4). Werden Signale, deren Frequenzen außerhalb (weitab) des Frequenzbandes des Geräusches liegen, verdeckt, spricht man von der Weitabverdeckung. Diese außerhalb des Frequenzbereiches des verdeckenden Geräusches wirkende Verdeckung tritt insbesondere bei höheren Geräuschpegeln und höheren Frequenzen, bedingt durch tiefere Frequenzen auf (Aufwärtsverdeckung).
Abb. 2.3-4. Mithörschwellen (LT) eines Testtons der Frequenz (fT) verdeckt durch Schmalbandrauschen mit unterschiedlichen Schallpegeln (LN). Die Mithörschwelle beim Schmalbandrauschen (LN = 20/40/60/80/100 dB) mit der Mittenfrequenz von 1 kHz wurde nur mit Normalhörenden (N) bestimmt (, nach Zwicker 1982); die Mithörschwelle bei Schmalbandrauschen (LN = 100 dB) mit der Mittenfrequenz von 250 Hz wurde mit Schwerhörigen (S, -ŧ-) und Normalhörenden (N,---) bestimmt (nach Rittmanic 1962). Die Hörschwelle (LHST) ist für Normalhörende (N, ) und Schwerhörige (S, -ŧ-) angegeben
2.4 Hörschwelle von verbalen Reizen
25
Die Weitabverdeckung ist nichtlinear, d.h. der Pegel des Signals muss, damit dieser gerade wahrnehmbar bleibt, stärker ansteigen als der Pegel der verdeckenden Geräusche. In Abbildung 2.3-4 erkennt man, dass bei einem Pegel des Bandpassrauschens von LN = 60 dB die Mithörschwelle beispielsweise eines Sinustons bei 2 kHz etwa um 50 dB niedriger liegt als der Geräuschpegel. Ist der Geräuschpegel jedoch LN = 100 dB, liegt die Mithörschwelle von 2 kHz bei LT = 75 dB, d.h. sie ist nur 25 dB niedriger. Weiterhin zeigt sich die Weitabverdeckung vor allem in einer Verdeckung der höherfrequenten Signale durch tieffrequentere Geräusche; wogegen die Weitabverdeckung der tieffrequenteren Signale durch höherfrequente Geräusche vernachlässigt werden kann. Es wurde angedeutet (Abb. 2.3-4, Vergleich S–N), dass die Verdeckung bei Schwerhörigen stärker ausgeprägt ist. Die Maskierung von Testsignalen (Sinustöne, Sprache) durch Geräusche wird in den Abschnitten 6.3.1 bis 6.3.4 vertieft. Bisher wurde die simultane Verdeckung beschrieben. Aber auch nach dem unmittelbaren Abschalten eines Geräusches kann der Verdeckungseffekt des Geräusches auf einen Testton nachwirken. Man spricht in diesem Fall von einer Nachverdeckung. Die Dauer der Nachverdeckung, also der Zeitraum, in dem nach Abschalten des Geräusches noch eine verdeckende Wirkung auftritt, beträgt etwa 20–150 ms (Zwicker 1982).
2.4 Hörschwelle von verbalen Reizen Ruhehörschwelle von sinnlosen Silben, Einsilbern, Wörtern Sprachliche Kommunikation erfordert vom Zuhörer neben dem bloßen Wahrnehmen eines Schalls die Fähigkeit, zwischen unterschiedlichen Klangmustern zu unterscheiden, die durch Intensität, Frequenz und Zeitstruktur charakterisiert sind. Im Unterschied zur Schwellenbestimmung eines reinen Tons ist die Definition der Schwelle bei einem Sprachsignal nicht mehr eindeutig. Einmal kann die Versuchsperson aufgefordert werden, anzugeben, ob sie einen Sprachreiz gehört hat oder nicht. In diesem Fall wird die sog. Empfindungsschwelle oder auch Entdeckungsschwelle gemessen (LESS). Andererseits kann die Person die Aufgabe bekommen, das nachzusprechen, was sie verstanden hat. In dieser Situation liegt die Schwelle bei einem wesentlich höheren Pegel der Sprache als im ersten Fall. Es handelt sich hier um die Bestimmung der Sprachverständlichkeitsschwelle (LHSS). Diese Schwelle wird – wie auch für reine Töne – definiert als 50 % korrekt verstandener Sprachreize. Die Sprachverständlichkeitsschwelle wird Hörschwelle für Sprache (LHSS) genannt.
26
2 Wahrnehmung und Messung von Schall
Sprache, deren Schallpegel bei etwa 5–10 dB liegt, kann nicht mehr verstanden, sondern nur erahnt werden (Silverman 1947). Es wird nur erkannt (entdeckt), dass ein Sprachlaut da ist. Die Schmerzschwelle der Sprache entspricht der Schmerzschwelle von Sinustönen (Abb. 2.2-1), sie liegt aber eher bei 100–120 dB. Die Schwelle der Sprachverständlichkeit liegt ungefähr bei LHSS = 20–35 dB. Die Schwellen, die unter Freifeldbedingungen und bei der Darbietung der Sprachreize durch Kopfhörer erhoben worden sind, ergeben nahezu die gleichen Werte, wenn das Raumgeräusch ausreichend niedrig ist (Hahlbrock 1970). Die Hörschwelle für Sprache (LHSS) ist stark von der Art des Sprachmaterials (sinnlose Silben, Wörter: Einsilber, Zahlwörter, Sätze), den akustischen Lauten (Phonemen), dem Bekanntheitsgrad (Worthäufigkeit) der Wörter und bei Sätzen von der Grammatik bestimmt. In einer Reihe von Untersuchungen wurde für die Bestimmung der Hörschwelle (50 % korrekt verstanden) unterschiedliches Sprachmaterial verwendet. Die Pegel der Sprache liegen je nach Sprachmaterial zwischen LHSS = 15 und 45 dB: z.B. sinnlose Silben LHSS = 37 dB, deutsche einsilbige Wörter je nach Personengruppe (Studenten, Durchschnittsbevölkerung) LHSS = 30–37 dB, Zahlwörter LHSS = 19 dB (Abb. 2.4-1) (u.a. French u. Steinberg 1947; Shaw et al. 1947; Hawkins u. Stevens 1950; Silverman u. Hirsh 1955; Hahlbrock 1970). Die Sprachverständlichkeitskurven von Zahlwörtern (Z) und von einsilbigen Wörtern (E) werden in der Bundesrepublik als Bezugskurven zur Bestimmung des Hörverlusts für Sprache herangezogen (Abb. 2.4.1). Der Sprachhörverlust (LHVS) wird als Differenz der gemessenen individuellen Sprachverständlichkeitsschwelle (LHSS, 50 % korrekt verstanden) abzüglich der Schwelle von normalhörenden jungen Personen (LHSSO, 50 % korrekt verstanden) für ein bestimmtes Sprachmaterial angegeben: LHVS = LHSS - LHSSO (Abb. 8.1.6.2-1). Die Verständlichkeitskurven von einsilbigen Wörtern unterschiedlicher Sprachen sind recht ähnlich (s. Hahlbrock 1970): die Hörschwellen liegen für die amerikanische, englische, schwedische, französische und deutsche Sprache bei einem Pegel der Sprache von LHSS = 30–37 dB. Betrachtet man die Verständlichkeit von Vokalen und Konsonanten in sinnlosen Silben (Miller 1951), so stellt man fest, dass Vokale schon verstanden werden (SV = 70–90 %), wenn der mittlere Pegel der Silben ca. 25 dB beträgt, Konsonanten werden dagegen erst dann verstanden, wenn der Schallpegel der Silben bei 30–60 dB liegt. Vokale werden vor allem deswegen besser verstanden, weil diese im Sprachfluss mit höherer Intensität gesprochen werden als Konsonanten (s. Abschn. 5.5, 9.2). Die Konsonanten sind im Unterschied zu den Vokalen erheblich informationshaltiger und leisten so für die Sinnverständlichkeit der Sprache einen
2.5 Mithörschwelle von verbalen Reizen
27
wesentlich größeren Beitrag. Die Intensität des Sprachreizes müsste deshalb, damit der Sinn des Sprachsignals auch korrekt wahrgenommen werden kann, der Verständlichkeitsschwelle der Konsonanten angeglichen werden.
Abb. 2.4-1. Verständlichkeit (SV in %) von Zahlwörtern (Z: Bezugskurve nach DIN 45621–1), von deutschen Einsilbern nach DIN 45621–1 (E1: normalhörende Studenten, E2: normalhörende Durchschnittsbevölkerung nach Hahlbrock 1970, E: Bezugskurve nach DIN 45626–1) und von amerikanischen Einsilbern (E3: PB– Wörter) (Silverman u. Hirsh 1955) (LS: Sprachpegel)
2.5 Mithörschwelle von verbalen Reizen Hörschwelle für Sprachreize bei Geräuschen, Entdeckungsschwelle, Verständlichkeitsschwelle Sprache wird häufig bei der Übermittlung durch Geräusche gestört. Das bedeutet, dass Sprache und Geräusche vom Gehör simultan wahrgenommen werden und zur Identifizierung der Sprache getrennt werden müssen. Bei diesem Selektionsprozess kann Information, die durch den Sprachschall übermittelt wird, je nach Beschaffenheit des Störgeräusches, verloren gehen: die Sprachwahrnehmung ist gestört. Damit Sprache gehört und auch verstanden werden kann, muss die Intensität des Sprechpegels mehr oder weniger über der des Geräuschpegels liegen. Das Ausmaß der Verdeckung der Sprache durch ein Geräusch mit unterschiedlichen Pegeln ist beispielhaft in Abbildung 6.3.1-1 dargestellt. Die Maskierung bzw. die Verdeckung der Sprache oder von Teilen der Sprache durch Geräusche, hängt im Wesentlichen von dem Verhältnis der Sprach– zur Geräuschintensität ab (s. Abschn. 6.3.1 bis 6.3.4). Da Intensität, Frequenz und Zeitverlauf der Geräusche sowie der Sprache nur über
28
2 Wahrnehmung und Messung von Schall
kurze Zeit konstant sind, kann der Signal–Geräuschabstand, und damit die Sprachverständlichkeit, erheblich schwanken. Die Verständlichkeitsschwelle (Hörschwelle für Sprache), die von Sprachreizen unter Geräuscheinwirkung bestimmt wird, wird auch Mithörschwelle für Sprachreize genannt. Ist der Pegel der Sprache im Verhältnis zum Geräusch sehr niedrig (LSN = -20 bis -15 dB), können Sprachreize gerade erahnt, entdeckt werden (Entdeckungsschwelle 50 % korrekt entdeckte Sprachreize). Liegt der Sprachpegel höher als der Geräuschpegel, so kann die Sprache inhaltlich verstanden werden. Die Verständlichkeitsschwelle (Mithörschwelle) liegt abhängig vom Sprachmaterial und Geräuschspektrum bei einem Signal–Geräuschabstand von LSN = -15 bis 20 dB. Hawkins u. Stevens (1950) haben die Entdeckungsschwelle und die Verständlichkeitsschwelle (50 % korrekt entdeckte bzw. verstandene Sprachreize) bestimmt (Abb. 2.5-1). Dazu wurde ein laufender Text dargeboten, der als ein Sprachreiz gerade entdeckt (Schallreiz wird als Sprache identifiziert aber noch nicht verstanden), oder gerade korrekt verstanden werden sollte. Wobei diese Schwellen nur ungefähr mit den 50 % erkannten bzw. verstandenen Sprachreizen übereinstimmen können.
Abb. 2.5-1. Schallpegel der Sprache (LHSS, LESS) gemessen als Entdeckungsschwelle (ESS) und Verständlichkeitsschwelle (HSS) für einen kontinuierlich gesprochenen Text in Abhängigkeit vom Geräuschpegel (LN, Weißes Rauschen)
Etwas genauer wurden die beiden Schwellen mit Hilfe von Zweisilbern gemessen (Wilson et al. 1982). Bei der Ermittlung der Entdeckungs– und Verständlichkeitsschwelle mussten die Personen zwei Antworten geben (ja/nein für die Entdeckung und Nachsprechen für die Verständlichkeit). Man erkennt recht genau, dass die Schwelle für die Verständlichkeit generell 5 bis 15 dB höher liegt, als die der Entdeckung (s. Abb. 2.5-2). Sind Signale und Geräusche gleichphasig (frontaler Schalleinfall), liegen die
2.5 Mithörschwelle von verbalen Reizen
29
Schwellen höher als im gegenphasigen Fall (Signal frontal, Geräusch von hinten) (s. Tab. 2.5-1). Tabelle 2.5-1. Schwellen für Zweisilber, gemessen mit einem Kopfhörer (Signal/Geräusch gleichphasig S0N0, gegenphasig S0N180°) (Wilson et al. 1982) Entdeckungsschwelle Verständlichkeitsschwelle
S0N0 -10.0 dB - 5.5 dB
S0N180° -19.5 dB -13.0 dB
100
% 80 60
SE
40
SV
20 0 -20
-15
-10
-5
LSNA
0 dB
5
10
Abb. 2.5-2. Psychometrische Funktion für die Entdeckung (SE) und Verständlichkeit (SV) bei LNA = 70 dB und vorgegebenem Signal–Geräuschabstand (LSNA), dargeboten monaural über Kopfhörer (Wilson et al. 1982)
Ein Vergleich der verschiedenen Messverfahren (Instruktionen an die Versuchspersonen) zeigt folgendes Bild (Hansen et al. 1994): während der Messung der Sprachverständlichkeit wurden drei verschiedene sprachähnliche Geräusche über sechs Lautsprecher (bei der Vp 70 dB; Nachhallzeit 0.4–0.8 s) dargeboten. Es wurde ein historischer, topographischer Text von einer geübten Sprecherin vorgelesen. Die 25 Versuchspersonen hatten die Aufgabe, den Pegel der Sprache (der entsprechend der Békésy–Methode mit 2 dB/s ab– bzw. zunahm) und die Richtung der Pegeländerung dann zu ändern, wenn sie der Meinung waren, alle einzelnen Inhaltswörter oder überhaupt kein Wort mehr zu verstehen. Aus dem Mittelwert der Wendepunkte (für die 25 VP) wurde die Mithörschwelle ermittelt, bei der eine Sprachverständlichkeit von 50 % angenommen wurde. Der Mittelwert lag bei -9.5 dB (s = 3.5 dB) und hatte eine Spanne von -2 bis -18 dB. Der Abstand der beiden Wendepunkte (der maximalen (100 %) und minimalen (0 %) Schwelle) lag im Mittel bei -9.7 dB (-4.5 bis -16.5 dB). Werden bei dem Mittelwert (-9.5 dB) Einsilber dargeboten, ergibt sich ein Mittelwert für richtig erkannte Einsilber und Silben von 39.8 % (20 bis 70 %) und 60.3 % (35 bis 80 %). Obwohl verschiedene Sprachmaterialien miteinan-
30
2 Wahrnehmung und Messung von Schall
der verglichen werden (Text und Einsilber), scheinen die Ergebnisse der Verfahren vergleichbar zu sein.
2.6 Sprachaudiometrie mit Wörtern und Sätzen Phonetisch ausbalancierte Bedingungen; sinnlose Silben, Einsilber, Reimtest; Ruhe–/ Störgeräuschbedingungen; hohe/niedrige Vorhersagewahrscheinlichkeit Sprachtests werden in sehr unterschiedlichen Anwendungsbereichen (vgl. Tab. 2.6-1) benutzt, so zur Prüfung der Qualität von Räumen wie Auditorien, Kongressräumen oder Theater. Dabei interessiert, wie gut Sprache, z.B. dargeboten auf der Bühne oder vorgetragen am Sprachpult, an den einzelnen Plätzen verstanden wird. Auch die Prüfung der Qualität von Übertragungssystemen (Telefon, Mobiltelefon, Hörgeräte etc.) kann mit Hilfe von solchen Tests durchgeführt werden. So werden akustische Übertragungssysteme, also technische Systeme, oder auch spezifische akustische Bedingungen (z.B. Verstehen von Warnrufen bei Störgeräuschen oder beim Tragen von Gehörschutz bei einer vorgegebenen Entfernung) überprüft. Wird die Qualität solcher technischen Systeme oder akustischer Bedingungen mit Sprachtests geprüft, muss, quasi als Messgerät, eine Gruppe von Hörern beteiligt werden, die die Sprache verstehen soll. Ein anderer zentraler Bereich ist die Prüfung des Hörvermögens von Personen; dabei werden mit dem jeweiligen Sprachtest auch Teile ihrer Sprachkompetenz, ihrer Intelligenz oder ihres Verhaltens untersucht. Beabsichtigt man die Güte eines Übertragungssystems oder die akustischen Bedingungen eines Raumes zu prüfen, verwendet man in der Regel sinnlose Silben als Testmaterial, um so die nicht akustischen Faktoren auszuschalten, die das Verstehen von Sprachlauten (Satzbau, Inhalt des Satzes; Kap. 9) beeinflussen. Wird die Qualität verschiedener elektroakustischer Systeme (Telefon, Lautsprecher) miteinander verglichen, wird ein Reimtest bevorzugt. Geht es darum, das sprachliche Hörvermögen zu erfassen, d.h. die Fähigkeit, Sprache unter bestimmten akustischen Bedingungen zu verstehen, so wird man eher Sprachmaterial verwenden, das die Struktur der Umgangssprache bezüglich Satzbau und Inhalt widerspiegelt. Um Sprachtests mit gültigen repräsentativen Aussagen zu entwickeln, muss eine Reihe von Faktoren berücksichtigt werden. So müssen phonetische Bedingungen (Kap. 4) geschaffen werden, die der Lautstruktur der Umgangssprache genügen. Das Verhältnis von Konsonanten zu Vokalen im Sprachtest muss beispielsweise auf die deutsche Sprache bezogen in etwa dem Verhältnis von 61 % zu 39 % (Meier 1964; Abschn. 9.2) ent-
2.6 Sprachaudiometrie mit Wörtern und Sätzen
31
sprechen. Die Anzahl der Sprachlaute innerhalb einer Silbe als auch die Stellung der Laute als Anlaut und Endlaut müssen bestimmt werden. Werden Wörter im Test verwendet, so muss zusätzlich die Auftretenswahrscheinlichkeit dieser in der Umgangssprache kontrolliert werden, da diese – wie noch auszuführen sein wird (Kap. 9) – einen wesentlichen Einfluss auf die Wahrnehmungsleistung ausübt (Howes 1957). Werden Sätze verwendet, so ist die Analyse der Satzstruktur vom psycholinguistischen Standpunkt aus unumgänglich. Auch die Art der Antwort kann variiert werden. In den meisten Tests wird die Versuchsperson gebeten, das, was sie gehört hat, nachzusprechen (offene Testform). Es gibt jedoch auch einige Tests, in denen die Person die Aufgabe hat, den gehörten Sprachlaut (Wort, Silbe) aus einer Anzahl von schriftlich vorgegebenen Sprachlauten herauszusuchen (geschlossene Testform). Um eine Testsituation möglichst realitätsnah zu gestalten, ist die Wahl eines geeigneten Störgeräusches sowie die räumliche Anordnung von Nutzschall und Störgeräusch zu berücksichtigen. Bei der Erstellung des Testverfahrens ist es außerdem notwendig, ein oder mehrere Sprecher heranzuziehen. Die Eigenschaften des Sprechers (männlich/weiblich, geschult/ungeschult, synthetischer Sprecher) und die geforderten Sprechweisen (normal, laut; deutlich, natürlich etc.) können sich unter Umständen erheblich auf Durchführung und Ergebnis des Verfahrens auswirken (s. Abschn. 5.6). Hinsichtlich der Bewertung der Testergebnisse müssen ebenfalls im Vorfeld Differenzierungen vorgenommen werden, z.B. die Bewertung richtig erkannter Phoneme, Silben, Wörter oder Sätze. Die angesprochenen Faktoren werden je nach Fragestellung des Verfahrens, also hinsichtlich der zu überprüfenden Leistung, eindeutig festgelegt. Die unzähligen Kombinationsmöglichkeiten, die durch solche Konstruktionen entstehen, mögen den Vergleich verschiedener Testergebnisse oft schwierig gestalten, erlauben aber umso präzisere Ergebnisse und verbindliche Antworten auf unterschiedlichste Fragestellungen der Sprachaudiometrie. Zum gegenwärtigen Zeitpunkt kann eine Reihe von Sprachtests genannt werden, die auf recht unterschiedliche Fragestellungen zugeschnitten sind. Zusammenstellungen solcher Verfahren liegen von Hahlbrock (1970), Kryter (1972), Sotscheck (1976a, b) und Feldmann (2001) vor. Deshalb werden hier nur exemplarisch einige aus einer großen Anzahl von Tests herausgegriffen und ausführlicher diskutiert. Die bekanntesten Verfahren, die nach 1950 entwickelt wurden, sind der Wortkatalog für isophone Sprachgehörprüfung von Amersbach u. Meister (1951), der Sprachtest für Sprachgehörprüfung, ebenfalls von Meister (1954a, b), der Zahlentest und
32
2 Wahrnehmung und Messung von Schall
der Freiburger Sprachverständlichkeitstest mit einsilbigen Wörtern (DIN 45621–1, s.a. Hahlbrock 1970). Um Probleme, die vor allem in der Elektroakustik anfallen, untersuchen zu können, wurde mit der systematischen Konstruktion von Sprachtests in den USA schon relativ früh begonnen. Bereits zu Beginn des 20. Jahrhunderts wurde von Bell Telephone Labs ein Sprachtest mit sinnlosen Silben entwickelt. Die Bestimmung der Sprachverständlichkeit mit sinnlosen Silben bildete den Ausgangspunkt zur Berechnung des Artikulationsindex (Abschn. 7.3), ein Kriterium zur Vorhersage der Sprachverständlichkeit aus physikalischen Parametern. Egan (1948) entwickelte den sog. PB (phonetically balanced) Sprachtest, der aus sinnvollen einsilbigen Wörtern besteht. In diesem Test sind die einzelnen Sprachlaute in den Testreihen gegeneinander phonetisch ausbalanciert. Der Test besteht in seiner ursprünglichen Form aus 24 verschiedenen Listen mit je 50 unterschiedlichen, sinnvollen, einsilbigen Wörtern. Die Versuchsperson bekommt die Instruktion, das Wort nachzusprechen, das sie verstanden hat (Kryter 1972). Testverfahren, die sich wie der PB–Sprachtest einsilbiger Testwörter bedienen, haben den Vorteil einer geringen Redundanz, d.h. der Proband kann nicht aus einem richtig erkannten Teil des Wortes auf einen anderen unverständlichen Teil des Wortes schließen. Diese Eigenschaft ermöglicht eine sehr präzise Analyse der auftretenden Phonemverwechslungen. Der PB–Sprachtest hat im Laufe der Zeit eine Reihe von Veränderungen und Korrekturen erfahren und wird in wesentlich verbesserter Form für die Bearbeitung von Problemen sowohl in der Elektroakustik, der Psychoakustik wie auch in der Audiometrie eingesetzt. Die überarbeiteten Testwörterlisten des PB–Sprachtest (CID W–22– Listen, Hirsh et al. 1952) gehören bis heute neben den NU 6–Listen (CVC Wörter, Lehiste u. Peterson 1959, Tilman u. Carhart 1966) zu den am häufigsten verwendeten Testwörterlisten in den USA (s. Tab. 2.6-1). Der bis heute in der Standard–Audiometrie häufig eingesetzte Freiburger Sprachverständlichkeitstest (DIN 45621–1, –2, s.a. Hahlbrock 1970) verwendet ebenfalls einsilbige Wörter als Testmaterial. Mit dem Sprachverständlichkeitstest kann das sprachliche Diskriminationsvermögen des Probanden geprüft werden. Dieser Test ist als ein Audiometrieverfahren konzipiert. Grundlage des Audiometrieverfahrens ist es, dass Sprachlaute mit zunehmender Intensität der Versuchsperson solange dargeboten werden, bis sie erkannt werden. Hierbei wird nicht nur ein Sprachreiz, sondern eine Reihe von Wörtern jeweils gleicher Intensität zur Wahrnehmung dargeboten, um so einen repräsentativen Querschnitt über das sprachliche Unterscheidungsvermögen des Probanden zu erhalten.
2.6 Sprachaudiometrie mit Wörtern und Sätzen
33
Der Test nach DIN 45621–1 besteht aus 20 Wortreihen mit 20 Wörtern. Um die Äquivalenz der Wortgruppen zu erstellen, beachtete Hahlbrock eine Reihe von Kriterien. Er wählte für jede Testgruppe die Wörter so aus, dass die Phoneme im Wort möglichst das gleiche prozentuale Verhältnis aufweisen, das sie in der Umgangssprache haben. Das Verhältnis von Konsonant zu Vokal beträgt im Test 73 % : 27 % und weicht um etwa 10 % von dem Verhältnis der Umgangssprache (61 % : 39 %) ab. Diese Abweichung von der Norm muss bei der Konstruktion eines solchen Sprachtests toleriert werden. Es wurde darauf geachtet, dass die unterschiedlichen Arten der konsonantischen Sprachlaute soweit wie möglich prozentual zur alltäglichen Sprache im Wort wie auch in den Testgruppen verteilt wurden. Neben der Häufigkeit des Vorkommens eines Sprachlautes kontrollierte Hahlbrock die Anzahl der Laute insgesamt. Jede Gruppe erhielt gleich viele Laute, da die Anzahl der im Wort auftretenden Laute für die Erkennungsleistung selbst von großer Bedeutung ist. Ebenso wichtig war es, darauf zu achten, dass jede Gruppe gleich viele der gängigsten Wörter, d.h. Wörter mit gleicher Auftretenswahrscheinlichkeit aufweist, da auch diese Variable einen signifikanten Effekt auf die Wahrnehmungsleistung ausübt. Im Wort selbst wurde die Stellung eines Lautes als Anlaut, Endlaut und die Stellung des Vokals zum Konsonanten bei der Konstruktion der Wortgruppen mit beachtet. Der Freiburger Sprachverständlichkeitstest nach Hahlbrock ist aufgrund verschiedener Unzulänglichkeiten in die Kritik geraten. Bemängelt wird in erster Hinsicht die unzureichende Äquivalenz der Wortreihen. Durch Abweichungen in der Diskrimination zwischen den einzelnen Gruppen ist eine Vergleichbarkeit der Untersuchungsergebnisse nicht mehr möglich. Defizite in der Phonemverteilung, Aufbau und Struktur des Testmaterials, Qualität des Aufsprechens und der Tonträger, sowie die fehlende Analyse zur Phonemfehlinterpretation werden ebenfalls kritisiert. Basierend auf dem Testmaterial des Freiburger Sprachverständlichkeitstests (Hahlbrock 1970), dem Satztest (Niemeyer 1967a) und unter Berücksichtigung der angesprochenen Defizite wurden verschiedene neuartige Testverfahren zur Erfassung der auditiven Selektionsfähigkeit, wie etwa der „Reimtest in deutscher Sprache“ (Sotscheck 1982), der „Beidohrige Zahlentest im Störgeräusch" (Sauer 1992) oder der „Dreisilbertest" mit Störschall (Döring u. Hamacher 1992) entwickelt. Inzwischen liegt auch ein phonetisch ausbalancierter Satztest in deutscher Sprache, der Oldenburger Satztest, vor (Wagener et al. 1999a, 1999b, 1999c). Bis heute wird bei der Entwicklung von sprachaudiometrischen Verfahren im deutschsprachigen Raum trotz der angemerkten Kritikpunkte häufig auf das Testwörterinventar des Freiburger Tests zurückgegriffen. Das liegt vor allem daran, dass die Bewertung der Schwerhörigkeit (s. Abschn. 8.1) anhand
34
2 Wahrnehmung und Messung von Schall
der Sprachverständlichkeit von Einsilbern und Zahlwörtern durchgeführt wird (DIN 45621–1). Einen guten Überblick über die englischen, niederländischen und deutschsprachigen Audiometrieverfahren gibt Bosman (1992) (s.a. Tab. 2.6-1). Neben dem Freiburger Sprachverständlichkeitstest zählen die sogenannten Reimtestverfahren zu den derzeit am häufigsten eingesetzten Sprachtests der Standard–Audiometrie. Aber auch Satztests wurden entwickelt und eingesetzt. 1958 konstruierte Fairbanks den sog. „Reimtest“, den House et al. (1965) ergänzten (modifizierter Reimtest). In diesem Reimtest sind Gruppen von Wörtern zusammengestellt, bei denen nur ein Sprachlaut verändert wurde, während die anderen Sprachlaute konstant gehalten wurden: z.B. „cook, look, hook, took, book“. Eines dieser Wörter wird der Versuchsperson dargeboten. Im Reimtest von Fairbanks muss die Person den fehlenden Konsonanten am Anfang eines jeden Wortes eintragen. Beim modifizierten Reimtest werden auch die Endkonsonanten variiert. Die Person hat das Wort, das sie meint, gehört zu haben, aus der Reihe von Reimwörtern herauszusuchen und anzukreuzen (multiple choice = Mehrfach–Auswahl). Diese Tests erfassen das Unterscheidungsvermögen von Personen auf der Phonemebene (Kap. 4). Sie müssen, um fehlerfreie Angaben machen zu können, sehr genau zwischen den bis auf den Anlaut gleich klingenden Wörtern unterscheiden (Kap. 9). Kryter u. Whitman (1965) verglichen die Ergebnisse des Reimtests von Fairbanks, die Nickerson et al. (1960) erhalten hatten, mit den Ergebnissen des modifizierten Reimtest von House et al., den sie selbst bei vergleichbaren Geräuschbedingungen durchführten, und mit der Verständlichkeitskurve von 1000 PB–Wörtern nach Miller et al. (1951). Im Allgemeinen kann festgehalten werden, dass die Sprachverständlichkeit der Wörter aus dem Reimtest um etwa 10–20 % höher liegt als die von PB–Wörtern, die die Person ohne Vorlage nachspricht (Sprachverständlichkeitstest mit Einsilbern, 400–1000 Wörter). Während in Amerika die systematische Konstruktion von Sprachtests bereits vor oder während des zweiten Weltkrieges begann, sind im deutschen Sprachraum bis auf die Arbeiten von Bezold und Lampert erst in den fünfziger Jahren Sprachtests konstruiert worden. Bezold hat sich schon zu Beginn des letzten Jahrhunderts mit der Vergleichbarkeit des Hörvermögens einzelner Individuen beschäftigt. Auf ihn geht die Prüfung des Hörvermögens mit Zahlwörtern zurück, die der Arzt seinen Patienten mit entsprechendem Abstand zuflüstert. Lampert hat 1923 aus schon einigen existierenden Wortreihen, die jedoch nicht phonetisch ausbalanciert waren, einen Sprachtest konstruiert, der in seiner Grundkonzeption dem Reimtest von Fairbanks entspricht.
2.6 Sprachaudiometrie mit Wörtern und Sätzen
35
Lampert stellte Wortreihen zusammen, in denen er systematisch jeweils einen bestimmten Sprachlaut auswechselte und die anderen Sprachlaute konstant hielt. Z.B. ist bei der Wortreihe „fasse, Gasse, Masse, nasse, lasse“ der Anlaut als Wechsellaut konzipiert, in der Wortreihe „leise, leite, leide, Leiche“ der Inlaut als Wechsellaut vorgesehen. Neben konsonantischen Wechsellautreihen verwendete er vokalische Wechsellautreihen. Bei der Wortreihe „mies, Mais, Maß, Maus“ ist der Inlaut als Wechsellaut gedacht. Der von Lampert entworfene Reimtest wurde nach und nach verbessert und erweitert. Einen sehr sorgfältig ausgetesteten Reimtest legte Sotscheck (1982) vor. Das Testmaterial, welches ursprünglich unter dem Aspekt der Gütebeurteilung von Fernsprechleitungen zusammengestellt wurde, erlebte Modifizierungen verschiedener Art, um es für audiometrische Zwecke nutzbar zu machen. In sprachaudiometrischen Verfahren mit offener Antwortform gibt das richtige Erkennen eines Wortes oft nur begrenzt Aufschluss über das Ausmaß der auditiven Verarbeitung lautlicher Eigenschaften. Die einfache Auswertung, ob ein Wort "richtig" oder "falsch" verstanden wurde, liefert keinerlei Informationen darüber, welcher Laut oder welche Lauteigenschaft fehlerhaft identifiziert wurde, und somit zur Missinterpretation des Testwortes führte (Sendlmeier 1986). Der Reimtest nach Sotscheck ermöglicht eine Analyse von phonematischen Verwechslungen. Jede Testaufgabe besteht aus einer Reihe von Wörtern, die sich jeweils in einem Phonem unterscheiden. Die Testperson kreuzt das Wort an, welches sie akustisch dargeboten bekommen zu haben meint. Durch diese geschlossene Testform können ebenfalls Worthäufigkeitseffekte und individuelle Sprachgewohnheiten weitgehend ausgeschlossen werden. Untersuchungen des Verfahrens (Kießling u. Meier 1986) legen offen, dass die Inlautreime tendenziell besser verstanden werden als die An– und Auslautreime. Basierend auf diesen Ergebnissen stellt sich die Frage, ob es eventuell sinnvoll wäre, den gesamten Reimtest um den Inlauttestteil zu reduzieren, damit man ein möglichst repräsentatives Gesamtergebnis erhält. Zudem ist bei der Verwendung des Verfahrens im sprachaudiometrischen Gebrauch eine Modifizierung hinsichtlich des Testumfangs und der Dauer der Untersuchung empfehlenswert. Unter Berücksichtigung der Tatsache, dass in der deutschen Sprache der Zweisilber häufiger auftritt als der Einsilber und somit repräsentativeren Charakter hat, entwickelten Kliem u. Kollmeier (1992) einen "Zweisilber– Reimtest in deutscher Sprache", welcher der Überprüfung der Unterscheidbarkeit für wortmediale Einzelvokale und wortinitialer Einzelkonsonanten dienen soll. Die Verwendung von Satztests zur Bestimmung der Sprachverständlichkeit ist seltener als die von Worttests. Bei der Konstruktion eines Satz-
36
2 Wahrnehmung und Messung von Schall
tests muss sorgfältig auf die Verwendung von Syntax und Semantik geachtet und die Auftretenshäufigkeit sowie die Übergangswahrscheinlichkeit oder Vorhersagewahrscheinlichkeit der Wörter im Satz müssen kontrolliert werden. Egan (1948) erstellte zwei Testvariationen, die jeweils unterschiedliche Werte zur Feststellung der Satzverständlichkeit liefern. In der ersten Form werden Sätze als Fragen vorgegeben. Sie sind mit einem einzigen Wort oder einer kurzen Satzphrase zu beantworten. Es wird gefragt: „Welcher Buchstabe folgt auf B?“ Die Antwort muss lauten: „C“. Ein erfahrener Beurteiler entscheidet bei der Auswertung dieses Tests darüber, ob der Satz sinngemäß verstanden worden ist. In der anderen Version des Satztests werden Sätze vorgegeben, in denen bestimmte Wörter als Schlüsselwörter (Egan versteht darunter Inhaltswörter) ausgewiesen sind, z.B.: „Stell das Stück hierhin und sag nichts!“ Die Satzverständlichkeit wird ausgedrückt als Prozentsatz der Sätze, bei denen die Schlüsselwörter (Inhaltswörter) – der Sinn des Satzes – korrekt wiedergegeben wurde. Beide Werte entsprechen sich im allgemeinen (Kryter 1972). Ein Satztest, der die unterschiedlich gute Vorhersage bestimmter Wörter in Abhängigkeit vom Satzkontext berücksichtigt, wurde 1977 von Kalikow et al. publiziert. Die Autoren betonen, dass ihr Test die Wahrnehmung von Alltagssprache erfasst. Sie konstruierten zwei Arten von Satztypen; solche, bei denen das letzte Wort, das als Schlüsselwort zur Verstehensprüfung wiederholt werden muss, leicht aus dem Satzkontext zu erschließen ist, und solche, bei denen das letzte Wort kaum aus dem Satzkontext vorhersagbar ist. Ein Satz mit hoher Vorhersagewahrscheinlichkeit ist z.B. „Er fängt den Fisch mit dem Netz“, einer mit niedriger Vorhersagewahrscheinlichkeit „Beate interessiert sich für die Briefmarke“ (s. Abb. 2.6-1). Jeder Untertest besteht aus 50 Sätzen, die nach der Verstehbarkeit, der Worthäufigkeit in der Umgangssprache, den phonetischen Charakteristika und der Länge ausbalanciert sind. Bei normalhörenden Personen ergibt sich je nach Geräuschhintergrund eine Differenz der Satzverständlichkeit bei Sätzen mit hoher und niedriger Vorhersagewahrscheinlichkeit von 30 % bis 40 % (Abb. 2.6-1). Die Autoren sind der Meinung, dass eine Veränderung dieses Differenzbetrages – verglichen mit den Werten in der normalhörenden Population – Aufschlüsse über Hörstörungen einerseits, sowie Abweichungen in der Sprachverarbeitung und bei Gedächtnisprozessen andererseits liefern kann. Elliott (1979) verglich die Testleistung Erwachsener mit der von Kindern und Jugendlichen. 17 Jahre alte Jugendliche weisen die gleichen Leistungen wie Erwachsene auf. Die Leistungen bei 13–jährigen und jüngeren Kindern sind bei beiden Satztypen signifikant geringer, so dass empfohlen wird, diesen Test nicht für Hörer unter 15 Jahren zu verwenden (Abschn. 6.5.4).
2.6 Sprachaudiometrie mit Wörtern und Sätzen
37
Abb. 2.6-1. Sprachverständlichkeit (SV) von Sätzen (Satztest nach Kalikow) bei unterschiedlichen Signal–Geräuschabständen (LSNA) mit einem Sprachgeräusch, abhängig vom Alter: (N) 18–25 Jahre, (J) 11 Jahre, (A) 60–75 Jahre. Es werden 2 Satztypen benutzt: Sätze mit hoher Vorhersagewahrscheinlichkeit für das letzte Wort (HW, oben) und niedriger Vorhersagewahrscheinlichkeit (NW, unten) (nach Elliott 1979; Kalikow et al. 1977).
In Anlehnung an Kalikow, Stevens u. Elliott entwickelten Tschopp u. Ingold (1992) eine deutsche Version des SPIN–Tests, um anhand der Erfassung der Fähigkeit, Kontextinformationen zu verwerten, Aussagen über Störungen der zentral–auditiven Sprachverarbeitung machen zu können. Der Test umfasst vier Satzgruppen zu je 20 Sätzen, die jeweils aus mindestens sechs, höchstens aber aus neun Silben bestehen. Bei kürzeren Sätzen wäre der Informationsgehalt zu gering, bei längeren Sätzen würde als unerwünschter Effekt das Kurzzeitgedächtnis der Patienten mit untersucht (Tschopp u. Ingold 1992). Das Schlusswort ist stets ein einsilbiges Substantiv. Bei intakter zentraler Hörleistung kann ein Kontext mit hohem Informationsgehalt die Verständlichkeit des Schlusswortes erleichtern, bei einer zentralen Hörstörung hingegen kann die Kontextinformation nicht weiter verwertet werden. Aus dem Verhältnis der Verständlichkeit der Schlusswörter unter Berücksichtigung des jeweiligen Kontextinformationsgehalts des Satzes können so diagnostische Schlussfolgerungen gezogen werden. Wagener et al. entwickelten unter Berücksichtigung der Defizite verfügbarer Satztestverfahren im Störgeräusch den Oldenburger Satztest. Der Test besteht aus 18 Testlisten zu je zehn Sätzen à fünf Wörtern. Die Test-
38
2 Wahrnehmung und Messung von Schall
sätze verfügen über die gleiche Satzstruktur (Name, Verb, Zahlwort, Adjektiv, Objekt) und weisen eine Phonemverteilung auf, die der der deutschen Sprache entspricht. Durch zufälliges Vertauschen innerhalb der Wortgruppen werden aus dieser Basisliste neue Sätze gebildet, somit ist die Homogenität aller Testlisten gewährleistet. Der Sinngehalt der Sätze ist relativ gering und somit nicht einprägsam, das heißt, dass wiederholte Messungen mit ein und demselben Probanden möglich sind. Die Testsätze wurden mit mittlerer Sprechgeschwindigkeit in Umgangssprache aufgesprochen und unter Berücksichtigung der Koartikulationseffekte generiert. Aus dem so entstandenen Sprachmaterial wurde wiederum ein sprachsimulierendes Rauschen generiert, welches in 30facher Überlagerung als Störgeräusch für den Oldenburger Satztest fungiert. Die gerade beschriebene Konstruktion des Verfahrens ermöglicht es, eine natürliche Kommunikationssituation in geräuschbehafteter Umgebung sehr präzise nachzubilden, und somit neben dem Hörverlust auch die „Fehlhörigkeit“ (Wagener et al. 1999) zu erfassen. Problematisch ist die hohe Auftretenswahrscheinlichkeit der benutzten Wörter in diesem Test. Neben diesen Tests sind schließlich folgende Sprachverständlichkeitstests mit Sätzen zu nennen: Der Kurzsätze–Test von Schubert (1958). Er umfasst zwei Satzreihen, in denen die Sinnhaftigkeit variiert wurde. Kurzsätze mit sinnvollem Inhalt sind: „dein Pfund zurück“ oder „der selbe dort“. Kurzsätze mit sinnlosem Inhalt sind: „Dinge was liebte“ oder „Einzeln schlimme“. Schubert achtete bei der Konstruktion darauf, dass die Wörter in den Listen (für jede Art der Sinnhaftigkeit liegen 6 Listen mit je 30 Satzfragmenten vor) phonologisch aufeinander abgestimmt sind und mit der Lauthäufigkeitsverteilung für die deutsche Sprache nach der Meier–Statistik übereinstimmen. Die Listen mit sinnhaftem und sinnlosem Inhalt sind phonologisch gleich abgestimmt, so dass die Wirkung der Grammatik auf die Wahrnehmungsleistung durch einen Vergleich der beiden Listen untereinander abgeschätzt werden kann. Ausgewertet wird die Anzahl der richtig nachgesprochenen Silben. Der Satztest von Beckmann u. Schilling (1959). Er ist speziell für audiometrische Untersuchungen entwickelt worden und besteht aus zwei Tests zu je 20 Sätzen. Die Person muss nachsprechen, was sie gehört hat. Die Anzahl bestimmter richtig wahrgenommener Wörter wird als Wert für die Verständlichkeitsleistung verwendet. In ähnlicher Weise wie der Satztest von Beckmann u. Schilling wird auch der Satztest nach Schubert (Schubert 1958) in Form einer Erzählung der Person zur Wahrnehmung angeboten und ausgewertet. Der Marburger Satzverständlichkeitstest: Niemeyer (1967a) ergänzte 1962 den Freiburger Sprachverständlichkeitstest für Einsilber durch den Marburger Satzverständlichkeitstest und versuchte so die Sprachaudio-
2.6 Sprachaudiometrie mit Wörtern und Sätzen
39
metrie durch eine Audiometrie mit Sätzen zu vervollständigen (DIN 45621–2, s.a. Hahlbrock 1970). Der derzeit verwendete Satzverständlichkeitstest besteht aus 8 Gruppen zu je 10 Sätzen, jeder Satz aus 4–6 Wörtern. Jede Gruppe enthält 50 Wörter, die Silbenzahl je Gruppe beträgt 78–86, die Lautzahl 236–243. Das Testmaterial muss einer Reihe von Kriterien genügen (Niemeyer u. Beckmann 1962, Niemeyer 1967a), die sich bei der Konstruktion eines Satztestes häufig gegenseitig ausschließen. Einige Punkte seien genannt:
x die Sätze sollten der Umgangssprache entsprechen; x die Wörter in den Sätzen sollten sowohl in ihrer Auftretenshäufigkeit als auch in ihrer Vorhersagewahrscheinlichkeit im Satz kontrolliert sein; x die Satzgruppen müssen phonetisch ausbalanciert sein, zugleich aber dem Lautbestand der Umgangssprache entsprechen. Die Auswahl grammatikalischer Strukturen sowie das Verhältnis von Inhaltswörtern und Funktionswörtern in einem Satz oder in einer Satzgruppe wurden nicht überprüft. Auch wurde die Auftretenshäufigkeit eines Wortes in der Alltagssprache nicht beachtet. Bedingt durch diese Kriterien können erhebliche Unterschiede in der Verstehensleistung auftreten. Zur Auswertung werden die richtig reproduzierten Wörter ausgezählt. Da jede Satzgruppe aus 50 Wörtern besteht, erhält das einzelne Wort eine prozentuale Wertigkeit von 2. Schließlich bleibt noch zu erwähnen, dass neben dem Satz– und dem Wortverständlichkeitstest für Erwachsene ein Satz– und Wortverständlichkeitstest für Kinder unterschiedlicher Altersklassen von Albrecht (1967) konstruiert wurde. Bei der Konstruktion dieser Tests musste zusätzlich zu den oben erwähnten Kriterien dem Aspekt der Sprachentwicklung Rechnung getragen werden, der gerade im Alter von 2 bis 6 Jahren eine wesentliche Rolle spielt, um eine repräsentative Stichprobe über die Sprachverständlichkeit eines Kleinkindes zu erhalten. An dieser Stelle sind auch der Mainzer Kindersprachtest (Biesalski et al. 1974) und der Göttinger Kindersprachtest (Chilla et al. 1976) zu nennen, welche sich letztlich in der klinischen Diagnostik durchgesetzt haben. Zur Auswahl zweckmäßiger Sprachtestverfahren ist einiges gesagt worden. Sicher ist für einen Vergleich von Systemen (Telefone, Lautsprecher, Räume) ein Reimtest recht zweckmäßig. Häufig wird aber nach der generellen Eignung von Kommunikationssystemen oder Räumen gefragt. Man möchte die Qualität des Systems oder Raums für die Sprachkommunikation ermitteln und angeben. Dafür ist ein Reimtest sicher nicht geeignet. Hier müssen Sprachtests benutzt werden, die in einer gewissen Weise die Umgangssprache oder die dort benutzte Sprache repräsentieren. Da man
40
2 Wahrnehmung und Messung von Schall
davon ausgeht, dass man für eine gute Sprachverständlichkeit jedes Wort (und bei fast jeder Kommunikation kommen auch einzelne unbekannte Wörter vor) verstehen muss, orientieren sich solche Sprachtests an Wort– und Satztests mit geringer Vorhersagewahrscheinlichkeit. Die Ergebnisse von einigen Standardtests findet man in Abschnitt 7.6. Tabelle 2.6-1. Verfahren zur Sprachaudiometrie (Auswahl), die im englischen und amerikanischen Sprachraum entwickelt wurden (mit Erscheinungsjahr) Jahr Name und Beschreibung 1948 PAL PB (entwickelt im Harvard Psychoacoustics Laboratory); Testwörterliste bestehend aus einsilbigen, sinnvollen Wörtern, die gegeneinander phonetisch ausbalanciert sind (phonetically balanced: PB) 1952 CID–W 22 (entwickelt am Central Institute of the Deaf); überarbeitete Fassung der PAL PB Testwörterlisten von Egan (1948); verhältnismäßig unbekannte, bzw. im englischen Sprachgebrauch wenig häufig verwendete Wörter wurden entnommen 1958 Diagnostic Rhyme Test (DRT); CVC–Wort–Paare, die sich jeweils nur im ersten Konsonanten unterscheiden 1965 Modified Rhyme Test (MRT); CVC–Wörter im geschlossenen Antwortset 1966 NU #6 (entwickelt an der Northwestern University); überarbeitete Fassung der CVC–Wortlisten nach Lehiste u. Peterson (1959) 1977 SPIN Test (Speech Perception in Noise); Satztest mit Sätzen unterschiedlicher Vorhersagewahrscheinlichkeit (VW) SPIN–R; überarbeitete Version 1977 CCT (California Consonant Test); einsilbige Wörter (CVS) 1979 FAAF (Four Alternative Auditory Feature Test); Sets aus jeweils 4 CVC–Wörtern, die sich nur in einem Phonem unterscheiden 1994 HINT (Hearing in Noise Test); einfache Sätze in Ruhe und im Störgeräusch
Autor Egan
Hirsh et al.
Fairbanks
House et al. Tillmann u. Carhart Kalikow et al.
Owens u. Schubert Foster u. Haggard Nilsson et al.
3 Akustische Eigenschaften gesprochener Sprache
3.1 Analyse des Schalldruckverlaufs der Sprache Hüllkurve, Verlauf der Schallintensität Sprache, als ein Schallereignis aufgefasst, transportiert Information in Form von Schalldruck– und Frequenzmustern und –änderungen über die Zeit. Die kennzeichnenden Eigenschaften gesprochener Sprache werden mit den in der Akustik üblichen Geräten und Verfahren, wie sie in Kapitel 2 beschrieben worden sind, gemessen und analysiert. Gemessen wird der Schalldruck der Sprache mit einem Schallpegelmesser, wobei in der Regel die Frequenzbewertung A und die Zeitbewertung Fast herangezogen werden. Die Zeitbewertung Fast entspricht mit ihrer Zeitkonstante von 125 ms etwa dem Lautheitsempfinden des Menschen. Wird die Lautheit von Schallimpulsen bei konstantem Schalldruckpegel, aber kürzer werdender Dauer bestimmt, so ergibt sich eine Abnahme der Lautheit, wenn die Impulse kürzer als 100 ms sind (Zwicker 1982). Die Trägheit der Lautheitswahrnehmung bei kurzen Schallvorgängen kann durch eine Glättung des Zeitverlaufs des Schalldrucks mit einer entsprechenden Zeitkonstante, die durch eine gleitende Mittelwertbildung bzw. Tiefpassfilterung vollzogen wird, berücksichtigt werden. Man erhält so die Hüllkurve ~ p ( t ) der Sprache. Der wichtigste Messwert der Sprache ist der Effektivwert bzw. der A– bewertete Mittelungspegel über die Sprechzeit T, er wird mit LSAeq bezeichnet, aber häufig auch LSA abgekürzt. Da der Mittelungspegel über mehrere Wörter, Sätze oder über einen Text bestimmt wird und so die Zeiten der Artikulationspausen einbezogen werden, z.B. die Sprechpausen, in denen Luft geholt wird, liegt dieser Wert um etwa 1–2 dB niedriger als der Mittelungspegel nur über eine Silbe oder ein Wort. Differenzierte Angaben zur Sprache erhält man aus der Häufigkeitsanalyse des Zeitverlaufs und der Frequenzanalyse (Abschn. 3.2, 3.3). Der Sprachfluss ist gekennzeichnet durch schnelle Änderungen der Frequenz und der Amplitude des Zeitverlaufs. In diesen Änderungen des Schalldruckverlaufs ist die für den Hörer wichtige Information enthalten.
42
3 Akustische Eigenschaften gesprochener Sprache
Die Frequenzanalyse und die Darstellung des Zeitverlaufs (Hüllkurve ~ pi ( t ) ) der Sprache in jedem Bandpass (i) mit der Mittenfrequenz (fi) beschreibt die Änderung der Amplitude bei der Frequenz (fi). Die Sprache umfasst einen Frequenzbereich von ca. 0.1 bis 10 kHz, die zeitlichen Änderungen der Hüllkurven liegen unterhalb von 50 Hz. Die Pegeländerungen der Sprache betragen für einen gesprochenen Satz oder Text innerhalb eines Bandfilters (i) etwa DL = 30–40 dB. In Abbildung 3.1-1 ist die Bildung und Analyse der Hüllkurve der Sprache skizziert. Beginnend mit einer Frequenzanalyse mit Oktav– oder Terzfiltern im Hörbereich wird durch Quadrieren des Schalldrucks in jedem Filter (i) die Intensität Ii(t) ~ pi2(t) errechnet. Mit einer gleitenden Mittelung erhält man den Zeitverlauf der Hüllkurve ~pi ( t ) . Durch eine weitere Frequenzanalyse der vorher gebildeten Intensitäten im Frequenzbereich unterhalb 50 Hz werden Intensitätsanteile der Hüllkurve in den Terzen (zwischen 0.25 und 25 Hz) bestimmt.
Abb. 3.1-1. Bildung der Hüllkurve ~ pi ( t ) eines Schalldruckverlaufs im Bandpass (i) aus dem Zeitverlauf des Augenblickwerts des Schalldrucks p(t) und die Frequenzanalyse der Hüllkurve ~ pi 2 (f j ) a mij, (fi >> fj)
3.1 Analyse des Schalldruckverlaufs der Sprache
43
Mit dieser Frequenzanalyse des Intensitätsverlaufs der Hüllkurve unterhalb 50 Hz wird die Intensität, mit der die einzelnen Frequenzen innerhalb der Hüllkurve auftreten, ermittelt. Grundlage dieser Überlegungen ist das Modell einer amplitudenmodulierten Schwingung für die Schallintensität Ii(t) ~ pi2 (t) (Gl. 3.1-1) in dem betrachteten Bandpass (i) (Houtgast u. Steeneken 1972; Steeneken u. Houtgast 1980):
Ii ( t )
I
i0
I ij cos2ʌ f j t
I i 0 1 mij cos2ʌ f j t .
(3.1-1)
Diese Darstellung bezieht sich auf zwei Frequenzbereiche, den Hörbereich (0.1 bis 10 kHz), der in die Bandfilter (i), und den Frequenzbereich der Hüllkurve (0.25–25 Hz), der in die Bandfilter (j) aufgeteilt wird. Die sich ändernde Intensität Ii(t) der Hüllkurve in jedem Bandpass im Hörbereich bei der Frequenz (fi) schwankt um den Langzeitmittelwert der Schallintensität Ii 0 = Ii(f) ~ pi2(t) in diesem Bandpass (i). Der Zeitverlauf der Hüllkurve lässt sich in den einzelnen Bandfiltern (j) als Kosinus– Schwingung mit der Frequenz (fj) auffassen. Iij ist die Schallintensität, die in dem Bandpass (j) auftritt und mij der Anteil der Schallintensität innerhalb eines Frequenzbandes (i) aufgeteilt auf die Bandfilter (j); m ist der Modulationsgrad der amplitudenmodulierten Schwingung. In Abbildung 3.1-2 ist der Zeitverlauf der Schallintensität in einem Bandpass (i) für einen Bandpass (j) dargestellt.
Abb. 3.1-2. Verlauf der Schallintensität Ii (t) im Bandpass (i) der Mittenfrequenz (fi) mit dem Langzeitmittelwert Iio und der Schallintensität Iij der Frequenz (fj), (fi >> fj)
Messergebnisse für den Langzeitmittelwert der Sprache in den einzelnen Bandfiltern (i) im Sprachbereich sind in Abschnitt 3.3 angegeben. Für den Frequenzbereich 0.25 bis 25 Hz ist der Anteil der Schallintensität mij in Abbildung 3.1-3 angegeben; für einige Oktaven (i) ist die Schallintensität in Terzen (j) gemessen dargestellt (Houtgast u. Steeneken 1972). Vergleicht man den Frequenzverlauf der Intensität der Hüllkurve der einzelnen Oktaven miteinander, so stellt man keine wesentlichen Unter-
44
3 Akustische Eigenschaften gesprochener Sprache
schiede fest. Im Bereich von fj = 1 bis 10 Hz ist der wesentliche Anteil der Schallintensität der Sprachhüllkurve enthalten. Das Maximum liegt bei 3–4 Hz, was mit der Sprechgeschwindigkeit von 3–4 Silben pro Sekunde korrespondiert. Dieses Ergebnis zeigt auch, dass es sinnvoll ist, den Zeitverlauf der Sprache mit der Zeitkonstante Fast zu bewerten, da dann zeitliche Schwankungen über 8 Hz geglättet werden. Vermutlich wäre eine etwas kürzere Zeitkonstante von 40–80 ms etwas besser geeignet.
Abb. 3.1-3. Frequenzanalyse mit Terzen (j) der Schallintensität (Ii). Ii ist die mit Oktaven (i) gefilterte Intensität der Hüllkurve der Sprache. Die Mittenfrequenz der Terzen liegt bei fj = 0.25–25 Hz, der Oktaven bei fi = 0.25, 1, 4 kHz. Der Modulationsgrad mij = Iij/Iio ist der Anteil der Schallintensität (Iij) der einzelnen Terzen (j) an dem Mittelwert der Intensität (Iio) für die jeweilige Oktave (i) (fi >> fj) (nach Houtgast u. Steeneken 1972)
3.2 Häufigkeitsanalyse der Amplituden gesprochener Sprache Messverfahren, Pegelbereich der Sprache, Pegeldynamik, Spitzenpegel Der Pegelwert der gesprochenen Sprache ist, wie aus dem Messvorgang mit Hilfe des Pegelmessers, aber auch aus gezielter Beobachtung erfahren werden kann, zeitlich stark schwankend. In Abbildung 3.2-1 ist der Zeitverlauf des Schallpegels eines gesprochenen Satzes für zwei Zeitbewertungen (Fast, Slow) angegeben. Um zeitliche Schwankungen des Schalldrucks innerhalb eines längeren Zeitintervalls darzustellen, bedient man sich der Häufigkeitsanalyse (s. Abschn. 2.1).
3.2 Häufigkeitsanalyse der Amplituden gesprochener Sprache L
45
´fast´ 10dB
“Der stolze Mann stolpert über seine Katze”
L
t
´slow´ 10dB
t
Abb. 3.2-1. Schallpegel (L) der Sprache als Funktion der Zeit (t) eines monoton gesprochenen Satzes, aufgezeichnet mit einem Pegelschreiber (Schreibgeschwindigkeit 3 cm/s) mit der Zeitbewertung Fast und Slow
In Abbildung 3.2-2 sind die Häufigkeitssummenverteilungen von Sprechpegeln zusammengestellt (Dunn u. White 1940, French u. Steinberg 1947, Shearme u. Richards 1954), wobei diese jeweils für den Pegel des Effektivwerts, den Spitzenwert des Effektivwerts und den Betrag des Augenblickswerts bestimmt wurden. Die Effektivwerte sind jeweils Mittelwerte über ein Zeitintervall von 100–125 ms. Die Spitzenpegel wurden innerhalb eines Zeitintervalls von 125 ms bestimmt. Die Augenblickswerte zeigen, vergleicht man sie mit den Werten der anderen Verteilungen, die größte Dynamik. Sie erfassen die direkten Schwankungen des Schallwechseldrucks, die größer als 50 dB sein können. Weiterhin wurden die von French u. Steinberg (1947) und Beranek (1947a) bei der Konzipierung des Artikulationsindex (AI, s. Kap. 7) benutzte Häufigkeitssummenverteilung eingezeichnet. French u. Steinberg sowie Beranek rechnen mit einer vereinfachten linearen Kurve und einer Dynamik des Sprachpegels von 36 bzw. 30 dB, wobei French u. Steinberg in die Häufigkeitssummenverteilung die Sprechpausen einbeziehen, Beranek nimmt dieses jedoch nicht vor. Die angegebene Verteilung des Sprechpegels bezieht sich auf den Frequenzbereich von 200 Hz bis 6 kHz ohne Frequenzbewertung. Die Pegelverteilung von 6 untrainierten Sprechern (Einsilber, Sätze) und einem professionellen Sprecher (Einsilber, CD) zeigt auch eine Pegeldynamik von 30 bis 50 dB (Abb. 3.2-3). Die Aufnahmen erfolgten im reflexionsarmen Raum bei einem Abstand vom Mikrofon zum Sprechermund von 1 m. Die Sprecher waren instruiert worden, mit der vorgegebenen Lautstärke von etwa LSA,1m = 60 dB (normal) zu sprechen.
46
3 Akustische Eigenschaften gesprochener Sprache
Abb. 3.2-2. Häufigkeitssummenverteilung W(L’S) des Schallpegels der Sprache L’S = LS - LSeq bezogen auf den Langzeiteffektivwert der Sprache (T Mittelungsintervall), gemessen von: Autor
— - — (D1) ——— (D2) - - - - - (D3) -ŧ-ŧ-ŧ-ŧ- (F) —ŧ—ŧ—(S1) –ŧ–ŧ–ŧ– (S2) ——— (B)
Messwert
Mittelungs- Bemerkungen intervall Dunn u. White Effektivwert 125 ms Konversation Dunn u. White Spitzenwert 125 ms mit Dunn u. White Augenblickswert Pausen French u. Steinberg Effektivwert 125 ms Konversation Shearme u. Richards Effektivwert 100 ms sinnlose Silben Shearme u. Richards Augenblickswert sinnlose Silben Beranek Effektivwert 125 ms sinnlose Silben
Den Sprechern wurde jeweils visuell über ein Messinstrument ein Pegelbereich von 10 dB vorgegeben, der keinesfalls über– oder unterschritten werden sollte (55–65 dB). Der Sprechpegel wurde A– und Slow–bewertet angezeigt. Die aufgesprochenen Sprachpegel lagen bei etwa ±3 dB Abweichung vom vorgegebenen Pegel und wurden anschließend auf diesen mit ±0.5 dB normiert. Interessant ist die Abweichung zwischen dem professionellen und den untrainierten Sprechern.
3.2 Häufigkeitsanalyse der Amplituden gesprochener Sprache
47
Abb. 3.2-3. Häufigkeitssummenverteilung W(L’SA) von 7 Sprechern für ca. 200 Einsilber (links) und von 6 einzelnen Sprechern für ca. 200 Sätze, Zeitbewertung der Pegel 100 ms (L’SA = LSA - LSAeq) (m, w, M, Z: männlich, weiblich, Muttersprachler, Zweitsprachler)
Die Dynamik des Sprechpegels ist einerseits durch die Betonung von bestimmten Sprachlauten, Silben oder Wörtern in gesprochener Sprache bedingt, wobei die betonten Sprachabschnitte einen höheren Schallpegel aufweisen als die Unbetonten. Andererseits werden die einzelnen Sprachlaute innerhalb eines Wortes auch bei monotoner Sprechweise, bedingt durch die Art und Weise der Erzeugung (Artikulation) der einzelnen Sprachlaute im Kehlkopf, Mund und Rachenraum mit sehr unterschiedlicher Intensität gesprochen (Fletcher 1953). Die Vokale werden um 20– 25 dB lauter ausgesprochen als die am leisesten gesprochenen Konsonanten „f, p, d, b“, die Konsonanten „m, n, g, k, z, s“ liegen in der Sprechintensität dazwischen. Häufigkeitsverteilungen des Schalldrucks wurden von Dunn u. White (1940), Davenport (1952), Shearme u. Richards (1954) und Weiß (1964) gemessen. Statistische Beschreibungen von Sprachsignalen liegen auch als zweidimensionale Verteilungsfunktionen (Wolf u. Brehm 1973) und komplexe Verteilungsfunktionen (Schomann 1977) vor. In Abbildung 3.2-4 ist eine Häufigkeitsverteilung des Schalldrucks wp / ~ p dargestellt. Als gute Näherung für die Häufigkeitsverteilung des Augenblickswertes der Sprap (Davenport 1952; Weiß 1964). che gilt w a exp 2 p / ~
48
3 Akustische Eigenschaften gesprochener Sprache
Abb. 3.2-4. Häufigkeitsverteilung des Schalldrucks wp / ~ p , dargestellt über dem Augenblickswert des Schalldrucks p, bezogen auf den Effektivwert ~ p für drei Sprechweisen flüstern (f), normal (n), schreien (s); Pegeldynamik 50 dB, Frequenzbereich 0.04–16.5 kHz (nach Weiß 1964)
Weiß (1964) und Davenport (1952) haben den Einfluss der Nachhallzeit, Anzahl der Sprecher und der Sprechweise auf die Häufigkeitsverteilung untersucht. Beispielsweise wird in Abbildung 3.2-4 die Häufigkeitsverteilung für die drei Sprechweisen „schreien“, „normal sprechen“ und „flüstern“ angegeben (Weiß 1964). Die Kurven unterscheiden sich bei kleinen und mittleren Amplituden kaum, obwohl der absolute Wert des Schalldrucks in der Sprechweise „schreien“ um etwa 50 Mal größer ist als beim „Flüstern“. Würde man die absoluten Werte darstellen, würde die Häufigkeitssummenverteilung für das Flüstern zu einer Spitze werden. Wie oben ausgeführt, verläuft die Häufigkeitsverteilung auch hier nach einer e–Funktion, d.h. im halblogarithmischen Maßstab, linear. Für den Nullpunkt (p ū 0) ergibt sich bedingt durch unvermeidliches Rauschen p gesehen, der Messgeräte eine leichte Spitze. Relativ zum Effektivwert ~ liegen für das Flüstern die Amplitudenschwankungen höher als für lautere Sprechweisen. Die Häufigkeitsverteilung von Sprachreizen zeigt einen relativ glatten Verlauf, wenn sie über Zeitintervalle von mehr als 100 s gebildet werden. Bei der Messung des Sprechpegels interessieren vor allem die Verteilungskurven des Effektivwertes bzw. des Pegels. Brady (1965) leitet aus dem Augenblickswert und dem Effektivwert (Hüllkurve) für jeweils einen Sprecher eine Häufigkeitssummenverteilung W(Ll) ab (Gl. 3.2-1), die dem Pegel proportional ist:
3.2 Häufigkeitsanalyse der Amplituden gesprochener Sprache
W ( Ll )
Ll L1 . L2 L1
49
(3.2-1)
Dabei ist L1 und L2 die untere und obere Grenze des Pegelbereichs der gemessenen Sprache. Die Häufigkeitsverteilung w(Ll) wird damit unabhängig vom Schallpegel (Ll) und ist nur noch durch die benutzte Pegeldynamik gegeben (Gl. 3.2-2): w ( Ll ) |
l . L2 Ll
(3.2-2)
Eine derart linearisierte Häufigkeitssummenverteilung W mit L1 = 12 dB und L2 = -18 dB (Abb. 3.2-2) nimmt Beranek (1947a) für die Berechnung des Artikulationsindex (AI) an. Für den SII und STI wird L1 = -L2 = 15 dB angenommen. Diese einfache Näherung ist, wie aus Abbildung 3.2-2 und 3.2-3 hervorgeht, bei den weniger häufigen, aber hohen Pegeln nur bedingt zutreffend. Diese bestimmen aber im Wesentlichen den Sprachpegel. Die Werte L1 = 10 dB und L2 = -20 dB würden den Sachverhalt besser beschreiben. Um die zu große Abweichung zu beschränken, nimmt Brady für die Häufigkeitsverteilung des Schallpegels von mehreren Sprechern eine Gaußverteilung an, wobei der Median, d.h. das 50 %–Perzentil (L50%) dem Mittelwert der Gaußverteilung und das 30.8 %– bzw. 69.2 %–Perzentil (L30,8%, L69,2%) dem Mittelwert zuzüglich bzw. abzüglich der halben Standardabweichung der Gaußverteilung entsprechen. Pocock (1939) und Richards u. Archbold (1956) benutzen für die Häufigkeitssummenverteilung des Sprachpegels, eine nichtlineare Funktion ähnlich der des hyperbolischen Tangens, mit einer Pegeldynamik von 55–70 dB. Die Häufigkeiten des Sprechpegels sind im Wesentlichen durch die Pegel der höchsten Intensitäten bestimmt. Sie liegen bei etwa 500 Hz (250 bis 800 Hz). Die Häufigkeiten von Schalldruckpegeln gesprochener Sprache innerhalb von einzelnen Frequenzfiltern (Terzen, Oktaven) wurden von Dunn u. White (1940), Lazarus u. Lazarus–Mainka (1979), Cox et al. (1988) und Pavlovic (1993) bestimmt (Abb. 3.2-5). Diese Autoren haben für bandgefilterte Sprache (Oktaven, Halboktaven) Häufigkeitssummenverteilungen angegeben. Diese Häufigkeitssummenverteilungen der bandgefilterten Sprache sind im gesamten Frequenzbereich der Sprache ähnlich (s. Abb. 3.2-5), so dass French u. Steinberg und auch Beranek für die einzelnen Bandfilter eine einheitliche linearisierte Häufigkeitssummenverteilung des Pegels mit gleicher Dynamik, d.h. gleicher Pegeldifferenz, im jeweiligen Filter festgesetzt haben (Abb. 3.2-2).
50
3 Akustische Eigenschaften gesprochener Sprache
In Tabelle 3.2-1a, b sind einige Werte für den Schallpegel von Sprache nach Shearme u. Richards (1954), Kryter (1972), Hörmann et al. (1981), Cox et al. (1988), Studebaker u. Sherbecoe (1991), Pavlovic (1993) und denen aus der Abbildung 3.2-2 zusammengestellt. Wie aus dieser Tabelle zu ersehen ist, liegen die Spitzenwerte des Schalldruckpegels bzw. der 1 %–Wert der Häufigkeitsanalyse um 5–12 dB über dem Langzeiteffektivwert. Unterschiedliche Pegelwerte treten bei verschiedenen Sprachmaterialien auf.
Abb. 3.2-5. Häufigkeitssummenverteilung des Oktavschallpegels (L’iF) von fünf Rundfunksprechern, bezogen auf den Pegel des Langzeiteffektivwertes LS = 68 dB; Zeitbewertung Fast, Sprechzeit insgesamt 5 Minuten, Mittelungspegel (- - -) (nach Lazarus u. Lazarus–Mainka 1979)
Will man den Sprechpegel messen, so ergibt sich die Frage, wie man diesen von den häufig vorhandenen Geräuschpegeln bereinigt, um den reinen Sprechpegel zu erhalten. Brady (1968) gibt, wenn die Gleichverteilung des Sprechpegels bekannt ist, ein Verfahren an, in dem nur der Sprechpegel, der über dem Geräuschpegel liegt, gemessen wird. Aus diesen Werten wird dann der Sprechpegel aufgrund der oben diskutierten Gleichverteilung geschätzt, der ohne Geräusch gemessen worden wäre. Aber auch mit Hilfe der Häufigkeitsanalyse lassen sich Sprache und Geräusch trennen, wenn der Geräuschpegel bekannt ist (Hörmann et al. 1981).
3.3 Frequenzspektrum gesprochener Sprache
51
Tabelle 3.2-1a. Schallpegelwerte (L’Smin bis L´Smax) von Sprache bezogen auf den Langzeiteffektivwert (LSeq) bei vorgegebener normaler Sprechweise Sprachmaterial
Text Sinnlose Silben Text Wort im Satz Einsilbige Wörter Sinnlose Silben
L’Smax
L’Smin L’S1% in dB Augenblickswerte 24 12.5 13 12 Effektivwert über 125 ms 12–20 7–9 -16 5–11 10 10 9 -
Tabelle 3.2-1b. Schallpegel der ca. 20 kritischen Bänder (L’Si = LSi - LSeq) bei 0 % (max.), 1 %–95 %, 100 % (min.) für Mittelungszeiten (T), (Frequenzbereich: 0.1 bis 10 kHz), 28 Sprecher lesen einen kontinuierlichen Text (nach Cox et al. 1988 (C), Pavlovic 1993 (P)) T in ms 13 80 20
max. 12…17 10…12 -
1% 9…11
L’Si in dB Autor 5% 90% 95% min. 7…8 -40…-25 -45…-28 P 5 -33…-23 -40…-25 P ū7 -30…-40 -30…-40 C
3.3 Frequenzspektrum gesprochener Sprache Terzspektrum, idealisiertes Spektrum, Differenz: A–bewertet zu unbewertet, Formanten, Geschlechtsunterschiede
Der Frequenzbereich der Sprache umfasst ein breites Spektrum etwa von 100 Hz bis 10 kHz. In Abbildung 3.3-1 ist das Langzeitspektrum von Sprachreizen dargestellt. Die Daten wurden aus den in der Literatur angegebenen Spektren (Oktaven/Terz–Schallpegeln, Schallpegel pro Hz) entnommen und in Terz–Schallpegel umgerechnet (Tab. 5.2-1). Die dargestellten Terzschalldruckpegel (L’St) sind auf den A–bewerteten Schallpegel für 1 m bezogen, der zusätzlich angegeben ist. Die Graphik (Abb. 3.3-1) gibt die Werte für die Frequenzspektren der Sprechweise normal oder auch angehoben wieder. Weiterhin sind idealisierte Sprachspektren eingezeichnet, so wie sie z.B. bei der Berechnung des Artikulationsindex Verwendung finden (Abschn. 7.3). Wie aus den Kurven zu ersehen ist, liegt das Maximum der Schallintensität gesprochener Sprache, gemessen in Terzen bei 300–500 Hz. Neuere Analysen zeigen einen ähnlichen Verlauf (Abb.
52
3 Akustische Eigenschaften gesprochener Sprache
3.3-2). Unterschiede zwischen männlichen und weiblichen Sprechern zeigen sich vor allem bei den tiefen Frequenzen.
Abb. 3.3-1. Terzschalldruckpegel (L’St) von gesprochener Sprache, bezogen auf den A–bewerteten Schallpegel (LSA bei 1 m) L’St = LSt LSA gemessen von verschiedenen Autoren (DW, R, BH, T) oder als idealisiertes Spektrum vorgeschlagen (FS, RA, B, K, ISO, HP) für weibliche (w) und männliche (m) Sprecher; Abkürzungen siehe Tabelle 5.2-1; angegeben ist für jede Kurve der Schallpegel LSA (bei 1 m) und der Wert L’St = 0
Verändert der Sprecher seine Sprechweise, so spiegelt sich dieser Vorgang auch in dem Spektrum der Sprache wieder. Eine Anhebung des Schallpegels der gesprochenen Sprache hat eine Verschiebung der Schallintensität von niederen zu höheren Frequenzbereichen zur Folge (s. Abschn. 5.5, Abb. 5.5.1-1). Unterschiede zwischen den Spektren weiblicher und männlicher Sprecher sind vor allem beim A–Schallpegel und bei den tieferen und höheren Frequenzen zu beobachten (s. Abschn. 5.2, 5.5). Die Grundfrequenz
3.3 Frequenzspektrum gesprochener Sprache
53
(Grundton) der Sprache männlicher Sprecher liegt bei etwa f = 125 Hz, die der weiblichen Sprecher bei f = 250 Hz (Fletcher 1953; Schultz–Coulon 1980). Männer und Frauen unterscheiden sich auch in ihrer sprachlichen Reaktion auf Umgebungsgeräusche (Junqua 1993). AN,mZ KO,mM MA,mM CD,mM
AN,mZ KO,mM MA,mM
CL,wM LE,wZ UL,wZ
CL,wM LE,wZ UL,wZ
0
0 L'St/dB
L'St/dB
-10
-10
-20
-20
-30
-30
-40
-40
-50
-50 63 125 250 500 1 k 2 k 4 k 8 k
63 125 250 500 1 k 2 k 4 k 8 k
ft/Hz
ft/Hz
Abb. 3.3-2. Terzschalldruckpegel L’St in dB von 200 Einsilbern (links) und Sätzen (rechts) (Bezug: normale Sprechweise LSA,1m ū 60 dB); mit 7 und 6 Sprechern (männliche, weibliche, Muttersprachler, Zweitsprachler (m, w, M, Z); sechs untrainierte und ein trainierter (CD)) (ft Mittenfrequenzen der Terzen)
Will man den unbewerteten Schallpegel der Sprache (LS) in den heute üblichen A–bewerteten Schalldruckpegel (LSA) umrechnen, muss die Höhe des Schallpegelwertes, d.h. die Sprechweise berücksichtigt werden. Pearsons et al. (1977) haben den Sprechpegel von 100 Personen gemessen und die Differenzen DLS = LS - LSA berechnet (Abb. 3.3-3). Für die drei Frequenzbewertungen (A, B, C) gilt bei normaler Sprechweise (Gl. 3.3-1): LSA LS 3 dB , LSB LS 1 dB , LSC LS .
(3.3-1)
Die Frequenzanalyse der Hüllkurve eines Sprachsignals im Frequenzbereich unterhalb 50 Hz ist in Abbildung 3.1-3 dargestellt. Die Größe mij gibt die Höhe des Anteils der Sprachintensität in dem jeweiligen Frequenzband an (Abschn. 3.1).
54
3 Akustische Eigenschaften gesprochener Sprache
Abb. 3.3-3. Differenz DL zwischen dem unbewerteten (LS | LSC) und dem A– bewerteten Sprechpegel (LSA), DL = LS - LSA, der mit unterschiedlicher Sprechweise (entspannt, normal, angehoben, laut, schreien) gesprochen wird (nach Pearsons et al. 1977)
Die Frequenzcharakteristik der Sprache wird vor allem durch die einzelnen Sprachlaute (Phoneme) bestimmt. Der Frequenzverlauf ist gravierend unterschiedlich, je nachdem, ob ein Vokal oder Konsonant vorliegt. Vokale sind durch mehrere fest umrissene Frequenzgebiete, die Formanten, gekennzeichnet. Dies zeigt auch die unterschiedliche Energieverteilung für fünf Phonemgruppen (s. Abb. 3.3-4) (Steeneken u. Velden 1989, Steeneken u. Houtgast 2002a). Die mittleren Pegel der Phonemgruppen der männlichen und weiblichen Sprecher (je 10) sind etwa gleich. M H
F V
E m
50 Lokt/dB 40
30
20
10 1
2 0,25
3
14
5 f/kHz
46
Abb. 3.3-4. Oktavspektrum (LOkt) für Frikative (F), Explosive (E) (Plosive), Halbvokale (H), Vokale (V) und dem Mittelewert (M) für männliche (m) Sprecher; die mittleren Pegel für je 10 männliche Sprecher sind: LSAeq(m) (F, E, H, V, M) = (35, 34, 40.5, 43.5, 41) dB (nach Houtgast u. Steeneken 2002a)
3.3 Frequenzspektrum gesprochener Sprache
55
Unabhängig von der gewählten Grundfrequenz (Tonhöhe) des Sprechers oder Sängers bleiben die Frequenzbereiche der Formanten für die einzelnen Vokale erhalten und dadurch unterscheidbar. In Abbildung 3.3-5 sind die Formantfrequenzen von einzelnen Vokalen wiedergegeben. Das Frequenzspektrum von Konsonanten fällt unregelmäßig aus und umfasst einen breiten Frequenzbereich (Abb. 3.3-4; Kap. 5).
Abb. 3.3-5. Charakteristische Frequenzgebiete der 1./2./3./ Formanten von Vokalen von Männern (m), Frauen (w) und Kindern (k) (nach Petersen u. Barney 1952)
Welchem Ausmaß der Veränderungen das Spektrum der Sprache unterliegt, zeigt eindrucksvoll die Abbildung 3.3-6.
Abb. 3.3-6. Relativer Schallpegel (L’) für die Frequenzanalyse von „ou“ aus dem Wort „out“, wiederholte Male gesprochen (nach Steinberg 1934)
56
3 Akustische Eigenschaften gesprochener Sprache
Die dargestellten Schallpegel der Frequenzanteile des Doppellautes „ou“ aus dem Wort „out“ zeigen, in welcher Weise sich Veränderungen beim Wiederholen des Wortes durch ein und denselben Sprecher einstellen (Steinberg 1934), obwohl der Doppellaut immer klar erkennbar bleibt.
3.4 Räumliche Verteilung der Sprechpegel 1 m–Pegel, Schallleistungspegel, Richtcharakteristik eines Sprechers
Entfernt man sich vom Sprecher, so wird der Sprechpegel geringer. In der Nähe einer Schallquelle kann man in der Regel ein freies Schallfeld voraussetzen, in dem sich der Schall, angeregt von einer Punktquelle (Mund), als Kugelwelle ungestört ausbreiten kann. Die akustische Rückwirkung des Raumes beginnt erst bei größeren Entfernungen (> 2 m). Insofern nimmt der Schallpegel in der Nähe des Sprechers (2 m vom Sprechermund) um 5–6 dB pro Abstandsverdoppelung (dB/AV) ab (z.B. bei normaler Sprechweise 0.5 m: 66 dB; 1 m: 60 dB; 2 m: 54 dB). Der Schallpegel der gesprochenen Sprache eines Sprechers ist vor dem Mund des Sprechers (in der Regel in Richtung des Hörers) höher als seitlich oder hinter ihm. Diese Richtcharakteristik gibt es sowohl in horizontaler als auch in vertikaler Richtung.
Abb. 3.4-1. Schallpegel des Sprechers (LS) gemessen an 8 Punkten um den Kopf des Sprechers auf 4 verschiedenen Radien (r = 15, 30, 60, 100 cm) (nach Fletcher 1953)
3.4 Räumliche Verteilung der Sprechpegel
57
Der unbewertete Schallpegel, der in verschiedenen Abständen um den Sprecher herum gemessen wurde (Fletcher 1953), ist in Abbildung 3.4-1 angegeben. Der Sprechpegel direkt am Ohr ist um 11 dB höher, der rückwärtige Schallpegel um 4 dB (bei 1 m) niedriger als der Sprechpegel 1 m vor dem Mund. Die Richtcharakteristik wird hier als Schallpegel über der Frequenz für 7 horizontale Winkel angegeben (McKendree 1986; Abb. 3.4-2). Die Messung wurde in 1 m Abstand vom Kopf (Zentrum) für 17 männliche und 13 weibliche Sprecher (20–60 Jahre) vorgenommen, die einen Text vorlasen. 70
60 0°
L'Okt/dB 50
30° 60° 90°
40
120° 150° 180°
30
LW
20 0,125 1
0,25 2
0,5 3
52
1 4
64
fm /kHz
70
0° 30°
60
60°
L'Okt/dB
90° 120°
50
150° 180°
40
LW
30
20 0,125 1
0,25 2
0,5 3
2 5
41
64
fm /kHz
Abb. 3.4-2. Oktavschallpegel (L´Okt in dB) von männlichen (oben) und weiblichen (unten) Sprechern, Mikrofon in 1 m Abstand für die Schallleistung (LW) und den Schalldruckpegel an 7 horizontalen Winkeln (0°, 30° bis 180°). Die Oktavschallpegel wurden so bezogen, dass der Schalleistungspegel LSWA = 60 dB ist. die gemessenen Schallleistungspegel liegen bei 64.9 und 63.9 dB; oben: L'Okt = LOkt 4.9 dB, LSWA = 64.9 dB; unten: L'Okt = LOkt - 3.9 dB, LSWA = 63.9 dB.
58
3 Akustische Eigenschaften gesprochener Sprache
Festzuhalten ist: der Schalldruckpegel liegt – direkt in der Sichtachse – für männliche und weibliche Sprecher bei LSA,1m = 58.3 und 56.5 dB; der Schallleistungspegel bei LSWA = 64.9 und 63.9 dB. Die Differenz zwischen dem Schallleistungspegel (LSWA) und dem Sprechpegel (LSA,1m) liegt bei etwa 6 bis 8 dB. In DIN 18041 ist ein Schallleistungspegel von LSWA = 68 dB bei normaler Sprechweise angegeben (LSA,1m = 60 dB).
3.5 Sprechgeschwindigkeit und –pausen Neben der Lautstärke (Schallpegel) sind die Sprechgeschwindigkeit und Dauer der Sprachlaute charakteristische Merkmale der Sprache. Die Sprechdauer deutlich und isoliert gesprochener englischer Einsilber liegt bei T = 0.5–0.7 s; die Vokale und die Konsonanten zu Beginn und zum Abschluss dieser Einsilber haben eine Sprechdauer von T = 0.2–0.4 s, T = 0.1 s und T = 0.15 – 0.25 s (Miller u. Licklider 1950). Im Satz wird ein Einsilber etwa doppelt so schnell (0.25 s) gesprochen wie ein isolierter Einsilber (Lazarus–Mainka et al. 1981). Wird ein englischer Text, bestehend aus überwiegend einsilbigen Wörtern (Verhältnis der Vokale und Konsonanten 37 %/63 %), vorgelesen, beträgt die Sprechdauer der Vokale 60–180 ms, die der Konsonanten 50–120 ms (Crystal u. House 1982). Dabei werden die kurzen Vokale (62–73 ms) nur fast halb so lang gesprochen wie lange Vokale (115–140 ms). Die stimmhaften und stimmlosen Konsonanten unterscheiden sich nicht wesentlich in ihrer Dauer (sth/stl): Explosive (50–57/48–57) und Affrikate (45–65/42–39). Die Sprechgeschwindigkeit beim Vorlesen beträgt etwa 200 (175–250) Silben pro Minute, wobei die Pausen (ca. 20 % der Gesamtlesezeit) mit einbezogen sind. Ohne Pausen liegt die Anzahl bei 230 bis 300 Silben pro Minute. Dies gilt auch für das Vorlesen eines deutschen Textes (Hörmann et al. 1981). Nach Licklider u. Miller (1951) werden im Gespräch etwa 130 Wörter pro Minute gesprochen, wobei Pausen und mehrsilbige Wörter einbezogen sind. Mit dem Anstieg des Sprechpegels verändert sich in der Regel auch die Sprechgeschwindigkeit (Abschn. 5.5). Bei hohen Sprechpegeln (Sprechweise „schreien“) werden z.B. ein Text um 25 % und Einsilber fast um 50 % langsamer gesprochen als bei niedrigen Sprechpegeln (Hörmann et al. 1981). Obwohl die Sprechgeschwindigkeit phonetisch irrelevant ist, wirkt sie sich auf das Sprachverständnis aus. Sommers (1997) konnte zeigen, dass Einsilber schlechter verstanden werden, wenn sie mit unterschiedlichen Sprechgeschwindigkeiten dargeboten werden, als wenn die Sprechge-
3.5 Sprechgeschwindigkeit und –pausen
59
schwindigkeit konstant bleibt. Außerdem war die Verstehensleistung bei schneller Sprechweise signifikant geringer als bei mittlerer oder langsamer Sprechgeschwindigkeit. Altersschwerhörigkeit verstärkt diesen Effekt noch, Alter allein jedoch nicht. Die Pausen beim Sprechen (Telefonieren), d.h. Zeiten, in denen der Sprechpegel praktisch verschwindet (z.B. LSF < LSeq - 20 dB), weisen eine Größenordnung von 0.1–3 s auf, wobei der 50 %–Wert der Häufigkeitssummenverteilung der Sprechpausendauer interindividuelle Schwankungen zwischen 0.3–1.5 s aufweist (Bordone–Sacerdote u. Sacerdote 1976). Wird ein Text über 4 Minuten gelesen, so erhält man einen 50 %–Wert der gesamten Sprechpausendauer von 80 s, d.h. die Pausenzeit beträgt etwa 30 % der gesamten Sprechzeit. Die Sprechgeschwindigkeit kann stark variieren und ist abhängig von Sprecher, Sprechweise, Situation, Material und emotionaler Lage des Sprechers. Lange Zeit wurde angenommen, dass Veränderungen der Sprechgeschwindigkeit vor allem durch Anzahl und Dauer von Sprechpausen beeinflusst werden (Pausengeschwindigkeit), während die Dauer der einzelnen Laute und die Anzahl von Silben pro Zeiteinheit (Artikulationsgeschwindigkeit) mehr oder weniger konstant bleibt. Miller et al. (1984) konnten jedoch durch die Realanalyse der Protokolle einer älteren Studie (Grosjean u. Deschamps 1975) nachweisen, dass auch die Artikulationsgeschwindigkeit erheblich variiert. Berechnet wurde die durchschnittliche Silbendauer in einem ununterbrochenen Sprechabschnitt zwischen zwei Pausen, wobei als Pause Stille von mindestens 250 ms Dauer definiert wurde. Gemittelt über 30 Sprecher in unterschiedlichen Konversationssituationen ergab sich eine Differenz der Silbendauer von 323 ms zwischen höchster und niedrigster Sprechgeschwindigkeit (Silben pro s); dabei betrug die durchschnittliche Silbendauer 126 bis 450 ms. Auch Lazarus– Mainka et al. (1981) konnten nachweisen, dass beim Sprechen während eines Umgebungsgeräusches die Sprechgeschwindigkeit reduziert wird und die Silben gedehnter gesprochen werden. In ihrer Studie zeigte sich hingegen keine Auswirkung des Umgebungs– oder Sprechpegels auf die Pausendauer. Offenbar variieren bei einer Veränderung der Sprechgeschwindigkeit sowohl die Pausengeschwindigkeit als auch die Artikulationsgeschwindigkeit erheblich.
4 Linguistische Eigenschaften der Sprache
4.1 Beschreibung der Sprachlaute durch die Phonetik Die Phonetik befasst sich mit der Erforschung gesprochener Sprache, also mit der Analyse und Beschreibung des Sprechergebnisses selbst: der Produktion der Sprache, den Übermittlungsträgern der sprachlichen Information und dem Wahrnehmen der übermittelten Schallereignisse. Diesen Forschungsschwerpunkten entsprechend ist die Phonetik in drei Teilgebiete aufgegliedert: in die artikulatorische (Produktion von Sprache), in die akustische (Übermittlung von Sprache) und in die perzeptive (Wahrnehmung von Sprache) Phonetik. 4.1.1 Artikulatorische Phonetik Sprachproduktion, Stimme, Vokaltrakt, Formant, Artikulation Die artikulatorische Phonetik befasst sich mit den Grundlagen der Sprachproduktion, wobei aus funktionaler Perspektive die Funktionskreise der Atmung (Initiator), der Phonation (Generator) und der Artikulation (Modifikator) – Sprechbewegungen im engeren Sinne – gemeint sind. Die Atmung liefert den Luftdruck und die Strömungsgeschwindigkeit, die für den Rohschall notwendig sind. Der Rohschall wird mittels des Kehlkopfes und der Stimmritzen produziert und durch die eigentlichen Sprechbewegungen modifiziert und geformt (Pompino–Marschall 2003). Der gleichmäßige Luftstrom aus der Lunge wird durch das schnelle Öffnen und Schließen der Stimmritze (Glottis) zwischen den Stimmlippen zerhackt und in Luftstöße umgewandelt. Diese gleichförmig bewegten Luftstöße (Schall) schwingen mit der Grundfrequenz der Stimme (100–200 Hz) und enthalten gleichzeitig die entsprechenden Oberwellen. Sie treffen auf einen Resonanzraum, den Vokaltrakt, bestehend aus dem Rachenraum und der Mundhöhle mit Zunge und Lippen. Bei der Artikulation werden durch schnelle Bewegungen von Teilen dieses Vokaltraktes (Zunge, Gaumen, Lippen) die einzelnen Phoneme und Silben innerhalb von Millisekunden gebildet (s. Abschn. 3.3, 3.5). Damit wird aus den Schallstößen (Schallschwingungen mit einer Grundfrequenz von z.B. 100 Hz und gleichmäßig
62
4 Linguistische Eigenschaften der Sprache
abfallender Amplitude bei den Oberwellen (200, 300, 400 etc. Hz)) durch die Artikulation mit Hilfe des Vokaltraktes die lautliche Realisierung der Sprache gebildet. Bei der Bildung der Vokale wird der Vokaltrakt auf maximale Resonanz eingestellt, d.h. die Stimme erhält für jeden Vokal (a, e, i, o, u) eine besondere Klangcharakteristik. Diese Resonanzen des Vokaltraktes nennt man Formanten (s.a. Abb. 3.3-5): Formant Frequenzbereich in kHz vor allem beeinflusst durch 1 0.25 – 1.0 Mundöffnung 2 0.60 – 2.5 Zungengrund 3 1.70 – 3.5 Zungenspitze 4 2.70 – 3.7 Kehlkopf
Der Vorgang der Artikulation, d.h. das Aussprechen von Sprachlauten, ist Ausgangspunkt für die Lautanalyse der artikulatorischen Phonetik und damit der artikulatorischen Merkmale. Laute werden hier nach den Bedingungen ihres Entstehens, der Artikulationsstelle (Artikulationsort) und der Artikulationsart beschrieben. An der Artikulationsstelle wird ein Sprachlaut in der Mundhöhle oder im Rachen gebildet. Z.B. wird der Sprachlaut [b] mit beiden Lippen gebildet; er wird bilabial genannt. In Tabelle 4.1.1-1 sind die relevanten Artikulationsorte für die in Frage kommenden Sprachlaute aufgelistet. Tab. 4.1.1-1. Beschreibung der Artikulationsorte Artikulationsort Unterlippe/Oberlippe Unterlippe/obere Schneidezähne Zungenspitze/obere Schneidezähne Zunge/Gaumenrand Zunge/harter Gaumen Zunge/Gaumensegel Zunge/Halszäpfchen Stimmritze im Kehlkopf
Benennung bilabial labiodental dental alveolar palatal velar uvular glottal
Beispiellaut [b] [f] [t] [r] [ç], [j] [k] [R] [h]
Beispielwort Baum Viel Tausend Rot Ich, Jahr Katze Rose Haus
Die Artikulationsart beschreibt die Art und Weise, in der ein Sprachlaut produziert wird, d.h. es werden die Sprechorgane (Stimmritze, Ansatzrohr, Kehlkopf, Stimmbänder) beschrieben, die bei der Bildung der Sprachlaute (Verschlusslaut, Nasallaut,...) beteiligt sind (Martinet 1963). Wenn z.B. die Mund– oder Rachenhöhle an einer Stelle ruckartig verschlossen oder geöffnet wird, kommt es zur Bildung eines Verschlusslauts bzw. Explosivlauts. Tabelle 4.1.1-2 enthält die Artikulationsarten, die für deutsche Sprachlaute relevant sind. Tabelle 4.1.1-3 gibt die Beschreibung der Konsonanten nach der Artikulationsstelle (den artikulatorischen Merkmalen) wieder.
4.1 Beschreibung der Sprachlaute durch die Phonetik
63
Tabelle 4.1.1-2. Beschreibung der Artikulationsart (K = ng; ? = Kehlkopflaut) Artikulationsart Laute, die durch die plötzliche Öffnung eines Verschlusses entstehen Verschlusslaut mit folgendem Reibelaut Reibelaut Laut, bei dem die Luft nicht durch die Mitte, sondern auf einer oder auf beiden Seiten des Mundes entweicht durch die Nase gesprochen Laut mit wechselndem Luftstrom Halbvokale (semi vocal)
Benennung Laut Verschluss– stimmhaft oder Explosiv- stimmlos laut Affrikate Spirante oder Frikative Lateral
Beispiellaute (b, d, g) (p, t, k, ?) ( fˆ , sˆ )
stimmhaft (v, z, j) stimmlos (f, s, x, h, )ç (l)
Nasal Intermittierende (gerollt) Halbvokal
(m, n, K) (r) (w, l, r)
Tabelle 4.1.1-3. Phonetisches Schema der Konsonanten (nach Werner u. Hundsnurscher 1971, S. 48; sth. = stimmhaft; stl. = stimmlos)
Verschlusslaut
sth. stl.
B P
Artikulationsart
Affrikaten Spiranten Nasale Laterale Intermittierende
sth. stl. m
D T
G K
p
sˆ
V F
Z j S š, ç X N K L R
glottal
uvular
velar
palatal
dental alveolar
labiodental
bilabial
Artikulationsort
?
h
R
Ein Verschlusslaut kann noch stimmhaft, z.B. b[ ,] oder stimmlos, z.B. [p]sein. Stimmhaft sind solche Kons onanten, bei denen die Stimmlippen an der Lauterzeugung beteiligt sind. Ein b wäre z.B. durch die Artikulationsart: Verschlusslaut, stimmhaft und durch die Angabe des Artikulationsortes: bilabial in Bezug zu allen anderen Lauten der deutschen Sprache ausreichend, weil unverwechselbar, beschrieben.
64
4 Linguistische Eigenschaften der Sprache
Vokale werden im Wesentlichen durch die Stellung der Lippen und der Zunge bestimmt. So kennzeichnet die Kombination von Zungenstellung (vordere, zentral, hintere) und die Stellung der Lippen (geschlossen bis offen sowie gerundet) alle Vokale des deutschen Sprachsystems. Zungen– und Lippenstellung sind bei den Diphtongen, den Doppellauten (ae, au etc.) variabel, d.h. beides ändert sich während der Artikulation. Weiterhin wird auch ein neutraler Vokal (schwa) genannt (Neppert 1999). Tabelle 4.1.1-4 enthält das Phonetische Schema der Vokale (Martinet 1963; Meyer–Eppler 1969). Tabelle 4.1.1-4. Phonetisches Schema von Vokalen (artikulatorische Merkmale) Lippenstellung
Zungenstellung vordere zentrale geschlossen [i:] sie [i] bin halbgeschlossen [e:] See halb offen [H] Herz [w ] hatte [oe] Hölle* offen [a] flach *mit gerundeten Lippen gesprochen
hintere [u:] Kuh* [o:]Mohn* [ ŵ] dort*
Im Rahmen der systematischen Phonetik werden die konkreten Sprechakte innerhalb der verschiedenen Sprachgemeinschaften analysiert. Dabei werden auf der Basis der auditiven Analyse die elementaren Einheiten (phone) ermittelt, die den phonetischen Bestand einer Sprache konstituieren. Auf der Basis dieser artikulatorischen Klassifizierung wurden die in den Tabellen 4.1.1-3 und -4 dargestellten Beschreibungen weiterentwickelt und sind in die Systematik des Internationalen Phonetischen Alphabets (IPA) überführt worden. Das IPA ist vor allem aus pragmatischen Gründen entwickelt worden, um ein Werkzeug zur Hand zu haben, das potenziell die Laute aller möglichen Sprachen beschreiben kann. Dabei werden Konsonanten durch den Artikulationsmodus (pulmonal, nicht–pulmonal), das artikulierende Organ (labial, laminal etc.) sowie die Artikulationsstelle (dental, palatal etc.) beschrieben, die Vokale durch Zungenlage und –höhe sowie durch die Lippenrundung (zur weiteren detaillierten Beschreibung siehe Pompino–Marschall 2003). Abbildung 4.1.1-1 stellt das Zeicheninventar für Vokale und Tabelle 4.1.1-5 für pulmonale Konsonanten nach IPA dar.
4.1 Beschreibung der Sprachlaute durch die Phonetik
65
Abb. 4.1.1-1. Darstellung der Vokale nach IPA (bei paarweisen Symbolen kennzeichnet das rechte den gerundeten Vokal; nach Pompino–Marschall 2003)
Tabelle 4.1.1-5. Darstellung der pulmonalen Konsonanten nach IPA (bei paarweisen Symbolen kennzeichnet das rechte den gerundeten Vokal, schattierte Flächen kennzeichnen unmögliche Artikulationen; nach Pompino–Marschall 2003)
4.1.2 Akustische Phonetik In der akustischen Phonetik werden Sprachlaute nach ihren physikalischen Eigenschaften beschrieben. Hier sind die Parameter von Bedeutung, die den Schall generell kennzeichnen: Dauer, Frequenz und Intensität. Um
66
4 Linguistische Eigenschaften der Sprache
diese Parameter ermitteln zu können, ist eine umfangreiche Messapparatur erforderlich. Die akustische Phonetik ist deshalb wesentlich jünger als die artikulatorische. Die akustische Analyse der Laute erfolgt auf der Grundlage des von Potter et al. (1966) entwickelten Visible–Speech–Verfahrens. Die Dauer, Frequenz und Intensität bestimmter Sprachlaute wird mit Hilfe eines Sonographen analysiert und auf einem laufenden Papierstreifen bzw. digital sichtbar gemacht. Bei dem so entstehenden Sonogramm lässt sich die Zeit in Sekunden auf der Abszisse ablesen, die Frequenz in kHz ist auf der Ordinate abgetragen und die Intensität lässt sich aus dem Schwärzungsgrad der Aufzeichnung absehen. Die Intensität als die Amplitude der gesamten Schallschwingungen kann zudem über der Zeit abgebildet werden. Diese Aufzeichnung ist eine wichtige Grundlage für die Klassifikation der Laute nach akustischen Merkmalen. Als Beispiel für die Sichtbarmachung der Sprache ist in der Abbildung 4.1.2-1 das Sonogramm des Satzes „Wissen kann man sich nicht erkaufen“ dargestellt.
Abb. 4.1.2-1. Sonogramm (Frequenz–Intensität–Zeit–Diagramm) des Satzes „Wissen kann man sich nicht erkaufen.“ (nach Werner u. Hundsnurscher 1971)
Während beim Vokal die Zeitstruktur noch keine wesentliche Rolle spielt, tritt sie bei der Charakterisierung des Konsonanten in den Mittelpunkt der Analyse. Konsonanten können durch den plötzlichen Wechsel in der Frequenzstruktur gekennzeichnet werden, die durch Veränderungen des Stimmapparates bedingt sind. Hier sei auf die Einteilung der Merkmale verwiesen, die die artikulatorische Phonetik vornimmt, wie Verschlusslaute, Explosivlaute etc., die oben erläutert wurden. Veränderungen der Artikulation haben selbstverständlich eine Veränderung des Frequenzbandes, der Intensität und der Zeitstruktur zur Folge. So weist der Konsonant [k]
4.2 Beschreibung der kleinsten Sprachelemente durch die Phonemik
67
im Sonogramm (Abb. 4.1.2-1) eine Intensitätskonzentration auf einem verhältnismäßig schmalen Zeitabschnitt auf, während der Laut [m] sich auf einem wesentlich breiteren Zeitabschnitt darstellt. Vokale werden im Sonogramm durch begrenzte waagerechte Balken, d.h. durch Intensitätskonzentrationen auf bestimmten Frequenzbändern abgebildet, die man als Formanten bezeichnet, z.B. beim [a]. Der Laut [r] u.a. zeigt im Sonogramm eine den Vokalen ähnliche Formantenstruktur; deswegen wird dieser auch „Halbvokal“ (semi vowel) genannt. 4.1.3 Perzeptive Phonetik Die perzeptive Phonetik, die die Analyse sprachlicher Zeichen durch den akustischen Analysator (Ohr, Hörbahn, Kortex) untersucht, hat kein eigenes Merkmalsystem entwickelt. Wie schon aus der Aufzählung der Parameter, die die Formantenstruktur kennzeichnen, hervorgeht, ist im Extremfall kein Laut bei Wiederholung im Sprechprozess dem anderen identisch, sondern nur annähernd ähnlich (Abb. 3.3-6). Daher spricht man von äquivalenter Reproduktion (Pompino–Marschall 2003). Wie kommt es aber, dass das Individuum fähig ist, Sprache, die in ihrer inter– und intraindividuellen Lautproduktion stark variiert, richtig wahrzunehmen und vor allem aber richtig zu identifizieren? Es ist anzunehmen, dass der Mensch die Sprachlaute zwar als physikalische Schallereignisse wahrnimmt, diese aber gleichzeitig oder leicht verzögert nach phonetischen und phonologischen Kriterien analysiert. Der Hörer trifft während der Wahrnehmung fortwährend Entscheidungen, die ihn dazu bringen, bestimmte Unterschiede zwischen den Lauten zu beachten und andere wiederum zu vernachlässigen. Solche Entscheidungen sind jedoch nicht ohne zusätzliche Information denkbar, die das Individuum der Sprachstruktur entnimmt; d.h. die Entscheidungen werden im Hinblick auf den akustischen und sprachlichen Kontext durchgeführt, in dem der einzelne Sprachlaut steht, und hier ist die Beziehung zur Phonologie gegeben.
4.2 Beschreibung der kleinsten Sprachelemente durch die Phonemik Im Gegensatz zur Phonetik, die sozusagen eine materielle Beschreibung der Laute liefert, also die akustischen Merkmale herausstellt, die einen Laut kennzeichnen, lenkt die Phonemik bzw. die Phonologie die Aufmerksamkeit auf solche Merkmale, die die bedeutungsunterscheidende Funktion der Laute in der verbalen Kommunikation begründen; sie leistet also
68
4 Linguistische Eigenschaften der Sprache
eine funktionelle Analyse der Sprachlaute. Ausgangspunkt der phonemischen Analyse ist demnach die kommunikative Funktion der Sprache. Analyseergebnis ist eine Merkmalsklassifikation von Lauten, die daran orientiert ist, welche Funktion die Laute für das Verstehen einer sprachlichen Mitteilung haben. Das folgende Beispiel soll die Problemstellung der Phonemik verdeutlichen. So können in der deutschen Sprache /u/ und /i/ als zwei getrennte Laute bzw. Phoneme angesehen werden, weil sie zwei Wörter „Tusche“ und „Tische“ voneinander unterscheiden. Dagegen wird das /ch/ in „ach“ und „ich“ nicht als verschieden beschrieben: obwohl es recht unterschiedlich gesprochen wird, sind das [ç] und [x] im Deutschen durch keinen bedeutungsunterscheidenden Aspekt gekennzeichnet. Man spricht in diesem Zusammenhang von Allophonen. Allophone sind verschiedene Varianten des gleichen Phonems. Unter Phonemen versteht man Lauteinheiten, die einen bedeutungsbestimmenden Unterschied für das Verstehen von Sprache ausmachen. Phoneme werden nicht durch physikalische Analysen gewonnen, sondern die Kenntnis von der Bedeutung der Sprache bildet die Grundlage für die Ableitung der Phoneme. Sie sind nicht physikalische Signale, sondern Schöpfungen des Sprachbenutzers, die dann aber durch akustische und artikulatorische Parameter beschrieben werden. Die deutsche Sprache wird durch 30 unterschiedliche Phoneme charakterisiert, die den Buchstaben in der Schriftsprache in etwa entsprechen. Durch die Gewinnung der Phoneme ist es der Linguistik gelungen, die große Anzahl akustischer Ereignisse, mit denen man die Sprache beschreiben kann, auf einige Merkmale zu reduzieren. Das Phonem selbst ist nicht mehr segmentierbar. Die Analyse eines Phonems im Hinblick auf die für die Bedeutungsunterscheidung relevanten Merkmale führt zu den distinktiven Merkmalen. Als Beispiel für ein distinktives Merkmal ist der Wechsel von stimmhaft zu stimmlos genannt, der in gleicher Weise für die Unterscheidung der Phoneme /b/, /d/ und /g/ von den Phonemen /p/, /t/ und /k/ relevant ist. Ein Phonem unterscheidet sich von einem anderen Phonem mindestens durch ein solches distinktives Merkmal. Da die distinktiven Merkmale (Diakritika) als zweiwertig (vorhanden/nicht vorhanden) angenommen werden, kann ein Phonem als Bündel zweiwertiger Urteile beschrieben werden. Die Zuordnung der Merkmale zu den Phonemen, die auch als Komponentenanalyse bezeichnet wird, stützt sich vor allem auf die physikalischen Signaleigenschaften, die auf die akustischen Merkmale entsprechend der Frequenz– und Zeitstruktur des Lautes, aber auch auf die artikulatorischen Merkmale zurückgehen. Eine erste Liste distinktiver Merkmale wurde von Jacobson u. Halle (1956) erarbeitet und von Meyer–Eppler (1969, s. 404 ff) erweitert. Er gibt
4.3 Beschreibung von Sätzen und Satzelementen
69
eine übersichtliche Zusammenstellung sowie eine akustische und genetische (artikulatorische) Beschreibung der distinktiven Merkmale. In neuester Zeit hat Pompino–Marschall (2003) eine Zusammenstellung von Unterscheidungsmerkmalen den sog. Diakritika im Rahmen der systematischen Phonetik erstellt. Interessierte Leser werden auf diese Ausführungen verwiesen.
4.3 Beschreibung von Sätzen und Satzelementen Die kleinste Einheit für die sprachliche Darstellung außersprachlicher Sachverhalte ist der Satz. Wir reden in Sätzen und verstehen Sätze. Ein vollständiger Satz kann unabhängig von der Situation, in der er geäußert wird, und unabhängig von der Person, die ihn äußert, von jedem Mitglied der gleichen Sprachgemeinschaft verstanden werden. Der Satz als kleinste eigenständige „Darstellungseinheit“ (Bühler 1934) bildet Handlungen, Ereignisse und Zustände sprachlich ab, die in der Realität stattfinden bzw. anzutreffen sind. Wörter sind die kleinsten selbständigen Einheiten im Satz. In der gesprochenen Sprache können sie durch Pausen voneinander getrennt werden. Wörter besitzen eine Lautgestalt, die sich durch die jeweils spezifische Lautkette ergibt, und haben einen Inhalt, die Wortbedeutung. Wörter werden im Satz nach zwei übergeordneten Wortklassen eingeteilt, es sind die Inhaltswörter und die Funktionswörter. Zu den Inhaltswörtern zählen die Substantive, die Verben und die Adjektive. Inhaltswörter sind dadurch gekennzeichnet, dass sie eine auf ein außersprachliches Objekt bezogene Zuordnung besitzen, z.B. „Apfel“ – bezeichnet einen Gegenstand, „grün“ – bezeichnet eine Eigenschaft, „essen“ – bezeichnet eine Handlung. Funktionswörter verweisen dagegen auf Beziehungszusammenhänge in der Wirklichkeit, im Satz, im Satzgefüge oder im fortlaufenden Text, z.B. „Er aß den grünen Apfel, der vom Baum fiel.“ „Er“ verweist auf eine zuvor genannte oder bekannte Person, „den“ verweist auf den Fall (Kasus), „der“ verweist auf den vorhergehenden Satzteil, „vom“ verweist auf den Anfangspunkt einer Bewegung in der Realität. Die Grammatik (Syntax) befasst sich mit der Kombination von Wörtern zu Sätzen bzw. mit der Satzstruktur. Der Satz als Darstellungseinheit ist immer zweigliedrig, bestehend aus wenigstens zwei funktionsverschiedenen Gliedern. Nach der generativen Transformationsgrammatik (Chomsky 1957, 1969) besteht die einfachste Satzform des Deutschen aus einem nominalen (substantivischen) und einem verbalen Teil (z.B. „Heini schläft“). Die auf der Transformationsgrammatik aufbauende Kasusgrammatik
70
4 Linguistische Eigenschaften der Sprache
(Fillmore 1968, 1971; Kintsch 1972, 1974) kennzeichnet den einfachsten Satz als Prädikat–Argument–Struktur oder Proposition. Die generative Transformationsgrammatik beschreibt nicht die fertige Satzstruktur, sondern die Ableitungsregeln, die zur Erzeugung (Generierung) des Satzes führen. In Abbildung 4.3-1 werden die Ableitungsschritte in Form eines Stammbaumes verdeutlicht.
Abb. 4.3-1. Strukturbeschreibung des Satzes: „Der Hund jagt die Katze.“ nach der generativen Transformationsgrammatik
Die Kasusgrammatiken betrachten die Prädikat–Argument–Struktur als grundlegendes Muster für den Satzaufbau. Der zweigliedrige Satz wird als Kombination eines Prädikats (Verb oder Adjektiv) mit einem oder mehreren Argumenten beschrieben, die verschiedenen Kasuskategorien angehören müssen. Prädikat und Argument bzw. Argumente werden durch Wörter realisiert, die jeweils spezifischen Wortklassen angehören: Prädikate können Verben und Adjektive sein, Argumente werden meist durch Substantive und Pronomen repräsentiert. Die Einheit von Prädikat und Argument(en) wird auch als Basissatz oder Proposition bezeichnet.
5 Sprechen in realer Umgebung und Hörer– Feedback
5.1 Sprechweise und Artikulation Der Sprecher hat eine Vielzahl von Möglichkeiten, um auf verschiedene Gesprächssituationen zu reagieren und unterschiedlich zu sprechen: er flüstert, spricht normal, schreit, spricht deutlich oder schnell. Er benutzt unterschiedliche Sprechweisen. Dabei reicht die Sprechanstrengung von gering bis hoch, d.h. vom leise Sprechen bis zum Schreien. Die Artikulation kann entspannt, natürlich oder deutlich sein. Teilweise benutzt der Sprecher die Sprechweise willentlich, teilweise auch fast unbewusst, automatisch. Wenn ein Sprecher bei Umgebungsgeräuschen spricht, so spricht er automatisch lauter als in Ruhe. Dies ist ein automatisierter Effekt, der Lombardeffekt (s. Abschn. 5.3) genannt wird. Auch die Rückmeldung des Hörers bleibt nicht ohne Einfluss (Abschn. 5.4, 5.8). Die Parameter des Gespräches und der Umgebung, wie Geräuschspektrum, Raumgröße, Entfernung zum Kommunikationspartner, das Geschlecht oder die Art des gesprochenen Textes, können Einfluss auf die Sprechweise haben. Mit der Sprechweise selbst verändern sich aber auch die Parameter der Sprache (Abschn. 5.5), d.h. die Lautstärke und die Grundfrequenz der Sprache, die Sprechgeschwindigkeit, das Zeitverhältnis von Vokalen und Konsonanten, aber – und das interessiert hier ganz besonders – auch die Sprachverständlichkeit (Abschn. 5.6). Bei der Beschreibung der Sprechweise ist es nicht erforderlich auf den akustischen Teil der Prosodie, d.h. auf die Pegel– und Frequenzveränderungen innerhalb einer Sprechphase eines Satzes, Wortes oder einer Silbe einzugehen. Hier wird der mittlere Schallpegel innerhalb einer Sprechphase als Mittelungspegel (LAeq) angegeben. Ausführungen über die Prosodie können bei Selting (1995) und Pompino–Marschall (2003) nachgelesen werden. So variiert bspw. der Schallpegel über ein Wort innerhalb eines Satzes mit sechs Wörtern bei gleichmäßig gesprochener Sprache um ca. ±5 dB (Sust et al. 2007). Unabhängig von der Satzform nimmt der Schall-
72
5 Sprechen in realer Umgebung und Hörer–Feedback
pegel von den ersten beiden Wörtern um ca. 10 dB bis zum letzten Wort ab. Bei starker Betonung ergeben sich weit höhere Pegelschwankungen (vgl. Abschn. 5.2). Man kann ganz grob drei Ebenen unterscheiden in denen der Sprecher die Sprache formuliert und seine Sprechweise benutzt: x die Bildung und Formulierung der Sprachelemente (Artikulation, s. Kap. 3, 4) (Zeitbereich: Millisekunden; Pegelbereich 30–40 dB; Frequenzbereich: 0.1–10 kHz), x die Bildung der Sprachmelodie (Prosodie), die Betonung von Satzelementen (Zeitbereich: 0.1– 0.5 s; Pegelbereich: 20 dB), x die Sprechanstrengung (s. Kap. 5) (Zeitbereich: 0.5–5 s; Pegelbereich: 50 dB). Die Sprechweise ist durch die Intention (ggf. die Instruktion) oder durch die sich aus der Gesprächssituation ergebende Art und Weise zu sprechen gegeben. Sie wird vor allem durch die Sprechanstrengung und durch die Artikulation charakterisiert. Die Sprechanstrengung ist vorzugsweise durch den Sprechpegel (LSA,1m) gekennzeichnet und ist verbunden mit der Sprechweise leise bis laut sprechen. Die Artikulation äußert sich in der Art und Weise zu sprechen, natürlich oder deutlich.
5.2 Schallpegel leise und laut gesprochener Sprache in ruhiger Umgebung Sprechanstrengung: leise, normal, laut, schreien, A–bewertet; Sprechervariation, Geschlechtsunterschiede In störungsfreier Umgebung spricht der Mensch mit einem Schallpegel, der – gemessen in 1 m Entfernung vom Mund des Sprechers – etwa zwischen LSA,1m = 55 und 65 dB liegt (gemeint ist hier immer der äquivalente Dauerschallpegel über die Sprechzeit einschließlich der natürlichen Sprechpausen). Wird eine längere Unterhaltung oder ein Gespräch in entspannter Atmosphäre in ruhiger Umgebung geführt, so wird in der Regel etwas leiser gesprochen (LSA,1m = 50–60 dB). Spricht die Person dagegen im Kontext von Störgeräuschen oder versucht sie, einem in einiger Entfernung stehenden Gesprächspartner etwas mitzuteilen, so steigt der Pegel der gesprochenen Sprache an. Exkurs: In Tabelle 5.2-1 sind die in der Literatur angegebenen Pegel von Sprache zusammen gestellt, die ohne besonders ausgewiesenes Störgeräusch gesprochen wurde. Der Geräuschpegel der Umgebung wurde hier jedoch näher spezifiziert: und zwar wird zwischen ruhiger Umgebung (LNA < 30 dB) und üblichen Umgebungsgeräuschen (LNA = 40 dB) unterschieden.
5.2 Schallpegel leise und laut gesprochener Sprache in ruhiger Umgebung
73
Da der Schallpegel der Sprache in unterschiedlicher Entfernung (0.03–2 m vom Sprecher) gemessen und mit verschiedenen Frequenzbewertungskurven (A, B, C, Lin.) gewichtet worden ist, sind die Werte aus verschiedenen Arbeiten nicht vergleichbar. Um eine, wenn auch eingeschränkte, Vergleichbarkeit zu erreichen, wurden deshalb diese Werte als Schallpegel in 1 m Entfernung vom Sprechermund angegeben, wobei berücksichtigt wurde, dass der Schallpegel im direkten Schallfeld mit 6 dB pro Abstandsverdopplung (AV) ab– bzw. zunimmt. Dabei wurden die verschiedenen frequenzbewerteten Schallpegel entsprechend der in Abschnitt 3.3 genannten Beziehungen (Abb. 3.3-4) auf den A–bewerteten Schallpegel (LSA) umgerechnet. Liegen Werte aus früheren Untersuchungen vor, in denen statt des Mittelungspegels der Maximalwert des unbewerteten oder C– bewerteten Schallpegels mit der Zeitbewertung Slow oder Fast gemessen und als arithmetischer Mittelwert (CLSCSmax, CLSCFmax) angegeben sind, müssen Umrechnungen wie folgt vorgenommen werden: Der unbewertete oder C–bewertete Mittelungspegel eines Wortes (LSCeq) ist um ca. 3 dB geringer als der Maximalwert bei der Zeitbewertung Fast: LSCeq = LSCFmax -3 dB (Webster u. Klumpp 1962). Der C–bewertete Mittelungspegel eines Satzes (LSCeq) ist um 3 dB geringer als der arithmetische Mittelwert des C–bewerteten Maximalpegels der einzelnen Wörter bei der Zeitbewertung Slow: LSCeq = CLSCSmax -3 dB (Pickett 1956; Kryter 1962a); werden aber die Wörter A–bewertet gemessen, entsprechen sich die Pegelwerte, es ist LSCm = LSASmax (ISO/TR 4870 1991). Schließlich sind in Tabelle 5.2-1 die Mittelungspegel über die Sprechzeit LSAeq,1m angegeben. Weiterhin sind dort die unterschiedlichen Bedingungen vermerkt, die bei der Ermittlung des Schallpegels des Sprechers vorlagen. In der Regel wurde der Sprecher angewiesen, in der vom Versuchsleiter gewünschten Art zu sprechen. Tabelle 5.2-1. Schallpegel gesprochener Sprache unter verschiedenen Gesprächsbedingungen, bei niedrigen Geräuschpegeln und bei (teilweise) vorgegebener Sprechweise (Tab. 5.3-1). Spalte 1: Autoren; Spalte (2): Sprechpegel (LSA,1m) bei der Sprechweise (SW): flüstern (f), leise (le), entspannt (e), normal (n), angehoben (a), laut (l), sehr laut (sl), schreien (sh), maximal (m); Spalte (3): Bezeichnung des Spektrums in Abb. 3.3-1; Spalte (4): Entfernung (r in m) vom Sprecher (S) zum Hörer (H) oder zum Mikrofon (M); Spalte (5): Sprecher (S): Anzahl (N), Geschlecht (G); gesprochenes oder vorgelesenes (vl) Sprachmaterial (SM): Text (T), Sätze (S), Wörter (W), 12 kurze Sätze (kS), Wörter am Satzende (WS), Konversation (Kv); Spalte (6): Frequenzfilter (F) und Frequenzbewertung (FB: A, B, C, Lin (L))) in denen das Spektrum der Sprache gemessen (gem) oder berechnet (ber) wurde; Spalte (7): Bemerkungen zu den Randbedingungen: zum Geräusch (U übliches Umgebungsgeräusch, Ruhe), zur Nachhallzeit (T), zum Raum (R: Studio, reflexionsarmer R, privater und öffentlicher Bereich (B)), zur Gesprächsbedingung: Sprecher (S), Hörer (H), Gehörschutz (GS), der getragen (mit: m) oder nicht getragen (ohne: o) wird; wenn das Spektrum zur Bildung des idealisierten Spektrums herangezogen wurde, ist das vermerkt.
74
5 Sprechen in realer Umgebung und Hörer–Feedback
Autor
Sprechpegel LSAeq,1m in dB bei den Sprechweisen f le e n a l sl sh m Dunn u. White 60 1940 58 Kryter 1946 66 m 63 o French u. Stein62 berg 1947 Rudmose et al. 66 1948 Black 1950 57 59 62 65 Fletcher 1953 60 Benson u. Hirsh 62 1953 59 Beranek 1954 68 Pickett 1956 Richards u. Archbold 1956 Kryter 1962a Webster u. Klumpp 1962 Gardner 1966
32 43
60 61 62 55 63 70
Abb. r in m Sprecher gem. Berechnungen 3..3-1 berech. H M N G SM F FB DWm 0.3 6 m T Okt. - PegelhäufigkeitsDWw 0.3 5 w T Okt. - analyse 2 2 8 - W L S+H tragen GS m 2 2 8 - vl L oder keinen GS o FS 0.05 11 m+ T Okt. L w 1Hz R 0.5 7 m S ½ Okt. 0.3 46 m k L T=.3s, R = 6m3 0.3 46 m S L T=.9s 0.3 46 m L T=.3s, R = 60m3 0.3 46 m L T=.9s T - - L s. Abb. 5.2-1 BHm 1 5 m T Okt. - Studio BHw 1 5 m T Okt. B 1 - m - 1Hz - idealisiertes Spektrum 77 90 99 1 5 m WS - L S-Pegel soll konstant geh. werden RA 0.34 - - - 1Hz K -
49 53 57 62 56 58 63 66 Webster 1969 43 52 61 70 87 Tarnoczy 1971 53 65 73 Tm 53 63 71 Tw Kryter 1972 40 52 62 75 86 ISO/TR 4870 62 ISO 1991 52 Pearsons 52 58 89 et al. 1977 50 55 82 53 58 82 Waltzmann u. 53 Levitt 1978 Heusden 50 HP et al. 1979 52 Houtgast 1980 50 56 62 59 65 71 Rostolland 62 93 1982a, b 60 82 Steeneken u. 41 Houtgast 2002a 41 -
-
1 0.03 3
1 3.5 1 3.5 1 3.5 1 3.5 0.52.5 1 1 -
1 1 1 1 1
8 m 8 m 8 m 8 m 8 m 8 m 1 8 m 1 8 m 0.3 - 0.3 14 m 0.3 14 w 1 - 1 - m 1 - m 1 m 1 100 w 1 k 0.15 1 w
- Terz W ½ C Okt. Kv B B B B S B vl B B B 1S Okt. T 1Hz A T 1Hz - L S 1Hz A S 1S Terz A 1S Terz A 1S Terz A W L
1 1 1 1 0.2 0.2 -
Kv. A Kv. A Kv A Kv A W Okt. C W Okt. C S Okt. A S Okt. A
5 5 6 6 10 10
-
w w m w
idealisiert. Spektr. 1-5 S-H-Paare sprech. gleichztig. refl-armer R Büro LA = 34 dB refl-armer R Büro LA = 34 dB SW vorgegeben Studio
U, ideal. Spektr. Ruhe SW vorgegeben, refl-armer R, s. Abb. 5.5.1-1 refl-arm R refl-arm R T>3s, LA 55 dB der Sprechpegel pro 1 dB Störgeräusch um c = 0.6 dB/dB an. Hervorzuheben sind die drei Felduntersuchungen (Pearsons et al. 1977; Heusden et al. 1979; Guski et al. 1988), in denen während realer Gesprächsituationen (beim Einkaufen, in der Straßenbahn, in der Wohnung und im Betrieb) der Sprechpegel gemessen wurde. Da Labor– und Feldstudien zu ähnlichen Ergebnissen kommen, ist die gute Datenbasis (Abb. 5.3-1) und die Anwendbarkeit dieser für die Praxis hervorzuheben. Somit wird ein Durchschnittswert (aus Abb. 5.3-1) des Sprechpegelanstiegs von c = 0.5 bis 0.6 dB pro 1 dB Geräuschpegelanstieg angenommen. Um den Lombardeffekt auch im Betrieb zu untersuchen, führten Guski u. Wühler (1989) Messungen der Sprache von Ausbildern in Lehrwerkstätten der Metallverarbeitung durch. Durch Hämmergeräusche und Schleifmaschinen entstehen hier Geräuschpegel bis zu 85 dB, vereinzelt sogar bis 98 dB. Die Kommunikation zwischen Ausbilder und Auszubildenden ist trotz der starken Geräuschbelastung notwendig. Der Ausbilder ist sehr bemüht, verstanden zu werden. Analysen der Sprachaufnahmen zeigten, dass der Ausbilder seine Stimme um etwa 0.65 dB anhebt, wenn der Geräuschpegel um 1 dB steigt. Bei Geräuschen von LNA,10s > 85 dB scheint der Geräuschpegel allein den Sprachpegel zu bestimmen.
Tabelle 5.3-1. Sprechen bei Umgebungsgeräuschen (s. Abb. 5.3-1). Spalte (1): Autoren; Spalte (2): Hinweis auf Abbildungen: (a) Abb. 5.3-1 (ohne Gehörschutz), (b) Abb. 8.4.5-4 (ohne/mit Gehörschutz); Spalte (3): Sprachmaterial (SM) (W: Wörter; E: Einsilber; S: Sätze; Bg: Bildergeschichte; ZS: Zweisilber, Z: Zahlworte; Kv: Konversation; KS: Kommandosprache; T: Text; l: lesen; sl: schnell lesen; Spr. Asb.: natürliche Sprache der Ausbilder; Bst: Buchstaben; Spalte (4): Entfernung Sprecher–Hörer/Mikrofon (H/M); Spalte (5): Geräusche (G: Geräusche; MG: Maschinengeräusch; SG: Sprechgeräusch; BG: Betriebsgeräusch; UG: Umgebungsgeräusch; WR: Weißes Rauschen; RR: Rosa Rauschen; BbR: Breitbandrauschen; tf BG: tieffrequentes Betriebsgeräusch) abgestrahlt über Kopfhörer (KH) oder Lautsprecher (LS); Spalte (6, 7): Anstieg des Sprechpegels pro 1 dB Geräuschpegelanstieg (c in dB/dB); erhobene Originaldaten; Spalte (8): Erläuterungen (GP: Gesprächspartner, R: Raum, angen.: angenommen)
82 1 Autor
5 Sprechen in realer Umgebung und Hörer–Feedback 2 Abb.
a Kryter 1946 Korn Ko 1954 Dreher & O’Neill 1957 Pickett P 1958 Webster W1 u. Klumpp 1962 Gardner G 1964 Martin et al. 1976 Pearsons PB et al. 1977 Waltzman u. WL Levitt 1978 Heusden H1 et al. 1979 H2 Hörmann et al. 1981 Lazarus–Main- LM ka u. Leushacke 1985 Türk u. Körpert 1987 Guski et al. GS 1988 Summers et al. 1988 Junqua 1993 Nakladal u. Listner 1997 Köster 2002
3 SM b K
W, l
4 Entf. H/M Spr. in m H 2.0
Kv
H
ZS (1) M S (2) S H E H (PB), sl Kv H
8 Sprechsituation, Geräusch (LNA), Nachhallzeit (T) Raum, T=1.6 s, Gehörschutz: mit, ohne LSA = 60 dB (in Ruhe) angenommen 15 Spr., Geräusch: LNC = Ruhe, 70, 80, 90, 100 dB reflexionsarmer Raum
W, S H Kv Bg
Studio, T= 0.25 s, 1–5 GP sitzen am Tisch (1.10m breit) 1.5– tf BG 0.36 - / NC GP sitzen am Tisch, LSA 3.0 (LS) = 60 dB (in Ruhe) angen. 2.8 BG 0.5 - /LA (LS) 0.4– UG 0.6 LA/LA Komm. unter alltägl. 2 Bed. (Tab. 5.2-1) 0.5– WR L/LSil reflexionsarmer Raum 2.5 (LS) 1.0 1: SG 0.3 LA/LA reflexionsarmer Raum 1.0 2: UG 0.5 alltägl. Bed. in 6 R 1.5 RR ~ 0.5 LA/LA reflexionsarmer Raum, (LS) Gehörschutz: mit, ohne 1.5 RR 0.55 LA/LA reflexionsarmer Raum
E
H
2.0
Spr. H Asb. Z, W M
0.5
M E
H
5 6 7 Geräu- Anst. Orig.– sche LS/LN daten dB/dBLS/LN tf BG 0.3 L/L (LS) 1.0– SG 0.4 - /L 1.5 (KH) BbR 0.1 LC/LC (LS) 2.5– 3 Ge 0.4 L/L 5 (LS) 1.1 WR ~ 0.6 LC/LC (LS)
H
Kv
H
E
H
Kv
H
0.1
W, Bst KS
M
-
H
3.0
T
M
0.5
6 BG (LS) BG
0.6
LA/LA 6 Spr–H–Paare; Instruk.: max SV, LNA=50–80 dB 0.65 LA/LA Felduntersuchung im Betrieb (55–98 dB) WR L/L 2 Sprecher, LN = (KH) Ruhe, 80, 90, 100 dB WR (0.3) L/L 10 Sprecher, LN = (KH) Ruhe (35), 85 dB 10 BG 0.1 LA/LA LN = 85–96 dB (LS) SG -/LA 6 Sprecher in Ruhe, (KH) deutlich, LN = 80 dB
Individuelle und situative Parameter, die bei geringeren Geräuschpegeln (LNA,10s < 70 dB) noch Einfluss auf die Sprechstimme nehmen, scheinen dann keine Rolle mehr zu spielen. Außerdem konnte eine signifikante Abnahme der Pegeldynamik des Sprechens bei zunehmendem Geräuschpegel festgestellt werden: sehr lautes Sprechen lässt die Sprache monotoner werden. Einer der drei untersuchten Ausbilder sprach bei hohem Geräuschpe-
5.3 Schallpegel gesprochener Sprache bei Umgebungsgeräuschen
83
gel auch signifikant langsamer. Möglicherweise wird diese Strategie von ihm bewusst eingesetzt, um die Verständlichkeit seiner Sprache zu erhöhen. H1
H2
W1
Ko
WL
G
PB
P
GS
LM
110 100 LSA,1m/dB 90 80 70 60 50 40 20
30
40
50
60
70
80
90
100 110 LNA/dB
120
Abb. 5.3-1. Schallpegel gesprochener Sprache (LSA,1m) bei 1m Abstand vom Sprechermund bei Umgebungsgeräuschen unterschiedlichen Pegels (LNA) in einer Gesprächssituation mit Sprecher und Hörer (s. Tab. 5.3-1, Spalte 4, links: H), gemessen von verschiedenen Autoren (Abkürzungen s. Tab. 5.3-1, Spalte 2a).
Es fällt auf, dass in Gesprächsituationen (Sprecher und Hörer; Tab. 5.31, Spalte 4: H) der Anstieg des Sprechpegels bei 0.5 (0.3–0.65) dB pro 1 dB Zunahme des Geräuschpegels liegt. In einigen Experimenten (Dreher u. O'Neill; Junqua; Summers et al.; s. Tab. 5.3-1, Spalte 4: M) wurde das Störgeräusch teilweise über Kopfhörer gegeben und als Gegenüber nur ein Mikrofon installiert: unter diesen Bedingungen war der Anstieg des Sprechpegels bei Zunahme des Geräuschpegels wesentlich geringer (nur 0.1 bis 0.33 dB pro 1 dB Geräuschzunahme). Der Sprechpegelanstieg war auch gering, wenn durch eine Instruktion aufgefordert wurde, im Lärm immer so laut wie möglich zu sprechen (Nakladal u. Listner 1997, s. Abschn. 8.4.5) und der Geräuschpegel bei 85–96 dB lag. Eine ähnliche Instruktion, nämlich die vorgegebenen Einsilber so zu sprechen und zu wiederholen, dass alles verstanden werden kann (max SV), führte eher zum gegenteiligen Ergebnis. In einer Untersuchung (Türk u. Körpert 1987) mit 4 Geräuschpegeln (50, 60, 70, 80 dB) und 6 Geräuscharten, in der die
84
5 Sprechen in realer Umgebung und Hörer–Feedback
Sprecher diese Instruktion erhielten, lag der Anstieg sogar knapp über dem Durchschnitt, bei c = 0.6 dB/dB. Bei hohen Sprechpegeln zeigt sich auch (Hörmann et al. 1981; Lazarus– Mainka et al. 1981; Lazarus–Mainka u. Raschdorf 1985b; Guski et al. 1988), dass die Dynamik der Sprache mit steigendem Geräusch– und Sprechpegel abnimmt, das heißt, laute Sprache wird monotoner. Die Dynamik der gesprochenen Sprache wurde als Differenz zwischen den Pegelspitzen und dem Mittelwert der Sprache (LSA,5% - LSA,eq) gemessen. Um zu klären, ob der Lombardeffekt eher eine automatische Reaktion auf die hohe Geräuschintensität (Lombard 1911; Fairbanks 1954) oder eine Reaktion des Sprechers auf die Kommunikationssituation ist, veränderte man den situativen Hintergrund (Pick et al. 1989). Durch spezielle Instruktionen, Training und visuelle Rückkopplung wurde versucht, das Anheben der Sprechlautstärke (um ca. 10 dB) unter Lärm (90 dB) gegenüber Stille zu unterdrücken. Die Ergebnisse zeigen deutlich, dass sich in der Experimentalgruppe verglichen mit einer Kontrollgruppe die Sprechlautstärke kaum beeinflussen ließ. Die Instruktion, unter Lärm nicht lauter zu sprechen, führte eher dazu, generell leiser zu sprechen oder hatte nur direkt nach einer Trainingsphase Erfolg. Untersuchungen an dreijährigen Kindern (Siegel et al. 1976) und auch bei Affen (Sinott et al. 1975) und Vögeln (Potash 1972) zeigen ähnliche Reaktionen auf laute Geräusche. Offenbar ist der Lombardeffekt ein sehr robuster, automatisierter Prozess. Man kann also davon ausgehen, dass die Reaktion der Sprecher auf hohe Geräuschpegel eher ein unbewusst stattfindender Regulationsprozess ist, der weniger direkt mit dem Geräusch, als vielmehr mit dem Hören und Verstehen der eigenen Stimme verbunden ist. Der Hörer will das Verstehen der eigenen Stimme aufrechterhalten. Dieser Prozess ist jedoch überlagert von der jeweiligen Sprech– oder Kommunikationssituation, wie beispielsweise Raumgröße, Entfernung zum Hörer, Reaktion des Hörers. Ergebnisse: der Sprechpegel ändert sich in Abhängigkeit vom Umgebungsgeräusch. Ab einem Störgeräusch von LNA = 40–50 dB steigt der Sprechpegel um c = 0.3 bis 0.6 dB pro 1 dB Geräuschpegelanstieg an. Geht man von den Messdaten der hier genannten Arbeiten (u.a. Pearsons et al. 1977) aus, so beträgt der mittlere Anstieg des Sprechpegels, wenn unter Geräuschen gesprochen wird, etwa c = 0.5–0.6 dB/1 dB. Der mittlere Sprech– und Geräuschpegel, ab dem die automatische Sprechpegelzunahme beginnt, liegt bei LSA,1m = 55 dB und LNA = 45 dB.
5.4 Sprecher–Hörer–Entfernung
85
5.4 Sprecher–Hörer–Entfernung Sprechpegel und Hörerentfernung, Soziale Distanz Beobachtet man das Verhalten von Sprechern und Hörern bezüglich der Distanz zwischen ihnen, so ergeben sich mehrere Fragen: Gibt es bevorzugte Distanzen bei bestimmten Tätigkeiten oder Aktivitäten? Unter welchen Umständen wird die Distanz verändert und wie wird dadurch die Gesprächssituation beeinflusst (z.B. Veränderungen im Sprechpegel)? Wie wird der Sprechpegel verändert, wenn sich die Distanz ändert? In praxisnahen Bedingungen kann die Distanz zum Gesprächspartner nur begrenzt frei gewählt werden. Der Sprecher wird bemüht sein, mit möglichst wenig Sprechanstrengung eine optimale Sprachverständigung zu erzielen. Die physiologischen, motorischen und sprachlichen Aktivitäten können – jeweils ihrer Modalität entsprechend – die Sprachverständlichkeit begrenzt verbessern. Ein wirksamer Weg, den die Gesprächspartner auch kennen, ist die Entfernung zueinander zu reduzieren. Eine zu geringe Entfernung bringt die Gesprächspartner aber in Bedrängnis. Es lassen sich, bezogen auf die Distanz und die sozialpsychologische Beziehung der Gesprächspartner, Zonen unterscheiden: Zone 1:
Zone 2:
Zone 3:
Zone 4:
die Intimdistanz, die den physischen Kontakt mit einschließt und etwa eine Entfernung zwischen den Partnern von 15–50 cm festlegt. die persönliche Distanz, die die nähere Zone umfasst, in der die Personen sich noch berühren können, also von 0.50–0.80 m und die weitere Zone, in der die Personen dem gegenseitigen Zugriff entzogen sind 0.80–1.30 m. die soziale Distanz, die zwischen 1.30 und 2.30 m liegt. Sie ist für die Abwicklung unpersönlicher Geschäfte vorbehalten und kann bis zu 4 m ausgedehnt werden. der öffentliche Bereich, der ab 4 m beginnt.
In Tabelle 5.4-1 sind die von Hall (1969) angegeben Distanzen in Kombination mit den Maßen dargestellt, die auch üblicher Weise in Gesprächen vorkommen. Auf einen Blick wird ersichtlich, dass die Reduzierung des Abstandes zwischen Sprecher und Hörer, die für die Verbesserung bzw. Aufrechterhaltung der sprachlichen Kommunikation erforderlich ist, mit den Maßen der individuellen Distanz in Kollision geraten. Wenn man davon ausgeht, dass in einer sprachlichen Kommunikation, die z.B. zwischen einem Meister und Lehrling unter einem Geräuschpegel von LNA = 75 dB stattfindet, mit lauter Stimme gesprochen wird, so muss der Abstand zwischen den Gesprächspartner etwa 50–70 cm betragen, um
86
5 Sprechen in realer Umgebung und Hörer–Feedback
eine ausreichende Sprachverständlichkeit zu erreichen. Liegt der Geräuschpegel höher als LNA = 75 dB, was in der Regel an Lärmarbeitsplätzen der Fall ist, muss der Abstand bei gleicher Sprechweise noch weiter reduziert werden, um sich noch ausreichend verstehen zu können. Tabelle 5.4-1. Die Maße der Distanzzonen nach Hall (1969) in Entfernung zwischen den Gesprächspartnern (Distanz in m) (vgl. Abb. 5.7-1) Distanzzone
1 Intimdistanz
2 Persönliche Distanz
Distanz in m
0.15 – 0.50
0.50 – 1.30
3 4 Soziale Distanz Distanz im öffentlichen Bereich 1.30 – 4.00 4.00 – 16.00
Um also sprachliche Kommunikation unter Geräuscheinwirkung von 75 dB und höher noch aufrecht halten zu können, muss zwischen Sprecher und Hörer ein Abstand gewählt werden, der weit in die Intimzone reicht. So kann man in Lärmbetrieben häufig Arbeiter beobachten, die sich, um sich noch verständlich zu machen, den Kollegen ins Ohr brüllen (Distanz < 0.15 m). In der Untersuchung von Pearsons et al. (1977) zu Sprechpegeln im Alltagsbereich (s. Abschn. 5.7) konnten die Gesprächspartner ihre Entfernung zueinander weitgehend selbst wählen. Bei steigenden Geräuschpegeln wird der Abstand zwischen den Gesprächspartnern geringer gewählt. Bei Geräuschpegeln von LNA = 35–45 dB liegen die Entfernungen zwischen den Gesprächspartnern bei 2–0.7 m, im Durchschnitt bei etwa 1.1 m. Für Geräuschpegel von LNA = 50–60 dB liegt der Abstand bei 0.9–0.6 m. Liegt ein Störpegel von etwa LNA = 70–85 dB vor, so ist der Abstand zwischen Sprecher und Hörer ungefähr 0.5–0.3 m. Das bedeutet, dass bei einem Anstieg des Geräuschpegels um ca. 25 dB die Gesprächspartner ihren Abstand halbieren. Eine weitere Frage ist, wie sich der Sprechpegel verändert, wenn die Distanz verändert wird. Johnson et al. (1981) untersuchten die Lautstärkeregulation bei verschiedenen vorgegebenen Abständen von Sprecher und Hörer unter zusätzlicher Betrachtung eines entwicklungspsychologischen Gesichtspunkts. Dreijährige, Fünfjährige und junge Erwachsene gaben einem Hörer Instruktionen, der gemäß ihren Anweisungen ein Bild malte. Die Distanz variierte zwischen nah (1.8 m), mittel (3.6 m) und weit (7.2 m). Die Sprache des Sprechers wurde mit einem Headset aufgenommen. Der Sprecher konnte das Bild, das der Hörer zeichnete, nicht sehen, der Hörer gab auch kein verbales Feedback. Die Zunahme des Sprechpegels pro Abstandsverdopplung lag unabhängig von der Altersgruppe bei 0.4 bis 2 dB. In allen Altersgruppen wurde aber nur wenig lauter gespro-
5.4 Sprecher–Hörer–Entfernung
87
chen, um den Effekt der Entfernungszunahme zu kompensieren. Die höchste Anhebung des Sprechpegels betrug 1.7 dB pro Abstandsverdopplung (AV). Auch Michael et al. (1995) kamen zu ähnlichen Ergebnissen. Sie baten ihre Probanden, mit einem Mikrofon so zu sprechen, als wäre es ein Gesprächspartner. Sie sollten ihm erklären, wie man Eier kocht. Sie wurden verschiedenen Experimentalgruppen zugeordnet und wurden angewiesen, sich entweder wie in einem normalen Gespräch zu verhalten (N) oder nur so laut zu sprechen, dass sie gerade eben verstanden werden können (G). Während der Durchführung wurde die Distanz zum „Mikrofon–Gesprächspartner“ auf unterschiedliche Abstände (1.5, 3.0 und 6.0 m) variiert.
Der Pegelzuwachs pro Abstandsverdopplung lag bei 0.6 dB (N) und 1.8 dB (G). Trotz dieses geringen Pegelzuwachses waren die Probanden (Sprecher), wie eine nachträgliche Befragung ergab, der Meinung, die Erhöhung der Entfernung ausreichend ausgeglichen zu haben. Es wird seit längerem diskutiert, wie sich der Sprechpegel des Sprechers bei einer Verdopplung der Entfernung zum vermeintlichen Hörer (Mikrofon) entwickeln würde. Man nimmt an, dass der Sprecher seinen Pegel um 6 dB erhöhen müsste, um die Abnahme des Pegels bei Distanzverdopplung (6 dB/AV im freien Schallfeld) auszugleichen. Warren (1968) konnte diese Abnahme des Sprechpegels von 6 dB/AV (Abstandsverdopplung) bei einer Reduzierung des Mikrofonabstandes von 3.0 auf 1.5 m nachweisen. Hier war eine Instruktion gegeben worden („spreche den gleichen Sprachschall /a/ mit unterschiedlicher Intensität…“), die ein entsprechendes Reagieren des Sprechers begünstigt. In anderen Untersuchungen (Markel et al. 1972; Johnson et al. 1981; Michael et al. 1995) ließ sich dieses Ergebnis nicht wiederholen. Lediglich Pegelzuwächse von 0.5–2 dB/AV wurden gemessen. Man fragt sich, wieso ein 6 dB/AV–Gesetz bei dem Sprecher überhaupt gesucht wird, der nicht im Freien oder einem reflexionsarmen Raum spricht, denn nur dort gilt, dass der Schallpegel (ausgehend von einer Punktschallquelle) um 6 dB/AV abnimmt. Da die meisten Versuche in Räumen (mit einer Nachhallzeit) in Entfernungen von 1 bis 8 m stattgefunden haben, liegen die akustisch messbaren Werte der Pegelabnahme/AV zwischen 0 bis 6 dB. Insofern sind die gemessenen Sprechpegelzunahmen durchaus im Bereich der akustisch vorliegenden und von den Versuchspersonen aus Erfahrung erwarteten Pegelabnahmen. Leider ist in keinem der genannten Experimente die Schallausbreitung gemessen worden. Lässt man Personen ihre Entfernung zum Gegenüber schätzen, so stimmt diese nur im Bereich bis zu 3 m mit der tatsächlich gemessenen überein. Größere Entfernungen werden in der Regel unterschätzt. So wird eine Entfernung von 10 m nur als 5 bis 6 m entfernt geschätzt (Békésy
88
5 Sprechen in realer Umgebung und Hörer–Feedback
1949). Die Lautstärke der Stimme, die aus dem Lautsprecher in einem reflexionsarmen Raum abgestrahlt wird, hat dabei einen wesentlichen Einfluss auf die Entfernungsschätzung (Blauert 1974). Zusammenfassend lässt sich festhalten: die Einflussgrößen, die bei einer Zunahme der Entfernung der Gesprächspartner den Sprechpegel mitbestimmen, sind die akustischen Gegebenheiten im Raum, die Instruktion (vergleiche bspw. die beiden Gruppen N und G, s.o.), die Art des Gegenübers (Mikrofon, Person) und eine Vielzahl weiterer Strategien der Gesprächspartner.
5.5 Parameter von leise und laut gesprochener Sprache Frequenzspektrum, Grundfrequenz, Formanten, Sprechgeschwindigkeit 5.5.1 Energieverteilung über der Frequenz Spektrum leiser, normaler, laut gesprochener Sprache, Geschlechtsunterschiede Verändert der Sprecher seine Sprechweise, so spiegelt sich dieser Vorgang nicht nur im Schallpegel, wie gezeigt werden konnte (Abschn. 5.2, 5.3), sondern auch in dem Spektrum der Sprache wider. Eine Anhebung des Sprechschallpegels hat eine Verschiebung der Schallintensität von niedrigeren zu höheren Frequenzbereichen zur Folge (Abb. 5.5.1-1). Rostolland führte (1982a, b; 1985) eine Studie durch, um akustische Eigenschaften, phonetische Struktur und Verständlichkeit geschrieener Sprache zu untersuchen. Analysiert wurden 400 französische Zweisilber, die von drei männlichen und drei weiblichen Sprechern mit der Instruktion aufgezeichnet wurden, möglichst normal und natürlich zu sprechen, bzw. mit maximaler Anstrengung so laut wie möglich zu schreien. Es zeigte sich, dass neben Unterschieden im Sprechpegel auch Veränderungen im Frequenzspektrum der Sprache zu beobachten waren. Die Energie verlagerte sich deutlich in den oberen Teil des Spektrums (s. Abb.5.5.1-2). Dagegen hat geflüsterte Sprache eher ein ausgeglichenes Spektrum mit einem Maximum bei hohen Frequenzen (Schwartz 1970) (Abb. 5.5.1-2). Ähnliche Energieverschiebungen im hohen Frequenzspektrum beobachteten auch Summers et al. (1988) für laut gesprochene Sprache. Dagegen fand Junqua (1993) keine so klare Tendenz.
5.5 Parameter von leise und laut gesprochener Sprache
89
Abb. 5.5.1-1. Terzschalldruckpegel (LSt) eines gesprochenen Satzes für Männer (xx) und Frauen (xx) bei 5 Sprechweisen und den entsprechenden A– Schallpegeln für männliche/weibliche Personen (LSA): entspannt (e, 52/50 dB), normal (n, 58/55 dB), angehoben (a, 65/63 dB), laut (l, 76/71 dB), schreien (s, 89/82 dB), Abstand zum Sprechermund 1 m; die Sprechweise wurde vom Versuchsleiter vorgegeben (s. Tab. 5.2-1) (nach Pearsons et al. 1977)
100
80 m sch
L Ok t /dB
ns
60
fe
40
20
0 1
0,125 2
3
4 0,5
5
26 7 fm /kHz
8
Abb. 5.5.1-2. Oktavspektren der Sprache (LOkt) in 1 m Entfernung vom Sprechermund; flüstern (fe) (LS/LSA = 41/40 dB), normal sprechen (ns) (65/63 dB), maximal schreien (m sch) (93/92 dB)
90
5 Sprechen in realer Umgebung und Hörer–Feedback
Er fand dass für Vokale unter 500 Hz die Energie abnahm; nur bei weiblichen Sprechern zeigte sich eine Energiezunahme zwischen 4 und 5 kHz. Analysiert man dagegen einen gesprochenen Text als Ganzes, so zeigt sich bei einer Erhöhung des Sprechpegels im mittleren Frequenzbereich ein Anstieg, bei höheren Frequenzen ein Abfall der Energie (s. Tab. 5.5.1-1). Tabelle 5.5.1-1. Parameter des Sprachspektrums für unterschiedliche Sprechweisen; (m: männlich, w: weiblich; max LSt : Terzpegel mit maximaler Energie) Sprechweise
entspannt normal angehoben laut schreien
Sprechpegel LSA,1m in dB 50–55 55–63 62–68 70–78 80–95
Differenz LSA(m) LSA(w) in dB 2 2 2 5 7
Frequenz in Hz bei max. LSt 250–630 250–630 250–630 630–1250 1250–1600
Abnahme des LSt über 1 kHz in dB/okt 4–6 4–6 4–6 7 8
Die Energieverschiebung der gesprochenen Sprache spielt auch bei der automatischen Spracherkennung eine wichtige Rolle. In Studien, die das Ziel haben, die automatische Spracherkennung sicherer zu machen, wird die Energieverschiebung, die bei laut gesprochener Sprache aus den Bereichen von 0.1 bis 0.5 und von 4 bis 8 kHz in den Mittelbereich von 0.5 bis 4 kHz stattfindet, berücksichtigt (Stanton et al. 1988, 1989; Hansen 1996). In einer ausführlichen und detaillierten Untersuchung (Köster 2002) wurden verschiedene Parameter von drei Sprechweisen (normal, deutlich, durch Lärm (80 dB) provoziert; 6 Sprecher) analysiert (Tab. 5.5.1-2). Tabelle 5.5.1-2. Spektrale Schwerpunkte (S) für Lautklassen für normale (n), deutliche (d), laute (l) Sprechweise (S = ť i lAl2 / ť lAl2, A: Fouriertransformierte der Sprachlaute, i: Anzahl der Linien (bis i max)); Neigung der Energie pro Frequenz (N in dB/kHz): angegeben ist die Ab– (-) oder Zunahme (+) der Neigung bei deutlicher und lauter gegenüber normaler Sprechweise (s. Abschn. 4.1.1) Lautklassen Plosive Affrikate Frikative Nasale Liquide kurze Vokale lange Vokale neutrale Vokale (Schwa) Diphthonge
Spektrale Schwerpunkte n d l 1320 1234 1780 5728 5794 7096 3017 3114 3976 321 374 433 517 660 796 531 738 933 478 711 924 380 548 686 597 973 1116
N (dB/kHz) (d, l) = + + + + + +
5.5 Parameter von leise und laut gesprochener Sprache
91
Eine Analyse der Frequenzgruppen (nach Zwicker, ähnlich den Terzen) ergab für alle Lautklassen bei normaler, deutlicher und lauter Sprechweise eine Anhebung der Energie zu höheren Frequenzen (ab der 5. Frequenzgruppe) hin. Weiterhin wurden in der Untersuchung der spektrale Schwerpunkt und die spektrale Neigung bestimmt (Tab. 5.5.1-2). Der spektrale Schwerpunkt beschreibt die Energie (A2), gewichtet mit der Höhe der Frequenz (iA2), bezogen auf die Gesamtenergie (ťA2), d.h. hohe bzw. niedrige Werte bedeuten, dass der Schwerpunkt der Energie bei hohen bzw. niedrigen Frequenzen liegt. Die spektrale Neigung (spectral tilt) deutet die Neigung (Abnahme) der Energie pro Frequenzzunahme an und liegt zwischen -0.5 bis -3 dB/kHz. Nur bei den Lauten mit hohen spektralen Schwerpunkten (Affrikaten, Frikanten, Plosiven) ist die Neigung bei deutlicher und lauter Sprache geringer, sonst höher (s. Tab. 5.5.1-2). Man kann festhalten: Schreien oder lautes Sprechen (ggf. durch ein Geräusch verursacht) führt zu einer Verschiebung des Energieschwerpunkts (von 0.5 kHz) in höhere Bereiche (1–2 kHz) des Frequenzspektrums, wobei gleichzeitig auch der Abfall der hohen Frequenzen zunimmt (s. Abb. 5.5.1-1). 5.5.2 Grundfrequenz der Sprache Die Grundfrequenz der Sprache – so wird verbindlich angenommen – steigt bei höherer Anstrengung an (Tab. 5.5.2-1). Bei laut oder deutlich gesprochener Sprache steigt sie um ca. 20 bis 50 Hz (Tab. 5.5.2-1). Beim Schreien (Rostolland) steigt die Grundfrequenz der Sprache um das Zwei– bis Dreifache an. Dabei sinkt die Variation der Grundfrequenzen bei verschiedenen Sprechern bei normaler Sprache von 30–40 Hz auf 10–20 Hz bei geschrieener Sprache ab. Ähnliches gilt für die Variation der Formantfrequenzen (Abb. 5.5.3-1). Das trägt vermutlich mit dazu bei, dass Buchstaben in geschrieener Sprache nur schwer zu unterscheiden sind und dass beim Schreien die Prosodie eingeschränkt wird (vgl. Abschn. 5.3, 5.6). Durch Schreien wird die Sprache somit undeutlicher, es wird schwieriger, die verschiedenen Laute zu unterscheiden.
92
5 Sprechen in realer Umgebung und Hörer–Feedback
Tabelle 5.5.2-1. Grundfrequenz (F0 in Hz) für Sprache mit unterschiedlicher Sprechanstrengung: Artikulation (A): natürlich, normal (n), deutlich (d); Sprechweise (SW): entsprechende Instruktion: normal (n), laut (l), schreien (s) oder durch Geräusche (über Kopfhörer, LNA in dB am Ohr des Hörers) provoziert, Anzahl der Sprecher (n), Konsonanten (K), Vokale (V), Bezug: Spalte mit geringer Sprechanstrengung (links) (in Ruhe, LNA < 40 dB) Sprechanstrengung gering Autoren
N
A SW F0 in Hz
Rostolland 1982a, b Picheny et al. 1986 Summers et al. 1988 Junqua u. Anglade 1990 Castellanos et al. 1996 Köster et al. 2000 Köster 2002
6 (m) n 6 (w) n 3 n
n n n
2
n
n
A SW LNA in dB
F0 in Hz
s s n
-
378–394 450–470 165–210
-
80–100 80–100 85
100 143 106
(100 %)
85
(100 %)
80
(130– 170 %) (105 %)
80 80 -
196 200 206 212
98 123 82
n
6
118–264 180–210 145–175
hoch
K 164 V 163 K 164 V 163
d d d
n n d d
-
5.5.3 Formantfrequenzen der Sprache Genaue Beobachtungen zu Veränderungen des Sprachspektrums und der Formantfrequenzen wurden in Experimenten mit laut und deutlich gesprochener Sprache gemacht (Rostolland 1982a, b; Summers et al. 1988; Takizawa u. Hamada 1990; Junqua 1993; Jovicic 1997; Köster 2002). Allerdings sind die Ergebnisse nicht einheitlich (Tab. 5.5.3-1). Analysiert man Vokale (französischer) geschrieener Sprache, so kann man eine Veränderung der Formantfrequenzen feststellen (Rostolland 1982a, b). Die Formantfrequenzen geschrieener Sprache variieren weniger stark von Vokal zu Vokal als es bei normal gesprochener Sprache der Fall ist. So liegen z.B. die zweiten Formanten der gesprochenen Sprache zwischen 850–2150 Hz, die Formanten der geschrieenen Sprache dagegen zwischen 1050–1900 Hz (s. Tab. 5.5.3-1).
5.5 Parameter von leise und laut gesprochener Sprache
93
Tabelle 5.5.3-1. Formanten (F: F1, F2, F3) für Sprache bei unterschiedlicher Sprechanstrengung bei entsprechendem Sprachmaterial (SM); (lV, kV: lange, kurze Vokale), (Abkürzungen s. Tab. 5.5.2-1) gering
Sprechanstrengung hoch
Autoren
N SM
F
Rostolland 1982b
12 Zweisilber
Summers et al. 1988 Picheny et al. 1986 Hansen u. Bria 1990 Takizawa u. Hamada 1990 Jovicic 1997
2
Wörter a, e, i, o, u
d d d d n n
s s s -
80 100 x x x 85 85
400–750 1050–1900 1950–3000 502–504
3
F1 250–750 F2 850–2150 F3 2050–3400 F1 505 F1 489 F1 350–760 F2 800–2300 F1 296,457 F2 1668,1380 F3 2417,1824 F1 400–900 F2 800–2600
32 i, r
14
F in Hz
A
SW LNA in dB
F in Hz
300–750 700–2400 361,447 1710,1494 2473,2000 550–950 1000–2500
8
a, e, i, o, u
F1 300–700 F2 750–2100 F3 2300–2800
d d d
-
100 100 100
400–800 1000–2000 2500–2700
Köster 2002 6
a, e, i, o, u
F1 320–640 F2 1150–2180 F1 F2
n n d d
n n
80 80 -
350–750 1200–2180 340–740 1200–2180
Beim Sprechen unter einer Geräuschbelastung von 100 dB (weißes Rauschen über Kopfhörer dargeboten) verschieben sich die Formantfrequenzen überwiegend aufwärts (F1, F2 und F3 in den Vokalen /a/, /e/, /o/, /u/; F1 in /i/), teilweise auch leicht abwärts (F2 und F3 in /i/), wenn ein Vergleich mit Sprechpegeln in Ruhebedingungen vorgenommen wird. Dieser Befund bezieht sich allerdings auf die Vokale der serbischen Sprache, die bei der Instruktion, möglichst deutlich zu sprechen (Jovicic 1997), produziert wurden. Takizawa u. Hamada (1990) verglichen Sprache, die von neun weiblichen und fünf männlichen Sprechern in Ruhe und bei 85 dB weißem Rauschen (über Kopfhörer) gesprochen wurde. Sie fanden, dass sich die Formanten unterhalb von 1.5 kHz um etwa 120 Hz zu höheren Frequenzen, Formanten über 1.5 kHz zu niedrigen Frequenzen hin verschieben. Die Stärke der Verschiebung ist dabei abhängig von der Frequenz der Formanten; je höher die Formantfrequenz, desto geringer ist die Verschiebung.
94
5 Sprechen in realer Umgebung und Hörer–Feedback
Junqua (1993) fand eine Erhöhung des ersten Formanten um 42 bis 113 Hz, wobei die Erhöhung für Frauen deutlich höher ausfiel als für Männer. Nur bei Frauen erhöhte sich auch die Frequenz des zweiten Formanten. Er berichtet außerdem, dass die Höhe der Grundfrequenzen der Vokale männlicher Sprecher um 82 bis 106 Hz zunahm, die Stimmlage der weiblichen Sprecher sich dagegen kaum veränderte. Die Einengung der Formantfrequenzen der Vokale wird häufig beim spontanen und schnellen Sprechen angenommen und teilweise auch beobachtet. Aufgrund des Zeitmangels wird die "richtige" Stellung bei der Artikulation nicht erreicht. Köster (2002) beobachtet für deutlich gesprochene Sprache im Vergleich zu normal gesprochener erwartungsgemäß eine Vergrößerung der F1–F2–Ebene für kurze und lange Vokale. Für die laut gesprochene Sprache (unter Lärm) erscheint die Vokalebene (F1–F2) wieder etwas enger. Insbesondere ist die Verschiebung des 1. Formanten zu höheren Frequenzen bei der deutlichen und lauteren Sprache ausgeprägt. Das Zusammenrücken der Formanten (tiefere steigen und höhere fallen in der Frequenz) wurde in dieser Weise auch von Rostolland (1982b) bei geschrieener Sprache beschrieben (Abb. 5.5.3-1). Picheny et al. (1986) beobachteten drei Sprecher. Obwohl sich bei den einzelnen Sprechern die Formantebene F1–F2 der Vokale deutlich veränderte, zeigen die Mittelwerte kaum Veränderungen (s. Tab. 5.5.3-1). Schließlich kann festgehalten werden, dass deutlich gesprochene Sprache (ggf. dann auch leichter verständlichere Sprache) einen breiteren Formantenraum (F1–F2–Ebene) aufspannen müsste. Dieses konnte jedoch so eindeutig nicht bestätigt werden. Die Formantfrequenzen verschieben sich zwar bei deutlicher, lauter gesprochener Sprache zu hohen Frequenzen (insbesondere F1) hin, bei hohen Formanten (F2, F3) zeigt sich jedoch ein solcher Trend nicht so eindeutig: hier gibt es sowohl Verschiebungen zu hohen wie zu niedrigen Frequenzen hin. Vor allem gibt es bei sehr laut gesprochener (geschrieener) Sprache (Rostolland 1982a, b; Takizawa u. Hamada 1990; Jovicic 1997) Einengungen der Formantfrequenzen, sowohl von Sprecher zu Sprecher als auch innerhalb der Sprachproduktion eines Sprechers (s. Abb. 5.5.3-1). Diese o.g. Widersprüche sind verständlich, da die Sprechanstrengung (LSA,1m) selten in Experimenten kontrolliert wurde. So könnte Sprache, die unter Lärm mehr oder weniger laut gesprochen oder durch eine entsprechende Instruktion bedingt wurde, ähnliche artikulatorische Prozesse auslösen. Ein großer Teil der Variationen ist vermutlich auf die Vielzahl von Sprechern zurückzuführen, die in gleichen Situationen (Instruktion, Lärm) unterschiedlich laut sprechen.
5.5 Parameter von leise und laut gesprochener Sprache
95
3 F3 f/kHz gesprochen
2 F2
geschrieen
1 F1 0 0
1i
2y
3u 4e
5ø 6o
a 11 "7 œ 8 ð9 10
Abb. 5.5.3-1. Die ersten drei Formanten (F1, F2, F3) jeweils für die Vokale i bis a der französischen Sprache (normal gesprochen Ɣ—Ɣ, geschrieen ż--ż) (s. Abschn. 4.1.1)
Dabei sollte man auch bedenken, dass etwas lauter gesprochene Sprache verständlicher ist, aber laut gesprochene und geschrieene Sprache in ihrer Verständlichkeit deutlich absinkt. Es bleibt also die Schwierigkeit, dass es einerseits kein Maß für die deutlich gesprochene Sprache gibt, und andererseits das übliche Maß der Sprechanstrengung, der Pegel LSA,1m häufig nicht kontrolliert und damit auch nicht angegeben wurde. Ohne zu wissen, welche Sprechweise, d.h. welche Art der willentlichen Artikulation – also natürliche Konversation oder deutliches Sprechen – und welche dazugehörige Sprechanstrengung vorliegt, können akustische Daten kaum sinnvoll geordnet werden. Für das Schreien oder laute Sprechen ist eine veränderte Sprechmotorik erforderlich. (Holmberg et al. 1988; Schulman 1989). So konnten beim Vergleich von geschrieener und normal gesprochener Sprache Unterschiede in der Kiefer– und Zungenbewegung nachgewiesen werden. Für das Schreien ist ein erhöhter Lungendruck in Verbindung mit veränderter Zungen–, Kiefer–, Lippen– und Mundstellung erforderlich, wodurch eine höhere Schallintensität und eine Veränderung der Frequenzen (Grundfrequenz, Formanten) bewirkt wird.
96
5 Sprechen in realer Umgebung und Hörer–Feedback
5.5.4 Sprechgeschwindigkeit Die Sprechgeschwindigkeit (Abschn. 3.5) wird hier meist als die Dauer, mit der die einzelnen Sprachitems gesprochen werden, angegeben. Wenn der Sprecher deutlicher oder lauter spricht, spricht er auch langsamer (s. Tab. 5.5.4-1). Tabelle 5.5.4-1. Sprechgeschwindigkeit: angegeben in der Dauer (ms) pro Wort oder Laut (Dauer in ms), für geringe und höhere Sprechanstrengung, bei Artikulation (A; deutlich (d), natürlich/normal (n)), Sprechweise (SW; normal (n), schreien (s)), Geräuschpegel am Ohr (LNA in dB) (K Konsonant, V Vokal) Sprechanstrengung gering
hoch
Dauer SW LNA in dB in ms n - V,127,222 K,119 45 310
Autoren
SM
A
Rostolland 1982a, b Lazarus– Mainka u. Leushacke 1985 Picheny et al. 1986 Summers et al. 1988 Junqua 1993 Köster 2002
Zweisilber Wörter
n n n
Wörter, Silben Wörter
n n d
n n n
Wörter, Laute Wörter
n n
-
A n n n n
SW LNA in dB Dauer in ms s 170,370 s 95 68 350 90 440
40
300–375 280 436–485
d d d
-
-
600–670 560 80–100 502–607
-
n
40
Bezug
-
-
85
erhöht
n
-
377
d -
n -
80
420 407
Eine Erhöhung der durchschnittlichen Wortdauer von 485 auf 607 bzw. von 436 auf 502 ms beobachteten Summers et al. (1988) bei lauter gesprochener Sprache. Auch Junqua (1993) fand beim lauten Sprechen eine signifikante Zunahme der Wortdauer. Durch genaue akustische Analysen konnte er diese auf eine Zunahme der Vokaldauer und Abnahme der Konsonantendauer zurückführen. In den Experimenten von Rostolland (1982a, b) veränderte sich ebenso auch die Sprechgeschwindigkeit hochsignifikant durch das Schreien. Der erste Vokal der Zweisilber verlängerte sich um 33 %, der zweite sogar um 67 %, während sich der mittlere Konsonant hingegen um 20 % verkürzte. Insgesamt ergab sich eine Erhöhung der Sprechdauer. Hörmann et al. (1981) beobachteten im Vergleich von normaler und geschrieener Sprache eine Verringerung der Sprechgeschwindigkeit um 25 %
5.5 Parameter von leise und laut gesprochener Sprache
97
bei Texten und bis 50 % bei Einsilbern. Auch wenn eine Kommunikation (Bildergeschichte erzählen) bei hohen Pegeln stattfindet, erhöht sich die Dauer der gesprochenen Wörter (Lazarus–Mainka u. Leushacke 1985). Bei einer Untersuchung in Lehrwerkstätten von metallverarbeitenden Betrieben konnten Guski u. Wühler (1989) nur bei einem der drei untersuchten Ausbilder eine signifikante Verlangsamung der Sprache bei hohen Geräuschpegeln beobachten. 5.5.5 Parameter der Sprache und Sprechweise, Zusammenfassung Sprechen bei Belastung, Energieverhältnis von Vokal zu Konsonant Allgemein (Abschn. 5.5.1 bis 5.5.4) lässt sich sagen, dass laute oder geschrieene Sprache langsamer gesprochen wird und monotoner ist. Die Grundfrequenz steigt und die Energie im mittleren Frequenzbereich nimmt zu. Die Vokale werden so stark gedehnt, dass sich trotz einer Verkürzung der Konsonanten eine Erhöhung der Sprechdauer ergibt. Es wurde schon mehrfach vermutet und auch beobachtet (Picheny et al. 1986; Junqua 1993), dass sich durch die Veränderung der Artikulation (deutlich sprechen) oder der Sprechweise (laut sprechen, ggf. durch Lärm veranlasst) das Verhältnis der Energie (Pegel und Dauer) von Vokalen zu Konsonanten ändert. Für die einzelnen Lautklassen konnte gezeigt werden (Köster 2002; Tab. 5.5.5-1), dass das Energieverhältnis der deutlich und laut gesprochenen Sprache gegenüber der normal gesprochenen für die Vokale nur bei 1.2 bis 1.4, bei einigen Konsonanten aber höher lag, bei 1.9 bis 4.8. Tabelle 5.5.5-1. Verhältnis der geometrisch gemittelten Energie für deutlich (d) und laut (l), gegenüber normal (n) gesprochener Sprache (s.a. Abschn. 4.1.1, 5.5.1) Lautklassen Plosive Affrikate Frikative Nasale Liquide kurze Vokale lange Vokale neutrale Vokale (Schwa) Diphthonge
Energieverhältnis d/n l/n 2.4 3.0 2.7 4.8 2.4 3.7 1.2 1.4 1.9 2.3 1.3 1.4 1.3 1.3 1.4 1.8 1.2 1.3
98
5 Sprechen in realer Umgebung und Hörer–Feedback
Hieraus ergibt sich ein Verhältnis der Energie der Konsonanten gegenüber der Energie von Vokalen für normal von 0.17, für deutlich von 0.26 und für laut gesprochene Sprache von 0.24. Der etwas höhere Energieanteil der Konsonanten könnte die etwas bessere Verständlichkeit der deutlicher und lauter gesprochenen Sprache erklären (s. Tab. 5.6.3-1; Köster 2002). Dagegen kann man davon ausgehen, dass bei sehr laut gesprochener und geschrieener Sprache (Rostolland 1982a,b, Junqua 1993) der Energieanteil der Konsonanten im Verhältnis zu dem der Vokale mit ansteigendem Sprechpegel wieder abnimmt. Die Ergebnisse der diskutierten Untersuchungen zeigen, dass es nicht zweckmäßig ist, zwischen den verschiedenen Sprechweisen, die entweder durch eine Instruktion oder durch eine Geräuscheinwirkung bedingt sind, zu unterscheiden. Auch Daten aus Untersuchungen und Übersichten (Johnson et al. 1989; Lively et al. 1993) weisen darauf hin, dass die Parameter gesprochener Sprache durch die Bedingungen Lärm, Stress, wahrgenommener Stress oder Arbeitsbelastung bei Zunahme dieser Belastungen in ähnlicher Weise verändert werden: Intensität (LS) Grundfrequenz (f0) Spektrale Neigung (DF/Okt) Dauer Formanten (F1, F2)
einheitlich Zunahme einheitlich Zunahme einheitlich Abnahme Abnahme/Zunahme Abnahme/Zunahme
Diese Ergebnisse stützen die Tendenz der hier dargestellten Untersuchungsergebnisse (Abschn. 5.3, 5.5, 5.6), dass vorwiegend zwei Parameter, die Lautstärke (Sprechanstrengung: LSA,1m) und die Artikulation, die Sprechweise bestimmen. 5.5.6 Sprechen von Schwerhörigen Ein früher Gehörschaden kann den Spracherwerb des Kindes stark beeinträchtigen oder gar verhindern. Auch beim postlingual Schwerhörigen bzw. Ertaubten ergeben sich Veränderungen in der Sprechstimme, weil die Rückkopplungsschleife zur Steuerung und Kontrolle der eigenen Sprachproduktion beeinträchtigt wird. Die Sprechstimme des Schwerhörigen weicht in einigen Parametern stark von der des Normalhörenden ab, was zu der von Monsen (1983) so genannten "tauben Stimme“ ("deaf voice“) führt, die vom Hörer schon nach 60 ms zu identifizieren ist, egal, welche Sprache gesprochen wird. Schwerhörige neigen dazu lauter, höher und langsamer zu sprechen als Normalhörende. Außerdem ist die Artikulation undeutlicher und die Bil-
5.5 Parameter von leise und laut gesprochener Sprache
99
dung einzelner Laute ungenauer (Monsen 1983; Lane u. Webster 1991). Leder et al. (1987b) konnten bei 19 Personen mit schweren Gehörschäden im Vergleich zu Normalhörenden einen signifikant höheren Sprechpegel nachweisen. Während der durchschnittliche Pegel der Normalhörenden beim Vorlesen eines Textes bei 48.6 dB lag, sprachen die Schwerhörigen mit 53.3 dB. Auch die Schwankungen des Sprechpegels waren bei den Schwerhörigen größer. Perkell et al. (1992) untersuchten, wie sich die Sprache von vier postlingual Ertaubten nach der Aktivierung von Innenohrimplantaten veränderte. Neben zahlreichen, nicht immer signifikanten und einheitlichen Veränderungen in den Sprachparametern, zeigte sich eine Abnahme des Sprechpegels (2.1–14.1 dB), der Frequenz des ersten Formanten (F1) und der Vokaldauer. Die Grundfrequenz F0 der Sprache liegt bei Schwerhörigen meist höher als bei Normalhörenden (Stathopoulos et al. 1986; Leder et al. 1987c). So konnten Leder et al. (1987c) bei schwerhörigen Männern einen Unterschied in den Grundfrequenzen von 172 Hz zu 113 Hz, Stathopoulos et al. bei von Geburt an schwerhörigen Frauen von 269 Hz zu 232 Hz im Vergleich zu normalhörenden Sprechern feststellen. Monsen (1983) führt diese hohe Stimmlage auf eine zu starke Spannung von Kehle, Brustkorb und Kehlkopf zurück. Die erhöhte Spannung des Kehlkopfs führt außerdem dazu, dass Vokale bei der Wahrnehmung schwieriger zu differenzieren sind. Nicht nur die Grundfrequenz, sondern auch die Formantfrequenzen weichen bei Schwerhörigen von denen der normalen Sprecher ab. Monsen (1983) sieht in einer Absenkung der zweiten Formantfrequenz ein Hauptmerkmal der „tauben Stimme“. Die Frequenz des zweiten Formanten wird überwiegend durch die Zungenstellung reguliert und liegt über 1000 Hz, daher ist sie für Personen mit starkem Gehörschaden nicht zu hören. Auch durch Beobachtung anderer Sprecher ist ihre Regulation nicht zu erlernen, da die Zunge dem Blick verborgen ist. Die erste Formantfrequenz hingegen wird überwiegend durch die Mundöffnung reguliert und ist daher leichter nachzuahmen. Die Unfähigkeit, die Frequenz des zweiten Formanten angemessen zu regulieren, führt zu einer undeutlichen Lautbildung mit schwer zu differenzierenden Vokalen. Ebenso weicht bei Schwerhörigen die Variabilität der Tonlage von der der Normalhörenden ab. Bei einigen Schwerhörigen variiert die Tonlage zu wenig, bei anderen zu stark (Monsen 1983). Lane u. Webster (1991) sehen in einer stärkeren Variation der Tonlage eine der Haupteigenschaften der Sprache von Schwerhörigen; auch die Unterschiede zwischen betonten und unbetonten Silben sind größer. Während Normalhörende eine von Satzanfang bis Satzende fallende Satzmelodie (Prosodie) benutzen, zeigen Schwerhörige sowohl fallende als auch ansteigende Intonation, allerdings mit geringeren Unterschieden der Tonlage von Satzanfang und –ende (Stathopoulos et al. 1986).
Mit zunehmendem Gehörschaden nimmt die Sprechgeschwindigkeit ab (Robb u. Pang–Ching 1992). Von Schwerhörigen werden Vokale länger
100
5 Sprechen in realer Umgebung und Hörer–Feedback
gesprochen (98 vs. 86 ms, Lane u. Webster 1991), die Wortdauer ist daher erhöht (642 vs. 383 ms, Stathopoulos et al. 1986). Der Gehörschaden scheint eine Verlängerung der Sprachlaute und Pausen zu verursachen. Das Verhältnis der Sprachelemente zueinander ändert sich jedoch nicht (Robb u. Pang–Ching 1992). Leder et al. (1987a) fanden, dass postlingual Ertaubte 35 % mehr Zeit brauchten, um eine Textpassage vorzulesen, als Normalhörende. Unabhängig von der Satzlänge waren die Schwerhörigen immer um eine Silbe pro Sekunde langsamer. Dabei machte es keinen Unterschied, ob die Schwerhörigen ihren Gehörschaden fünf Jahre oder länger hatten oder eine Hörhilfe trugen. Schwerhörige machten auch längere (Stathopoulos et al. 1986; Lane u. Webster 1991; Robb u. Pang–Ching 1992) und mehr (Stathopoulos et al. 1986) Pausen als Normalhörende. Robb u. Pang–Ching (1992) nannten als durchschnittliche Pausendauer beim Vorlesen 218 ms für Normalhörende und stellten diesen Werten eine durchschnittliche Pausenlänge von 416 ms bei starkem Gehörschaden (HVT > 70 dB) und 784 ms bei schwerem Gehörschaden (HVT > 95 dB) gegenüber. Stathopoulos et al. (1986) konnten beobachten, dass die schwerhörigen Sprecherinnen oft Pausen innerhalb eines Satzes machten, was bei den normalhörenden kaum vorkam. Die Sprechgeschwindigkeit allein hat aber wenig Einfluss auf die Sprachverständlichkeit (Monsen 1983; Robb u. Pang–Ching 1992). Monsen (1981) führt den Einfluss des Gehörschadens darauf zurück, dass das gehörgeschädigte Kind sich überwiegend auf visuelle Informationen stützen muss, um das Sprechen zu lernen. Viele wichtige Lautunterscheidungen beruhen aber auf dem Einsatz der Stimme, der visuell – etwa durch Form von Kiefer–, Zungen– und Lippenbewegungen – nicht zu beobachten ist. Abweichungen in der Positionierung und Spannung von Kehlkopf und Stimmlippen konnten durch filmische Aufnahmen belegt werden (Mahshie u. Conture 1983; Metz et al. 1984). Auch konnten Abweichungen des oralen und nasalen Luftstroms bei prälingual Ertaubten durch Messungen nachgewiesen werden (Mahshie u. Oster 1991). Die Werte der Ertaubten differierten von denen der Normalhörenden und auch untereinander. Arends et al. (1990) konnten zeigen, dass die Sprachqualität nicht allein aufgrund von Messungen und filmischen Aufnahmen im Kehlkopfbereich vorhergesagt werden kann. Oft werden die Stimmlippen nicht weit genug aneinander gebracht, so dass Luft zwischen ihnen entweichen kann, was zu einer hauchigen Stimme führt. Bei vielen Schwerhörigen ist auch eine stark ausgeprägte Nasalität zu beobachten (Monsen 1983). Insgesamt lässt sich sagen, dass Schwerhörige meist lauter, höher und langsamer sprechen als Normalhörende. Außerdem zeigen sie teilweise eine abweichende Intonation und undeutlichere Artikulation, insbesondere bei Vokalen.
5.6 Verständlichkeit unterschiedlich gesprochener Sprache
101
5.6 Verständlichkeit unterschiedlich gesprochener Sprache 5.6.1 In Ruhe und unter Lärm gesprochene Sprache Die Veränderung der Sprechweise, beginnend beim normalen Sprechen, über das laute Sprechen bis hin zum Schreien, verändert – wie in Abschnitt 5.2 bis 5.5 dargestellt – die kennzeichnenden Parameter der Sprache. Beim lauteren Sprechen wird eine andere Sprechmotorik erforderlich, die die Veränderung der Parameter bedingt. Die meisten Experimente und auch die Erfahrung weisen darauf hin, dass das Sprechen mit einer etwas höheren Intensität das Spektrum der Sprache zu höheren Frequenzen hin verschiebt und – vermutlich dadurch bedingt – die Sprachverständlichkeit sich eher verbessert (gleiche Bedingungen beim Hörer vorausgesetzt). Die Änderung des Sprachspektrums mit dem Anstieg des Sprechpegels hängt auch mit der vom Sprecher gewählten Energie (Pegel, Dauer) der Konsonanten und der der Vokale zusammen (s Abschn. 5.5.4, 5.5.5). Steigt die Sprechlautstärke bis zum sehr lauten Sprechen und Schreien an, überwiegen andere Prozesse (mangelnde Artikulation, verminderte Variabilität, sowie nichtlineare Verzerrungen), die die Verständlichkeit reduzieren. Beide Prozesse überlagern sich bei jedem einzelnen Sprecher unterschiedlich, bedingt durch seine anatomischen Gegebenheiten und Möglichkeiten zur Artikulation. Das laute Sprechen oder Schreien kann durch hohe Geräuschpegel, große Entfernung zum Hörer oder durch eine Instruktion bedingt sein (Instruktionen zur deutlichen Artikulation sollen hier nicht mit beachtet werden). Vermutlich ist die Artikulation und damit die Verständlichkeit der Sprache durch die Sprechintensität gegeben. Leider gibt es nur wenige Untersuchungen (Rostolland 1982a, b; Lazarus–Mainka u. Leushacke 1985; Lazarus–Mainka u. Tkocz 1988; Junqua 1993), die dieses Gebiet etwas beleuchtet haben. Der durch Geräusche verursachte (automatische) Anstieg der Sprechpegel an den Ohren des Sprechers (im Feld, über Lautsprecher, über Kopfhörer, Tab. 5.3-1, Abb. 5.3-1) liegt bei 0.3–0.7 dB pro 1 dB Anstieg des Geräuschpegels. Auf die Arbeit von Summers und Mitarbeitern (1988) kann hier nur am Rande Bezug genommen werden, da die Angaben zum Sprechpegel der beiden Sprecher kaum nachvollziehbar sind (10 cm Abstand vom Mund, bei Ruhe (< 40 dB) 57, 60 dB, bei einem Geräusch (90 dB) 62, 66 dB, bei der Instruktion sehr deutlich zu sprechen). Aus den Angaben ergibt sich ein Sprechpegel bei 1 m von knapp 40 dB (50–80 dB wäre üblich): aber auch die Differenz der Sprechpegel unter Ruhe und Geräusch (90 dB) von
102
5 Sprechen in realer Umgebung und Hörer–Feedback
5–6 dB (die bei anderen Experimenten etwa 15–25 dB ist), liegt außerhalb der üblich gemessenen Werte. Bildet man den Durchschnitt der Sprechpegel (Summers et al. 1988) sowie der verschiedenen S/N–Verhältnisse, so ergibt sich eine Verständlichkeit von 69 % für die in Ruhe aufgenommene Sprache und von 75 % für die bei 90 dB Rauschen aufgenommene Sprache.
Abb. 5.6.1-1. Sprachverständlichkeit (SV in %) für englische Wörter und Konsonanten, Vokale (V1–V6), die in Ruhe (——) und im Lärm (85 dB, WR, - - -) produziert wurden, für drei Hörergruppen und entsprechenden Signal– Geräuschabstand (Französische, 10 dB; Englische, 0 dB; Amerikanische, 10 dB) (V1: zero, one,…; V2: enter, erase; V3: f, s, x, yes; V4: a, h, k,…; V5: b, c, d, e; V6: m, n)
Junqua (1993) untersuchte den Einfluss zahlreicher Faktoren auf die Verstehensleistung für Sprache, die unter 85 dB und in Ruhe gesprochen wurde (Abb. 5.6.1-1). Hier zeigt sich, dass ähnliche Wörter eher verwechselt werden, wenn sie unter Lärm und nicht in Ruhe aufgenommen wurden, ausgenommen, wenn sie die Laute "m“ und "n“ beinhalteten. Die Sprachverständlichkeit der unter Lärm gesprochenen Sprache ist um 5–20 % geringer als die der in Ruhe gesprochenen (s. Abb. 5.6.1-1). Die Differenz in der Verständlichkeit zwischen laut und leise gesprochener Sprache ist bei französischen Zuhörern am größten oder bei einem geringen Signal–Geräuschabstand, d.h. wenn die Verständlichkeit schon erschwert ist. Die bessere Sprachverständlichkeit für "n" und "m" gilt für alle Hörergruppen. Denkbar ist auch, dass die Laute "m" und "n" durch Rauschen weniger stark maskiert werden als andere Laute. Die Autoren weisen auf hohe Unterschiede der Sprechanstrengung hin, die bei Sprechpegeln in Ruhe und bei Lärm gemessen wurden (s. Tab. 5.6.1-1).
5.6 Verständlichkeit unterschiedlich gesprochener Sprache
103
Tabelle 5.6.1-1. Sprechpegel (LS) von fünf weiblichen und fünf männlichen Sprechern (Messort des Sprechpegels unbekannt), gesprochen in Ruhe und unter Lärm (85 dB) und deren Differenz (ţL) Sprecher männlich weiblich
LS in dB ţ LS in dB Ruhe 85 dB 29–38 48 – 56 4–24 35–43 45 – 54 7–18
In der oben zitierten Untersuchung wurden noch einige zusätzliche Bedingungen eingeführt: die Erhöhung der Anzahl der zu erkennenden Wörter, das Spektrum des verdeckenden Geräusches (WR, Sprechgeräusch (mehrere Sprecher)), getrennte Auswertung für männliche und weibliche Sprecher, differenziertere Bildung des Signal–Geräuschabstandes (gebildet im Mittel über alle Wörter, gebildet für jedes einzelne Wort/Phonem). Die Ergebnisse zeigen keinen klaren Trend: mal ist die Sprachverständlichkeit zwischen der in Lärm gesprochenen Sprache höher und mal niedriger als die der in Ruhe gesprochenen Sprache. Es zeigen sich weiterhin Geschlechtsunterschiede. In Ruhe wurde die von Männern gesprochene Sprache besser verstanden, während in Lärmbedingungen die von weiblichen Personen gesprochene Sprache besser verstanden wurde. Es wird vermutet, dass das Verhältnis der Schallintensität von Vokalen zu Konsonanten für die veränderte Sprachverständlichkeit verantwortlich ist (s. Abschn 5.5.5). Ebenso variieren die Sprechpegel von Sprecher zu Sprecher, die mit lauterem Sprechen auf das störende Geräusch an ihren Ohren reagieren (4–24 dB Pegeldifferenz zur Ruhe). Der höheren Sprechanstrengung (die Differenz der Sprechpegel Ruhe/Lärm) entspricht auch die Abnahme der Sprachverständlichkeit. Bei Sprechern, die die geringsten Pegeldifferenzen zwischen lautem und leisem Sprechen aufweisen, nimmt die Verständlichkeit der Sprache (gesprochen unter Lärm) sogar etwas zu. Junqua schließt daraus, dass offenbar die Art und Weise der Sprechanstrengung für die veränderte Sprachverständlichkeit verantwortlich ist. 5.6.2 Unterschiedlich laut gesprochene Sprache Übersicht, Abnahme der Sprachverständlichkeit Im Gegensatz zu einer durch hohe Geräuschpegel erzwungene laute Sprechweise (Lombardeffekt), wird jetzt auf die Sprechweise eingegangen, die durch entsprechende Instruktion veranlasst wird. Laut gesprochene oder geschrieene Sprache (LSA,1m > 70–80 dB) ist weniger verständlich als normal gesprochene Sprache unter sonst gleichen Bedingungen (gleicher Signal–Geräuschabstand, gleiches Sprachmaterial) (Pickett 1956; Rostol-
104
5 Sprechen in realer Umgebung und Hörer–Feedback
land u. Parant 1973; Lazarus–Mainka u. Lazarus 1984; Rostolland 1985; Lazarus–Mainka u. Reck 1986; Junqua 1993). Schon Pickett (1956) untersuchte leise bis sehr laut gesprochene Sprache und deren Verständlichkeit und konnte zeigen, dass die Sprachverständlichkeit bei sehr laut und leise gesprochener Sprache gering ist, die normale und angehobene Sprechweise aber ein Maximum an Sprachverständlichkeit erreicht (Abb. 5.6.2-1). Die Ergebnisse der aufgeführten Untersuchungen sind in Tabelle 5.6.2-1 zusammengefasst und in Abbildung 5.6.2-2 dargestellt. 100 SV/%
S/N/dB
80
6 0
60
-6 40 20 0 30 40 50
60 70 80 90 LSA,1m /dB
Abb. 5.6.2-1. Zu– und Abnahme der Sprachverständlichkeit (SV in %) bei lauter werdendem Sprechpegel (LSA,1m = 40–90 dB), bzw. zunehmender Sprechanstrengung (leise bis schreien), dargeboten mit LSA (beim Hörer) = 70 dB bei drei Signal–Geräuschpegeln (S/N in dB) (6, 0, -6 dB)
Nach ausführlichen Sprachverständlichkeitstests mit normaler und geschrieener Sprache in Ruhe und bei Lärm (rosa Rauschen) kommt Rostolland im dritten Teil seiner Studie (Rostolland 1985) zu dem Schluss, dass gesprochene Sprache immer besser zu verstehen ist als geschrieene. In ruhigen Hörbedingungen ergibt sich für die normal gesprochene und geschrieene Sprache, die mit drei verschiedenen Sprachpegeln (55, 80, 100 dB) abgespielt wurde, im Mittel eine Sprachverständlichkeit von 99.3 % und 89.6 %. Um bei rosa Rauschen 50 % Verständlichkeit zu gewährleisten, muss das Geräusch für geschrieene Sprache 5–10 dB niedriger sein als für normal gesprochene Sprache.
5.6 Verständlichkeit unterschiedlich gesprochener Sprache
105
Tabelle 5.6.2-1. Sprachverständlichkeit (SV in %) für unterschiedliche Sprechanstrengung (LSA,1m in dB), gemessen von mehreren Autoren mit verschiedenem Sprachmaterial (SM: Einsilber (E), Sätze (S), Zweisilber (ZS)), vorgegebenem Signal–Geräuschverhältnis (LSN in dB) und Sprachpegel am Ohr des Hörers (LSA) (Bandbegrenzung: obere Grenzfrequenz 3, 1 kHz) Autor Pickett 1956 Rostolland 1985 Lazarus–Mainka u. Reck 1986 Lazarus–Mainka u. Lazarus 1984 Summers et al. 1988 Junqua. 1993
Abb. 5.6.2-2
SM
P6 P-6 R1 R2 LR1 LR2 LL1 LL2 -
E in S E in S ZS Wörter S 3 kHz S 1 kHz E S Wörter
Abb. 5.6.1-1
Wörter Laute
Sprechanstr. LSA,1m in dB 35 90 63 95 50–90 50–90 59–75 59–75 -
LSN in dB LSA in dB 6 -6 5 10 -3...3 -3...3 -6 -6 -
70 70 55,80,100 55,80,100 50,70,90 50,70,90 59,75 59,75 -
0 0
-
Abb. 5.6.2-2. Sprachverständlichkeit (SV in %) in Abhängigkeit von der Sprechweise (LSA,1m), dargestellt für gleiche Untersuchungsbedingungen (4 Untersuchungen): P6, P-6; R1, R2; LR1, LR2; LL1, LL2; (s. Tab. 5.6.2-1). Wenn zwischen den Werten LSA,1m = 75 und 89 dB kein Messwert vorhanden, wurde die Sprachverständlichkeit bis LSA,1m = 75 als konstant angenommen (- - -)
106
5 Sprechen in realer Umgebung und Hörer–Feedback
In einem Sprachverständlichkeitstest mit rosa Rauschen und einem Signal–Geräuschabstand von LSNA= -6 dB kamen auch Lazarus–Mainka u. Lazarus (1984) zu dem Ergebnis, dass normal gesprochene Einsilber (LSA,1m = 59 dB) besser zu verstehen sind als laut gesprochene (LSA,1m = 75 dB), während bei Sätzen der Darbietungspegel (LSA = 59 dB/75 dB) über die Verständlichkeit entscheidet und nicht die Sprechanstrengung (LSA,1m). Die Sprachverständlichkeit für unterschiedlich laut gesprochene Sprache (Abb. 5.6.2-2) zeigt deutlich das Maximum an Verständlichkeit im Bereich normaler, angehobener bis lauter Sprechweise (LSA,1m = 50–75 dB). Hierbei ist die Darbietungsform, d.h. der Pegel der Sprache am Ohr des Hörers nicht immer unterhalb von 75–80 dB gewählt worden. Liegt der Sprachpegel am Ohr des Hörers oberhalb dieser Werte, wirken sich zusätzlich zum Einfluss der Sprechweise Nichtlinearitäten am Ohr des Hörers auf die Verständlichkeit aus (s. Abschn. 5.9). Das gilt vor allem für die Bedingung R1/100, R2/100 (Abb. 5.6.2-2), bei der die Sprache bei 100 dB und das Geräusch mit 90 dB dargeboten wurden und dadurch die Sprachverständlichkeit für geschrieene Sprache sehr gering wird (SV = 0–5 %). Aber auch im mittleren Pegelbereich der Sprechweise können sich unterschiedliche Verständlichkeiten ergeben (Lazarus–Mainka u. Raschdorf 1985a). Sätze, gesprochen normal, angehoben und laut (LSA,1m = 55, 66, 77 dB) wurden bei rosa Rauschen mit konstantem S/N–Abstand von LSNA = -4 dB dargeboten. Wie sich zeigte, war Sprache mit angehobener Sprechweise am besten zu verstehen (SV = 35 %), die Verständlichkeit normaler und lauter Sprache war geringer (SV = 20 % und 28 %). Aus der dargestellten Abnahme (Abb. 5.6.2-2) der Verständlichkeit mit steigender Sprechanstrengung wird eine entsprechende mittlere Abnahme des Sprechpegels um 0.4 (LSA,1m - 75 dB) ab LSA,1m > 75 dB angenommen, um den Signal–Geräuschabstand entsprechend zu reduzieren. D.h., wird statt mit 75 dB mit 80 dB gesprochen, wird der Sprechpegel (LSA,1m) und damit der effektive Signal–Geräuschabstand nicht um 5 dB sondern nur um (5 minus 2 dB =) 3 dB erhöht (s.a. Abb.7.2.3-1). Natürlich und normal bis angehoben gesprochene Sprache wird – bei gleichem Darbietungspegel und Signal–Geräuschabstand – immer besser verstanden als laut gesprochene oder geschrieene. Die Sprachverständlichkeit laut gesprochener und geschrieener Sprache sinkt deutlich ab. Geschrieene Sprache stellt offenbar einen Kompromiss dar zwischen der Notwendigkeit, die Intensität zu erhöhen, um gehört zu werden und gleichzeitig durch langsamere oder bessere Artikulation die phonetischen Strukturen hinreichend unterscheidbar zu halten, um noch verstanden zu werden (Rostolland 1985). Eine weitere Erhöhung der Sprechlautstärke würde daher nicht zu einer Erhöhung der Verständlichkeit führen, da ein
5.6 Verständlichkeit unterschiedlich gesprochener Sprache
107
Gewinn an Intensität (Quantität) mit einem Zuwachs an Verzerrung einhergeht und somit die Qualität der Information sinkt. 5.6.3 Deutlich gesprochene Sprache In den meisten Untersuchungen wurde der Sprecher veranlasst, unterschiedlich laut zu sprechen. Das wurde entweder durch Geräusche am Ohr des Sprechers oder durch die Instruktion laut zu sprechen oder zu schreien (oder auch gewisse Pegelmarken beim Sprechen einzuhalten) erreicht. Wie schnell und wie deutlich der Sprecher dabei artikulierte, blieb ihm überlassen (teilweise wurden solche Instruktionen auch zusätzlich gegeben). Picheny et al. (1985, 1986, 1989) variierten dagegen durch entsprechende Instruktionen die Sprechweise von Personen und ihre Artikulation. Sie instruierten drei geübte Sprecher sinnlose Sätze so zu sprechen, als würden sie in einem normalen Gespräch sein (entspanntes Sprechen), als würden sie a) durch Geräusche beim Sprechen gestört werden oder b) einer schwerhörigen Person etwas mitteilen müssen. Hierbei sollten sie darauf achten, Konsonanten genauer und lauter auszusprechen als sie es in einer normalen Konversation gewohnt waren. Sie sollten Wörter deutlich trennen und Adjektive, Verben und Substantive betonen. Die Aufnahmen wurden fünf Personen mit einer Schallempfindungsschwerhörigkeit als Verständlichkeitstest vorgespielt. Die gehörten Sätze sollten entweder nachgesprochen oder aufgeschrieben werden.
Ein Vergleich der beiden Bedingungen entspanntes vs. deutliches Sprechen ergab einen Vorteil der Sprachverständlichkeit (s. Tab. 5.6.3-1) zugunsten der deutlich gesprochenen Sprache um durchschnittlich 16 % (13–22 %). Eine nachträgliche Analyse der Aufnahmen ergab als Hauptunterschied zwischen den Sprechweisen eine Differenz der Sprechdauer: deutlich gesprochene Sätze wurden etwa doppelt so lang gesprochen, wie Sätze, die im Plauderton gesprochen wurden. Diese Erhöhung der Sprechdauer ergab sich aus zusätzlichen und längeren Pausen zwischen den Sprachlauten einerseits und einer Verlängerung der einzelnen Sprachlaute andererseits. Tabelle 5.5.4-1 zeigt den Unterschied in der Sprechgeschwindigkeit anhand der Dauer der Wörter und Silben. Außerdem zeigte die natürliche Sprache stärkere phonologische Modifikationen – es wurden mehr Sprachlaute „verschluckt“ als beim deutlichen Sprechen. Das Intensitätsverhältnis von Konsonanten zu Vokalen war bei deutlich gesprochener Sprache höher (s.a. Abschn. 5.5.5), außerdem gab es zwischen den Sprechweisen Unterschiede in den Formantfrequenzen (Tab. 5.5.3-1) und den Frequenzmaxima von Konsonanten. Die Grundfrequenz F0 lag bei deutlich gesprochener Sprache etwas höher. In einer Untersuchung von Köster et al. (2000) wurden ähnliche Ergebnisse erzielt (Tab. 5.6.3-1).
108
5 Sprechen in realer Umgebung und Hörer–Feedback
Tabelle 5.6.3-1. Sprachverständlichkeit für Sprache, die natürlich (wie bei entspannter Konversation), deutlich und durch Lärm am Ohr des Sprechers laut gesprochen wurde (Schwerhörige (Schw.)) Autor
Anzahl Sprecher Hörer
Picheny et al. 3 1985, 1986 Köster et al. 2000 6
Sprachverständlichkeit (SV in %) natürlich deutlich laut gesprochen gesprochen gesprochen 5 Schw. 51 67 20
75
87
92
Um nur den Einfluss der Sprechgeschwindigkeit zu untersuchen, wurden die Sätze des am besten verstandenen Sprechers aus der oben zitierten Untersuchung nachträglich modifiziert. Die durchschnittliche Geschwindigkeit der natürlich gesprochenen Sprache betrug in diesem Fall 200 Wörter pro Minute, die der deutlich gesprochenen Sprache dagegen 100 Wörter pro Minute. Für das nachfolgende Experiment wurden die Sprechgeschwindigkeiten der beiden Sprechweisen vertauscht. Die Geschwindigkeit der natürlichen Sprache betrug nur noch 100 Wörter pro Minute, die der deutlichen Sprache dagegen 200 Wörter pro Minute. Die Autoren konnten in ihrer Untersuchung nachweisen, dass die Sprechgeschwindigkeit für die Verständlichkeit von Sprache gering ist, denn es zeigten sich keine Unterschiede in der Verstehensleistung. Um zu prüfen, ob auch ungeübte Sprecher ihre Verständlichkeit für Schwerhörige durch deutliches Sprechen erhöhen können, ließ Schum (1996) 20 ungeübte Sprecher sinnvolle Sätze sprechen. Es wurde sichergestellt, dass die Sprecher nicht über irgendeine Form von Sprachausbildung verfügten und keine Schwerhörigen zu ihrem engeren Bekanntenkreis zählten. Da zusätzlich geprüft werden sollte, ob deutliches Sprechen vom Alter abhängig ist, nahmen zehn junge (22–39 Jahre) und zehn ältere (62–70 Jahre) Sprecher am Experiment teil. Die Hälfte der Sätze sollte wie in einem normalen Gespräch gesprochen werden, die andere Hälfte sollte deutlich gesprochen werden. Die Sprecher wurden instruiert, sich vorzustellen, sie sprächen mit einer schwerhörigen Person; sie sollten jedes Wort möglichst klar und deutlich aussprechen. Die so erstellten Aufnahmen wurden 60 Personen mit einer Schallempfindungsschwerhörigkeit im Alter von 62–70 Jahren vorgespielt.
Es konnte festgestellt werden, dass sich die Verstehensleistung schwerhöriger Personen bei deutlich gesprochener Sprache signifikant verbesserte. Sie war jedoch nicht vom Alter der Sprecher abhängig. Die akustischen Unterschiede zwischen normal und deutlich gesprochener Sprache in der Untersuchung von Schum (1996) stimmten mit den Befunden von Picheny et al. (1985, 1986) überein.
5.7 Sprechpegel und Entfernung bei Gesprächen im Alltagsbereich
109
5.6.4 Sprechweise und Sprachverständlichkeit, Zusammenfassung Bei laut gesprochener Sprache ist die Lautstruktur verändert und führt zu einer Verschlechterung der Verständlichkeit. Die Verständlichkeit von geschrieener Sprache ist reduziert, weil x die Vielfalt der Vokale bei geschrieener Sprache geringer (die Formantfrequenzen verändern sich bei geschrieener Sprache weniger von Vokal zu Vokal als bei normal gesprochener Sprache, Abb. 5.5.3-1), x die Intonation (Veränderung der Grundfrequenzen beim Sprechen) im gewissen Umfang eingeschränkt (Rostolland 1982a, b) und auch x die Pegeldynamik der Sprache geringer (s. Abschn. 5.3) ist. Nach Pickett (1956) nimmt die Verständlichkeit sehr laut gesprochener Sprache (LSA,1m > 75 dB) mit etwa 20 % pro 10 dB Zunahme des Sprechpegels bei gleich bleibendem Signal–Geräuschabstand ab (s. Abb. 5.6.2-2). Je nach Kommunikationssituation spricht der Sprecher in unterschiedlicher Weise. Beim Sprechen in lärmiger Umgebung oder bei instruiertem lauten Sprechen oder Schreien wird der Sprechpegel erhöht. Die Parameter der Sprache (Grundfrequenz, Formantfrequenzen, Sprechgeschwindigkeit) verändern sich dann. Sprecher und Hörer empfinden das Kommunizieren im Lärm als unangenehm, deshalb wird weniger gesprochen und knapper formuliert. Die Vokale werden gedehnt. Normale, angehobene und etwas lauter gesprochene Sprache wird am besten verstanden. Sehr laut gesprochene (LSA,1m > 75 dB) und geschrieene Sprache wird unter sonst gleichen Hörbedingungen schlechter verstanden. Geschrieene Sprache ist weniger deutlich, mehr Laute werden verschluckt. Sie zeigt weniger Betonung und Intonation. Sprecher können sich auch ohne Training bemühen, deutlich zu sprechen und dadurch ihre Verständlichkeit für Schwerhörige signifikant verbessern.
5.7 Sprechpegel und Entfernung bei Gesprächen im Alltagsbereich Gesprächssituation in Wohnungen, öffentlichen Räumen, Schulen Umgebungsgeräusche, Abstand zwischen Sprecher und Hörer, Blickkontakt sowie räumliche Gegebenheiten (u.a. Nachhallzeit) beeinflussen den Ablauf der face–to–face–Kommunikation. Sie bestimmen weitgehend die Lautstärke des Sprechpegels. Um die in der face–to–face–Kommunikation
110
5 Sprechen in realer Umgebung und Hörer–Feedback
vorherrschenden Sprechpegel zu erfassen, haben Pearsons et al. (1977) und Heusden et al. (1979) Untersuchungen durchgeführt, die im Unterschied zu den meisten in Abschnitt 5.4, 5.5 und 5.6 referierten Arbeiten in realen Alltagsbedingungen stattfanden (s. Tab. 5.7-1). In den Untersuchungen von Pearsons et al. (1977) konnten die Gesprächspartner die Entfernung zueinander frei wählen. Der Schallpegel der Sprache und des Störgeräusches wurde mit einem Mini–Mikrofon, das an der Brille des Hörers befestigt war, registriert. Bei der Auswertung der Schallpegel wurde der Sprechpegel vom Pegel des Störgeräusches bereinigt. Der Pegel des Störgeräusches wurde in Sprechpausen der Gesprächspartner erhoben. Die Unterhaltungen, deren Sprechpegel gemessen wurden, fanden im Wohnbereich, außerhalb der Wohnungen in ruhigen Vorstädten und in lauteren Innenstädten statt. Repräsentative Sprechpegel für öffentliche Bereiche (Pearsons et al.) wurden in Räumen von Krankenhäusern, Kaufhäusern und Verkehrsmitteln (Eisenbahn, Flugzeug), Sprechpegel für den Arbeitsbereich wurden in Rechenräumen, Heizräumen und in Kantinen (Heusden et al. 1979) ermittelt.
Die Geräuschpegel lagen in den Wohnungen bei LNAeq = 35–50 dB, im Krankenhaus bei LNAeq = 45–55 dB, im Kaufhaus bei LNAeq = 55 dB und in Verkehrsmitteln bei LNAeq = 70–80 dB. Wie man in Abbildung 5.3-1 (Kurve H1, H2, PB) sehen kann, ist bei einem Hintergrundgeräusch bis zu LNAeq d 45 dB der Sprechpegel kleiner als LSA,1m d 55 dB. Steigt der Schallpegel des Störgeräusches auf etwa LNAeq | 70 dB an, so hebt der Sprecher seinen Schallpegel auf LSA,1m = 68 dB an. Entsprechend gilt, dass der Sprecher um c = 0.5 bis 0.6 dB pro 1 dB Anstieg des Störpegels lauter spricht. Ist der Störpegel 70 dB oder höher, ist nur noch ein geringer Anstieg des Sprechpegels zu beobachten (Abb. 5.3-1, Kurve PB). Im öffentlichen Bereich, in dem das Umgebungsgeräusch einen höheren Pegel hat, werden vor allem zwei Strategien realisiert, um sich als Sprecher verständlich zu machen, x die Sprechintensität wird erhöht, x die Entfernung von Sprecher und Hörer wird reduziert.
5.7 Sprechpegel und Entfernung bei Gesprächen im Alltagsbereich
111
Tabelle 5.7-1. Mittlere Sprechpegel und deren Streuung (s) im Alltagsbereich; beschrieben sind: die Räume, die Umgebung (Volumen (V in m3); Nachhallzeit (T in s)), der Mittelungspegel des Störgeräusches im Raum (LNAeq), der mittlere Sprechpegel (LSA,1m: 1 m Abstand vom Sprechermund, beim Hörer (LSA (r)), Abstand der Gesprächspartner (r in m; vorgegeben und selbst gewählt) (2. Zeile: nach Heusden et al. 1979; 3. bis 6. Zeile: nach Pearsons et al. 1977) Gesprächsumgebung in dem/ der
Mittlerer Sprechpegel
Beschreibung der Umgebung
LNAeq , s LSA,1m, s LSA(r), s in dB in dB in dB Hallraum Kantine Rechnerraum Auto Heizraum Heizraum Wohnhaus außen Stadt Vorstadt innen Stadt Vorstadt Krankenhaus (4) 23 Räume Kaufhaus (Kh) Eisenbahn Flugzeug (5)
V in m3 65 310 100 3 300 300
T in s 3.2 0.7 0.2 0.2 0.8 0.8
25 Wohnhäuser an ruhigen und verkehrsreichen Straßen Operat.– u. Schwesternr. Patientenräume 19 Räume in 7 Khn 11 Reisende 12 Reisende
31 39 61 65 65 75 61 48 48 41 52 45 54 74 79
53 52 58 61 62 66 5 4 3 2 5 2 4 3 3
65 55 57 55 56 56 58 66 68
4 5 6 5 3 2 3 2 4
66 56 57 55 57 55 61 73 77
r in m
vorgegeben 1 1 1 1 1 1 selbstgew. 4 0.5–2.0 5 6 5 4 0.8–1.4 1 3 0.6–1.0 3 0.3–0.6 4
In der Untersuchung von Pearsons et al. (1977) konnten die Gesprächspartner – wie schon erwähnt – ihre Entfernung zueinander weitgehend selbst wählen. Wie beobachtet werden konnte, reduzierten die Gesprächspartner ihren Abstand nicht erst bei hohen Geräuschpegeln von 70 dB (Abb. 5.7-1). Schon bei Geräuschpegeln von LNAeq = 35–45 dB lagen die Entfernungen zwischen den Gesprächspartnern bei 2–0.7 m, im Durchschnitt bei etwa 1.1 m, und wurden mit steigenden Geräuschpegeln geringer gewählt. Für Geräuschpegel von LNAeq = 50–60 dB lag der Abstand bei 0.9–0.6 m. Lag ein Störpegel von etwa LNAeq = 70–85 dB vor, war der Abstand zwischen Sprecher und Hörer ungefähr 0.5–0.3 m. Das bedeutet, dass bei einem Anstieg des Geräuschpegels um ca. 25 dB die Gesprächspartner ihren Abstand halbieren. Der Kurvenverlauf der Sprechpegel im Bereich sehr niedriger Geräuschpegel deutet an, dass der Sprecher ein Umgebungsgeräusch von LNA = 35–40 dB schon als etwas zu hoch empfindet. Selbst bei diesen niedrigen
112
5 Sprechen in realer Umgebung und Hörer–Feedback
Geräuschpegeln ist schon ein leichter Anstieg der Sprechpegel LSAeq,1m = 48–55 dB bei ansteigenden Geräuschpegeln von LNAeq = 30 auf 40 dB zu beobachten (Abb. 5.3-1, Kurve H1, H2).
Abb. 5.7-1. Artikulationsindex (AI) für die einzelnen Gesprächssituationen (Ŷ innerhalb und außerhalb von Wohnhäusern, x sonstige Bereiche, s. Tab. 5.7-1), dargestellt über dem Schallpegel des Geräusches (LNA) sowie über dem Sprachpegel am Ohr des Hörers (LSA) und über dem Abstand zwischen Sprecher und Hörer (r); der Artikulationsindex wurde aus dem am Ohr gemessenen Terzschallpegel des Geräusches und der Sprache bestimmt (nach Pearsons et al. 1977) (alle Schallpegel sind Mittelungspegel (LAeq))
In der Regel – so kann angenommen werden – spricht der Sprecher entspannt oder orientiert seine Sprechlautstärke am Pegel des Umgebungsgeräusches. Ist der Pegel des Geräusches kleiner als LNA = 45 dB, wird ein Sprechpegel gewählt, der beim Hörer mehr als 10 dB über dem Geräuschpegel liegt (Abb. 5.7-1). Bei lauteren Geräuschen steigt zwar der Sprechpegel an und der Abstand von Sprecher zu Hörer verringert sich, trotzdem sinkt der Signal–Geräuschabstand bis zu einem Geräuschpegel von LNA = 70 dB auf etwa LSNA = 0 dB ab. Bei einem Störgeräusch von LNAeq = 80–85 dB, kann ein Signal–Geräuschabstand von LSNA = -5 dB am Ohr des Hörers beobachtet werden. In Abbildung 5.7.1 ist der aus den Spektren der Sprache und des Geräusches bestimmte Artikulationsindex für die einzelnen Gesprächssituationen (LSAeq, LNAeq, r) angegeben. Interessant sind die Messergebnisse, die Pearsons et al. (1977) von Lehrern im Unterricht erhielten. Die Entfernung zu den Schülern variiert von 2 bis 10 Meter. Störgeräusche in einer Schulklasse sind zum einen durch
5.7 Sprechpegel und Entfernung bei Gesprächen im Alltagsbereich
113
die Schüler selbst verursacht (Stühle rücken, unterhalten), zum anderen durch Verkehrsgeräusche (Flugzeug, Kraftfahrzeug, Straßenbahn) bedingt. Da die Sprachverständlichkeit im Schulunterricht Voraussetzung für ein ungestörtes Arbeiten ist, sollte der Lehrer dafür sorgen, dass er immer verstanden wird. Der Geräuschpegel im Klassenraum liegt in dieser Untersuchung bei LNAeq = 45–56 dB (vgl. Tab. 12.2-1), der Sprechpegel der Lehrer in 1 m Abstand bei LSAeq = 67–78 dB. Die Lehrer benutzen also Sprechweisen von angehoben bis sehr laut. Im Unterschied zu einem Sprecher im nichtschulischen Bereich, der seinen Sprechpegel um c = 0.4–0.6 dB/dB Anstieg des Geräuschpegels anhebt, spricht der Lehrer um c = 1 dB/dB lauter (s a. Abb. 12.2.4). Die Ergebnisse weisen auf den Einfluss hin, den die Entfernung von Sprecher und Hörer und die Intention des Sprechers auf den Sprechpegel haben. Pearsons et al. zeigen, dass etwa 20 % der Lehrer mit einem Schallpegel sprechen müssen, der höher als LSA,1m = 75 dB ist. Die oben zitierten Untersuchungen (Pearsons et al.) wurden in 2 Schulen durchgeführt, deren Geräuschpegel in den Klassenräumen um etwa 3 dB und deshalb auch der Sprechpegel der Lehrer um 4 dB voneinander verschieden waren (s. Tab. 12.2-2). Der Signal–Geräuschabstand war in 2 m Abstand vom Lehrer etwa LSNA = 15 dB und in 7 m Abstand etwa LSNA = 10 dB. Die Sprachverständlichkeit in den Klassenräumen wurde mit Einsilbern (PB–Wörtern) bestimmt, wobei die Lehrer die Einsilber mit ihrer im Unterricht üblich produzierten Sprechlautstärke vorlesen sollten.
Die Sprachverständlichkeit lag bei SV = 60–95 %. Der aus dem Spektrum der Sprache und des Geräusches bestimmte Artikulationsindex (AI) lag bei AI = 0.65–1.00; die aus diesen AI–Werten bestimmte Verständlichkeit von Einsilbern liegt bei SV = 85–100 %. Vergleicht man die im Versuch erhobenen Werte der Verständlichkeit von Einsilbern mit denen, die aus den gemessenen Spektren vorhergesagt wurden, miteinander, so stimmen sie nur mäßig überein. Obwohl Blickkontakt zwischen dem Lehrer und den Schülern vorhanden war, wurde weniger verstanden als mit Hilfe des Artikulationsindex (ohne Blickkontakt) vorhergesagt wird. Ergebnisse weiterer Untersuchungen werden in Abschnitt 12.2 diskutiert. Zusammenfassend kann festgehalten werden, dass die Gesprächspartner oder auch nur Vortragende ihr Verhalten an die mehr oder weniger schwierigen Kommunikationssituationen flexibel anpassen: Um sich verständlich zu machen verändern sie den Abstand zu ihrem Gegenüber und passen ihren Sprechpegel zusätzlich zum Lombardeffekt an die aktuellen akustischen Bedingungen an.
114
5 Sprechen in realer Umgebung und Hörer–Feedback
5.8 Sprechverhalten und Hörer–Feedback Sprecherreaktionen auf den Hörer, Interaktion der Gesprächspartner unter Lärm Differenzierte Untersuchungen zur Sprachkommunikation, in denen das Verhalten der Gesprächspartner beobachtet wird, leiden unter Einschränkungen und Begrenzungen. Zum einen werden Untersuchungen mit Gesprächspartnern im Feld oder in möglichst realen Laborbedingungen durchgeführt. Felduntersuchungen sind recht aufwändig und machen kontrollierte Bedingungen äußerst schwierig, sie werden insofern eher seltener realisiert (s. Tab. 5.3-1). Zwei Untersuchungen sind hier zu nennen (Pearsons et al. 1977; Guski u. Wühler 1989). Zum anderen werden die Gesprächspartner in Experimenten getrennt untersucht (sog. Einwegkommunikationssituation). Der Sprecher spricht nur in das Mikrofon oder der Hörer hört Sprache über Tonband aus Lautsprechern. Untersuchungen mit Sprechern sind in den vorherigen Abschnitten (Abschn. 5.2–5.6) beschrieben, Untersuchungen nur mit Hörern folgen in Kapitel 6. Natürlich ist die Verkürzung einer Gesprächssituation auf die Einwegkommunikation eine Beschränkung, die zu Fehlern und Fehlinterpretationen führen kann. Hier soll deswegen über einige Versuche berichtet werden, die die Interaktion zwischen Sprecher und Hörer im Labor simulieren. Das Sprechen wird also nicht isoliert untersucht, sondern der Realität entsprechend durch Rückmeldungen eines Hörers beeinflusst. Eine Gesprächssituation ist als Interaktion zu sehen, in der die Partner das gemeinsame Ziel verfolgen, miteinander zu kommunizieren; dabei hat der Sprecher die Absicht, den Hörer zu informieren. Der Hörer hat das Ziel, den Sprecher bestmöglich zu verstehen. Er wird in der Regel dieses Bemühen erst beenden, wenn der verstandene Inhalt sinnvoll erscheint (Lazarus–Mainka 1984a). In den zu zitierenden Untersuchungen wird der Einfluss verschiedener Variablen auf das Verhalten des Sprechers erfasst, in dem der Sprecher – wie in einer echten Kommunikationssituation – durch den Hörer ein Feedback bekommt. In Alltagssituationen ist im Allgemeinen davon auszugehen, dass der Sprecher erkennen kann, ob er vom Hörer verstanden wird oder nicht. Um das Feedback des Hörers als Einflussvariable auf das Sprecherverhalten zu untersuchen, teilten Longhurst u. Siegel (1973) 30 Studenten in Sprecher– und Hörerpaare ein. Der Sprecher hatte die Aufgabe einem Hörer durch ein Mikrofon mehrdeutige Strichzeichnungen zu beschreiben. Der Hörer hörte den Sprecher durch Kopfhörer und hatte die Aufgabe, aus einem Set von Zeichnungen die beschriebene auszuwählen. Blickkontakt gab es nicht, der Hörer hatte auch keine Möglichkeit, mit dem Sprecher zu kommunizieren. Nach der Entscheidung des
5.8 Sprechverhalten und Hörer–Feedback
115
Hörers für eine der Figuren, wurde beiden Versuchspersonen sofort mitgeteilt, ob die Wahl korrekt oder inkorrekt war. Dieses Feedback war zugleich für den Sprecher ein Hinweis über die Effektivität seiner Mitteilung an den Hörer. Im Experiment wurden folgende Störbedingung eingeführt: das Sprachsignal wurde zweimal pro Sekunde unterbrochen – die Sprache war für 150 ms nicht, dann wieder für 350 ms zu hören. Die Störbedingung wurde im Experiment wie folgt variiert: entweder hörte nur der Hörer die unterbrochene Sprache, oder nur der Sprecher oder beide Gesprächspartner hörten gleichzeitig die gestörte Sprache. Die Störung (Unterbrechung) wurde den Probanden angekündigt.
Die Auswahl der Strichzeichnung erfolgte in nahezu 100 % der Durchgänge korrekt, solange nur der Sprecher seine eigene Stimme unterbrochen hörte. Wurde jedoch die Sprache nur für den Hörer unterbrochen, sank die Trefferquote auf 50 %. Störungen für den Hörer hatten somit eine deutliche Auswirkung, während die Störung für den Sprecher keine Auswirkung auf die Trefferquote hatte. Auch das Verhalten des Sprechers wurde durch die künstlich herbeigeführte Kommunikationsstörung beeinflusst. In den Durchgängen, in denen die Sprache beim Sprecher gestört war, nahm die Dauer der Beschreibung durch den Sprecher signifikant zu (bis etwa auf die dreifache Dauer), die Sprechgeschwindigkeit hingegen nahm signifikant ab. In der Bedingung, in der nur der Hörer die Unterbrechung hört, werden statt 121 nur 101 Wörter pro Minute gesprochen, das Type–Token–Ratio verändert sich. Das Type–Token–Ratio beschreibt das Verhältnis zwischen der Anzahl der verschiedenen Wörter in einem Text zu der Gesamtanzahl der Wörter in diesem Text. Der Quotient misst also die Diversität der Sprache bzw. umgekehrt deren Redundanz. Es zeigt sich eine signifikante Zunahme der Redundanz bzw. Abnahme des Abwechslungsreichtums der verwendeten Sprache. Das Type–Token–Ratio nimmt, bedingt durch die Störung des Hörers, von 0.55 auf 0.4 ab – d.h. in einer nicht gestörten Bedingung werden von 100 gesprochenen Wörtern 55 unterschiedliche verwendet, in der gestörten Bedingung jedoch nur 40. Interessant ist weiterhin der Befund aus dieser Untersuchung, der den Zusammenhang zwischen Hörerleistung und Beschreibungsdauer herstellt. Während die Beschreibungsdauer sich vom ersten Durchgang an rapide verkürzte, blieb die Leistung der Hörer unabhängig von den Durchgängen und damit von der Beschreibungsdauer nahezu hundertprozentig stabil. Auch in den gestörten Durchgängen nahm die Beschreibungsdauer von Durchgang zu Durchgang ab, sie nahm jedoch nicht so steil ab wie in der ungestörten Bedingung. Offensichtlich liegt hier ein gegenseitiger Verstärkungsprozess vor. Auf korrekte Wahlen des Hörers reagiert der Sprecher mit einer Beschreibungsverkürzung, ohne dabei jedoch die inhaltliche Information zu verringern.
116
5 Sprechen in realer Umgebung und Hörer–Feedback
Die Ergebnisse zeigen klare Auswirkungen der Sprecher–Hörer–Interaktion auf die verwendete Sprache. Wurde der Sprecher gut verstanden, verkürzte er seine Beschreibungen. Wurde er nicht verstanden, benutzte der Sprecher verschiedene Strategien: er beschrieb länger, benutzte weniger verschiedene Wörter und sprach langsamer. Der Sprecher reagiert also äußerst sensibel und flexibel auf das Verhalten des Hörers. Interessant ist, dass die Strategien, die in der zitierten Untersuchung zum Einsatz kamen, die gleichen sind, die im Umgang mit Kindern, die noch nicht richtig sprechen können, benutzt werden. Ebenso bestehen Ähnlichkeiten zu den Veränderungen der Sprechweise, die zu beobachten sind, wenn bei Umgebungsgeräuschen gesprochen wird. (s. Abschn. 5.3). Schober u. Clark (1989) gehen davon aus, dass für das Verstehen von Sprache wichtig ist, ob ein Hörer aktiv am Gespräch teilnehmen kann oder nicht. Sie unterscheiden deshalb zwischen dem Gesprächspartner als aktivem Teilnehmer („adressee“) und dem Nur–Zuhörer („overhearer“). Ihre Annahme ist, dass die Gesprächspartner durch ständiges Feedback sicherstellen, dass ihre Kommunikation erfolgreich verläuft. Ein Zuhörer, der sich nicht aktiv am Gespräch beteiligen kann, hat diese Möglichkeit nicht. Diese „kollaborative“ Sichtweise von Kommunikation ergänzt die Sichtweise der Einwegkommunikation, die davon ausgeht, dass der Hörer die Sprache des Sprechers nur wahrnimmt, sie dekodiert und aufgrund der gemeinsamen Wissensgrundlage interpretiert. Um die kollaborative Sichtweise der Kommunikation zu stützen, führten Schober u. Clark (1989) ein Experiment durch, in dem zwei einander unbekannte Versuchspersonen geometrische Figuren in eine bestimmte Reihenfolge bringen sollten. Die Personen waren durch einen Schirm voneinander getrennt, konnten aber soviel miteinander reden, wie sie wollten. Eine der Personen, der „Direktor“, hatte einen Musterbogen vorliegen, der die Reihenfolge der Figuren vorgab. Er sollte seinen Partner so schnell wie möglich davon unterrichten, in welcher Reihenfolge die Figuren zu arrangieren sind. Eine dritte Person bekam die gleiche Aufgabe. Sie war jedoch nur Zuhörer und bekam das Gespräch der beiden Personen über eine Tonkonserve vermittelt.
Die Analyse der geführten Gespräche zeigte, dass mit fortschreitender Dauer und Wiederholung des Versuches (jedes Paar führte die Aufgabe sechsmal durch), die Kommunikation sparsamer und effizienter wurde. Im ersten Durchgang sprach der „Direktor“ durchschnittlich 73 Wörter pro Figurenreihenfolge, im sechsten Durchgang wurden nur noch 13 Wörter gesprochen. Sein Partner sprach zu Beginn 39 Wörter, am Ende des Versuchs nur noch durchschnittlich 3 Wörter pro Figurenreihenfolge. Zu Beginn des Versuchs gab es pro Figurenreihenfolge 7.8 Sprecher–Hörer– Interaktionen, im letzten Durchgang nur noch 1.1 Interaktionen. Die durchschnittliche Dauer der Diskussionen zur Position einer Figurenreihenfolge reduzierte sich im Lauf des Versuchs von 39 auf 6 Sekunden.
5.8 Sprechverhalten und Hörer–Feedback
117
Ein Vergleich der Leistungen vom Gesprächspartner als Zuhörer und vom Nur–Zuhörer zeigte einen deutlich signifikanten Unterschied in der Genauigkeit der Aufgabenerfüllung: der teilnehmende Zuhörer erfüllte die Aufgabe zu 99 % korrekt, der Nur–Zuhörer zu 88 %. Nur–Zuhörer, die die Bandaufnahme erst vom dritten Durchgang an hörten, denen also ein Teil des gemeinsamen Wissenshintergrunds vorenthalten wurde, lösten 68 % der Aufgaben korrekt. Ein Folgeexperiment zeigte (Schober u. Clark 1989), dass die Leistung der Nur–Zuhörer sich auch nicht verbessern konnte, wenn sie dem Gespräch beiwohnten, aber nicht nachfragen konnten. Bei diesem Versuchsaufbau befanden sich die drei Personen gleichzeitig im Raum. Sie waren aber durch Sichtbarrieren voneinander getrennt. Die Leistung des teilnehmenden Zuhörers und des Nur–Zuhörers entsprachen in etwa der des ersten Versuchs, nämlich 98 % bzw. 85 %. Die Ergebnisse von Schober u. Clark machen deutlich, dass Kommunikation ein interaktiver Vorgang ist, in dem Sprecher und Hörer gemeinsam ein ausreichendes Sprachverstehen sicherstellen. In einer echten Kommunikationssituation nimmt der Hörer Einfluss auf das Verhalten des Sprechers. Der Unterschied in der Verstehensleistung eines am Gespräch teilnehmenden Zuhörers und eines Nur–Zuhörers ist sowohl auf die Möglichkeit des teilnehmenden Zuhörers zurückzuführen, aktiv ins Gespräch einzugreifen, wie auch vom Bemühen des Sprechers, sich dem Gesprächspartner verständlich zu machen, wenn dieser ihn darum bittet. Lazarus–Mainka u. Leushacke (1985) haben in ihrer Untersuchung den Einfluss des Geräuschpegels (LNA = 45, 67.5, 90 dB) auf die sprachliche Interaktion beobachtet. Ein Sprecher hatte die Aufgabe, einem ihm gegenübersitzenden Hörer eine Bildergeschichte zu erzählen, die aus 5 Bildepisoden bestand. Der Hörer sollte sofort nachfragen, wenn er etwas nicht verstanden hatte. Nach jeder Episode musste der Hörer ihren Inhalt wiedergeben. Die Gesprächspartner saßen in 1.5 m Abstand voneinander, der Blickkontakt war durch einen halbtransparenten Vorhang verhindert. Aus den Ergebnissen, die in Tabelle 5.8-1 aufgelistet sind, wird deutlich, dass der Sprecher und der Hörer auf den höheren Geräuschpegel reagieren. Beide Personen sprechen lauter und monotoner. Der Sprechpegel des Hörers ist um 2 dB leiser als der des Sprechers. Obwohl die gesamte Sprechzeit von Geräuschpegel zu Geräuschpegel in etwa gleich bleibt (S: 70–75 s, H: 45–52 s), nimmt die Anzahl der gesprochenen Wörter, insbesondere die der Inhaltswörter ab und die Sprechzeit pro Wort zu (Zeile 5, 7, 6). Es wird weiterhin mehr nachgefragt und die Anzahl der Interaktionen nimmt abhängig vom Geräuschpegel zu (Zeile 8, 9).
118
5 Sprechen in realer Umgebung und Hörer–Feedback
Tabelle 5.8-1. Sprachkommunikation unter Lärm (LNA) mit 18 Gesprächspaaren (S: Sprecher, H: Hörer) 1 2 3 4 5 6 7 8 9 10
Geräuschpegel LNA Sprechpegel LSA,1m Signal–Geräuschabstand LSNA Pegelschwankung der Sprache DLA5% Anzahl gesprochener Wörter Sprechzeit pro Wort Anzahl der Inhaltswörter Anzahl der Nachfragen Interaktion (S–H) beim Nichtverstehen Belästigung (Skala 0–9)
S, H S H S S S S H S H
45 51.5 10 5 222 310 134 6 0.44 0.7 1.1
67.5 65.5 1.5 4 213 350 133 7 0.75 2.5 2.7
90 76.5 -10 3 160 440 91 14 3.5 6.0 5.9
dB dB dB dB ms -
Mit zunehmendem Geräuschpegel (von 45 auf 90 dB) nehmen auch Belästigung und Anstrengung zu. In der leisen Situation (45 dB) ist die Belästigung für den Sprecher geringer als für den Hörer. In der lauten Situation (90 dB) fühlen sich dagegen beide Gesprächspartner etwa gleich belästigt (Zeile 10). Obwohl der Sprecher um ca. 25 dB lauter spricht und sich somit deutlich mehr anstrengt, gelingt es ihm nicht, einen Signal–Geräuschabstand zu erreichen, der eine ausreichende Sprachverständlichkeit ermöglicht (der S/N–Abstand sinkt um ca. 20 dB ab). Insgesamt wird im Lärm aber nicht nur lauter, sondern auch weniger gesprochen, knapper formuliert und weniger Information übermittelt, außerdem langsamer und monotoner gesprochen. Diese veränderte Sprechweise führt zu einer geringeren Sprachverständlichkeit. Eigentlich wäre es angeraten, im Lärm mehr zu sprechen als bei niedrigen Geräuschpegeln. Hier sieht man recht deutlich, dass der Hörer nur begrenzt Einfluss darauf hat, den Sprecher zu einer gleich bleibenden Sprachverständlichkeit zu bewegen. Offenbar gibt es die gemeinsame Intention der Gesprächspartner, eine Sprachkommunikation zu erreichen, dabei aber gleichzeitig die Anstrengung (Belästigung) in Grenzen zu halten. Da jeder Sprecher auch Hörer ist, gelingt ihnen das auch, wie die etwa gleichen Mittelwerte der Belästigungsskala bei mittlerem und hohem Geräusch zeigen (Zeile 10). In einem von Lindblom (1990) formulierten Modell über das Sprechen unter Geräuscheinwirkung wird angenommen, dass es das Bestreben des Sprechers ist, die Verständlichkeit im Rahmen der vorgegebenen situativen Bedingungen zu maximieren (hypo speech– and hyper speech–model), wobei das Hörerfeedback als Richtschnur genutzt wird. Entsprechend der Ergebnisse aus verschiedenen Untersuchungen, ist es jedoch sinnvoll, das Modell im Hinblick auf die Sprecher–Hörer–Interaktion zu ergänzen bzw. einzuschränken. Wie aus der Diskussion über die Sprechweise zur Raum-
5.8 Sprechverhalten und Hörer–Feedback
119
größe, zum Hintergrundgeräusch und Gesprächsentfernung (Abschn. 5.2, 5.3, 5.4) hervorgeht, reagiert der Sprecher relativ spontan auf die Umgebung (Geräuschpegel, Entfernung des Gesprächspartners, Raumgröße). Ganz sicher ist, dass es nicht das alleinige Ziel des Sprechers ist, die Sprachverständlichkeit (die er vermeintlich beim Hörer erreicht) zu maximieren. Denn der Sprecher spricht nicht ohne Grund lauter. Wenn er beim Hörer wirklich eine bestmögliche Verständlichkeit gewährleisten möchte, müsste er schon beim Sprechen in Geräuschen mittlerer Stärke (LNA = 50–60 dB) seinen Sprechpegel stark erhöhen, um wenigstens 1 dB pro 1 dB Anhebung des Geräusches. Je nach Umgebungssituation hebt er seinen Sprechpegel aber nur ca. um 0.5 dB/1 dB Geräuschpegelzunahme (s. Abschn. 5.3) an, d.h. die Sprachverständlichkeit beim Hörer sinkt. Eine weitere Frage ist, woher der Sprecher seine Information über die Höhe der Verständlichkeit bezieht. Aus Beobachtungen von Gesprächssituationen zwischen Normalhörenden und Schwerhörigen ergibt sich eher die Vermutung, dass, wenn nicht ständig eine deutliche und massive Rückmeldung durch den Hörer erfolgt, der Sprecher in für ihn gewohnter Weise spricht (entspannt, mehr oder weniger schnell und undeutlich, normale Lautstärke). Natürlich erarbeiten sich die Personen einen anderen Sprechstil, die häufig mit Älteren oder Schwerhörigen umgehen (Familienangehörige, Personal), die Sprache schlechter verstehen. Auch erhöhen Lehrer sogar ihren Sprechpegel um ca. 1 dB, bei einer Geräuschpegelzunahme von 1 dB, doppelt so viel wie üblich, um gut verstanden zu werden (Abschn. 5.7, 12.2). Diesen beiden Sprechstilen sind aber bewusste langfristige Lernprozesse vorausgegangen. Insofern sollte das Modell (s. Tab. 5.8-2) eher in folgender Weise formuliert werden: der Sprecher verändert seine Sprechweise (lauter und deutlicher sprechen) und erhöht damit seine Sprechanstrengung nur insoweit, wie unbedingt erforderlich. Gegebenenfalls stellt sich eine Verständlichkeit und Sprechanstrengung ein, die für jede Seite (Hörer, Sprecher) etwa gleich ist (Lazarus 1986b, c). Tabelle 5.8-2. Reaktion des Sprechers mit seiner Sprechweise auf Einflussfaktoren (x zutreffend, - nicht zutreffend) Einflussgrößen
Geräuschpegel Entfernung zum Gesprächspartner Raumgröße Sprechsituation (Gespräch, Vortrag) Rückmeldung des Hörers (verbal, visuell)
Reaktionen des Sprechers reflekto- spontan– kognitiv risch intuitiv x x x x x x x x x x
120
5 Sprechen in realer Umgebung und Hörer–Feedback
Die Faktoren, die die Sprechweise unter bestimmten akustischen Bedingungen variieren, sind in Tabelle 5.8-2 zusammenfassend aufgeführt. Der Sprecher hat bei seinen spontan–intuitiven und kognitiven Reaktionen durchaus die Intention das Gespräch zu verbessern, also die Verständlichkeit für seinen Hörer anzuheben. Dagegen steht, dass er nicht weiß, wie viel Anstrengung erforderlich ist. Insbesondere funktioniert – wie dargestellt (Abschnitt 5.3) – der Lombardeffekt relativ spontan und unabhängig davon, ob die Sprachverständlichkeit steigt oder fällt (s. Einfluss von Gehörschutz; Abschn. 8.4). Die Sprechweise scheint sich eher aus einem Zusammenwirken von reflektorischen und spontan–intuitiven Reaktionen und kognitiv bedingten Lernprozessen zu ergeben, bei denen die Sprechanstrengung gering gehalten wird und die Sprachverständigung nur soweit optimiert werden kann, wie Informationen vom Hörer vorliegen.
5.9 Sprache hohen Schallpegels und ihre Verständlichkeit Schallpegel am Ohr des Hörers über 80 dB, Übersteuerung Ab einem Pegel von über LAeq = 70 bis 90 dB beginnt das Gehör nichtlinear zu reagieren und zeigt Übersteuerungseffekte, es entstehen zeitweilige Hörschwellenverschiebungen, die Verdeckung/Maskierung nimmt nichtlinear zu, auch die Verständlichkeit von Sprache nimmt ab (Kryter 1946; French u. Steinberg 1947; Fletcher u. Galt 1950). Der Einfluss des Sprachpegels und des Geräuschpegels, d.h. auch des Signal–Geräuschabstandes auf die Sprachverständlichkeit ist hierbei noch nicht vollständig geklärt. Ein Teil der Studien (Hawkins u. Stevens 1950; Hirsh u. Bowmann 1953) zeigt einen konstanten Signal–Geräuschabstand für eine Sprachverständlichkeit von 50 % bis zu einem Sprachpegel von LS = 90 dB, d.h. bei nicht sehr hohen Schallpegeln. Dagegen zeigen andere Studien, dass die Sprachverständlichkeit bei einem konstanten Signal–Geräuschabstand mit steigenden Pegeln abnimmt (Speaks et al. 1967; Chung u. Mack 1979; Dirks et al. 1982; Hagermann 1982; Beattie 1989; Goshorn u. Studebaker 1994). In mehreren Untersuchungen (u.a. Kryter 1946; French u. Steinberg 1947; Martin et al. 1976) wurden die Folgen hoher Sprachschallpegel analysiert. Eine neue vergleichende Untersuchung (Studebaker et al. 1999) über den Einfluss von Sprachschallpegeln mit hohen Intensitäten zeigt ähnliche Ergebnisse, eine Zusammenfassung enthält Tabelle 5.9-1 und Abbildung 5.9-1.
5.9 Sprache hohen Schallpegels und ihre Verständlichkeit
121
Abb. 5.9-1. Sprachverständlichkeit (SV in %) in Abhängigkeit vom Sprachpegel (LSC in dB) bei unterschiedlichem Signal–Geräuschverhältnis (LSN), verschiedenem Sprachmaterial (SM) und Geräuschen (s. Tab. 5.9-1)
Tabelle 5.9-1. Abnahme der Sprachverständlichkeit (SV) pro Anstieg des Sprachpegels (LSC): Neigung von SV/LSC in %/dB und Anstieg des notwendigen Signal– Geräuschverhältnis (LSN = LSC - LNC) um 50 % Sprachverständlichkeit aufrechtzuerhalten: LSC/LNC in dB/dB, wie er in verschiedenen Experimenten ermittelt wurde (nach Studebaker et al. 1999). Sprachmaterial (SM): Einsilber (E), sinnlose Silben (SiSi), Text (T), synthetische Sätze (SyS), Zweisilber (ZS); Geräusche: Maschinengeräusch (MG), Weißes Rauschen (WR), Breitbandgeräusch (BG), Sprachrauschen (SR), Sprachgeräusch von 1, 12, mehreren Sprechern (SG (1, 12, m)) Neigung Abb. Autor SM Geräusch LSN 5.9-1 in dB in %/dB in dB/dB K Kryter 1946 E MG 0 -0.41 1.12 French u. Steinberg 1947 SiSi Ruhe 1.15–1.40 Hawkins u. Stevens 1950 T WR 1.00 Hirsh u. Bowman 1953 ZS WR 1.00 Hirsh et al. 1954 W WR 1.00 P Pickett u. Pollack 1958 E -12dB/Okt. -10 -0.66 1.20 Pollack u. Pickett 1958 E WR 0 -0.48 Sp Speaks et al. 1967 SyS SG (1) -30 -0.40 C Chung u. Mack 1979 E RR 12 -0.74 D Dirks u. al. 1982 E SG (12) 0 -0.77 1.14–1.17 H Hagerman 1982 S SR var. -0.79 Duquesnoy u. Plomp 1983 S SG 1.00 Dubno et al. 1984 S SG (12) 1.11 St Stelmachowicz et al. 1985 E BG 4 -0.80 1.18 Walker u. Byrne 1985 T SR 1.05 B Beattie 1989 E SG (m) 6 -0.55 S Studebaker et al. 1999 E SR 5 -0.92 1.34
122
5 Sprechen in realer Umgebung und Hörer–Feedback
Wie nachgewiesen werden konnte, nimmt die Verständlichkeit mit Zunahme des Sprachschallpegels nur geringfügig um etwa SV = 1–8 % pro 10 dB Zunahme des Sprachpegels (bis LSA = 110–120 dB) ab (Pickett u. Pollack 1958). In den Untersuchungen (Studebaker et al. 1999) wurde Sprache mit normaler Sprechweise auf Band aufgenommen und anschließend entsprechend verstärkt, wobei der Signal–Geräuschabstand konstant gehalten wurde. Die Sprachverständlichkeit nimmt um 0.4–0.9 % ab, wenn der Sprachschallpegel um 1 dB zunimmt, bei gleich bleibendem Signal– Geräuschabstand. Man kann diesen Effekt aus einer notwendigen Zunahme des Signal–Geräuschabstandes ableiten. Um eine Sprachverständlichkeit von 50 % aufrecht zu halten, muss der Sprachschallpegel um 1.0 bis 1.4 dB zunehmen, wenn der Geräuschpegel um 1 dB zunimmt (s. Tab. 5.91). Das unterschiedliche Ausmaß der Sprachverständlichkeit in diesen Studien ist durch das Sprachmaterial, den Signal–Geräuschabstand und die Art des Geräusches bedingt. Die Abnahme der Sprachverständlichkeit beim Anstieg des Sprachschallpegels wird vor allem durch die nichtlinearen Verzerrungen verursacht, die durch Sprache und Geräusche hoher Intensitäten im Hörsystem entstehen. Außerdem spielt auch die Zunahme der Verdeckung der Sprache durch Geräusche hoher Intensität eine Rolle (Studebaker et al. 1999). Der Einfluss hoher Geräuschpegel wurde auch mit bandpassgefilterter Sprache beobachtet (Goshorn u. Studebaker 1994). Die Darbietung von Sprache (SiSi) und einem Störgeräusch erfolgte über ein Tiefpass– und ein Hochpassfilter (TP: 0.2–0.4 und HP: 1–5 kHz). Der Referenzpegel lag bei 60 dB (TP) und 57 dB (HP). Eine Erhöhung der Darbietungspegel (TP um 20 und 36 dB; HP um 20 dB) verschlechterte die Verständlichkeit: In allen zehn Situationen (TP und HP isoliert und gemeinsam) war die Verständlichkeit geringer als in der Referenzsituation (TP und HP gemeinsam). Der Verlust an Sprachverständlichkeit durch nichtlineare Verzerrungen ist bei einem hohen Signal–Geräuschabstand (LSN = 20–30 dB) gering (-0.3 bis -0.1 %/dB) und nimmt zu, bis zu einem Wert von -0.9 %/dB bei kleinem Signal–Geräuschabstand (LSN = -5 bis +5 dB). Offensichtlich beeinflussen sowohl der Sprachschallpegel wie auch der Geräuschpegel die Ausbildung nichtlinearer Effekte. Die Höhe des Sprachschallpegels beeinflusst den Hörvorgang von Normalhörenden und Schwerhörigen nicht in gleicher Weise (Dubno u. Schaefer 1992; Ching et al. 1998; Studebaker et al. 1999). Je nach Grad und Art der Schwerhörigkeit nahm die Sprachverständlichkeit bei steigendem Sprachpegel erst zu, um dann ab einem Höchstwert wieder abzunehmen. Zusammenfassend kann festgehalten werden, dass die Sprachverständlichkeit bei einem steigenden Sprachpegel am Ohr des Hörers (etwa ab
5.10 Sprachverständlichkeit von Sprache bei mehreren Sprechern
123
80 dB) abnimmt; wobei gleich bleibende Hörbedingungen, insbesondere ein konstanter Signal–Geräuschabstand, vorausgesetzt werden.
5.10 Sprachverständlichkeit von Sprache bei mehreren Sprechern Verständlichkeit und Erinnern, Normal– und Schwerhörige, Variation der Verständlichkeit Die meisten Verständlichkeitstests benutzen, um eine zweckmäßige Referenz zu haben, einen trainierten Sprecher zum Aufsprechen des Sprachmaterials. In einer Alltagssituation spricht jedoch häufig ein untrainierter Sprecher leise, undeutlich, und durch Mundart geprägt oder mit mangelnder Sprachkompetenz (Nicht–Muttersprachler). In einem Gespräch zwischen mehreren Gesprächspartnern muss der Hörer Sprache verstehen, die abwechselnd von unterschiedlichen Sprechern gesprochen wird. Um den Alltagseffekt auf die Sprachverständlichkeit von hörgeschädigten Personen zu erfassen, wurden Untersuchungen mit verschiedenen Sprechern durchgeführt. Die Sprechweise von Menschen unterscheidet sich in vielfältiger Weise. Die akustischen Elemente, die Phoneme, die Vokale und Konsonanten variieren nicht nur von Sprecher zu Sprecher, sondern auch bei einem Sprecher über seine Sprachproduktion hinweg (Abb. 3.3-6, 5.2-2). Unterschiede in der Sprechweise (Abschnitt 5.2) sind durch die Geschlechtszugehörigkeit und durch das Alter der Personen bedingt und gehen auf den Aufbau, die Gestalt und Funktionsweise des Vokaltraktes zurück (u.a. Petersen u. Barney 1952; Fant 1960; Kap. 4). In Untersuchungen, in denen Sprachkonserven verwendet wurden, bei denen mehrere Sprecher in unterschiedlicher Reihenfolge Einsilber (mit 1, 2, 4, 8, 16 Sprechern bei vorhandenen Störgeräuschen; Creelman 1957) sprachen, verringerte sich die Sprachverständlichkeit von 7 bis 10 % im Vergleich zu Sprechkonserven mit nur einem Sprecher. Gengel u. Kuppermann (1980) erfassten die Sprachverständlichkeit von sechs verschiedenen (drei weiblichen und drei männlichen) Sprechern (s. Tab. 5.10-1). Die Sprecher wurden angehalten, natürlich aber mit einem vorgegebenen Sprechpegel zu sprechen. Die gesprochenen Wörter (CID– W–22) wurden bei drei Signal–Geräuschabständen normalhörenden Personen (42) mit Breitbandrauschen über Kopfhörer dargeboten. Obwohl die Standardabweichung der Sprachverständlichkeit für die einzelnen Sprechweisen relativ gering ist (bei 5–14 %), unterscheidet sich die Sprachverständlichkeit abhängig von den Sprechern bis zu 25 %. Die Korrelation der
124
5 Sprechen in realer Umgebung und Hörer–Feedback
gemessenen Sprachverständlichkeiten zwischen den einzelnen Sprechern war recht gering und nur bei hohen S/N–Verhältnissen (LSN = 5 dB) teilweise signifikant. Das deutet auf recht unterschiedliche Artikulationsweisen der Sprecher hin. Die Mithörschwelle zwischen der besten und schlechtesten Sprechweise bzgl. der Sprachverständlichkeit liegt bei 3 dB. Tabelle 5.10-1. Verständlichkeit (SV in %) der Sprache von 6 Sprechern (bester +, schlechtester -) bei 3 Signal–Geräuschverhältnissen (LSN = 5, 1, -3 dB) und der Bereich der Korrelation der SV der Sprache von Sprecherpaaren. Angegeben ist weiterhin die Mithörschwelle (LSN bei SV = 50 %) für die Sprache der besten und schlechtesten Sprecher LSN in dB 5 (3) 1 (0) -3
SV in % Sprecher (+) Sprecher (-) 83 67 50 59 33 50 25 10
Korrelation 0.28–0.81 0.09–0.74 0.01–0.65
In der Regel wird das Sprachmaterial, das nur von einem Sprecher auf Band gesprochen wird, besser verstanden und damit auch besser erinnert als das Material, das von mehreren Sprechern gesprochen wird. So war die Erinnerungsleistung von 10 Wörtern, von einem Sprecher in unterschiedlichen Darbietungsarten gesprochen, um ca. 10 % besser, als die Erinnerungsleistung desselben Sprachmaterials, das aber von zehn verschiedenen Sprechern (Goldinger et al. 1991) auf Tonband gesprochen worden war. Nach einer gewissen Lernphase kann sich dieser Unterschied verringern oder ganz verlieren. Martin et al. (1989) fanden beim Erinnern von Wortlisten mit je 10 Wörtern zwar einen starken Positionseffekt (1., 9. und 10. Position > 75 %; 4. bis 6. Position < 30 %), aber kaum Differenzen zwischen den Wortlisten, die jeweils von einem oder mehreren (w, m; gleichgeschlechtlichen) Sprechern gesprochen, aufgenommen und dargeboten wurden. Mullennix et al. (1989) prüften die Sprachverständlichkeit von Wortlisten hoher und niedriger lexikalischer Häufigkeit aufgenommen mit 15 Sprechern (8 weibliche und 7 männliche) unter verschiedenen Störbedingungen. Die Versuchspersonen erhielten entweder das Sprachmaterial eines Sprechers, oder in zufällig ausgewählter Reihenfolge das Sprachmaterial von mehreren Sprechern gesprochen, dargeboten. Die Sprachverständlichkeit verringerte sich abhängig von der Sprechsituation. Sie war je nach Signal–Geräuschabstand und Sprechrate für die Mehr–Sprecher– Situation um bis zu 5 bis 15 % niedriger als für die Ein–Sprecher–
5.10 Sprachverständlichkeit von Sprache bei mehreren Sprechern
125
Situation. Besonders deutlich wurden die Unterschiede in der Sprachverständlichkeit bei einer digital vorgenommenen Verzerrung, bei der 10 bis 30 % der Sprachamplituden durch Rauschen ersetzt wurden. In einer solchen Situation stiegen die Unterschiede in der Sprachverständlichkeit zwischen der Mehr– und Ein–Sprecher–Situation auf 30 % an (s. Tab. 5.10-2). Tabelle 5.10-2. Verständlichkeit der Sprache für einen oder mehrere Sprecher: für verzerrte Sprache (Anteil der Sprachamplitude (Grad in %), der durch Rauschen ersetzt wird) mit hoher und niedriger Auftretenswahrscheinlichkeit des Sprachmaterials (h/n AW)
Verzerrungsgrad in % Ein–Sprecher–Situation Mehr–Sprecher–Situation
10 88 73
Sprachverständlichkeit in % h AW n AW 20 30 10 20 76 67 75 63 47 36 66 42
30 46 25
Mullennix et al. 1989, Karl u. Pisoni 1994, und Sommers et al. 1994 konnten in ihren Untersuchungen ebenfalls eine geringere Sprachverständlichkeit in Situationen mit mehreren Sprechern beobachten. Sommers (1997) variierte Sprachparameter (Sprechercharakteristik) wie Sprechraten und Sprechschallpegel und erhob die Sprachverständlichkeit bei drei verschiedenen Hörergruppen. Die Aufnahmen wurden mit 10 Sprechern durchgeführt, die Hörergruppen bestanden aus jungen, älteren und schwerhörigen Personen (LHVT (0.5/1/2/4 kHz) = 11/26/35/40 dB). Die Hörversuche wurden so durchgeführt (Wahl entsprechender SN–Abstände), dass die drei Kontrollgruppen jeweils bei der Bezugssituation (nur ein Sprecher, eine Sprechrate, ein Sprechpegel) etwa eine gleiche Sprachverständlichkeit (SV = 70–80 %) hatten (Abb. 5.101). Vergleichbare Versuche führten Kirk et al. 1977 durch (Abb. 5.10-2).
Die Ergebnisse zeigen folgende Tendenz. Die Sprachverständlichkeit nimmt unter den Störbedingungen (mehrere Sprecher, Sprechraten oder Sprechpegel) gegenüber der einfachen Bedingung (ein Sprecher, eine Sprechrate, ein Sprechpegel) ab, bei den Älteren und Schwerhörigen verstärkt sich dieser Effekt nur gering. Der Vergleich von einem gegenüber mehreren Sprechern zeigt dagegen den Einfluss auf die schwerhörigen Personen gegenüber den Normalhörenden. Die Verständlichkeit nimmt bei Älteren mäßig, bei Schwerhörigen jedoch deutlich ab (Abb. 5.10-1). Die Autoren schließen daraus, dass die unterschiedliche phonetische Struktur der einzelnen Sprecher für diesen Verlust verantwortlich ist. Auch Nabelek et al. (1992) weisen auf den Einfluss verschiedener Sprecher auf die Sprachverständlichkeit schwerhöriger Personen hin, wobei der Einfluss unterschiedlicher Sprecher und verschiedener Hörschwellen in der gleichen Größenordnung lag und kaum voneinander zu trennen war.
126
5 Sprechen in realer Umgebung und Hörer–Feedback
100 SV % 80
100 SV %
s
s
s
m
80
m
60
s m
m
60
s
s m
m
40
40
20
20
0
0 NJ
NA
SA
NJ
NA
SA
Abb. 5.10-1. Sprachverständlichkeit (SV in %) für Wörter in Sätzen, für drei Hörergruppen: normalhörende Junge, normalhörende Ältere und ältere Schwerhörige (NJ, NA, SA), für (links) einen (s) und mehrere (m) Sprecher, sowie (rechts) einer (s) und drei (m) Sprechraten; Kontrollgruppen (s) 100
100
SV %
SV %
80
n
l
80 h
m
n
60
60
m s
h
40
40
20
20
0
0 ein Spr.
mehrere Spr.
ein Spr.
mehrere Spr.
Abb. 5.10-2. Sprachverständlichkeit (SV in %) für 17 leicht bis mittelgradig Schwerhörige, für einen und mehrere Sprecher (links) für Wörter in Sätzen mit hoher und niedriger Auftretenswahrscheinlichkeit (h/n AW), (rechts) für drei Sprechraten (langsam (l), mittel (m), schnell (s))
Die Überlegung einen mittleren Sprecher zu definieren, führte zu einer Untersuchung (Cox et al. 1987) mit 6 Sprechern in mehreren Kommunikationssituationen (s. Tab. 5.10-3). Die Variation der Sprachverständlichkeit bedingt durch die 6 Sprecher, deren Sprechpegel einen gleichen Mittelungspegeln LSeq aufweisen, liegt bei guten Hörbedingungen (SV = 75–85 %) bei etwa 15 % (sSV = ± 5 %), bei schlechteren bis durchschnittlichen Hörbedingungen (SV = 30–50 %) bei 30 % (sSV = ± 10 %). Die Analyse der Sprechweise der 6 Sprecher ergab, dass weder das Spektrum der
5.10 Sprachverständlichkeit von Sprache bei mehreren Sprechern
127
Sprache, noch die Werte der Sprachverständlichkeit ein entscheidendes Kriterium für die Auswahl eines mittleren Sprechers sein können. Die unterschiedlichen Korrelationen (0.66–0.98) zwischen den Sprachverständlichkeiten in den Hörbedingungen und die Kontraste (Tab. 5.10-4) zwischen der gesprochenen Sprache der 6 Personen zeigen, dass die Artikulation der Sprecher nicht einheitlich bewertet werden kann. Von den 8 Kontrasten wurden schließlich 4 Kontraste ausgewählt, die zur Beschreibung des mittleren Sprechers herangezogen wurden (Tab. 5.10-4). Tabelle 5.10-3. Nachbildung von einigen typischen Kommunikationsbedingungen: 3 Räume mit 2 Nachhallbedingungen (T), 2 Sprechbedingungen (LSA,1m = 55 und 70 dB: normal und laut sprechen; Sprachpegel beim Hörer (LSA)), Störgeräuschen (LNA), und Entfernung der Gesprächspartner (r). Angegeben ist die Sprachverständlichkeit (SV) für 6 Sprecher (Mittelwert, Spanne), nach Cox et al. 1987 Gesprächssituation öffentlicher Bereich
LSA,1m r in dB in m 58 0.5
Wohnraum Büro Klassenraum
55
1
70
5
LSA LNA T in dB in dB in s 64 62 ~0.5 62 ~0.9 69 ~0.5 69 ~0.9 55 48 ~0.5 58 ~0.5 63.5 55 ~0.9 65 ~0.9
SV in % 84 (80–88) 81 (75–88) 45 (30–60) 72 (63–78) 85 (77–90) 62 (48–72) 73 (66–83) 38 (26–48)
Tabelle 5.10-4. Kontraste für einen mittleren Sprecher (s.a. Abschn. 4.1.1) Kontraste mtl. Spr. - vowel height, high/low (Vokal, Artikulation Zungenhöhe hoch/tief) - vowel place, front/back (Vokalposition, Artikulation Zungenlage vorn/hinten) - initial consonant voicing, voiced/voiceless (Stimmhaftigkeit des Anfangskonsonanten, stimmhaft/stimmlos) - final consonant voicing, voiced/voiceless x (Stimmhaftigkeit des Endkonsonanten, stimmhaft/stimmlos) - initial consonant continuance, stop/continuant (Artikulationsdauer des Anfangskonsonanten kurz/lang) - final consonant continuance, stop/continuant x (Artikulationsdauer des Endkonsonanten kurz/lang) - initial consonant place, more labial/more velar x (Artikulationsstelle des Anfangskonsonanten, eher labial/eher velar) - final consonant place, more labial/more velar x (Artikulationsstelle des Endkonsonanten, eher labial/eher velar)
128
5 Sprechen in realer Umgebung und Hörer–Feedback
Im Rahmen eines Hörversuchs wurde die Verständlichkeit von Sätzen und Einsilbern (in Trägersätzen) ermittelt, die von 7 Sprechern (untrainierte Mutter– und Zweitsprachler, ein trainierter Muttersprachler), unter dem Hinweis natürlich zu sprechen, aufgenommen wurden (Volberg et al. 2004). Der mittlere Pegel der Sätze und Einsilber wurde nach dem Aufsprechen angeglichen und in einem Hörversuch Versuchspersonen unter Störbedingungen (LSNA = -10 bis 15 dB) dargeboten. Gemessen wurde die Sprachverständlichkeit, zusätzlich wurde eine Bewertung der Hörsituation (Skala 1–5) vorgenommen, d.h. die subjektiv empfundene Verständlichkeit ermittelt. Als Maß für den Einfluss der verschiedenen Sprecher wurde pro Sprecher die mittlere Sprachverständlichkeit (SV = 50 %) und der mittlere Wert der Bewertung (Skala = 3) berechnet sowie die dazugehörigen Signal–Geräuschabstände getrennt (Mithörschwelle) ermittelt. Um die Mithörschwelle zu bestimmen, wurde in die Hörkurven eine nichtlineare psychometrische Funktion eingepasst (Tab.5.10-5). Die Variationspanne der Mithörschwellen lag zwischen allen Sprechern bei 5 und 9 dB, den Muttersprachlern bei 5 dB und zwischen den Zweitsprachlern bei 1.5–3.5 dB (s.a. Abschn. 6.5.5). Diese Werte zeigen Variationen im mittleren Bereich der Verständlichkeit (50 %) an. Bei einer hohen Sprachverständlichkeit (95 %) oder bei schwierigen Bedingungen (Nachhall, Schwerhörigkeit) steigt die Variationsspanne beträchtlich (Tab. 5.10-6) an. Unter diesen Bedingungen ergibt sich eine Variationsspanne von 12 bis 25 dB statt von 5 bis 9 dB. Tabelle 5.10-5. Mithörschwelle (LSNA für SV = 50 %) und Bewertung der subjektiv empfundenen Verständlichkeit (BV = 3, Skala 1–5) von 7 Sprechern (6 untrainierte, 1 trainierter: CD) für Einsilber (E) (nach DIN 45621–1) und Sätze (S), bei Geräuschen (N: Rosa Rauschen (RR), Sprachähnliches Geräuschspektrum (SR). (M, Z, m, w: Muttersprachler, Zweitsprachler, männlich, weiblich, CD: trainierter Sprecher)
N SV (S) = 50 % SV (S) = 50 % BV (S) = 3 SV (E) = 50 % BV (E) = 3
SR RR RR RR RR
Mithörschwelle LSNA in dB Sprecher KO CL UL LE MA AN CD (m,M) (w, M) (w, M) (w, Z) (m,M) (m, Z) (m,M) -5.3 -3.9 -0.5 -0.1 -1.9 2.4 -2.2 -0.5 2.0 3.2 3.5 6.9 -0.9 0.5 2.9 3.0 3.5 4.7 -3.4 -0.8 2.3 -1.0 1.6 2.1 -0.6 -3.9 0.1 1.3 -0.7 1.2 2.0 0.9
5.11 Emotionslage des Sprechers
129
Tabelle 5.10-6. Mithörschwelle der Sprache von 4 Sprechern (LSNA für SV = 50 %, SV = 95 %), in einer Hörbedingung mit Sprache (Sätze), gestört durch Geräusche (N, Rosa Rauschen) und zusätzlich gestört durch Nachhall (T = 2 s), sowie die maximale Differenz, die zwischen den Mithörschwellen auftritt (DLSNA), (nach Volberg et al. 2004, 2006)
Störung SV = 50 % N SV = 95 % SV = 50 % N, T SV = 95 %
KO -1.7 6.4 1.2 12.2
LSNA in dB Sprecher UL LE 1.8 4.1 12.1 19.4 5.5 3.8 20.2 18.5
AN 6.2 20.3 13.0 37.0
DLSNA in dB max 8.0 14.0 12.0 25.0
Zusammenfassend kann man festhalten, dass durch die Teilnahme mehrerer Sprecher am Gespräch die Variationsbreite von Artikulation und Sprechgeschwindigkeit zunimmt und der Sprechpegel erhöht wird. Die Sprachverständlichkeit nimmt dadurch bedingt in der Situation mit mehreren Sprechern gegenüber der mit einem Sprecher um 5–30 % ab. Vergleicht man die Mithörschwellen ergeben sich Unterschiede von 2 bis 6 dB, die auf die verschiedenen Sprecher (Muttersprachler) zurückzuführen sind. Bei kritischen Hörbedingungen (Schwerhörigkeit, verzerrte Sprache, Zweitsprache) nimmt der Unterschied in der Sprachverständlichkeit zwischen den beiden Situationen (ein/mehrere Sprecher) noch zu.
5.11 Emotionslage des Sprechers Die Überzeugung, dass die Emotionslage des Sprechers sich in seiner Sprache niederschlägt, ist Teil des Alltagswissens und findet Ausdruck in Sätzen wie „es ist nicht, was er gesagt hat, sondern wie er es gesagt hat“ (Murray u. Arnott 1993). Im Widerspruch steht, dass der Hörer scheinbar recht zuverlässig und selbst unter erschwerten Bedingungen auf die Stimmungslage des Sprechers schließen kann, eine eindeutige Zuordnung bestimmter akustischer Eigenschaften der Sprache zu bestimmten Emotionslagen jedoch bis heute nicht erfolgen konnte. Ein Erkennen der Emotionslage des Sprechers ist sogar möglich, wenn der Sprecher flüstert, Sprachaufnahmen rückwärts abgespielt werden, wenn Sprache frequenzgefiltert wird oder wenn Segmente mit so geringer
130
5 Sprechen in realer Umgebung und Hörer–Feedback
Länge wie 60 ms dargeboten werden (Pakosz 1982). Wie wichtig der Sprachreiz selbst ist, zeigen die Defizite bei Experimenten mit Schwerhörigen. Die Stimmungslage von zwei Sprechern sollte von normalhörenden und schwerhörigen Kindern identifiziert werden (Öster u. Risberg 1986). Die Sprecher lasen mehrere Sätze in vier unterschiedlichen Stimmungslagen (ärgerlich, erstaunt, traurig und glücklich) vor. Die schwerhörigen Kinder hatten im Vergleich zu den normalhörenden größere Schwierigkeiten, die Stimmungslage der Sprecher zu erkennen. Wurde die Sprache mit einem Tiefpass (500 Hz) gefiltert, hatten die normalhörenden Kinder ähnliche Identifikationsschwierigkeiten. Offenbar ist die Abnahme der Frequenzdiskrimination für die Defizite schwerhöriger Kinder verantwortlich. Es ist also davon auszugehen, dass der Sprecher – bewusst oder unbewusst – seine emotionale Lage (auch) auf nicht–semantische Weise codiert und der Hörer dazu in der Lage ist, diesen Code mehr oder weniger akkurat zu entschlüsseln. Betont werden muss, dass eine zutreffende Identifikation der Stimmungslage des Sprechers auch stark kontextabhängig ist. Offenbar werden Eigenschaften der Sprache nur zu einer groben Einschätzung genutzt, die dann aufgrund situativer Kontextreize und sogar der eigenen Gestimmtheit weiter differenziert wird (Pakosz 1982). In Experimenten, in denen die Auswirkung der emotionalen Gestimmtheit auf die produzierte Sprache untersucht wird, steht man vor dem Problem, adäquates Sprachmaterial herzustellen. Ideal wäre es, Sprechern im Labor gezielt Emotionen zu induzieren, doch ein solches Vorgehen ist kompliziert und vor allem ethisch fragwürdig. Somit besteht nur die Möglichkeit, Material von Schauspielern sprechen zu lassen oder im Feld echte emotional gefärbte Sprache aufzunehmen. Bei Material von Schauspielern stellt sich die Frage, ob es echtem emotional gefärbten Sprachmaterial im Detail wirklich entspricht, bei Feldmaterial stellt sich das Problem, dass Inhalt und Aufnahmebedingungen schwer zu kontrollieren sind. Murray u. Arnott (1993) geben einen Überblick über die Versuche, das Korrelat der Emotionslage in den akustischen Eigenschaften der Sprache ausfindig zu machen. Ihre Zusammenfassung der Unterschiede von Sprache bei verschiedenen Emotionslagen im Vergleich zu neutraler Sprache ist in Tabelle 5.11-1 dargestellt. Vor allem die Tonhöhe scheint durch die Emotionslage beeinflusst zu werden und könnte somit zur Identifikation der Emotionslage des Sprechers benutzt werden. Zumindest die Grundemotionen (Ärger, Freude, Trauer, Angst, Ekel) scheinen sich kulturübergreifend in der Sprache niederzuschlagen und können innerhalb von 60 ms identifiziert werden.
5.11 Emotionslage des Sprechers
131
Tabelle 5.11-1. Auswirkungen der Emotionslage auf die Sprache im Vergleich zu neutraler Sprache Sprechgeschwindigkeit durchschnittliche Tonhöhe Tonumfang Intensität Stimmqualität Tonänderungen
Artikulation
Ärger etwas schneller
Freude schneller oder langsamer viel höher
Trauer Angst Ekel etwas lang- viel schnel- sehr viel samer ler langsamer
sehr viel etwas tiefer höher viel größer viel größer etwas geringer höher höher geringer hauchig, hauchig, resonant, Bruststimme schallend klangvoll abrupt, bei flüssig, Beugungen betonten Beugungen abwärts Silben aufwärts
sehr viel höher viel größer normal Ungleichmäßig normal
angespannt normal
präzise
undeutlich
sehr viel tiefer etwas größer geringer grummelnd, Bruststimme weite, abwärtsgerichtete Endbeugungen normal
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
6.1 Vorbemerkung Sprache wird vom Sprecher produziert (gesprochen) und über Luft oder elektroakustische Übertragungssysteme zum Hörer transportiert (vgl. hierzu die differenzierte Beschreibung der Kommunikationssysteme und Beurteilung mit vereinbarten und standardisierten Verfahren in Kapitel 7). Die Sprache hat einen Dynamikumfang von 30–50 dB, gemessen in der Zeitbewertung Fast, was unserer Lautheitsempfindung entspricht. Sie hat einen Pegelumfang von etwa 20 dB (LSA,eq,1m = 50 bis 70 dB) und einen Frequenzumfang von f = 0.1–10 kHz. Wenn die Sprache den Hörer ungestört erreicht, liegt der Idealfall einer störungsfreien Kommunikation vor. Sprachliche Kommunikation kann durch eine Reihe von Faktoren gestört werden: der Nachhall der Sprache und deren Reflexionen im Raum, Störgeräusche im Raum, ein bandbegrenztes und übersteuertes Telefon, etc. Der Hörer, der das gestörte oder ungestörte Sprachsignal empfängt, ist in der Regel normalhörend, er kann aber auch einen leichten oder mittleren Hörschaden aufweisen. Die Störung der Sprache selbst kann durch die Änderung der Parameter (Abschn. 6.2) oder durch Störungen bedingt sein, die auf elektronischem und direktem Weg im Raum auftreten. Das können z.B. Geräusche (Abschn. 6.3) oder der Nachhall der Sprache (Abschn. 6.4) sein. Ein Maß der Störung ist die Verständlichkeit von Sprache, die mit normalhörenden Personen (Muttersprachler) geprüft wird. Wird nicht in der Muttersprache kommuniziert (das gilt für Sprecher und Hörer), nimmt die Sprachverständlichkeit ab (Abschn. 6.5.5). Aber auch das Alter beeinflusst das Verstehen von Sprache (Abschn. 6.5.4). Das Sprachsignal kann physikalisch–akustisch als eine langsam zeitveränderliche Amplitude (Hüllkurve mit einer Frequenz von 0.3–30 Hz und einer Periodendauer von 30–300 ms) beschrieben werden, die von den Schallwellen (0.1–10 kHz) getragen (transportiert) wird: eine amplitudenmodulierte Schwingung, in deren Hüllkurve ein wesentlicher Teil der Information steckt (Abschn. 3.1).
134
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Die Störung der Sprache kann durch verschiedene Einflussfaktoren bedingt sein. Geräusche können die weniger intensiven Teile des Sprachsignals zeitlich simultan verdecken, während der Nachhall der Sprachsignale eine Maskierung der zeitlich benachbarten nachfolgenden Phoneme bewirkt und sie unpräzise werden lässt. Die zeitliche Hüllkurve verflacht. Die Störeffekte wie Geräuscheinwirkung und Nachhall werden an dreidimensionalen Spektrogrammen eines Vokals, der in Ruhe gesprochen wurde, in Abbildung 6.1-1 verdeutlicht.
Abb. 6.1-1. Spektrogramm (Intensität (in dB) über der Frequenz (in kHz)) von /Ǚ / in Ruhe (a), mit Geräuschen (b), mit Nachhall (c) (nach Nábelek et al. 1992)
6.2 Störung des Sprachreizes 6.2.1 Einführung Ein akustisches Sprachereignis kann physikalisch durch die Parameter Intensität, Frequenz und Zeitstruktur beschrieben werden. Mit der akustischen Charakterisierung der Sprache sind auch die psycholinguistischen Merkmale unausgesprochen mit eingeschlossen, die für die Beschreibung des Sprachereignisses von Wichtigkeit und von der Phonetik und der Phonologie erarbeitet worden sind (Kap. 4). Was aber bleibt von dem Informationsgehalt eines Sprachreizes übrig, wenn diese Parameter und damit auch die psycholinguistischen Eigenschaften des Sprachreizes verändert bzw. gestört werden? Bricht die Sprachverständlichkeit zusammen oder ist die Sicherheit bei der sprachlichen Kommunikation so hoch, dass der Sinngehalt des Sprachreizes auch dann erhalten bleibt, wenn nur ein Teil der Sprachstruktur übermittelt wird? Das Ausmaß und die Güte der Sprachverständlichkeit spielen vor allem bei elektroakustischen Übertragungs– und Speichersystemen, wie z.B.
6.2 Störung des Sprachreizes
135
Fernsprecher, Rundfunk, Telekommunikation, eine wichtige Rolle. Um die Güte dieser Systeme zu kennzeichnen, ist die Ermittlung des Zusammenhangs zwischen den elektroakustischen Kenngrößen der Übertragungssysteme und der Sprachverständlichkeit notwendig. Elektroakustische Kenngrößen des Systems der Aufnahme (Mikrofon), der Übertragung (Verstärker), des Speichers (CD, Band) und der Wiedergabe (Kopfhörer, Lautsprecher) sind z.B. die Frequenzcharakteristik, der Störabstand, die nichtlinearen Verzerrungen, die Empfindlichkeit und die Verstärkung. Schon Anfang des 20. Jahrhunderts wurden für Fernsprechsysteme Verfahren zur Abschätzung der Sprachverständlichkeit aus den elektroakustischen Kenngrößen des entsprechenden Systems entwickelt (z.B. Campbell 1910, Fletcher u. Steinberg 1929, Collard 1930, Beranek 1947a, Fletcher u. Galt 1950, Schneider 1955, Schmidt u. Brosze 1967, Richards 1971). In den weiteren Ausführungen wird auf die Einschränkung des Frequenz– und Amplitudenbereiches der Sprache und deren Verständlichkeit eingegangen. Die nichtlinearen Verzerrungen (z.B. Unterbrechung) spielen bei der Telekommunikation ebenfalls eine zunehmende Rolle. 6.2.2 Einschränkung des Frequenzbereichs des Sprachreizes 6.2.2.1 Tiefpass–, hochpass– und bandpassgefilterte Sprache
Sprache, die mit einem Hochpass oder Tiefpass in ihrem Frequenzbereich durch eine untere oder obere Grenzfrequenz begrenzt wird, wird umso schlechter verstanden, je geringer der übertragene Frequenzbereich der Sprache ist. In Abbildung 6.2.2.1-1 ist die Verständlichkeit von sinnlosen Silben (French u. Steinberg 1947) und einsilbigen Wörtern (Pollack 1948), die durch einen Tiefpass und Hochpass begrenzt sind, in Abhängigkeit vom Pegel der Sprache dargestellt. Die Verständlichkeit nimmt mit steigendem Pegel der Sprache (LS) zu, bei etwa LS = 75 dB hat die Verständlichkeit ihr Maximum; bei höheren Sprachpegeln nimmt sie wieder ab (s.a. Abschn. 5.6.2, 5.9; Abb. 6.3.1-1). Der Einfluss der Grenzfrequenz auf die Verständlichkeit ist gravierender, z.B. liegt die Verständlichkeit der benutzten Sprachreize bei SV = 50–60 %, wenn sie nur noch Frequenzanteile unterhalb von 1.5 kHz enthalten. Der Unterschied der beiden Kurvenverläufe (Abb. 6.2.2.1-1: SiSi und E) kann vor allem auf das unterschiedliche Sprachmaterial und die Höhe des Geräuschpegels zurückgeführt werden. Aus den Kurvenverläufen der Abbildung 6.2.2.1-1 wurde für konstante Pegel der Sprache die Verständlichkeitsleistung bestimmt und in Abbildung 6.2.2.1-2 über die Grenzfrequenz aufgetragen. Zusätzlich wurden noch Ergebnisse der Untersuchung von Hirsh et al. (1954) und Darstellungen von Schmidt u. Brosze (1967) einbezogen. Es wurde jeweils der Pegel
136
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
der Sprache herangezogen, bei dem die Verständlichkeit maximal war (nur für die Ergebnisse der Untersuchung von French u. Steinberg wurde auch die Verständlichkeit beim Sprachpegel LS = 35 dB aufgeführt). Verwendet man z.B. ein Hochpassfilter (Abb. 6.2.2.1-2), das alle Anteile der Sprachfrequenzen (Sprache ohne Störgeräusch) durchlässt, die über 1 kHz liegen, so liegt die Silbenverständlichkeit bei etwa 80–90 %. Verwendet man ein Tiefpassfilter, das alle Frequenzen bis zu 1 kHz durchlässt, so ist die Silbenverständlichkeit sehr gering, sie liegt bei 30–50 %. Wird eine Grenzfrequenz von 4 kHz gewählt, liegt sie bei ca. 80–95 %. Der Schnittpunkt der Verständlichkeitskurven des Tief– und Hochpasses liegt für sinnlose Silben sowie für Einsilber bei 1.9 bis 2 kHz, die Silbenverständlichkeit liegt nach den Kurven von French u. Steinberg bei 68 %; d.h. die Frequenzen der Sprachreize bis zu 2 kHz sind für die Sprachverständlichkeit, gemessen mit sinnlosen Silben oder Einsilbern, genauso wichtig wie die ab 2 kHz.
Abb. 6.2.2.1-1. Verständlichkeit (SV in %) in Abhängigkeit vom Sprachpegel (LS) und von der Grenzfrequenz (fo) des Tiefpasses (TP) und Hochpasses (HP) für sinnlose Silben () ohne Störgeräusch und einsilbige Wörter (PB–Wörter) (– – –) gestört durch weißes Rauschen (LN = 82 dB)
6.2 Störung des Sprachreizes
137
Abb. 6.2.2.1-2. Sprachverständlichkeit (SV in %) in Abhängigkeit von der Grenzfrequenz (fo) eines Hoch– und Tiefpasses (HP, TP) mit verschiedenen Sprachpegeln (LS) und verschiedenem Sprachmaterial (sinnlose Silben, Si; Einsilber, E): French u. Steinberg (1947) Si (), LS = 75 dB, 35 dB (nach Abb. 6.2.2.1-1); Pollack (1948) E (x – –x), LS = 108 dB, LSN = 26 dB (nach Abb. 6.2.2.1-1); Hirsh et al. (1954) Si (xx), E (x– – –x), LS = 95 dB; Schmidt u. Brosze (1967) Si (–ŧ–ŧ–) für einen Tiefpass. Bestimmung des Zusammenhangs zwischen Silbenverständlichkeit (SV) und Artikulation (AR) (s. Abschn. 7.3) nach den Silbenverständlichkeitskurven nach French u. Steinberg: Dft, Dfh sind die Bandbreiten bei gleicher Sprachverständlichkeit SVt = SVh; für den Sprachpegel LS = 75 dB ist SVt = SVh = 68 %, für LS = 35 dB ist SVt = SVh = 24 %
Egan u. Wiener (1946) haben Hoch– und Tiefpassfilter gleichzeitig in die experimentelle Anordnung einbezogen, d.h. es wird aus dem Frequenzbereich der Sprache nur ein Frequenzband übertragen. Als Sprachmaterial verwendeten sie sinnlose Silben. Zusätzlich wurde ein Geräusch konstanten Pegels eingespielt. In Abbildung 6.2.2.1-3 sind die aus dieser Untersuchung abgeleiteten Kurven gleicher Sprachverständlichkeit bei unterschiedlicher Bandbreite des Übertragungsbereiches dargestellt. Man kann einerseits ablesen, wie bei gleicher Verstärkung die Sprachverständlichkeit abnimmt (z.B. von 60 auf 20 %), wenn man den Frequenzbereich reduziert (z.B. von 0.6–3.8 auf 0.8–3 kHz). Andererseits kann man auch den Betrag entnehmen, um den die Verstärkung eines frequenzbandbegrenzten Systems gegenüber dem breitbandigen System angehoben werden muss, um die gleiche Verständlichkeit zu erhalten. Will man z.B. statt des gesamten Frequenzbereiches der Sprache nur ein Frequenzband von
138
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
0.80–2.8 kHz benutzen, wobei die Verständlichkeit bedingt durch das Geräusch z.B. bei 60 % liegt, muss die Verstärkung der gefilterten Sprache um etwa 25 dB angehoben werden. Da die Sprachverständlichkeit nicht nur von der Bandbreite, sondern auch von der Bandmittenfrequenz und dem Spektrum des Geräusches abhängt, ist die Aussagekraft dieser Kurve gleicher Sprachverständlichkeit sehr begrenzt. Außerdem kann man (siehe Abb. 6.2.2.1-1) eine Eingrenzung des Frequenzbereiches der Sprache nur sehr schwer durch einen höheren Sprachpegel kompensieren.
Abb. 6.2.2.1-3. Kurven gleicher Silbenverständlichkeit für Übertragungssysteme unterschiedlicher Bandbreite (obere/untere Grenzfrequenz fo/fu); die Verstärkung (V) gibt die notwendige Zunahme des Sprachpegels der gefilterten gegenüber der ungefilterten Sprache für die gleiche Verständlichkeit (SV) an; die Mittenfrequenz der Bandfilter ist fm = 1.5 kHz (nach Egan u. Wiener 1946)
In weiteren Untersuchungen wurde die Verständlichkeit von Sprache, gefiltert mit verschiedenen Bandpässen, gemessen. Kryter (1960) benutzte mehrere Bandpässe unterschiedlicher Bandbreite und bestimmte in Abhängigkeit von diesen bei 3 Signal–Geräuschabständen die Sprachverständlichkeit für Einsilber und Wörter in Sätzen (Abb. 6.2.2.1-4). Durch eine Aufteilung des Sprachfrequenzbereiches in mehrere auseinander liegende Bandfilter (BP 3) konnte gegenüber einem zusammen liegenden Bandfilter gleichen Frequenzumfanges (BP 2) ein gewisser Gewinn an Sprachverständlichkeit erzielt werden. Weiterhin kann aus der Abbildung entnommen werden, dass eine Bandbegrenzung bei einem niedrigen Signal–Geräuschabstand (z.B. Einsilber LSN = 0 dB, BP 2) die Verständlichkeit besonders stark beeinträchtigt. Sotscheck (1973) und Charii et al. (1977) begrenzten den Frequenzbereich der Sprache mit Terz– und Oktavfiltern. Sie benutzten sinnlose Silben, deren Schallpegel am Ohr LS = 93 dB bzw. 85 dB war. Die Bandbreite der Filter, die in den Untersuchungen verwendet wurden, war jeweils 1 Terz, 2 Terzen und 1–5 Oktaven. Die Filter wurden nur in dem Frequenzbereich von 0.18–5.6 kHz, indem sie jeweils um 1 Terz oder 1 Oktave verschoben wurden, benutzt.
6.2 Störung des Sprachreizes
139
Abb. 6.2.2.1-4. Sprachverständlichkeit (SV in %) für unterschiedliche Bandpässe (BP 1: 0.1–7 kHz, BP 2: 0.5–2 kHz, BP 3: (0.3–0.8) + (1.3–1.8) + (2.3–2.8) kHz) in Abhängigkeit vom Signal–Geräuschabstand (LSN) für einsilbige Wörter (E) und Wörter in Sätzen (S) (nach Kryter 1960)
Die Sprachverständlichkeit in Abbildung 6.2.2.1-5 wurde bei der Mittenfrequenz des jeweiligen Frequenzbereiches eingezeichnet. Besteht das Bandfilter z.B. aus n = 3 Oktaven, so liegen die Grenzfrequenzen (Mittenfrequenzen) bei 0.18–1.4 (0.5) kHz, 0.36–2.8 (1) kHz, 0.71–5.6 (2) kHz. Generell liegt die höchste Verständlichkeit bei 2 kHz.
Abb. 6.2.2.1-5. Verständlichkeit (SV in %) von sinnlosen Silben (Sotscheck 1973; Charii et al. 1977, C) für Bandpässe bestehend aus n = 1/3 (1 Terz), 2/3 (2 Terzen) oder aus n = 1, 2, 3, 4, 5 Oktaven für unterschiedliche Mittenfrequenzen (fi)
Die Verständlichkeitsleistung kann auch von unterschiedlichem Sprachmaterial und der Art der Aufgabe abhängig sein. So konnte Speaks (1967) feststellen, dass die Identifikationsleistung, d.h. die Auswahl eines sinnlosen Satzes aus zehn vorgegebenen sinnlosen Sätzen, gegen Frequenzveränderungen relativ unempfindlich ist. Die Identifikation dieser
140
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Sätze kann auch bei extremen Grenzfrequenzen des Sprachreizes, die durch einen Tiefpass (f0 = 125 Hz) oder Hochpass (f0 = 7 kHz) bedingt wurden, hundertprozentig sein, wenn eine Erhöhung des Schallpegels der Sprache um 50 dB gegenüber der nicht frequenzgefilterten Sprache vorgenommen wird. Die Sprachverständlichkeit von Einsilbern ist dagegen, auch wenn die Sprachreize einen maximalen Schallpegel aufweisen, bei den extremen Grenzfrequenzen kleiner als 10 % (Abb. 6.2.2.1-2). Es ist erstaunlich, welche hohe Sprachverständlichkeit (95 %; Wörter in Sätzen) man erreichen kann, auch wenn die Sprache durch einen Terzfilter stark in ihrem Frequenzumfang reduziert wurde (Warren et al. 1995). Das gilt jedoch nur für die Mittenfrequenzen von 1.1, 1.5 und 2.1 kHz, die im wichtigen Frequenzbereich der Sprache liegen (s.o.; Abschn. 6.2.2.2. und 7.3.1). Für die benachbarten Terzen lag die Sprachverständlichkeit deutlich niedriger. Eine wesentliche Rolle spielte dabei das Übergangsgebiet der Filter (außerhalb der Grenzfrequenzen) und der Pegel der Sprache selbst. Obwohl bandgefilterte Sprache erstaunlich gut zu verstehen ist (s. Tab. 6.2.2.1-1), sind diese Ergebnisse ganz wesentlich vom absoluten Pegel der Sprache selbst abhängig. Diese hohen Verständlichkeitswerte wurden bei LSA = 70 dB erreicht (Doppelzeile 1, 3). Wird dagegen der Sprachpegel für die Mithörschwelle (SV = 50 %; Doppelzeile 2, 4) ermittelt, muss dieser für gefilterte Sprache ca. 30 dB höher liegen als für die nicht gefilterte Sprache (bb) (Stickney u. Assmann 2001). Tabelle 6.2.2.1-1. Sprachverständlichkeit (SV in %) und dargebotener Pegel (LSA in dB) der Sprache, die durch einen Schmalbandfilter (Mittenfrequenz fm, Bandbreite Df) oder Breitbandfilter (bb) verändert wurde, für Wörter in Sätzen (S) mit hoher/niedriger Vorhersagewahrscheinlichkeit (h/n VW) bei vorgegebenem Sprachpegel oder vorgegebener Sprachverständlichkeit und isolierte Wörter (letzte Zeile) mit hoher/niedriger Auftretenswahrscheinlichkeit (h/n AW) Wörter 1
im S
2
im S
3
im S
4
im S
5
isoliert
VW SV AW h % – h % – n % – n % – n % h %
LSA – dB – dB – dB – dB – –
Sprachverständlichkeit SV in % vorFilter (fm in kHz, Df in Hz) bb gegeb. 1.5 (190) 2.1 (250) 3.0 (350) – 83 98 96 100 x 70 70 70 70 x 50 50 50 50 – 62 53 57 23 – 58 85 78 98 x 70 70 70 70 x 50 50 50 50 – 67 58 64 27 – 21 53 52 94 – 29 60 56 96
6.2 Störung des Sprachreizes
141
6.2.2.2 Wichtige Frequenzen für die Sprachverständlichkeit
Schnittfrequenz für Text, Sätze, Einsilber Die Verständlichkeit bandgefilterter Sprache ist wesentlich von der Lage des Frequenzbereiches der Filter abhängig. Die für die Sprachverständlichkeit wichtigsten Frequenzen lassen sich aus den Mittenfrequenzen der Bandfilter ableiten, für die die Verständlichkeit am höchsten wird. Misst man die Verständlichkeit von Sprache, die mit Hoch– und Tiefpassfiltern begrenzt ist, so ergibt sich die für die Verständlichkeit wichtigste Frequenz aus dem Schnittpunkt der beiden Verständlichkeitskurven (Abb. 6.2.2.1-2). Sie liegt bei ungestörter Sprache (sinnlosen Silben) bei 1.9–2 kHz (French u. Steinberg 1947, Hirsh et al. 1954). Wird die Sprache durch Geräusche gestört, ist dieser Schnittpunkt abhängig vom Signal–Geräuschabstand bzw. davon, wie hoch die Sprachverständlichkeit ist. Der Schnittpunkt verändert sich von 0.8 auf 1.5 kHz (Pollack 1948), wenn der S/N-Abstand von LSN = –5 auf 15 dB verbessert wird. Grund für die Verschiebung des Schnittpunktes bei einer Erhöhung des Signal–Geräuschabstandes zu hohen Frequenzen hin, ist die geringer werdende Verdeckung der Sprachfrequenzen durch breitbandige Geräusche. Das gilt vor allem für die höheren Sprachfrequenzen (f = 1–4 kHz), deren Amplitude relativ gering ist. Somit gewinnen die höheren Sprachfrequenzen mit steigendem Signal–Geräuschabstand für die Sprachverständlichkeit an Gewicht (Webster 1964c). In diesem Zusammenhang ist auf die Arbeiten von Miller u. Nicely (1955) und Duggirala et al. (1988) zu verweisen, in der das Sprachmaterial nach bestimmten Kriterien wie Stimmhaftigkeit, Dauer, Affrikation, Ort der Artikulation, Nasalität (Kap. 4) unterschieden wurde. Es konnte festgestellt werden, dass der Schnittpunkt für tief– und hochpassgefilterte Sprache auch von diesen Merkmalen abhängig ist (Tab. 6.2.2.2-1, s.a. Abschn. 4.1.1). Die Spannbreite der Frequenzen für die Kreuzungspunkte der Merkmale liegt zwischen 0.45 und 2.6 kHz. Die Ermittlung des Schnittpunktes der Verständlichkeit für Hoch– und Tiefpassfilter wurde in Arbeiten zur Verbesserung des Artikulationsindex unter verschiedenen Bedingungen neu ermittelt (Duggirala et al. 1988, Studebaker u. Sherbecoe 1991, Bell et al. 1992, DePaolis et al. 1996). Hierbei wurden der Signal–Geräuschabstand und das Sprachmaterial (Wörter, Sätze, Text, niedrige und hohe Vorhersagewahrscheinlichkeit) variiert (Abschn. 7.3.1c). Die Frequenz der Schnittpunkte lag bei 1.5 bis 2.5 kHz. Je besser die Sprachverständlichkeit war – so die Tendenz –, umso höher ist die Frequenz. Bei hoher Vorhersagewahrscheinlichkeit der Sprachsignale (hVW) liegt die Frequenz bei 1.3–1.4 kHz, bei niedriger (nVW) bei 1.5–1.6 kHz. Bestimmt man die wichtigste Frequenz für gute Sprachverständlichkeit mit Hilfe der bandgefilterten Sprache (Terzen, Ok-
142
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
taven), liegt diese bei 1.5–4 kHz (Sotscheck 1973; Charii et al. 1977; Bell et al. 1992; DePaolis et al. 1996; Abschn. 7.3.1c). Tabelle 6.2.2.2-1. Die Schnittfrequenz für sinnlose Silben (MN, Miller u. Nicely 1955; W, Wang et al. 1978) und für einen Reimtest (D, Duggirala et al. 1988) Merkmale Nasal/Nasality (nasal–oral) Voice/Voicing (stimmhaft–stimmlos) Artikulationsort Anterior (Artikulation: Zunge vorn) Graveness (hohe–mittlere Artikulation) Compactness (unten–mittlere Artikulation) Artikulationsart Affrication (Affrikate) Duration (Länge der Artikulation) Frication (Frikante) Sustention (gedehnt–unterbrochen) Sibilitant/Sibilation (scharf–weich)
Schnittfrequenz in kHz MN W D 0.45 0.86 0.47 0.50 1.06 0.76 1.90 – – – – 1.29 – 1.75 – – – 1.62 – 1.70 – 0.75 – – 2.20 – – – 1.93 – – – 1.80 – 2.60 2.50
Wie aus den Ergebnissen der Identifikationsaufgabe synthetischer Sätze hervorgeht (s.o.; Speaks 1967), reichen für das korrekte Identifizieren allein hohe Sprachintensitäten aus. Die für die Sprachverständlichkeit wichtigsten Frequenzen in diesem Experiment (Schnittpunkt der Hoch– und Tiefpasskurven) liegen unabhängig vom Ausmaß der korrekt verstandenen Sprache bei 0.7 bis 0.8 kHz. Dieser gefundene Frequenzbereich der wichtigsten Frequenz kommt dem Frequenzbereich für die maximalen Sprachintensität (0.5 kHz) recht nahe. Bei diesem Identifikationsexperiment spielt die Sprachintensität eine wichtigere Rolle als in den oben erwähnten Untersuchungen (French u. Steinberg 1947; Pollack 1948; Hirsh et al. 1954), bei denen die Verständlichkeit von Sprachreizen gemessen wurde. Fasst man die Ergebnisse der Untersuchungen zusammen, so kommt man zu dem Schluss: je besser die Sprachverständlichkeit ist, umso höher liegt der Frequenzbereich, in dem die wichtigste Frequenz auftritt. Die Verständlichkeitskurven (Abb. 6.2.2.1-1, -2) zeigen deutlich, dass ein Beschneiden des Frequenzbereiches der Sprache auch gleichzeitig die maximal mögliche Verständlichkeit begrenzt. Eine hohe Qualität der Sprachverständlichkeit erfordert also auch einen breiten Frequenzbereich, der vor allem die hohen Frequenzen bis 6 kHz mit einbeziehen muss. Die Abhängigkeit der Sprachverständlichkeit vom Frequenzband der Sprache wird bei der Entwicklung der Sprachindices (AI, SII, STI) (Abschn. 7.3) berücksichtigt.
6.2 Störung des Sprachreizes
143
6.2.2.3 Bandbegrenzter Sprachreiz
Schwerhörigkeit, Alter, Richtungshören, Sprachqualität, frequenzabhängige Verstärkung Man könnte vermuten, dass eine frequenzabhängige Verstärkung, das heißt z.B. die Verstärkung der höheren Frequenzen in der Weise, dass die höher– und tieferfrequenten Anteile der Sprache gleich hoch sind, einen positiven Einfluss auf die Sprachverständlichkeit hat. Dies ist jedoch nicht der Fall. Eine solche Verstärkung brachte nur einen sehr geringen positiven Effekt für die Sprachverständlichkeit. Die Sprache war dabei von einem Sprechgeräusch (5 Sprecher) mit gleicher frequenzabhängiger Verstärkung bei einem Signal–Geräuschabstand von 0 bis 12 dB gestört (Young et al. 1980). Auch ist interessant, dass sich der Verlust an hohen Frequenzen bei Schwerhörigen nicht dadurch kompensieren lässt, dass die tieffrequenten Sprachanteile verstärkt werden. Hiervon profitieren nur Personen mit einer flachen Schwerhörigkeit (Leitungsschwerhörigkeit). Die Sprachverständlichkeit von Schwerhörigen mit einer Hochtonschwerhörigkeit sinkt durch eine Verstärkung der tieffrequenten Anteile (Gordon–Salant 1984). Gefilterte Sprache erzeugt, je nach Frequenzbereich, ein unterschiedliches Klangbild sowie eine unterschiedliche Sprachverständlichkeit. Neben der Erhebung der Sprachverständlichkeit werden auch subjektive Bewertungen zur Charakterisierung der Sprachqualität erfasst. Hierbei ist „Klarheit“ eines der wichtigsten sieben Merkmale der Sprachqualität, (Gabrielsson et al. 1988; Gabrielsson u. Hagerman 1993), da sie bei einer Vielzahl von Schallereignissen mit einer hohen Wahrnehmungsqualität korreliert. Was bedeutet nun Klarheit und Sprachverständlichkeit bei einer Sprache, die durch einen Hoch– sowie Tiefpass gefiltert (TP, HP) worden ist? Eisenberg et al. (1998) schickten als Konserve gesprochene Sätze durch 4 Filter (TP: 0.18–1.4, 0.14–2.8; HP: 1.8–7.1, 0.5–7.1 kHz) und maskierten diese mit 3 Geräuschpegeln (S/N–Pegel: -2 bis 20 dB) (HINT), so dass 12 Hörsituationen entstanden: jeweils 6 Sätze mit Tiefpass– und 6 Sätze mit Hochpassfiltern. Die Sätze wiesen alle etwa eine vergleichbare Verständlichkeit auf (SII= 0.3, 0.4, 0.5; 0.6, 0.7, 0.8). Diese lagen dann im Bereich steigender Verständlichkeit (SII = 0.3–0.5) und maximaler, nahezu konstanter Sprachverständlichkeit (SII = 0.6–0.8). Die Klarheit und Sprachverständlichkeit wurden auf einer Skala (0 bis 10) bewertet.
Die Ergebnisse sind recht ähnlich: die Korrelationen zwischen der Klarheit und der Sprachverständlichkeit und dem SII lagen bei 0.95 bis 0.97, die Korrelation für die Sprachverständlichkeit und Klarheit für beide Filter (TP, HP) bei 0.89 und 0.91. Obwohl sich die Skalenwerte selbst nur geringfügig unterschieden, lag die Verständlichkeit durchgehend höher als die Urteile zur Klarheit. Das spricht dafür, dass die Personen für die Klarheit von Sprache eine andere innere Referenz bilden als für die Verständlichkeit. Teilweise wird die Verständlichkeit durch Klarheit ersetzt.
144
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Eisenberg u. Dirks (1995) erfassten subjektive Bewertungen der Sprachverständlichkeit, in dem sie Bewertungen zur Klarheit von bandpassgefilterten Sprachproben von vier– bis achtjährigen Kindern erhoben. Dabei wurde angenommen, dass es für Kinder einfacher ist, die Klarheit von Sprache zu bewerten, als die Sprachverständlichkeit. Laut Gabrielsson et al. (1988) ist Klarheit von Sprache eng mit Sprachverständlichkeit bzw. allgemeiner Sprachqualität assoziiert. Klare Sprache beschreibt er als "klar, deutlich und rein" und das Gegenteil davon als "diffus, verwaschen und dicht". Als Sprachmaterial dienten Sätze des Pediatric Speech Intelligibility Tests (Jerger u. Jerger 1984), wobei die Sprachverständlichkeit mittels Bandpassfilter systematisch verändert wurde. Für die fünf Filter (Bandbreite: 0.51–1.1, 0.63–1.5 bis 0.51–2.0 kHz; AI = 0.28, 0.39 bis 0.53) ergaben sich ansteigende Werte für die Klarheit (2 bis 7; Skala 0 bis 10), wobei die Werte der Sieben– bis Achtjährigen eher niedriger lagen als die der jüngeren Kinder. In einem anderen Experiment (Raake 2002) wurde die wahrgenommene Sprachqualität von bandbegrenzter französischer Sprache untersucht. Die Einschätzung der Sprachqualität wurde von zwei Hörergruppen vorgenommen, die die Sprache unterschiedlich gut verstanden. Der Inhalt der gesprochenen Texte wurde variiert, um zusätzlich den Einfluss dieser auf die Bewertung der Sprachqualität abschätzen zu können. In nebenstehender Tabelle (Tab. 6.2.2.3-1) sind Ergebnisse der allgemeinen Bewertung der Sprachqualität zu lesen. Als Ergebnis ist festzuhalten, dass eine hohe Bandbreite der Sprache (rechte Spalte) für eine gute Sprachqualität (hohe Skalenwerte) erforderlich ist. Die anderen Einflussvariablen wirken sich nicht wesentlich auf die Bewertung aus. Tabelle 6.2.2.3-1. Skalenwerte (1–10) von Einschätzungen zweier Hörergruppen über die wahrgenommene Sprachqualität von französischen Texten und Sätzen, die von 6 Sprechern gesprochen und durch drei Bandpässe gefiltert wurden Hörer, die Sprache… schlecht verstehen gut verstehen
Sprachqualität (Skalenwerte von 1–10) Bandbreite in kHz 0.35–2.60 0.15–3.60 0.05–7.00 2.70–3.20 4.00–5.00 6.40–7.50 2.40–3.20 4.40–5.50 6.80–8.00
Da gefilterte Sprache die Sprachverständlichkeit in breitem Umfang verändert, wurde versucht, die subjektiv erlebte Empfindlichkeit gegenüber gefilterter Sprache zu ermitteln (Lawson u. Chial 1982). Die Sprachqualität akustisch dargebotener Lehrtexte wurde von gesunden und hörgeschädigten Probanden beurteilt (speech quality magnitude estimates). Dabei wurde die Sprachqualität mittels Tief– und Hochpassfilter modifi-
6.2 Störung des Sprachreizes
145
ziert. Im Ergebnis zeigte sich, dass sich der Logarithmus der Sprachqualitätsurteile linear zum Logarithmus der Bandbreite des dargebotenen Sprachsignals verhält. Die Unterschiede in der Bewertung der Sprachqualität wurden als Hinweis für verschiedene Empfindlichkeitsausprägungen der beiden Personengruppen interpretiert. Der Einfluss von bandbegrenzter Sprache zeigt sich vor allem dann, wenn sie schwerhörigen Personen (mit einem mittleren Hörverlust) (Skinner u. Miller 1983; Tab. 6.2.2.3-2), älteren Personen mit üblichen Gehörschäden (Palva u. Jokinen 1970, 1975; Abb. 6.2.2.3-1) oder gemeinsam mit anderen Störungen (s. Tab.6.5.3-1) dargeboten wird. Tabelle 6.2.2.3-2. Wortverständlichkeit (SV in %) für Schwerhörige bei bandbegrenzter Sprache (Df; 4x) in Ruhe und bei Geräusch (LSNA = 6 dB), Sprachpegel LSA = 50 dB, 60 dB (entspr. MCL), 70 dB
Df in kHz 0.27–6.00 0.38–4.24 0.53–3.00 0.75–2.12
50 51 42 29 16
SV in % Ruhe Geräusch LSA in dB 60 70 50 60 70 61 56 45 50 33 57 55 39 48 32 42 43 25 31 17 23 18 16 17 13
Abb. 6.2.2.3-1. Sprachverständlichkeit (SV in %) bei bandbegrenzter Sprache, monaural (—Ɣ— rechtes Ohr, —ż— linkes Ohr), oder binaural (—Ƒ—) wahrgenommener Sprachreize in Abhängigkeit vom Alter (A in Jahren)
Dabei wurde die Verstärkung der Hörgeräte, die die Personen trugen, so eingestellt, dass das Sprachspektrum (Sprachpegel LSA = 60 dB) der individuell gemessenen MCL (most comfortable loudness) entsprach (Tab.
146
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
6.2.2.3-2). Für eine optimale Sprachverständlichkeit ist eine hohe Bandbreite bei einem ausgewählten Schallpegel erforderlich. Man erkennt deutlich die Abnahme der Verständlichkeit, wenn vom optimalen Punkt, der individuellen MCL, abgewichen wird. Palva u. Jokinen (1970, 1975) konnten die Abnahme der Verständlichkeit gefilterter Sprachreize mit dem Alter der Personen deutlich in ihrer Untersuchung demonstrieren, vor allem dann, wenn sie binaural dargeboten werden (Abb. 6.2.2.3-1). Der starke Effekt auf die Verstehensleistung, der durch eine binaurale Darbietung des gefilterten Sprachreizes bedingt wird, zeigt sich besonders gut in der Gegenüberstellung der Daten in Tabelle 6.2.2.3-3. Tabelle 6.2.2.3-3. Sprachverständlichkeit (SV in %) für bandgefilterte Sprache der Bandbreite (Df in kHz; nach Mapp 2002), in einer störungsfreien monauralen Situation und binaural in einem Raum mit einer Nachhallzeit von1.5 s dargeboten
Df/kHz monaural binaural
1
SV in % 2 4 10 69 90 96.5 98 59 67 74 86
Festzuhalten ist: die Verständlichkeit von bandbegrenzter Sprache ist letztlich nur im Zusammenhang mit Faktoren zu bewerten, die ihrerseits ebenso einen Einfluss auf die Verständlichkeit haben, wie Geräusch, Richtungshören, Schwerhörigkeit und Sprachpegelhöhe. Da ein Einfluss von Störfaktoren kaum auszuschließen ist, sollten Übertragungssysteme für Sprache wie Kommunikationsgräte, Lautsprecheranlagen oder Hörgeräte mit einer hohen Bandbreite (bis 8 kHz) ausgestattet sein.
6.2.3 Amplitudenbegrenzte, amplitudenkomprimierte Sprache Peak Clipping, Center Clipping, Dynamikkompression, Schwerhörige In Experimenten, in denen die Sprachverständlichkeit nicht in Abhängigkeit von der Breite des Frequenzspektrums, sondern in Abhängigkeit von Intensitätsbereichen der Sprache untersucht wurde, wurden bestimmte Amplituden des Sprachsignals ausgefiltert. Mit der Selektion solcher Amplituden werden gleichzeitig die Frequenz– und Zeitcharakteristika und damit auch die linguistischen Eigenschaften der Sprache verändert. Wenn man zum einen die Amplitude ab einer bestimmten Höhe abschneidet, so dass nur das Amplitudenband mit den mittleren Amplituden erhalten bleibt (peak clipping) oder zum anderen das Band mittlerer Amplituden wegfil-
6.2 Störung des Sprachreizes
147
tert (center clipping), so dass nur noch die hohen Teile des Amplitudenbereiches zu hören sind, ergeben sich je nach Bedingung recht unterschiedliche Ergebnisse. Die Verständlichkeit der Sprache ist nahezu unverändert, wenn die kleinen und mittleren Amplituden erhalten bleiben (peak clipping). Dagegen sinkt die Sprachverständlichkeit nahezu auf Null herab, wenn nur die Spitzen der Amplituden, also die Sprachelemente mit den hohen Amplituden (center clipping) erhalten bleiben. Zieht man die Ergebnisse von Fletcher (1953) über die unterschiedliche Sprachintensität von Vokalen und Konsonanten zur Interpretation der Befunde heran, so sind diese Ergebnisse in keiner Weise mehr überraschend. Wie Fletcher aufzeigen konnte, haben die Konsonanten eine wesentlich geringere Sprachintensität als Vokale (s. Abb. 3.3-4). Konsonanten sind aber wichtiger für die Sinnverständlichkeit als Vokale (Kap. 9). Sobald also nur noch die Spitzen erhalten bleiben und die mittleren und kleinen Amplituden ausgeschaltet werden, werden automatisch nur noch Vokale zur Wahrnehmung angeboten, die in ihrem Informationsgehalt wesentlich geringer sind. So ist auch zu erwarten, dass unter diesen Bedingungen kaum etwas verstanden werden kann. In Abbildung 6.2.3-1 ist die Wortverständlichkeit bei unterschiedlichem Ausmaß der Amplitudenbegrenzung dargestellt (Licklider u. Miller 1951).
Abb. 6.2.3-1. Verständlichkeit (SV) von Wörtern bei Begrenzung der Sprachamplituden auf niedrige Amplituden (peak clipping, PC, DL = -20 lg (pg / ps) und auf hohe Amplituden (center clipping, CC, DL = -20 lg ((ps - pg)/ ps) (nach Licklider u. Miller 1951)
Da die Sprachverständlichkeit bei der Begrenzung auf mittlere und kleine Amplituden (peak clipping) nur wenig beeinträchtigt wird, wurde diese
148
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
zur Verbesserung der Verständlichkeit bei der Sprachübertragung genutzt. Die in Übertragungssystemen maximal nutzbare Verstärkung ist durch die beginnende Übersteuerung durch die höchsten Amplituden der Sprache (Vokale) begrenzt. Schneidet man die Spitzenamplituden der Sprache ab, kann die Verstärkung der Sprachamplituden insgesamt erhöht werden, was besonders den geringen Amplituden der Konsonanten zugute kommt. Wird amplitudenbegrenzte und nicht begrenzte Sprache gleicher Amplituden, z.B. in einem geräuschintensiven Arbeitsbereich abgestrahlt, erhöht sich für die amplitudenbegrenzte Sprache der Signal–Geräuschabstand im Bereich der für die Sprachverständlichkeit wichtigen Konsonanten. Die Sprachverständlichkeit der amplitudenbegrenzten Sprache erhöht sich damit. Ist jedoch Sprache bereits durch Geräusche gestört und wird diese anschließend amplitudenbegrenzt, verschlechtert sich die Sprachverständlichkeit, weil so der Rest der ungestörten Sprache, die Sprachspitzen, abgeschnitten wird (z.B. Kryter et al. 1947; Licklider u. Miller 1951; Kryter 1972). Der geringe Einfluss einer moderaten Amplitudenbegrenzung (peak clipping) auf die Sprachverständlichkeit wurde in Untersuchungen mehrfach bestätigt (Dirks 1995, Kates u. Kozma–Spytek 1994). Die Sprachqualität aber des durch die Amplitudenbegrenzung veränderten Sprachreizes nimmt dagegen deutlich ab. Die Dynamikkompression oder Amplitudenkompression, ein verfeinertes Verfahren zur Amplitudenbegrenzung, bietet heute die Möglichkeit, Übersteuerungen zu vermeiden, ohne eine direkte Amplitudenbegrenzung, d.h. ohne eine Transformation mit stark diskontinuierlichen und nichtlinearen Veränderungen. Bei diesem Verfahren wird der in Frage kommende Amplitudenbereich der Sprache komprimiert, wobei Kompression zur Anpassung an bestimmte Charakteristiken des Störgeräusches und des Gehörs auch frequenzselektiv vorgenommen werden kann. Die Amplitudenkompression bietet die Möglichkeit, die so (von 30 auf 10 oder 5 dB) komprimierte Dynamik der Sprache deutlich höher über einem Geräuschpegel oder einer Schwerhörigkeit dem Gehör darzubieten und einen höheren Signal–Geräuschabstand zu erzielen. Die Dynamikkompression wird in der Aufnahmetechnik, bei der das Signal durch das Rauschen der Übertragungssysteme gestört werden kann, und für den Aufbau von Hörgeräten zur Anpassung an den eingeschränkten Hörbereich der Innenohrschwerhörigen angewendet (u.a. Spreng 1975; Welleschik u. Wicke 1977; Hickson 1994; Kießling et al. 1996). Ein Vergleich der asymmetrischen Amplitudenbegrenzung (AB; peak clipping) mit der Amplitudenkompression (AK) brachte deutliche Vorteile für die Kompression (AK) (Hawkins u. Naidoo 1993). Dabei wurde die Klarheit und Klangqualität der so veränderten Sprache im Paarvergleich (AB–AK) in Ruhe und bei einem Geräusch (SG(12)) durch schwerhörige
6.2 Störung des Sprachreizes
149
Personen (mit Hörgeräten) beurteilt. Es konnte eine signifikante Bevorzugung der Ausgangssignalkompression für beide Darbietungsbedingungen (in Ruhe und mit Störgeräusch) und für beide Kriterien (Klangqualität und Klarheit) ermittelt werden. Die Bevorzugung dieser Art von Amplitudenbegrenzung fiel bei zunehmender Lautstärkebegrenzung ausgeprägter aus. Weiterhin zeigte sich, dass die Bevorzugung bei Darbietung der Sprachproben in Ruhe ausgeprägter ausfällt als in der Bedingung mit Störgeräusch. Inwieweit bei Sprache, die schon durch Geräusche gestört ist, die Dynamikkompression Vorteile bietet, ist fraglich. So haben Young et al. (1980) die Verständlichkeit von komprimierter Sprache gemessen. Die Sprache wurde durch sprachähnliches Rauschen gestört. Die Sprachamplituden wurden durch eine dem Sprachspektrum reziproke (negative) Verstärkung so verändert, dass alle Sprachfrequenzen die gleichen Amplituden erhielten, anschließend wurde eine Dynamikkompression vorgenommen. Die Autoren schließen aus den Ergebnissen, dass die Veränderung des Sprachreizes, die mit einer dem Sprachspektrum reziproken Verstärkung und einer Dynamikkompression durchgeführt wurde, wobei der Sprachreiz selbst durch Geräusche oder andere Sprecher gestört ist, die Sprachverständlichkeit unabhängig vom Signal–Geräuschabstand nicht erhöht, sondern eher verringert. Bei der Komprimierung steht immer wieder die Frage im Vordergrund, in wie weit Schwerhörige in Ruhe oder in geräuschhaltiger Umgebung Vorteile durch eine Amplitudenkompression haben. Trotz Differenzen bei der Sprachverständlichkeit von normal– und schwerhörigen Personen, wurde die Sprachqualität amplitudenkomprimierter Sprache relativ ähnlich beurteilt (Boike u. Souza 2000). Die Bewertung der Sprachqualität (Klarheit, allgemeiner Eindruck, Sprache; s. Abb. 6.2.3-2), der Leichtigkeit des Verstehens und der Angenehmheit der Sprache nahm jedoch mit zunehmender Kompression ab (bei der Leichtigkeit des Verstehens gaben Schwerhörige jedoch niedrigere Skalenwerte an). Wurden die Sätze mit Störgeräuschen maskiert dargeboten, sank die Sprachverständlichkeit und damit auch die Bewertung der Sprachqualität vorwiegend bei schwerhörigen Personen mit steigender Kompression (s. Abb. 6.2.3-2) ab. Es wird vermutet, dass die geringe Information, die der Schwerhörige noch aus dem zeitlichen Verlauf und der spektralen Verteilung der Sprache erhält, durch die Kompression weiter reduziert wird. Das zeitliche Übertragungsverhalten von Kompressionssystemen, wie sie für Hörgeräte geeignet sind, wurde mit Hilfe von Konsonant–Vokal– Übergängen untersucht (Wedel u. Wiesner 1987). Die Autoren zeigen, dass durch genaue Einstellung der Verstärkung und der Kompression Verzerrungen und mögliche Fehlinterpretationen vermieden werden können.
150
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
In einer recht aufwändigen und sorgfältigen Studie (Buuren et al. 1999) wurde die Sprache sowohl expandiert (4:1) als auch komprimiert (1:4). An der Untersuchung nahmen normalhörende und schwerhörige Personen teil. Die Sprache wurde durch ein stationäres Sprachrauschen und ein Sprachgeräusch (1 Sprecher) gestört und in 1, 4 und 16 Kanäle (Bandpässe) aufgeteilt. Als Ergebnis kann festgehalten werden, dass die Mithörschwelle (50 % SV) wie auch die subjektiv bewertete Sprachqualität (Angenehmheit) für expandierte und komprimierte Sprache bei Schwerhörigen wie bei Normalhörenden abnehmen. Die Ergebnisse der Untersuchungen zu ein– und mehrkanaligen Kompressionssystemen deuten auf eine effektive Anwendung bei Hörgeräten hin. So wird heute bei den meisten Hörgeräten eine frequenzabhängige Dynamikkompression benutzt, mit der die Sprachreize an die veränderte Wahrnehmung von Schallempfindungsschwerhörigen sinnvoll zwischen Hör– und Unbehaglichkeitsschwelle angepasst werden können. Allerdings ist man weit davon entfernt (Hickson 1994) – bedingt durch die schnell fluktuierenden Intensitäts–Frequenzmuster der Sprache und die Variabilität der Schwerhörigkeit – eine optimale Kompression vorschlagen zu können. Die Trennung von Sprache und Geräusch sollte – soweit möglich – vor der Dynamikkompression erfolgen.
Abb. 6.2.3-2. Sprachverständlichkeit (rechts: SV gemessen in RAU, entspricht dem Arcsinus der SV in %), Klarheit (links: BK, Skala 0 bis 10) für Text (Connected Speech Test: CST, Cox et al. 1987) in Ruhe (R) und im Geräusch (N, SG(m), LSNA = 10 dB), für Normalhörende (NH) und Schwerhörige (SH) (HST (0.5–4 kHz) = 30 bis 50 dB) bei 4 Amplitudenkompressionen (K: 1 (1:1), 2 (2:1), 5 (5:1), 10 (10:1)
6.2 Störung des Sprachreizes
151
6.2.4 Zeitunterbrochene Sprache Unterbrechungsrate, Zeitkompression, Schwerhörige Wird ein Sprachsignal unterbrochen, so hängt die Sprachverständlichkeit von zwei Faktoren ab: x von der Frequenz, mit der ein Sprachsignal unterbrochen wird, d.h. von der Unterbrechungsrate, und x von dem Verhältnis der Signalzeit (Sprache hörbar) zur Pausenzeit, in das das zeitunterbrochene Sprachereignis aufgeteilt werden kann. So kann man z.B. ein Signal–Pausenzeitverhältnis von 50 % wählen, d.h. wird ein Sprachereignis z.B. alle 4 s unterbrochen, so folgen immer 2 s Pause und 2 s Sprache aufeinander. Diese Aufteilung in die Signal– und Pausenzeit kann bis zu Bruchteilen von Millisekunden erfolgen. Abbildung 6.2.4-1 zeigt die Wortverständlichkeit in Prozent als Funktion der Frequenz der Unterbrechung und des Signal–Pausenzeitverhältnisses (Miller u. Licklider 1950). Ist die Unterbrechungsfrequenz niedrig gewählt, so werden soviel Wörter wahrgenommen, wie jeweils in der entsprechenden Zeit – bedingt durch das Signal–Pausenzeitverhältnis – zu hören sind. Der Prozentsatz der richtig verstandenen Wörter stimmt mit dem Prozentsatz des Signal–Pausenzeitverhältnisses überein. Wenn die Unterbrechungsrate sehr hoch ist, werden fast alle Wörter verstanden, auch wenn die Aufteilung in die Signalzeit und Pausenzeit zu ungunsten der Signalzeit ausfällt.
Abb. 6.2.4-1. Verständlichkeit (SV in %) von Wörtern in Abhängigkeit von der Unterbrechungsrate (fr) und von dem Verhältnis (VSP) der Signal–(Sprach–)zeit zur Pausenzeit (nach Miller u. Licklider 1950)
152
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Die durch Unterbrechungen veränderte Sprache kann als eine Amplitudenmodulation aufgefasst werden, wobei der Zeitverlauf der Unterbrechung durch die Amplitude der Sprache moduliert wird. Der Zeitverlauf der Sprache und damit auch die Sprachverständlichkeit bleiben erhalten, wenn die Frequenzen der beiden Zeitverläufe, die der Sprache und der Unterbrechung, möglichst weit auseinander liegen. Das ist der Fall, wenn die Unterbrechungsrate größer als 3 kHz ist. Aus Abbildung 6.2.4-1 geht hervor, dass zwischen der sehr hohen und sehr niedrigen Unterbrechungsrate ein Bereich liegt, in dem das Ausmaß der Sprachverständlichkeit sich von einem Minimum (Unterbrechungsrate von 1 Hz) zu einem Maximum (Unterbrechungsrate von 10–100 Hz) und wieder zu einem Minimum (Unterbrechungsrate von 200–2000 Hz) verschiebt. Die geringe Sprachverständlichkeit bei einer Unterbrechungsrate von 1 Hz ist durch die Länge des Sprachreizes (Einsilber) zu erklären; d.h. die Signalzeit und das Sprachmaterial selbst haben ungefähr die gleiche Länge. Ein einsilbiges Wort wird im Durchschnitt 0.6 s gesprochen. Trifft das ganze Wort gerade in die Signalzeit, was jedoch nur selten geschieht, so wird es zu 100 % verstanden. Das Wort kann nicht mehr richtig verstanden werden, wenn der Anlaut oder der Endlaut abgeschnitten wird. Dieses geschieht bei der Unterbrechungsrate von 1 Hz ständig, da der Vokal wesentlich länger gesprochen wird als der Konsonant (s. Abschn. 3.5). Wie bekannt ist (s. Abschn. 4.1), liefert der Vokal im Vergleich zum Konsonanten eine wesentlich geringere Information für die richtige Identifikation des Sprachreizes, so dass deshalb die Sprachverständlichkeit durch dieses Unterbrechungsverhältnis besonders stark gestört wird. Das Maximum der Verständlichkeit bei 10 bis 100 Hz Unterbrechungsrate ist durch die Sprechdauer der Wörter und Silben bedingt. Da ein einsilbiges Wort 0.6 s lang gesprochen wird, erlauben 10 und mehr Unterbrechungen pro Sekunde dem Beobachter etwa 5–10 „Blicke“ auf jedes Wort zu werfen. Diese Zeit ist ausreichend, um die einzelnen Sprachlaute, aus der sich die Wörter zusammensetzen, richtig zu identifizieren. Das Minimum der Sprachverständlichkeit bei einer Unterbrechungsrate von 200–2000 Hz ist dadurch bedingt, dass der Zeitverlauf der Unterbrechung selbst ein Geräusch mit der Frequenz der Unterbrechungsrate darstellt und somit hörbar wird. Wenn die Frequenzen dieses Geräusches in den Frequenzbereich der Sprache fallen, so wird die Sprache durch dieses Geräusch stark maskiert, die Verständlichkeit der Sprache ist dann gering. Die drei temporalen Aspekte (Zeitkompression, Unterbrechung und Nachhall), die den Verlauf der Sprache beeinflussen, wurden für 4 Personengruppen (Normalhörende (jung, alt), Schwerhörige (jung, älter)) untersucht (Gordon–Salant u. Fitzgibbons 1993) (Tab. 6.2.4-1). Obwohl die Sprachverständlichkeit in ungestörtem Zustand für alle vier Gruppen hoch
6.2 Störung des Sprachreizes
153
war (SV = 88–98 %), nahm sie mit zunehmender Zeitkompression und zunehmendem Nachhall ab. Bei der Zeitunterbrechung gab es – bedingt durch die Wort–, Phonem–, und Satzstruktur – eine Abnahme der Sprachverständlichkeit nach schnellen (100 Hz) und langsameren (12.5 Hz) Unterbrechungsraten. Alle 3 temporalen Aspekte wirken sich besonders deutlich bei schwerhörigen Personen aus. So gibt es Unterschiede in der Sprachverständlichkeit zwischen jungen Normalhörenden (NJ) und älteren Schwerhörigen (SA) von 30–60 %: x SV (NJ/SA) bei der Zeitkompression (60 %) = 82/27 % x SV (NJ/SA) bei der Unterbrechungsrate (50 Hz) = 88/48 % x SV (NJ/SA) beim Nachhall (0.6 s) = 66/28 %. Eine zusätzliche Analyse der für das Ohr relevanten psychoakustischen Daten legt nahe, dass Hörverluste bei höheren Frequenzen und das Alter der Personen die Verständlichkeit von zeitlich veränderter Sprache bedingen. Tabelle 6.2.4-1. Sprachverständlichkeit (SV in %) für junge und ältere Normalhörende (NJ, NA) und junge und ältere Schwerhörige (SJ, SA; HVT (0.5–4 kHz) = 22–56 dB), NA, SA: Alter > 65 J. ; für Wörter in Sätzen mit niedriger Vorhersagewahrscheinlichkeit; Sprache ungestört, zeitkomprimiert (30–60 %), zeitunterbrochen (12.5 bis 100 Hz), mit Nachhall (0.2–0.6 s) versehen
ungestört zeitkomprimiert unterbrochen mit Nachhall
NJ 98 97–82 88–67 97–66
Sprachverständlichkeit in % NA SJ 98 88 96–51 83–42 76–68 63–53 91–51 80–52
SA 89 77–27 57–47 79–28
Die Lästigkeit von zeitunterbrochener Sprache (Dauer der Sprache und Unterbrechung 25 bis 500 ms) verringert sich mit der Dauer des Sprachsignals und steigt direkt mit der Dauer der Unterbrechung (Preis u. Terhardt 1989) an. Sie ist wesentlich mit dem Informationsverlust verbunden. Zusammenfassend ist festzuhalten, dass sich die Störung der Zeitstruktur eines Sprachreizes deutlich auf die Sprachverständlichkeit besonders bei Schwerhörigen auswirkt.
154
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
6.3 Verdeckung und Störung der Sprache durch Geräusche 6.3.1 Verdeckung durch Geräusche konstanten Pegels Einfluss des Pegels und der Frequenz Wird Sprache in einer geräuschvollen Umgebung übermittelt, so wird die Sprache direkt durch das Geräusch maskiert bzw. verdeckt. Die verdeckende Wirkung des Geräusches richtet sich nach Intensität, Frequenzbereich und Zeitstruktur, ggf. auch nach dem Informationsgehalt des Geräusches. Sind die zeitlichen Schwankungen des Geräuschpegels, gemessen bei der Zeitbewertung Fast, LNAF, während der Zeit, in der das Geräusch Sprache verdeckt, kleiner als 3–5 dB, so kann man von einem Geräusch konstanten Pegels sprechen. Geräusche mit gleichem Frequenzspektrum und gleichem (konstanten) Pegel verdecken Sprachlaute, Silben und Wörter in gleicher Weise. Für ein Geräusch mit zeitlichen Pegelschwankungen höheren Ausmaßes (> 5 dB) lässt sich bisher kein genauer Wert des Geräuschpegels angeben, der die einzelnen Sprachreize verdeckt (s. Abschn. 6.3.3, 6.3 4). Die Verständlichkeit von Wörtern und Silben, gestört durch ein breitbandiges Rauschen (LNA = 20–110 dB) für unterschiedliche Sprachpegel am Ohr des Hörers (LSA = 20–110 dB) ist von Kryter (1946) und Fletcher u. Galt (1950) untersucht worden. Abbildung 6.3.1-1 zeigt, dass im mittleren Pegelbereich (LSA = 40–80 dB) die Verständlichkeit im Wesentlichen vom Signal–Geräuschabstand abhängt. Bei niedrigen Sprachpegeln LSA d 45 dB sinken Teile des Schallpegelspektrums der Sprache unter die Hörschwelle, so dass die Verständlichkeit abnimmt (Abb. 6.3.1-1). Steigt der Schallpegel über LSA t 80 dB, so entstehen im Ohr nichtlineare Verzerrungen, die die Verständlichkeit der Sprache herabsetzen (s. Abschn. 5.9). Bei der Verdeckung von Sprache durch Geräusche wird von der Vorstellung ausgegangen, dass innerhalb der Hörfläche (Pegel über der Frequenz, s. Abb. 2.2-1, 8.1.2-1) nur die Sprache hörbar und verstehbar ist, die nicht von dem Geräusch über– bzw. verdeckt wird. Der Pegelbereich eines vorgegebenen Sprachtextes umfasst etwa 30–50 dB. Diese Vorstellung wird durch zwei Aspekte eingeschränkt: x seitens der Intensität durch die Hörschwelle (< 40 dB) und dem beginnenden nichtlinearen Bereich (80–90 dB, s. Abschn. 5.9), und x seitens der Frequenz bei etwa 0.1 und 10 kHz. Bei schmalbandigen Geräuschen gilt der entsprechende Mechanismus wie bei der Verdeckung von Sinustönen. Obwohl es hier um Verständlich-
6.3 Verdeckung und Störung der Sprache durch Geräusche
155
keit von Sprache und dort um Wahrnehmung und Lautheit von Tönen geht, entsprechen sich die kritischen Bandbreiten (s. Abb. 2.3-3). Aus der angesprochenen Vorstellung der Abdeckung in der Sprachhörfläche wurden die Sprachindices (Abschn. 7.3) entwickelt. Ein wesentlicher Teil der Untersuchungen zum Verständnis des Mechanismus der Sprachverständigung wurde in den vierziger und fünfziger Jahren erarbeitet. Wichtige Ergebnisse werden im weiteren Text kurz vorgestellt.
Abb. 6.3.1-1. Sprachverständlichkeit (SV in %) von Wörtern in Abhängigkeit vom Schallpegel der Sprache (LSA) und des Geräusches (LNA), ohne Gehörschutz (), mit Stöpsel geschütztes Ohr (---) (s. Kap. 8.4) (nach Kryter 1946)
Um zu allgemein gültigen Aussagen über die Verständlichkeit der Sprache zu kommen, die durch Geräusche unterschiedlichen Frequenzspektrums und Schallpegels maskiert wird, benutzt man als Testgeräusch häufig Rauschen unterschiedlicher Bandbreite und Mittenfrequenz, sog. Bandpassrauschen (Miller 1947, Hirsh u. Bowman 1953), oder auch Klänge (Stevens et al. 1946, Carter u. Kryter 1962). In den Untersuchungen von Miller und Hirsh u. Bowman wurden 8 bzw. 10 Arten von Bandpassrauschen der Frequenzbreite von Df = 0.15–1.5 kHz verwendet; die Geräuschpegel liegen bei LN = 10–120 dB. Als Sprachmaterial benutzte Miller einsilbige Wörter, Hirsh u. Bowman verwendeten Zweisilber. Die Ergebnisse von Miller sind in Abbildung 6.3.1-2 dargestellt: die Verständlichkeit von Wörtern ist abhängig von dem Pegel des einzelnen Bandpassrauschens und ist bei ihren Mittenfrequenzen dargestellt. Daneben ist die Verständlichkeit der Wörter, gestört durch weißes Rauschen, angegeben. Die Verständlichkeit von Wörtern, die durch Frequenzbänder bis zu 0.5–2 kHz verdeckt werden, wird stärker vermindert als die Ver-
156
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
ständlichkeit von Wörtern, die mit Bandpassgeräuschen höherer Frequenzen maskiert werden. Wie weiter zu ersehen ist, nimmt die Maskierung der Sprachsignale mit steigendem Pegel bei tiefen Frequenzen unterhalb 1 kHz stärker zu als bei hohen Frequenzen. Ist die Sprachverständlichkeit gut bzw. der Geräuschpegel niedrig, so stört ein Bandpassrauschen bei 1–2 kHz am stärksten. Dieser Befund ist darauf zurückzuführen, dass für eine gute Sprachverständlichkeit die Frequenzen des Sprachreizes um 1–2 kHz notwendig sind, die aber gerade durch dieses Bandpassrauschen verdeckt werden. Bei abnehmender Verständlichkeit bzw. steigenden Geräuschpegeln verlagert sich der Schwerpunkt der verdeckenden Wirkung des Geräusches zu tiefen Frequenzen etwa zu 300–500 Hz.
Abb. 6.3.1-2. Verständlichkeit von Wörtern (SV in %) in Abhängigkeit von dem Geräuschpegel (LN) und der Mittenfrequenz (fm) des störenden Bandpassrauschens bei einem Sprachpegel von LS = 95 dB. Zusätzlich sind die im Experiment von Miller (1947) angegebenen Bandbreiten (Df) des Rauschens dargestellt. Seitlich (rechts) dazu ist die Verständlichkeit von Wörtern, gestört durch weißes Rauschen, mit den Geräuschpegeln (LN in dB) angegeben
Diese besonders starke Reduzierung der Sprachverständlichkeit durch tieferfrequente Geräusche ist auch in Verbindung mit der Weitabverdeckung zu sehen, die mit steigenden Geräuschpegeln zunimmt. Damit ist die Verständlichkeit der Sprache, die durch tieffrequente Geräusche mit hohen Pegeln beeinträchtigt wird, sowohl durch die direkte Verdeckung in dem in Frage kommenden Frequenzbereich, wie auch durch die Weitabverdeckung oberhalb des Frequenzbereiches des Geräusches bedingt.
6.3 Verdeckung und Störung der Sprache durch Geräusche
157
In Abbildung 6.3.1-3 ist die Schwelle der Sprachverständlichkeit (LHSS), das ist der Schallpegel von gesprochenen Zweisilbern, bei dem diese gerade nicht mehr verstanden werden (Hirsh u. Bowman 1953), über dem Störgeräusch dargestellt. Zur Verdeckung der Sprachreize wurden Bandpassgeräusche verwendet, die denen in der Untersuchung von Miller (1947) ähnlich waren. Wie aus Abbildung 6.3.1-3 ersichtlich, nimmt die Schwelle mit steigendem Pegel des Bandpassrauschens zu.
Abb. 6.3.1-3. Hörschwelle der Sprachverständlichkeit (LHSS) für zweisilbige Wörter in Abhängigkeit vom Schallpegel (LN) des Bandpassrauschens unterschiedlicher Bandbreite und Mittenfrequenz
Liegt die Schwelle der Sprachverständlichkeit bei LHSS > 50 dB, so verändert sich diese etwa linear mit dem Anstieg des Rauschpegels. Die stärkste Maskierung der Sprachreize tritt – abgesehen vom weißen Rauschen – im Frequenzbereich von 0.67–1 kHz auf. Im Bereich hoher Rauschpegel zeigen sich zusätzlich nichtlineare Effekte, was durch die Weitabverdeckung bedingt sein kann. Die Weitabverdeckung kommt dagegen kaum zum Tragen, wenn Sprache mit breitbandigem Rauschen maskiert wird. Das Ausmaß der Verdeckung der verbalen Reize, die Verständlichkeitsschwelle (LHSS), nimmt mit dem Anstieg des Pegels eines breitbandigen Störgeräusches bis zu hohen Pegelwerten hin linear zu. Stevens et al. (1946) maskierten Sprache (Text) durch Sinustöne und analysierten die Entdeckung von Sprachreizen in Abhängigkeit von der Frequenz und dem Pegel des verdeckenden Tones. Die Entdeckungsschwelle wurde definiert als 50 % entdeckter Sprachreiz einer Erzählung und als Pegel (LESS) gegenüber der Entdeckungsschwelle in Ruhe (LESS0)
158
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
angegeben (Abb. 6.3.1-4). Die Autoren konnten feststellen, dass im Allgemeinen eine maximale Verdeckung der Sprachreize durch Sinustöne bei einer Frequenz von 300–500 Hz zu beobachten ist. Da nur nach der Entdeckung, nicht aber nach der Verständlichkeit von Sprache gefragt wurde, ist der Frequenzbereich, in dem die maximale Energie der Sprache auftritt (bei etwa 500 Hz), für das Maß der Verdeckung des Sprachreizes maßgeblich. Das Maximum der Entdeckungsschwelle verschiebt sich bei steigenden Pegelwerten des maskierten Tones etwas mehr zu niedrigeren Frequenzen hin, was, wie beim Bandpassrauschen, durch die Weitabverdeckung bedingt ist (Abschn. 2.3; Abb. 2.3-4).
Abb. 6.3.1-4. Entdeckungsschwelle (L’ESS) für Text, bezogen auf die Entdeckungsschwelle (LESS0) in Ruhe (L’ESS = LESS LESS0), gestört durch Sinustöne () und Rechteckklänge (– – –) mit der Grundfrequenz (fo) und unterschiedlichen Schallpegeln (LN) (nach Stevens et al. 1946)
Carter u. Kryter (1962) untersuchten die Sprachverständlichkeit in Abhängigkeit vom Sprachpegel (LS = 75, 100 dB) und der Maskierung der Sprache mit tieffrequenten Sinustönen (50/100/200 Hz). Aus Abbildung 6.3.1-5 geht hervor, dass auch Frequenzen, die nicht im Bereich der Sprachfrequenzen liegen, jedoch aufgrund der Weitabverdeckung, insofern sie hohe Schallpegel aufweisen, Sprache verdecken können. Die Verdeckung des Sprachreizes mit diesen hohen Schallpegeln bedingt einen nichtlinearen Effekt. Wird der Pegel der Sprache um 25 dB erhöht, so reicht schon eine Pegelanhebung des verdeckenden Sinustons um 10–15 dB aus, um eine im Vergleich zur Ausgangsbedingung gleiche verdeckende Wirkung des Sprachreizes, d.h. gleiche Sprachverständlichkeit, zu erzielen.
6.3 Verdeckung und Störung der Sprache durch Geräusche
159
Abb. 6.3.1-5. Sprachverständlichkeit von Einsilbern (SV in %) verdeckt durch Sinustöne (50/100/200 Hz) in Abhängigkeit vom Signal–Geräuschabstand LSN = LS - LN bei zwei Schallpegeln der Sprache LS = 75 dB (----), LS = 100 dB () (Carter u. Kryter 1962)
Werden Rechteckklänge zur Verdeckung der Sprache genutzt, so fällt die Entdeckungsschwelle von Sprache höher aus als bei der Verdeckung mittels Sinustönen (Abb. 6.3.1-4, Stevens et al. 1946). Die maximale Verdeckung von Sprachreizen durch Rechteckklänge ist gegeben, wenn deren Grundfrequenzen zwischen 100–400 Hz liegen. Die stärkere Verdeckung der Sprache durch Rechteckklänge ist auf den Anteil der Oberwellen zurückzuführen. Die Entdeckungsschwelle wird weiterhin angehoben (um z.B. 7 dB), wenn die Sprache durch Klänge mit höheren Frequenzanteilen, z.B. von Pulsen mit einer Pulsfrequenz von 200 Hz (Periodendauer 5 ms) und einer Pulsdauer von 10 ms, gestört wird (Stevens et al. 1946). Wird die Sprachverständlichkeit durch frequenzmodulierte Klänge mit einem hohen Anteil von Oberwellen verdeckt (Miller 1947), so sind die mit der niedrigsten Grundfrequenz (170–200 Hz) am störendsten. In Abbildung 6.3.1-6 ist die Sprachverständlichkeit von Wörtern, gestört durch frequenzmodulierte Klänge unterschiedlicher Intensität, bei einem Pegel der Sprache von LS = 95 dB dargestellt. Zusätzlich ist der Bereich angegeben, in dem die Grundfrequenz sich ändert. Es wurde dargestellt, dass die durch schmalbandige Schallereignisse (Sinustöne, Bandpassrauschen) bedingte Störung der Sprachwahrnehmung zum einen durch die direkte Verdeckung in dem Frequenzbereich des Geräusches, zum anderen – und dieses vor allem bei hohen Schallpegeln – durch die Weitabverdeckung bedingt ist (Abschn. 2.3). Vergleicht man die verdeckende Wirkung von Klängen (Abb. 6.3.1-4) mit der des Bandpassrauschens (s. Abb. 6.3.1-2, -3), muss man berücksichtigen, dass die für Klänge angegebene Gesamtintensität auch den Anteil der im Klang enthal-
160
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
tenen höheren Frequenzen (Oberwellen) einbezieht, die Verständlichkeit aber nur bei der entsprechenden Grundfrequenz des Klanges aufgetragen ist (z.B. Abb. 6.3.1-4). Im Gegensatz dazu ist für Bandpassgeräusche und Sinustöne immer die Sprachverständlichkeit angegeben, die allein durch die Intensität in dem entsprechenden Frequenzbereich bedingt ist.
Abb. 6.3.1-6. Sprachverständlichkeit (SV in %) von Wörtern verdeckt durch frequenzmodulierte Klänge mit unterschiedlichen Schallpegeln (LN) und verschiedenen Frequenzbereichen der modulierten Grundfrequenz (Df), Schallpegel der Sprache LS = 95 dB (nach Miller 1947)
Aus der Vorstellung, dass bei steigendem Geräuschpegel (Sprachpegel LSA konstant) die Hörfläche der Sprache (Pegelbereich der Sprache: 30 dB) und die Sprachverständlichkeit (von 100 auf 0 %) abnehmen, ergibt sich die Frage, wie schnell, d.h. mit welcher Steigung (%/dB), dieser Vorgang abläuft. Unter alltäglichen Umständen wird gesprochene Sprache eher von breitbandigem Rauschen als von den oben betrachteten schmalbandigen Geräuschen verdeckt. Studebaker et al. (1994) haben den Einfluss von vier verschiedenen Rauschtypen auf die Verständlichkeit von Einsilbern untersucht. Sie konzentrierten sich dabei insbesondere auf die Unterschiede in der Zunahme der Sprachverständlichkeit pro dB bei einer mittleren Sprachverständlichkeit (50 %). Die Berechnung des AI (s. Abschn. 7.3.2) für das verwendete Sprach– und Geräuschmaterial ergab eine umso höhere Steigung, je ähnlicher das Spektrum des Geräusches dem Sprachspektrum war, da in diesem Fall die Überdeckung der Sprach– und Geräuschspektren sich mit jeder Änderung des Pegelverhältnisses am stärksten ändert (6–7 %/dB). Bei weißem Rauschen sind es 4–5 %/dB, bei einem Hochpassrauschen nur ca. 2 %/dB.
6.3 Verdeckung und Störung der Sprache durch Geräusche
161
Die Vorhersage aus der Berechnung wurde im Experiment gut bestätigt. D.h., die psychometrische Funktion, wie sie in der Regel bei Sprachverständlichkeitsmessungen ermittelt wird (SV in % über zunehmendem S/N– Abstand), verträgt sich recht gut mit der Vorstellung der Abdeckung der Sprachhörfläche durch ein Geräusch (s. Abb. 7.2.1-1, 7.3.2-3). Das Spektrum des Geräusches hat also nicht nur einen Einfluss auf die Mithörschwelle (Signal–Geräuschabstand bei SV = 50 %), sondern auch auf den Anstieg der psychometrischen Funktion. Die Sprachindices werden im Wesentlichen genutzt, um den unterschiedlichen Einfluss der Geräuschspektren auf die Sprachverständlichkeit auszugleichen. Die dafür notwendige Methodik wird in Kapitel 7 entwickelt und behandelt. 6.3.2 Verdeckung durch Geräusche bei Normal– und Schwerhörigen Mithörschwelle, zentrale Verdeckung, Weitabverdeckung, überschwelliger Bereich, Hörverlust für Sprache in Ruhe und bei Geräuschen, Hör–Modell Die Verdeckung bzw. Maskierung von Schallsignalen durch Geräusche kommt im Wesentlichen dadurch zustande, dass das Schallsignal und das Störgeräusch innerhalb eines gewissen Frequenzbereichs die Basilarmembran an der gleichen Stelle anregen, d.h. direkt miteinander interferieren, und das Gehör keine Chance hat, diese zwei Schallsignale zu trennen. Die Maskierung von Tönen und Sprache wurde in Kapitel 2 erläutert. Hier wird im Folgenden die Maskierung von Tönen, teilweise auch von Sprache, durch Geräusche bei Normal– und auch bei Schwerhörigen untersucht. Dabei sind vor allem Modelle interessant, die auf einfache Weise versuchen, auch das schwerhörige Ohr einzubeziehen. Dabei wird nicht nur die Verdeckung innerhalb einer Frequenzgruppe (zentrale Maskierung: Maskierer und maskierter Schall liegen im gleichen Frequenzbereich), sondern auch die Weitabverdeckung nach hohen und niedrigen Frequenzen hin (upward und downward spread of masking, Aufwärts– und Abwärtsverdeckung) betrachtet, wobei die Verdeckung der höheren Frequenzen durch tiefere (Aufwärtsmaskierung) stärker ausgeprägt ist (Zwicker u. Feldtkeller 1967; Kollmeier 2004). Die Einflüsse der Maskierung von akustischen Reizen auf die Wahrnehmung von Normalhörenden und Schwerhörigen wurden in einer Reihe von Untersuchungen aufgezeigt, auf die im Folgenden eingegangen wird (s.a. Abschn. 2.3; Abb. 2.3-4). Rittmanic (1962) untersuchte die Maskierung von reinen Tönen durch Schmalbandgeräusche in normalen und geschädigten Ohren. Das Schmalbandrauschen (0.25, 0.5, 1, 2 und 4 kHz) hatte einen Pegel von 100 dB. Die Hörschwellenänderungen wurden bei
162
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
11 Frequenzen zwischen 0.125–8 kHz gemessen. Die Ergebnisse zeigen, dass die Effekte der Maskierung im Zentrum des Geräuschbandes (Frequenzgruppe) keine Auswirkung auf die Wahrnehmung Normalhörender und Schwerhöriger haben. Das schallempfindungsgestörte Ohr zeigte jedoch eine größere Weitabverdeckung, die um 10 bis 20 dB höher ist als beim normalen Ohr, bei Frequenzen, die ober– und unterhalb des maskierenden Geräuschbandes (Abb. 6.3.2-1) liegen. Weiterhin nimmt die verdeckende Wirkung der tieferfrequenten Geräusche mit steigenden Pegeln zu den höheren Frequenzbereichen hin zu (Weitabverdeckung). Bei Schwerhörigen ist sie stärker als bei Normalhörenden.
Abb. 6.3.2-1. Weitabverdeckung, die mittlere Mithörschwelle von Sinustönen (f = 0.125, 0.25, 0.5, 1, 2, 4, 8 kHz, Pegel L) erzeugt durch schmalbandiges Rauschen (1 kHz, L = 100 dB) für Normalhörende (NH: 20 Jahre, HVT (0.25–6 kHz) = 10 dB) und Schallempfindungsschwerhörige (SH: 20 Jahre, HVT (0.25–6 kHz) = 15–50 dB) (nach Rittmanic 1962)
Die Ergebnisse anderer Maskierungsmessungen (Tyler et al. 1980) zeigen Defizite bei Lärmschwerhörigen (LHVT,4k = 50–60 dB). Auch für die zentrale Maskierung, die durch Sinustöne (4 kHz, 85 dB) bedingt ist, liegt die Mithörschwelle für Sinustöne (4 kHz) im Mittel für Normalhörende niedriger (92 (86–96) dB) als für Schwerhörige (98 (89–104) dB). Die Weitabverdeckung ist ebenfalls bei den Schwerhörigen wesentlich ausgeprägter als bei den Normalhörenden. In Abbildung 6.3.2-2 sind Mithörschwellen für Sinustöne, verdeckt durch ein Tiefpassrauschen (f0 = 800 Hz), angegeben (Cook et al. 1997). Die Mithörschwelle ist für die Normalhörenden deutlich niedriger als für die Schallempfindungsschwerhörigen.
6.3 Verdeckung und Störung der Sprache durch Geräusche
163
Weiterhin konnten Stelmachowicz et al. 1985 aufzeigen, dass schwerhörige Personen zwar tendenziell eine höhere Mithörschwelle haben, diese aber vor allem bei der Weitabverdeckung durch tieferfrequente Geräusche (Aufwärtsverdeckung) deutlich höher ist als beim Breitbandrauschen (s. Tab. 6.3.2-1) (Stelmachowicz et al. 1985). Diese und weitere Untersuchungen zur Verdeckung von Sinustönen (Leshowitz 1977; Tyler et al. 1980; Lyregaard 1982; Hannley u. Dorman 1983), wie auch zur Weitabverdeckung von Sprache (Stelmachowicz et al. 1985; Klein et al. 1990; Dubno u. Ahlstrom 1995) zeigen – bedingt durch die Verschiedenartigkeit des individuell geschädigten Gehörs – kein einheitliches Bild. Grundsätzlich kann aber festgehalten werden, dass die Maskierungseffekte bei Schwerhörigen stärker ausgeprägt sind als bei Normalhörenden. NH80 SH80 SH Ruhe
NH70 SH70
80 LT/dB 60
40
20
0 0
0,5
1
1,5 2 f/kHz
42
Abb. 6.3.2-2. Weitabverdeckung (Aufwärtsverdeckung): Mithörschwelle für den Testton (LT) über der Frequenz des Testtones (f in kHz) bei einem Tiefpassrauschen von 0.8 kHz mit einem Pegel von 70 und 80 dB für Normalhörende (NH) und Schwerhörige (SH)
Tabelle 6.3.2-1. Mithörschwelle für Sprache (Signal–Geräuschabstand bei SV = 75 %) bei Normalhörenden und Schwerhörigen (Sprachpegel LSA = 80–90 dB) bei unterschiedlichen Geräuschen
Normalhörende Schwerhörige
Signal–Geräuschabstand in dB Tiefpassgeräusch Breitbandgeräusch -17.8 7.8 -2.4 10.7
164
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Diese Untersuchungen zeigen, dass überschwellige Defizite (im Bereich deutlich über der Ruhehörschwelle) vorhanden sind und diese in Beziehung zur Sprachverständlichkeit gesetzt werden müssen. So muss die Mithörschwelle bedingt durch die zentrale Verdeckung (Sprache und Geräusch liegen im gleichen Frequenzbereich) und durch die Weitabverdeckung (insbesondere für Geräusche im Bereich unterhalb der Sprachfrequenzen) in besonderer Weise, d.h. vor allem für den überschwelligen Bereich, einbezogen werden. In einigen Sprachindices (Abschn. 7.3) wird die Weitabverdeckung teilweise integriert. In der Regel wird die Störung der Sprachverständlichkeit durch Geräusche (Abschn. 6.3.1) mit der Abdeckung der Hörfläche (Pegel–Frequenzfeld) der Sprache durch Geräusche plausibel erläutert. Alle Sprachindices (Abschn. 7.3) bauen auf diesem Prinzip auf. Dabei gilt: die Abdeckung der Hörfläche der Sprache durch das Geräusch bestimmt die Reduzierung der Sprachverständlichkeit. Im Prinzip kann man die Hörschwelle wie ein Geräusch behandeln: wenn die Hörschwelle so hoch ist, dass sie das Hörfeld der Sprache kreuzt, trägt der verdeckte Teil nicht zur Sprachverständlichkeit bei, die Sprachverständlichkeit sinkt. In ähnlicher Weise berücksichtigen die Sprachindices (Kap. 7) die Hörschwelle von schwerhörigen Personen. Bei diesem Vorgehen werden aber nur die Defizite der Schwerhörigen berücksichtigt, die direkt durch die Hörschwelle bedingt sind, also nur die Defizite, die im Schwellenbereich und nicht im überschwelligen Bereich liegen. Die Entwicklung von Modellen zur Abschätzung oder Berechnung der Sprachverständlichkeit ist recht kompliziert; es gibt bisher kein allgemein akzeptiertes Modell. Eine Zusammenstellung und Bewertung der in der Literatur diskutierten Modelle findet man bei Bormann et al. (2005). Um die Sprachverständlichkeit von Schwerhörigen zu verstehen und zu diskutieren, ist das Modell von Plomp et al. (1983) hilfreich. Es bezieht sich auf Normalhörende und Personen mit einer Schallempfindungsschwerhörigkeit, die vorwiegend alters– oder lärmbedingt ist. Wie schon mehrfach angesprochen wurde, müssen bei der Analyse der Schwerhörigkeit zwei auditive Prozesse einbezogen werden: x zum einen die auditiven Prozesse, die im Hörschwellenbereich (Ruhehörschwelle für Töne, teilweise auch für Sprache in Ruhe) auftreten, x zum anderen die Prozesse, die im überschwelligen Bereich lokalisiert sind (Sprachverständigung bei vorgegebenem S/N–Abstand, weit über der Ruhehörschwelle). Diese Prozesse sind vor allem für die Sprachverständlichkeit in der Praxis interessant. Der Sprecher versucht, zu Schwerhörigen etwas lauter zu sprechen, oder die Sprache wird durch Hörgeräte verstärkt, so dass der
6.3 Verdeckung und Störung der Sprache durch Geräusche
165
Schwerhörige die Sprache möglichst im überschwelligen Bereich, aber doch noch weit unter der Schmerzschwelle, wahrnehmen kann. In normalen Gesprächsbedingungen liegt für Normalhörende und leicht Schwerhörige der Sprachpegel weit (10 bis 40 dB) über der Ruhehörschwelle. Besonders interessant sind die Defizite der Schwerhörigen, die im überschwelligen Bereich auftreten. Das von Plomp entwickelte Modell geht von diesen beiden beschriebenen auditiven Prozessen aus.
Abb. 6.3.2-3. Hörschwelle für Sprache (LHSS in dB) dargestellt über dem Geräuschpegel (LN in dB) für Personen ohne (—) und mit Hörverlusten ( ; ··); angegeben ist für schwerhörige Personen der Hörverlust für Sprache in Ruhe (LHVS, LN < 25 dB) und bei Geräuschen (LHVS,N), weiterhin die Hörschwelle für Sprache ohne Verluste bei Geräuschen (LHVS,N = 0; ··) und für LHVS = LHVS,N
Von Plomp et al. (1983), Plomp (1986) wurde ein Modell für das Sprachverstehen von Schwerhörigen entwickelt, das gestattet, die Beeinträchtigung der Sprachverständlichkeit durch eine Ruhehörschwelle (gerade eben mögliches Verstehen von Sprache, ohne Geräusche) und durch eine Veränderung der Mithörschwelle (gerade eben mögliches Verstehen von Sprache, gestört durch Geräusche) getrennt zu betrachten (Abb. 6.3.23). Die Hörschwelle für Töne in Ruhe (LHST = LHST0 + LHVT) begrenzt die Wahrnehmung von Sprachlauten (in Ruhe). Aber auch oberhalb der Ruhehörschwelle wird eine Verminderung der Verständlichkeit von Sprache bei schwerhörigen Personen im Vergleich zu normalhörenden angenommen, wenn die Sprache durch Geräusche verdeckt wird (u.a. Aniansson 1980; Suter 1980). Diese Verschiebung der Mithörschwelle von Sprache (Abb. 6.3.2-3: LHVS,N) stellt den Sprachverlust im überschwelligen Bereich dar.
166
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Das Modell ist in folgender Weise zu verstehen: Gemessen wird der Pegel der Sprache (LS) mit einem vorgegebenen Sprachmaterial (Einsilber, Sätze), das in Ruhe (LN 80 dB) oder variabel an die Hörschwelle angepasst sein (LSA = LHVT + (20...50) dB) (Spalte 2; LSA: h, v). Der Geräuschpegel ist in den Untersuchungen meistens variabel (Spalte 3; Gv: x) und wird bei einem konstanten Sprachpegel von der Versuchsperson selbst so eingestellt, dass die Mithörschwelle (SV = 50 %, 75 %) ermittelt werden kann. 12 der aufgelisteten Untersuchungen entsprechen diesen Kriterien. Die Defizite (Tab.6.3.2-2) zeigen eine hohe Variabilität (z.B. beim mittleren Hörverlust 3–16 dB) mit steigender Tendenz bei Zunahme des Hörverlustes. Je nach Grad der Schwerhörigkeit liegt der Verlust an Sprachverständlichkeit im überschwelligen Bereich im Mittel bei 4 bis 10 dB, d.h. Schwerhörige benötigen einen entsprechend höheren Signal–Geräuschabstand. Tabelle 6.3.2-1. Mithörschwelle für Schwerhörige unterschiedlicher Ausprägung, bezogen auf die für Normalhörende (ǻSNRA,S–N = SNRA,S - SNRA,N in dB), d.h. der Signal–Geräuschabstand (SNRA) für eine Sprachverständlichkeit von 50 oder 75 % Hörverlust Mithörschwelle ǻSNRA,S–N
leicht 4 dB
mittel 7 dB
schwer 10 dB
Nimmt man den Tonhörverlust von 0.5 bis 4 kHz als Maßstab für die Schwerhörigkeit (LHVT,.5–4 = 0–80 dB) könnte das Defizit im überschwelligen Bereich (LHVS,N = ǻSNRA,S–N) sogar aus dem Tonhörverlust abgeschätzt werden: LHVS,N = 0.13 x LHVT.5–4. So können die Defizite der Sprachverständlichkeit von Schwerhörigen mit Hilfe dieser beiden auditiven Prozesse an der Schwelle und weit über der Schwelle beschrieben und auch quantifiziert werden. Sie können auch Grundlage für die Sprachindices sein, wenn eine Schwerhörigkeit berücksichtigt wird (Abschn.7.3). Die beiden auditiven Prozesse sind vor allem unter realen Bedingungen (bei Geräuschen und Nachhall im Raum) von Bedeutung. Eine Anpassung der Parameter der Sprache (Frequenzspektrum, Pegel, MCL) an die Hörschwelle der Personen ist jedoch nur für die individuelle Nutzung von Hörgeräten interessant. Sie ist eine der wesentlichen Aufgaben, die ein Hörgerät erfüllen muss. Für eine direkte Sprachkommunikation ist nur eine allgemeine Anpassung der Umgebung an das Gehör möglich. In einer Untersuchung (Aniansson 1980; Aniansson u. Peterson 1983), wurde in einer möglichst realen Gesprächssituation mit Verkehrslärm die Auswirkungen auf die Sprachwahrnehmung von Schwerhörigen demonstriert. Dabei mussten Schwerhörige Einsilber (PB–Wörter) erkennen und den Geräuschpegel so einstellen, dass sie 75 % der Wörter richtig wiedergeben konnten (Tab. 8.2.3-1, Zeile 17). Es wurde ein für Gesprächssituati-
168
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
onen üblicher Sprechpegel (LSA,1m = 63 dB) benutzt, der im Abstand von 1 m (auch 4 m) aufgenommen wurde. Da an dem Versuch Schwerhörige mit leichten bis mittelschweren Hörverlusten teilnahmen, konnte durch die Reduzierung des Geräuschpegels für alle Schwerhörigen eine Verständlichkeit von 75 % eingestellt werden (Abb. 6.3.2-4). Bedingt durch den festen mittleren Sprechpegel von 63 dB waren hier beide auditiven Prozesse einbezogen, die an der Hörschwelle und im überschwelligen Bereich. Als Resultat zeigt sich, dass gegenüber den Normalhörenden (LSNA (75 %) ŭ 4 dB) die Mithörschwelle der Schwerhörigen bis zu 35 dB erhöht werden muss; bei Geräuschen von unter 30 dB war für alle Schwerhörigen die geforderte Sprachverständlichkeit (SV = 75 %) erreichbar. 40 LSNA/dB 30
LS LS,T AS AS,T NH NH,T
20
10
0 0
10
20
30 40 HVT/dB
50
60
Abb. 6.3.2-4. Mithörschwelle (LSNA (SV = 75 %) in dB) in einem Hörversuch für Normalhörende (NH) und Schwerhörige: Tonhörverluste (HVT(0.5–4 kHz) in dB) für Lärmschwerhörige (LS) und Altersschwerhörige (AS); Sprechpegel: LSA,1m = 63 dB (PB–Wörter); Verkehrslärm; (Geräuschpegel: LNA = ... dB); Gesprächssituation innen ( ; Nachhallzeit T = 0.5 s) und außen (– – –; T = 0.0 s), (Lautsprecher– Hörer: 1 m), (Zeichen: gefüllt/leer: innen / außen)
Zusammenfassung: Der Hörvorgang wird durch zwei Prozesse, durch einen an der Ruhehörschwelle und durch einen weiteren im überschwelligen Bereich beeinflusst. Die Ruhehörschwelle ist für die Sprachverständlichkeit normalhörender Personen ohne Bedeutung. Sie bestimmt aber weitgehend die Sprachverständlichkeit schwerhöriger Personen. Im überschwelligen Bereich sind die zentrale Verdeckung und die Weitabverdeckung der Sprache durch Geräusche für Normalhörende wie auch für Schwerhörige maßgebend. Die Verdeckung ist für Schwerhörige dabei deutlich stärker (4 bis 10 dB) ausgeprägt.
6.3 Verdeckung und Störung der Sprache durch Geräusche
169
6.3.3 Verdeckung durch zeitlich veränderliche, technische Geräusche Verkehrsgeräusche unterschiedlicher Dichte und Schwankungshöhe, Vergleich der Pegelschwankungen von Sätzen und Geräuschen, Mittelungspegel Die Frequenzverteilung des Geräusches (Abschn. 6.3.1), wie auch die zeitliche Struktur eines Geräuschverlaufs bestimmen die Verdeckung der Sprache. Zeitlich schwankende Geräusche mit Pegeldifferenzen von 5–20 dB sind z.B. an Arbeitsplätzen in Werkstätten oder Büroräumen und Wohnungen anzutreffen. Sie sind teilweise durch schwankende Verkehrsdichte bedingt. Geräusche mit höheren Pegelschwankungen, sogenannte intermittierende Geräusche, werden durch vorbeifahrende einzelne Kraftfahrzeuge, Eisenbahnzüge oder durch vorbeifliegende, startende oder landende Flugzeuge verursacht. Der die Sprache verdeckende Effekt von zeitlich schwankenden Geräuschen ist nicht nur durch den maximalen Geräuschpegel, den A–Schallpegel mit der Zeitbewertung Fast (LNAFmax, FNAF1%) oder den mittleren Schallpegel, dem Mittelungspegel LNAeq, im Verhältnis zum Schallpegel der Sprache bedingt, sondern auch durch die Dauer der einzelnen Geräuschphasen, die durch sich verändernde hohe und niedrige Schallpegel gekennzeichnet sind. Sind die Phasen eines konstanten Pegels lang genug, kann in jeder dieser Phasen der Signal–Geräuschabstand bestimmt und die Sprachverständlichkeit abgeschätzt werden. Der verdeckende Effekt von schnell wechselnden intermittierenden Geräuschen ist auf die mittlere Unterbrechungsfrequenz (fr), dem Verhältnis von Geräusch– zur Pausenzeit während einer Periodendauer (1/fr) und auf den Signal–Geräuschabstand in der Geräuschphase selbst zurückzuführen, wodurch letztlich der Prozentsatz der korrekt verstandenen Sprachreize bedingt ist. Miller u. Licklider (1950) haben (Abschn. 6.2.4) nicht nur den Sprachreiz selbst unterbrochen und die Verständlichkeit überprüft, sondern die Wahrnehmung von kontinuierlichen Sprachreizen durch Geräuschpulse gestört. Abbildung 6.3.3-1 stellt die Wortverständlichkeit in Abhängigkeit von der Unterbrechungsfrequenz eines intermittierenden bzw. unterbrochenen Geräusches und dem Signal–Geräuschverhältnis dar. Der Schallpegel der Sprache ist LS = 90 dB. Das Verhältnis von Geräusch– und Pausenzeit beträgt 1:1. Wenn das Geräusch (weißes Rauschen) die Sprache vollständig verdeckt, wie es bei einem Signal–Geräuschabstand von LSN = -18 dB der Fall ist, ist die Sprachverständlichkeit bei einer niedrigen Unterbrechungsfrequenz gleich dem Anteil der Wörter, die in der Ruhepause der Person dargeboten wurde, nämlich SV | 50 %. Die Wahrnehmung ge-
170
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
schieht nach dem „Alles–oder–Nichts–Gesetz“. Bei einem höheren Signal–Geräuschabstand liegt die Verständlichkeit entsprechend höher. Steigt die Frequenz an, mit der das Rauschen unterbrochen wird, so nimmt die Sprachverständlichkeit zu. Sind ungefähr 10 Unterbrechungen pro Sekunde gegeben, so kann der Beobachter einen besseren Eindruck von der Struktur eines Sprachreizes gewinnen, im Vergleich zu einer Unterbrechungsfrequenz, die geringer ist. Ein flüchtiger Blick auf die gesamte Struktur des Reizes (Phoneme, Silben, Worte) erhöht die Sprachverständlichkeit. Liegt die Frequenz der Rauschpulse bei fr > 50–100 Hz, so können die einzelnen Rauschpulse nicht mehr getrennt wahrgenommen werden. Es wird ein Sprachreiz gehört, der scheinbar durch ein kontinuierliches Geräusch bestimmter Frequenz und Intensität maskiert ist. Hier ist die Sprachverständlichkeit im Wesentlichen nur durch den Signal– Geräuschabstand bedingt. Zum Vergleich ist in Abbildung 6.3.3-1 die Verständlichkeit von unterbrochener Sprache (s.a. Abschn. 6.3.4) angegeben, wobei nur in den Sprachpausen Rauschen unterschiedlichen Pegels (intermittierendes Geräusch) eingespielt wird (Miller u. Licklider 1950). Unterhalb der Unterbrechungsfrequenz von etwa fr < 10 Hz hat das Rauschen keinen Einfluss auf die Verständlichkeit (s.a. Abb. 6.3.3-1b). Oberhalb von fr > 100 Hz ist die Verdeckung der Wörter, wie auch bei nicht unterbrochener Sprache, durch das maskierende Geräusch bedingt, wenn auch der Einfluss stärker ist. Auch die Ergebnisse aus der Untersuchung von Howard–Jones u. Rosen (1993) bestätigen, dass intermittierende Geräusche umso weniger Sprache verdecken, je länger die on/off Phase (10 ms bis 1 s) ist.
Abb. 6.3.3-1a. Schallpegelverlauf (L) über der Zeit (t): Kontinuierliche Sprache () überlagert durch intermittierendes Geräusch (– – –) und Sprache (.....) und Geräusch (– – –) wechseln sich ab
6.3 Verdeckung und Störung der Sprache durch Geräusche
171
Abb. 6.3.3-1b. Sprachverständlichkeit (SV in %) von einsilbigen Wörtern in Abhängigkeit von der Unterbrechungsfrequenz (fr) und vom unterschiedlichen Signal–Geräuschabstand (LSN) bei einem Geräusch–Pausenverhältnis von 1:1 für kontinuierliche Sprache und intermittierendes Geräusch (), Sprache und Geräusch wechseln sich ab (– – –). Für die Bildung von LSN werden die Sprache und das Geräusch getrennt gemessen (nach Miller u. Licklider 1950)
Eine Angabe der Sprachverständlichkeit in Abhängigkeit vom Signal– Geräuschabstand für Geräusche, die sich mit der Zeit verändern, ist problematisch, da bisher kein befriedigendes Maß zur Beschreibung dieser Geräuschmuster vorliegt. Häufig werden der Maximalpegel bei der Zeitbewertung (Slow, Fast) oder die Perzentile (1 %) benutzt; als Bezugswert wird immer der Mittelungspegel herangezogen. Kryter u. Williams (1966) benutzten in ihrer Untersuchung für die Beschreibung von sich zeitlich verändernden Geräuschen (Flugzeuggeräusche bei Start und Landung der Dauer von 10–35 s und Pegelschwankungen innerhalb eines Starts oder einer Landung von 15–20 dB) den C–bewerteten Maximalpegel mit der Zeitbewertung Fast (LNCFmax); der Pegel der Sprachreize (Wörter des Reimtests) wurde mit der Zeitbewertung Slow (LSCSmax) gemessen. Die Flugzeuggeräusche wurden in kontinuierlicher Reihenfolge mit Pegelwerten von LNCFmax = 85 dB und 100 dB mit den Sprachreizen, die in Abständen von 2s aufeinander folgten, den Versuchspersonen über Kopfhörer dargeboten.
Der höhere Pegelwert des Geräusches entspricht in etwa dem Geräuschpegel, der 150–600 m von einem „typischen“ Flughafen entfernt anzutreffen ist, der niedrige Geräuschpegel entspricht dem Pegel innerhalb der Flughafenräume (Tab. 6.3.3-1). Bei der Ermittlung der Geräuschpegel bzw. bei der Festsetzung des Signal–Geräuschabstandes wurde so getan, als wäre der maximale Geräuschpegel als konstantes Geräusch vorhanden. Der Signal–Geräuschabstand von LSN = -20 dB bis -12 dB, der für den Maximalpegel berechnet worden
172
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
war, müsste dementsprechend niedriger liegen als der Signal–Geräuschabstand, der aus einem mittleren Geräuschpegel bestimmt worden wäre. Tabelle 6.3.3-1. Sprachverständlichkeit (Reimtest) in % für Flugzeuggeräusche (LN) 150–600 m von einem typischen Flughafen entfernt, wobei die Dauer der Starts 24–35 s und die der Landung 10–35 s ist, gemessen innen und außen bei vorgegebenen Sprachpegeln
Geräuschpegel (LNCFmax) Sprachpegel (LSCSmax) SV (Start) SV (Landung)
Sprachverständlichkeit in % innen außen 85 dB 100 dB 65–73 dB 80–88 dB 9–46 13–48 13–55 34–61
Williams et al. (1971a) sind in ihren späteren Untersuchungen dazu übergegangen, den Schallpegel nur in dem Zeitintervall zu bestimmen, in dem auch ein Sprachreiz auftritt. Bei dieser Art der Berechnung müsste man die gleiche Sprachverständlichkeit erhalten wie es bei der Bestimmung aufgrund eines Geräusches mit einem gleich hohen konstanten Pegel der Fall ist; dennoch ist die Sprachverständlichkeit bei einem zeitlich schwankenden Pegel geringfügig besser. In einer Reihe weiterer Arbeiten, in denen die Sprachverständlichkeit in Abhängigkeit von schwankenden Geräuschen untersucht wurde, wurde auf recht verschiedene Weise die Bestimmung des Schallpegels, des Terz– und Oktavschallpegels des Störgeräusches für die Abschätzung des Artikulationsindex (Kap. 7) und der Sprachverständlichkeit vorgenommen. Bis jetzt liegt jedoch noch kein zuverlässiges Messverfahren vor. Ein gültiges Messverfahren zur Bestimmung der Sprachverständlichkeit in Abhängigkeit von Flugzeuggeräuschen, das nicht nur die unterschiedlichen Pegel und Spektren, sondern auch die verschiedenen Zeitabstände, Start, Landung und Überflug für verschieden ausgelastete Flugplätze berücksichtigt, ist außerordentlich aufwändig. Meistens beschränkt man sich in der Praxis – wie hier dargestellt wurde – auf die Berechnung des Schallpegels während des direkten Überflugs oder der Landung. Man bestimmt den Schallpegel in den Phasen maximaler Intensität und setzt diesen in Beziehung zur Sprachverständlichkeit. Die Schwierigkeiten, die bei der Bestimmung der Sprachverständlichkeit, die durch Flugzeuggeräusche gestört ist, auftreten, sind in der Regel auch da relevant, wo Sprache durch Kraftfahrzeuggeräusche gestört wird. Pearsons (1978) hat von 23 Verkehrsgeräuschen die Verständlichkeit für Zweisilber gemessen. Als Maß für die zeitliche Variabilität der Verkehrsgeräusche wurde die Differenz zwischen dem 10. und 50. Perzentilwert der Pegel LNA,10% – LNA,50% verwendet, wobei das Geräusch in 0.5 s Intervallen abgetastet wurde. Die
6.3 Verdeckung und Störung der Sprache durch Geräusche
173
23 Beispiele der Untersuchung beziehen sich auf Verkehrsgeräusche mit einer Verkehrsdichte von 250–8000 Fahrzeugen pro Stunde mit einem Anteil der Lastwagen von 4–25 %, auf Breitbandrauschen mit einem Spektrum ähnlich dem des Verkehrsgeräusches bei einem weitgehend konstanten Pegel (simuliertes Verkehrsgeräusch) und auf eine Mischung dieses Breitbandrauschens mit Lastwagengeräuschen aus 12–96 Fahrzeugen pro Stunde. Die Variabilität der Schallpegelschwankungen der ausgewählten 23 Verkehrssituationen lag bei 0.4 bis 24 dB, der Mittelungspegel der Geräuschkulisse bei LNAeq = 59–73 dB, jede Geräuschsituation hatte eine Dauer von 5 Minuten.
In Abbildung 6.3.3-2 ist die Häufigkeitssummenverteilung der Pegel (LNA% für 0.5 s Intervalle) bezogen auf den Mittelungspegel (LNAeq) für einige der 23 Verkehrssituationen angegeben.
Abb. 6.3.3-2. Die Häufigkeitssummenverteilungen W(L) für 5 Verkehrsgeräusche; W(L) gibt den Prozentsatz der Zeit (Gesamtdauer eines Beispiels 5 Min.) an, in der der Pegel (LNA % – LNAeq) des Verkehrsgeräusches überschritten wird (nach Pearsons 1978). (1) Verkehrsgeräusch PKW/h= 8030, LKW/h= 345, LNAeq = 73 dB (2) Verkehrsgeräusch PKW/h= 252, LKW/h= 60, LNAeq = 65 dB (3) simuliertes Verkehrsgeräusch (3* LNA = 44 dB), LNAeq = 64 dB (4) Verkehrsgeräusch LKW/h= 24, 2 LKW und (3), LNAeq = 66 dB (5) Verkehrsgeräusch LKW/h= 48, 4 LKW und (3*), LNAeq = 65 dB
In Abbildung 6.3.3-3 ist der Prozentsatz richtig verstandener Zweisilber abhängig vom Pegel der Sprache (LSAeq) von 16 Verkehrssituationen dargestellt. Die Verkehrsgeräuschpegel sind auf einen Pegel von LNAeq = 60 dB gleich eingepegelt. Bis auf die Verständlichkeitskurve einer Verkehrssituation liegen alle Werte r 2 dB um den Mittelwert. Die Kurve der Sprachverständlichkeit, die die beste (Verkehrsgeräusch 3) und die die schlechteste Leistung (Verkehrsgeräusch 1) angibt, liegt am Rande bzw. außerhalb dieses Bereiches, obwohl gerade diese beiden Geräusche eine sehr geringe Variabilität der Schallpegel aufweisen. Diese Ergebnisse deu-
174
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
ten an, dass die Sprachverständlichkeit (SV bei 16 Verkehrsgeräuschen) nicht nur allein durch die zeitlichen Schwankungen der Geräusche – wie man vermuten könnte – bedingt ist, sondern auch u.a. auf die unterschiedlichen Spektren oder auch zeitlichen Feinstrukturen der Geräusche (z.B. intermittierender Pegel) zurückzuführen sein könnte. Die Standardabweichung bei 90 % korrekt verstandenen Zweisilbern beträgt bei konstantem Sprachpegel und jeweils unterschiedlichen Verkehrsgeräuschen nur etwa 1.5 dB. Daraus kann geschlossen werden, dass der Mittelungspegel (LAeq) als gültiges Maß für die Vorhersage der Sprachverständlichkeit bei Kfz– Verkehrsgeräuschen zu werten ist.
Abb. 6.3.3-3. Sprachverständlichkeit (SV in %) zweisilbiger Wörter für 16 Verkehrsgeräusche (Verk.) (LNAeq = 60 dB) in Abhängigkeit vom Sprachpegel (LSAeq); für die 16 Verkehrsgeräusche ist LNA,10% – LNA,50% = 0.5–8 dB (wie in Beispiel (1) bis (4) in Abb. 6.3.3-2); die Verständlichkeit (SV) für einsilbige Wörter (E) ist nur für das simulierte Verkehrsgeräusch (3) mit LNAeq = 60 dB angegeben (--- Streubereich) (nach Pearsons 1978)
In einer Untersuchung (Sust et al. 2007) wurde die Maskierung der Sprache durch unterschiedliche Verkehrsgeräusche thematisiert (s.a. Abschn. 10.4). Als zeitlich schwankende Geräusche wurden 6 Straßenverkehrsgeräusche verwendet, die an einer Ampel mit anhaltenden und anfahrenden Kraftfahrzeugen aufgenommen wurden: Straßenverkehrsgeräusch mit konstantem Pegel (Stc, 55 dB), Straßenverkehrsgeräusch mit schwankendem Pegeln (Stc, m, g, v, 55 dB: ±0.5, ±4, ±8, ±0.5–8 dB), Straßenverkehrsgeräusch mit intermittierendem Pegel (Sti, 45, 55, 65 dB). Zusätzlich zur Sprachverständlichkeit wurde anhand von 4 Fragen (Bewertung der Konzentration, des Copings, der Verständlichkeit und der Belästigung) die subjektive Befindlichkeit erfasst. (s. Tab. 6.3.3-2).
6.3 Verdeckung und Störung der Sprache durch Geräusche
175
Als Ergebnis kann festgehalten werden: der Einfluss der unterschiedlichen zeitlichen Charakteristik der Störgeräusche auf die subjektive Befindlichkeit einschließlich der Sprachverständlichkeit war gering. Die Mithörschwelle für die Sprachverständlichkeit von Sätzen (S) und die beiden Bewertungen (Verständlichkeit (BWV) und Coping (BWC)) lagen nur um 1 bis 2 dB auseinander. Das intermittierende Geräusch (Sti) bedingt die höchste Verdeckung der Sprache und die negativsten Skalenwerte (BWV, BWC) und damit die höchsten Mithörschwellen (Tab. 6.3.3-2). Das Geräusch mit der größten Schwankung (Stg) bedingt dagegen die positivsten Werte und damit die niedrigsten Mithörschwellen. Das Geräusch mit dem konstanten Pegel (Stc) liegt in der Bewertung im Mittelbereich. In einem ergänzenden Versuch wurde zu einem konstanten Straßenverkehrgeräusch das Geräusch eines Güterzuges verwendet. Da die Spektren dieser beiden Geräusche im Frequenzbereich der Sprache (0.25–8 kHz) nur geringfügig unterschiedlich waren, ist die Sprachverständlichkeit beim Straßenverkehr und Güterzug (beide konstante Pegel) recht ähnlich: für SV(S) = 50 %) ist LSNA (St, Gz, RR) = 1.1, 2.1, 2.5 dB. Tabelle 6.3.3-2. Mithörschwelle (LSNA in dB) für eine mittlere Sprachverständlichkeit (SV(Satz) = 50 %) und eine mittlere Bewertung (3.0, Skala 1 bis 5) für die Frage nach der subjektiv wahrgenommenen Verständlichkeit (BWV), Bewältigung (BWC) (Skala 1–5) und der Störung/Belästigung (BWB), Konzentration (BWK) (Skala 5–1) für Sätze gestört durch zeitlich konstante (Stc), intermittierende (Sti) und zeitlich schwankende Verkehrsgeräusche (Stm, Stv, Stg) (s. Text)
SV (50 %) BWV (3.0) BWC (3.0) BWB (3.0) BWK (3.0)
Sti –0.6 1.6 0.5 9.2 9.0
LSNA in dB Stc,k Stm –2.1 –1.7 0.3 0.0 –0.2 0.0 6.8 5.3 8.1 8.2
Stv –1.3 0.4 –0.2 5.9 7.5
Stg –2.0 –0.8 –1.2 4.4 6.2
Die Reihenfolge der Geräusche bzgl. ihrer Verdeckungsmöglichkeit (immer gleicher LAeq vorausgesetzt) kann aus den Bewertungen abgeleitet werden: x das intermittierende Geräusch verursacht durch seinen ständigen Wechsel einen zusätzlichen Aufmerksamkeitsverlust und hat damit ein etwas erhöhtes Störpotenzial; x das zeitlich konstante Geräusch (das Bezugsgeräusch) verursacht eine gleichmäßige Verdeckung, die als mittleres Störpotenzial bezeichnet wird; (dass die Mithörschwelle für die Verständlichkeit bei diesem Geräusch hier relativ gering ist, ist ein zufälliges Ergebnis, die Varianzana-
176
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
lyse ergibt signifikante Ergebnisse nur für das intermittierende (hohe Schwelle) und das Geräusch mit den hohen Schwankungen (niedrige Schwelle; s. Sust et al. 2007); x Geräusche mit zeitlichen Schwankungen haben ein etwas geringeres Störpotenzial; x der Mittelungspegel über das betreffende Geräusch kann im Mittel als eine gute Schätzung für die Sprachverständlichkeit benutzt werden. Zwei Untersuchungen beleuchten die Sprachverständigung bei zeitlich schwankenden Geräuschen etwas genauer. Ein anschauliches Maß für eine sich zeitlich ändernde Störung ist der Prozentsatz der Silben, der im Mittel in einem bestimmten Zeitintervall verstanden wird. Einem zeitlich schwankenden Pegel (LNA(t)) entspricht bei einem vorgegebenen Sprachpegel (LSAeq) ein entsprechend zeitlich schwankender Artikulationsindex (AI (t)) bzw. eine schwankende Silbenverständlichkeit (SV(t)). Für Flugzeuggeräusche (Landung, Start, Überflug) simulierte Weber (1980: Abb. 6.3.3-4) die zeitlich schwankenden Oktavpegel und berechnete so für jede Sekunde den durch die Flugzeuggeräusche in einem bestimmten Punkt in der Nähe eines Flughafens vorhandenen Artikulationsindex (AI) bzw. die Silbenverständlichkeit.
Abb. 6.3.3-4. Der zeitliche Verlauf der Oktavpegel (LNi, Mittenfrequenz (fi)) und der daraus berechnete Artikulationsindex (AI) in Abständen von 1s für einen Vorbeiflug, Sprachpegel LSA = 62 dB (nach Weber 1980)
6.3 Verdeckung und Störung der Sprache durch Geräusche
177
Ob es allerdings zweckmäßig ist, ein neues Bewertungsverfahren für die Ermittlung eines Maßes für schwankende Pegel einzuführen, welches sich speziell an der Sprachverständlichkeit orientiert, erscheint fraglich. Innerhalb des o.g. Projektes (Sust et al. 2007) wurde die Sprachverständlichkeit etwas differenzierter untersucht. Dazu wurden für jeden Satz der S/N–Abstand der einzelnen Wörter und der des Satzes gebildet. Das wurde für jeden der 200 Sätze durchgeführt, dabei hatte jeder Satz sechs Wörter, davon vier Inhaltswörter. Die Pegelschwankungen der Wortpegel (LSAeq,W) im Satz lagen bei den zwei Sprechern bei etwa: 2 s = ± (6 bis 10) dB und nahmen im Mittel von den ersten beiden Wörtern (2. Wort = 1. Inhaltswort) bis zum letzten Wort um 5 dB ab. Die Pegelschwankungen des Verkehrsgeräusches lagen bei ±0.5 und ±8 dB. In der Abbildung 6.3.3-5 erkennt man, dass der S/N–Abstand und die dazugehörige Sprachverständlichkeit der Einzelwörter vom zweiten Wort beginnend bis zum letzten Wort hin geringer werden. Interessant ist, dass der Verlauf der Sprachverständlichkeit bei beiden Geräuschen mit deutlich unterschiedlichen zeitlichen Schwankungen sehr ähnlich ausfällt. Beide Geräusche beinhalten aber sowohl ansteigende als auch abfallende Pegel (Anfahren und Abfahren von Kfz), sie sind nur in ihrer Höhe unterschiedlich. Stc,k -8 dB Stc,k 6 dB Stc,k 20 dB
Stc,k -15 dB Stc,k -1 dB Stc,k 13 dB Stc,k SV(SNR)
100
Stg -15 dB Stg -1 dB Stg 13 dB Stg SV(SNR)
100
80
80
SV /%
SV /%
60
60
40
40
20
20
0 -30
Stg -8 dB Stg 6 dB Stg 20 dB
-20
-10
0
10 SNRA /dB
20
0 -30
-20
-10
0
10
20
SNRA /dB
Abb. 6.3.3-5. Sprachverständlichkeit (SV in %) über dem S/N–Abstand (SNRA in dB) für Sätze (LSAeq,S – LNAeq,S) und einzelner Wörter (LSAeq,W – LNAeq,W). Die SV der einzelnen Wörter wurde für die Sätze des vorgegebenen Satz–SNR (LSNA,S = –15, –8, –1, 7, 14, 20 dB) geordnet und über die Wortfolge (Nr. 1 bis 6, Nr. 1 großes Zeichen) gemittelt, für das Geräusch mit geringen Schwankungen (links: Stc, k ±0.5 dB) und hohen Schwankungen (rechts: Stg, ±8 dB) (gemittelt über 2 Sprecher; s.a. Versuch 3, Abschn. 10.4)
178
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Offenbar haben bei solchen Geräuschen die Pegelschwankungen der einzelnen Worte, die Prosodie innerhalb des Satzes, einen so starken Einfluss auf den S/N–Abstand der einzelnen Wörter und die Sprachverständlichkeit, dass die unterschiedlichen Schwankungen der beiden Geräusche in ihrem Einfluss geringer sind. Bei Geräuschen mit vorwiegend ansteigenden oder abfallenden Pegelanteilen wirken sich diese jedoch unterschiedlich und stärker aus (Sust et al. 2007). Die genaue Berechnung (Vorhersage) und die Bewertung der Sprachverständlichkeit bei zeitlich schwankenden Geräuschen ist letztlich recht schwierig, da zwei im Pegel schwankende Schallvorgänge miteinander zu vergleichen sind, die Sprache und das Geräusch. Die Pegelschwankungen der Sprache betragen, mit der Zeitbewertung Fast gemessen, die in etwa auch den Lautheitseindruck wiedergibt, DLAF = 30 dB. Die Zeitkonstante der Zeitbewertung Fast (125 ms) entspricht in etwa der durchschnittlichen Dauer einer Silbe (T = 300 ms). Will man in einer Kommunikationssituation eine perfekte Silben– oder Wortverständlichkeit erreichen, muss man die maximalen Pegel des Geräusches und die minimalen Pegel der Sprache miteinander vergleichen. Ist der S/N–Abstand LSAFmin - LNAFmax = DLAF t 0 dB, so kann man davon ausgehen, dass die Sprache, d.h. einzelne Silben und Wörter, ungestört wahrgenommen werden können. Der geringste Sprachpegel (LSAFmin) liegt 20–30 dB unter dem Mittelungspegel der Sprache (LSAeq) (s. Abschn. 3.2, 7.3.1c). Unter diesen Bedingungen ist, um eine perfekte Sprachverständlichkeit zu erhalten, ein S/N–Abstand gegenüber dem Mittelungspegel der Sprache von LSAeq - LNAFmax t 20–30 dB notwendig. Diese Anforderungen gelten im Prinzip auch für jede der für die Sprachfrequenzen wichtigen Oktaven fi = (0.25–4) kHz: LSieq - LNiFmax t 20–30 dB. Die verdeckende Wirkung zeitlich veränderlicher Geräusche ist im Vergleich zu konstanten Geräuschen bei gleichem mittlerem Pegel (LAeq) geringer. In den kurzen Intervallen geringeren Pegels oder in den Pegelpausen können mehr Teile der Sprache wahrgenommen werden. Diese Verringerung der Verdeckung nimmt je nach Stärke und Länge der Schwankungen zu. Der Störeffekt hängt sowohl von der Schwankungsrate (Modulationsfrequenz) wie auch von dem Sprachmaterial ab. Da die mittlere Pegelverteilung von gesprochener Sprache im Allgemeinen bekannt ist (s. Abschn. 3.2), und für die Vorhersage der Sprachverständlichkeit eine Messung der aktuellen Sprachpegel zu aufwändig ist und diese durch den Sprecher zusätzlich jeweils individuell geprägt ist, wird als Bezugswert für die Sprache der A–bewertete Mittelungspegel LSAeq oder die der Oktaven LSieq herangezogen. Für die Bildung des S/N–Abstandes ist dann nur noch der Pegel des Geräusches zu bestimmen. Um eine be-
6.3 Verdeckung und Störung der Sprache durch Geräusche
179
stimmte Sprachverständlichkeit (Einsilber, Sätze) zu gewährleisten, wird als Vergleichswert für das schwankende Geräusch der maximale Wert des A–Schallpegels bei der Zeitbewertung Fast oder Slow (z.B. LNAFmax) oder ein Perzentilwert der 10 oder 1 %–Wert (z.B. LNAF,1%) benutzt. So kann man bei einem S/N–Abstand von LSAeq - LNAFmax t 3 dB eine Verständlichkeit von Einsilbern SVE t 75 % gewährleisten, da für ein Geräusch konstanten Pegels für LSNA = 3 dB etwa SVE | 75 % gilt (Abb. 7.6-1). Damit eine mittlere Sprachverständlichkeit erreicht wird, geht in der Regel wie bei der Sprache entsprechend der Mittelungspegel des Geräusches (LNAeq, LNieq) in die Berechnung ein. Für Verkehrsgeräusche mit unterschiedlicher Zeitstruktur und Pegelschwankungen bis zu 10 dB ist der Mittelungspegel (äquivalenter Dauerschallpegel) ein guter Prädiktor zur Vorhersage der Verständlichkeit (Pearsons 1978; Sust et al. 2007; Tab. 6.3.3-2). Eine akzeptable Lösung wird in den Normen DIN 33410, DIN ISO 9921 (Sprachverständlichkeit in Arbeitsstätten und öffentlichem Bereich) vorgeschlagen: x für die Gewährleistung einer mittleren Sprachverständlichkeit wird der Mittelungspegel des Geräusches (LNAeq, LNieq), x für die Gewährleistung einer maximalen Sprachverständlichkeit (z.B. aus Gründen der Sicherheit) der Maximalpegel, bei der Zeitbewertung Slow gemessen (LNASmax, LNiSmax), herangezogen. Zieht man als Ausmaß der Belästigung die erlebte Störung der Kommunikation durch Verkehrsgeräusche (Abschn. 11.1) heran, können Geräusche mit unterschiedlicher zeitlicher Struktur miteinander verglichen werden. Zum Vergleich werden jeweils Verkehrsgeräusche mit gleichen Mittelungspegeln benutzt, deren Pegel vor dem Fenster ermittelt wurden. Die Ergebnisse sind widersprüchlich. Intermittierende Geräusche wie Flug– oder Schienenverkehrsgeräusche (immer gleicher LAeq vorausgesetzt) können die Sprachkommunikation eher stören als die doch mehr gleichmäßigen Straßenverkehrsgeräusche (Abschn. 11.1); dieses ist vermutlich dadurch bedingt, dass der für die Störung der Kommunikation relevante Geräuschpegel durch den gleichmäßigen Straßenverkehr nicht so häufig überschritten wird wie durch die sehr unregelmäßig auftretenden Flugzeuge. Flugzeuggeräusche stellen Geräusche mit sehr hohen Pegeln dar, die kurzzeitig während des Starts, der Landung und des Überflugs auftreten und Pausen mit relativ geringen Pegeln aufweisen. Diese Überlegungen gelten eher für höhere Schallpegel. Weiterhin konnte gezeigt werden, dass bis zu einem Mittelungspegel von LNAeq = 74 dB (6–22 Uhr) das gleichmäßigere Geräusch der Autobahn etwas störender ist als das des Straßenverkehrs; bei einem Mittelungspegel von ca. LNAeq = 75 dB ist das
180
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
jedoch umgekehrt (Kastka 1981). Bei den zeitlich intermittierenden Geräuschen des Schienenverkehrs – die Pegelspitzen liegen bei einem vorbeifahrenden Zug häufig mehr als 30 dB höher als der Pegel des Hintergrundgeräusches in den Pausen – verhält es sich ähnlich: liegen die Mittelungspegel des Straßenverkehrs und des Schienenverkehrs bei etwa LNAeq = 50 dB, ist das Ausmaß der erlebten Störung der Kommunikation etwa bei beiden Geräuscharten gleich. Ist der Mittelungspegel jedoch LNAeq t 65 dB, wird der intermittierende Schienenverkehr störender als der gleichmäßigere Straßenverkehr erlebt (Knall u. Schümer 1981). Wenn Personen die Möglichkeit haben, den Zeitpunkt ihres Sprechens frei zu bestimmen, werden sie automatisch die Zeiten wählen, in denen der Geräuschpegel sehr niedrig ist. Durch diese Verhaltensweise des Sprechers kann, zwar nur für kurze und nicht zu häufige Mitteilungen, die Sprachverständlichkeit erheblich verbessert werden. Bei der Sprachkommunikation in der Ausbildung, im Dienstleistungsbereich, bei Konferenzen, in Sicherheitsfragen und bei der Übermittlung von Sprache über den Rundfunk oder das Fernsehen ist jedoch eine Anpassung an das Störgeräusch nicht akzeptabel oder auch nicht möglich. Abschließend kann festgehalten werden, dass intermittierende Geräusche die Sprachverständlichkeit eher verschlechtern, aber Geräusche mit hohen zeitlichen Pegelschwankungen diese eher verbessern. Deshalb ist es zweckmäßig, bei zeitlich schwankenden Geräuschpegeln den Mittelungspegel als Kenngröße für die Sprachverständlichkeit heranzuziehen.
6.3.4 Verdeckung durch Sprachgeräusche und zeitveränderliche sprachähnliche Geräusche für Normal– und Schwerhörige Sprachrauschen, Sprachgeräusch (1 bis 12 Sprecher), Vorteil bei fluktuierenden Geräuschen, Verdeckung durch Energie und Information Das Spektrum eines stationären, für die Wahrnehmung zeitlich konstanten Geräusches und sein Einfluss auf die Sprachverständlichkeit ist sehr intensiv untersucht worden (Abschn. 6.3.1, 6.3.2). Diese Untersuchungen tragen vor allem der Tatsache Rechnung, dass beim Wahrnehmen von Sprache die Intensität der spektralen Verteilung der Sprache und des Geräusches miteinander interferieren. Schwieriger und nur wenig untersucht ist die Beeinflussung der Sprachverständlichkeit durch die Zeitstruktur von Geräuschen (Abschn. 6.3.3). Dabei sind gerade Verkehrsgeräusche, Bürogeräusche und störende Sprachgeräusche wesentliche Störgrößen und stark
6.3 Verdeckung und Störung der Sprache durch Geräusche
181
durch ihre zeitliche Struktur geprägt. Nur in den seltensten Fällen haben sie einen konstanten Pegelverlauf, wie er in den meisten Untersuchungen vorausgesetzt wird. Als weiterer Parameter der störenden Geräusche gilt die Informationshaltigkeit. Sie ist stark mit dem zeitlichen Verlauf des Geräusches verbunden, könnte aber auch einen eigenen Parameter darstellen. Sprache ist nicht nur Übermittler von Informationen, sondern kann auch ein störendes Geräusch sein, wenn sie sprachliche Informationsübermittlung (Gespräch, Telefon) maskiert. So stören und maskieren Sprachgeräusche (Nachbargespräche, Telefongespräche) in Büroräumen (Zwei– und Mehrpersonenraum), in Gaststätten und auch in Wohnbereichen die Sprachkommunikation. Das Schallereignis Sprache ist sowohl durch das Schallspektrum (Langzeitspektrum) und den Schallpegel (Langzeitmittelwert) wie auch zusätzlich durch die schnellen zeitlichen Änderungen der Hüllkurve (Amplitude und Spektrum) zu charakterisieren (s. Kap. 3). Der maskierende Effekt der Sprache ist durch diese Parameter bedingt. Sprache kann zudem auf zweifache Weise stören. Zum einen kann Sprache, wie ein Geräusch, die relevanten Sprachreize verdecken (energetische Maskierung), zum anderen können irrelevante Sprachreize durch ihren Informationsgehalt bedingt, kurzfristig die Aufmerksamkeit von der relevanten Information abziehen (Maskierung durch Information; s.a. Abschn. 11.3). In den zu diskutierenden Untersuchungen werden vor allem folgende Geräusche zur Maskierung der Sprache benutzt: x sprachähnliche Geräusche: Rauschen mit einem sprachähnlichen Spektrum, das dem Langzeitspektrum der Sprache ähnlich ist; konstanter Pegelverlauf (SR), x sprachmoduliertes Geräusch: Rauschen, bei dem der zeitliche Verlauf der Hüllkurve dem der Sprache ähnlich ist (SM), x Sprechgeräusch oder Sprachgeräusch: Rauschen, das aus natürlich gesprochener Sprache besteht, die von einem bis zu 12 Sprechern gesprochen wurde (SG(1–12)). Weiterhin werden auch Zeitverläufe von nicht verständlicher Sprache (Fremdsprache) oder auch rückwärts abgespielter Sprache zur Maskierung benutzt, wobei diese keine Information für den Hörer enthält, aber dennoch dem Zeitverlauf der Sprache ähnlich ist. Setzt man gleiche Schallintensität, d.h. gleiche A–bewertete Dauerschallpegel (LAeq) voraus, hat das Geräusch mit einem konstanten Pegelzeitverlauf (k) gegenüber einem Pegel, der zeitlich schwankt (s), einen höheren Maskierungseffekt. Bei zeitlich schwankenden Pegeln (sprachmoduliertes Geräusch, Sprache, Verkehrsgeräusch etc.) ist in den mehr oder
182
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
weniger langen Perioden mit niedrigen Pegeln die Sprache besser zu verstehen und somit insgesamt der Maskierungseffekt geringer. Um diesen geringeren Maskierungseffekt zu quantifizieren, wird die Differenz der Mithörschwelle von diesen beiden Geräuschen angegeben und als Vorteil bezeichnet (LHSS(s) - LHSS(k)). Enthält das Geräusch noch Informationen (verstehbare Sprache), kann der Hörer von der eigentlichen Aufgabe, Sprache zu verstehen, noch zusätzlich abgelenkt werden. Die Verständlichkeit von Wörtern, die durch Sprache eines oder mehrerer Sprecher verdeckt wurde, ist in Abbildung 6.3.4-1 angegeben (Miller 1947, Pollack u. Pickett 1958). Während sich in Millers Untersuchung die Sprecher unterhielten, lasen sie bei Pollack u. Pickett simultan Zeitungstexte möglichst schnell vor, diese störende Sprache wurde auf Band aufgezeichnet und mit den zu erkennenden Wörtern den Testpersonen über Lautsprecher oder Kopfhörer vorgespielt. Wie aus Abbildung 6.3.4-1 hervorgeht, ist ein Sprachgeräusch, das von einem Sprecher produziert wird (SG(1)), bei gleichem Sprachpegel (LSAeq) weniger verdeckend als ein Sprachgeräusch, das von zwei oder mehreren Sprechern erzeugt wird (SG(m)). Die Verschlechterung der Sprachverständlichkeit bei Maskierung der Sprache durch mehrere Sprecher beruht darauf (Miller 1947), dass das maskierende Geräusch im Spektrum und im Pegel gleichmäßiger wird und damit einen stärker verdeckenden Effekt hat als die Sprache nur eines Sprechers. Der Schallpegel eines Sprechers schwankt um 10–30 dB, so dass immer kurze Phasen auftreten, in denen der Pegel so niedrig ist, dass die in dieser Zeit auf den Hörer treffenden Sprachteile voll verstanden werden können. Zwei im Pegel zeitlich schwankende Geräusche mit gleichen Mittelungspegeln (LAeq), können durchaus Bereiche niedrigerer Pegel haben, die unterschiedlich ausgeprägt sind, wobei die Bereiche hoher Pegel jedoch nahezu gleich sind. Der Wert der Mittelungspegel orientiert sich an den höheren Pegeln, die niedrigen Pegel haben kaum einen Einfluss, können also recht verschieden sein. Die Ergebnisse der Untersuchungen von Miller (1947) sowie von Pollack u. Pickett (1958) weichen etwas voneinander ab, wenn man die Kurven der Abbildung 6.3.4-1 miteinander vergleicht. Diese Abweichungen können durch die verschiedenen Sprachproben, aber auch durch die unterschiedlichen Messverfahren zur Bestimmung der Sprachpegel als Spitzenwert oder als Mittelwert sowie auch durch die Intensität des Sprachpegels der Signalsprache bedingt sein. Vermutlich hat man sich bei der Bestimmung dieses Sprachpegels eher an dem Maximalwert als an dem Mittelungspegel orientiert. Die Verständlichkeitskurve von Einsilbern, die durch sprachähnliches Rauschen verdeckt wird (Wedel 1977), liegt etwa im Bereich der Ergebnisse, die durch Sprachgeräusche mit mehreren Sprechern entstanden sind (Abb. 6.3.4-1). Vermutlich sind auch hier das Sprachmate-
6.3 Verdeckung und Störung der Sprache durch Geräusche
183
rial und die Messbedingungen zu unterschiedlich, um Vergleiche im Detail vornehmen zu können.
Abb. 6.3.4-1. Verständlichkeit (SV) von einsilbigen Wörtern, gestört durch Sprache (SG) ein oder mehrerer Sprecher (n = 1, 2, 4, 6) (nach Miller (M) 1947, Pollack u. Pickett (P) 1958) und von sprachähnlichem Rauschen (SR, nach Wedel (W) 1977), dargestellt über dem Signal–Geräuschabstand (LSN)
Trotzdem lassen sich einige Tendenzen erkennen: (a) die Störung durch Sprachgeräusche ist um so höher (die Sprachverständlichkeit um so niedriger, die Mithörschwelle um so höher), je mehr Sprecher an dem Sprachgeräusch beteiligt sind; (b) die Steigung der psychometrischen Funktion ist bei mehreren Sprechern höher als bei einem Sprecher; (c) zumindest ist die Störung durch das Sprachrauschen höher als die bei einem Sprachgeräusch mit einem Sprecher. Da in den Untersuchungen der Schallpegel und das Spektrum dieses Rauschens und der Sprache weitgehend ähnlich sind, könnten die verbleibenden Unterschiede der Verständlichkeit auf die aus dem „Sprachgewirr“ (SG(4–6)) noch vernehmbaren Sprachfetzen des echten Sprachgeräusches zurückzuführen sein, die die Aufmerksamkeit des Hörers kurzfristig auf sich ziehen. Der Unterschied zwischen der Maskierung durch Sprachgeräusche (SG(m)) und durch sprachähnliches Rauschen (SR) wird seit langem diskutiert. So verglichen Lewis et al. 1988 ein Sprachgeräusch (SG(m)) und ein Sprachrauschen (SR) mit identischem Spektrum und stellten eine um 2 dB höhere Mithörschwelle für das Sprachgeräusch (SG(m)) bei der Verständlichkeit von Wörtern im Satz sowohl mit hoher als auch mit niedriger Vorhersagewahrscheinlichkeit fest (SPIN–Test). Dieses Ergebnis wurde vorerst als ein Maskierungseffekt durch Information interpretiert (s.a. die weiter unten geführte Diskussion). Um die Pegelschwankungen in Abhängigkeit von der Anzahl der Sprecher zu demonstrieren, wurde die Häufigkeitssummenverteilung von
184
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Sprechpassagen (von ein und demselben Sprecher) miteinander gemischt und analysiert (Bordone–Sacerdote u. Sacerdote 1969). Wie aus der Abbildung 6.3.4-2 zu ersehen ist, sind die Pegelschwankungen von einer Sprechphase wesentlich größer als von acht sich überlagernden Phasen. Festen (1993) untersuchte die geringere Verdeckungswirkung eines einzelnen Sprechers (Sprachgeräusch) gegenüber einem Geräusch gleichen Spektrums (Sprachrauschen), indem er das störende Sprachsignal in mehrere Frequenzbänder zerlegte und ihre Kohärenz durch zeitliche Verschiebung des Sprachgeräusches in den Bändern untereinander auflöste. Damit waren die zeitlichen Schwankungen durch die Sprachgeräusche in den Bändern nicht mehr kohärent, sondern zeitlich verschoben. Die Störwirkung der Sprache im Vergleich zu einem Geräusch gleichen Spektrums nahm umso stärker ab, je mehr Teilbänder gegeneinander verschoben wurden. Hatte die Verständlichkeitsschwelle unter kohärenter Sprache (Sprachgeräusch) noch einen Vorteil von 9 dB gegenüber dem Sprachrauschen, so wurde dieser durch die gegenseitige Verschiebung der ¼– Oktavbänder bis auf einen vernachlässigbaren Rest von 0.8 dB zum Verschwinden gebracht, obwohl innerhalb der Bänder der Pegelverlauf der Sprache im Vergleich zum Sprachrauschen unverändert blieb (Festen u. Plomp 1990). Die enge Phasenverwandtschaft der Pegelverläufe in den Frequenzbändern der Sprache ist also eine wesentliche Voraussetzung für die verminderte Störwirkung. Vermutlich werden die Pausen, die durch die zeitliche Modulation des Pegels entstehen, durch ihre zeitliche Verschiebung so reduziert, dass die Verdeckungswirkung des so veränderten Sprachgeräusches der Verdeckungswirkung des konstanten Sprachrauschens praktisch gleich ist.
Abb. 6.3.4-2. Häufigkeitssummenverteilung W für jeweils (n) gemischte Sprechpassagen des gleichen Sprechers, aufgetragen über einem bezogenen Sprachpegel (L’S)
6.3 Verdeckung und Störung der Sprache durch Geräusche
185
Der Anteil der informellen Verdeckung wurde anhand eines Experiments (Brungart 2001) analysiert, in dem der Sprecher die zu verstehende Sprache störte. Dabei haben 8 Sprecher (4 männlich, 4 weiblich) 256 Sätze mit Namen (Zielwörter) von 8 Zeichen, 4 Farben und 8 Zahlen (isoliert oder gemeinsam in einem Satz) auf einen Speicher gesprochen. Dieses Sprachmaterial wurde sowohl als Stimulus– wie auch als Störmaterial verwendet. Dabei wurde jeder Stimulussatz von einem weiteren Satz jedoch anderen Inhaltes gestört (Sprachgeräusch). 9 Hörer mussten die Zielwörter verstehen. Zur Verdeckung wurden zusätzlich zwei Geräusche (SR, SM) benutzt.
Die Ergebnisse (Abb. 6.3.4-3) zeigen, dass bei niedrigem Signal– Geräuschabstand (LSNA < -10 dB), also dort wo die störende Sprache im Pegel geringer und dadurch schlechter zu verstehen ist als die Stimulussprache, die Verständlichkeit durch die fünf Geräusche (SR, SM, 3 Sprachgeräusche) in ähnlicher Weise gestört wird. Liegen die Pegel der störenden Sätze und der Stimulussätze dagegen im gleichen Pegelbereich (LSNA = -10 dB bis +5 dB) und werden somit einzelne Textteile der störenden Sätze erkennbar, sind diese – je nach Geräusch – maßgebend für die Störung. DG SR
GG SM
GS
DG SR
100
GG SM
GS
100
80
80
SVZ/%
SVZF/%
60
60
40
40
20
20
0
0 -25
-20
-15
-10
-5
0 L SNA /dB
5
10
-25
-20
-15
-10
-5 0 L SNA /dB
5
10
Abb. 6.3.4-3. Verständlichkeit für Sätze mit Zahlnamen und Farbnamen. Sprachverständlichkeit von Sätzen nur mit Zahlnamen (links: SVZ in %) und von Sätzen mit Zahl– und Farbnamen (rechts: SVZF in %); bei 5 Störgeräuschen (3 reale und 2 simulierte Sprachgeräusche): Sätze gleicher Art, mit Sprechern: unterschiedlichen (DG) bzw. gleichen Geschlechts (GG), dem Stimulus identisch (GS), sprachähnliches (SR) und sprachmoduliertes Rauschen (SM)
Es handelt sich hier um eine Maskierung durch Information. In diesem Bereich haben die beiden Geräusche (SR, SM) und das Sprachgeräusch von unterschiedlichen Sprechern (DG) die gleiche, wenn auch geringe Störwirkung. Nur, wenn das Geschlecht der Sprecher des Sprachgeräu-
186
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
sches und des Sprachsignals gleich ist (GG), oder der Sprecher des Stimulus– und des Störsatzes (GS) gar identisch ist, hat das Sprachgeräusch eine deutlich maskierende Wirkung, die über der der anderen Geräusche (SR, SM, DG) liegt. In den dargestellten Experimenten werden Geräusche benutzt, die verschiedene zeitliche Pegelverteilungen aufweisen und in einem unterschiedlichen Umfang Information vermitteln (Duquesnoy 1983; Festen u. Plomp 1990; Prosser et al. 1991; Hygge et al. 1992; Souza u. Turner 1994; Eisenberg et al. 1995; Bacon et al. 1998; Peters et al. 1998). Folgende Ergebnisse sind (für Normalhörende) festzuhalten: x die Sprachverständlichkeit ist beim zeitlich konstanten, sprachähnlichen Rauschen (Sprachrauschen, SR) tendenziell am höchsten; x Sprechgeräusche (Sprachgeräusch, SG(m)) mit mehreren Sprechern bedingen eine ähnlich schlechte (teilweise sogar eine etwas schlechtere) Sprachverständlichkeit, die vergleichbar ist mit der durch das Sprachrauschen (SR) verdeckten Sprache. Hier ist das Sprechgeräusch im Pegel nahezu konstant und vermittelt nur geringfügig erkennbare Sprache; x das sprachmodulierte Rauschen bedingt in der Regel, da es eine deutliche Zeitstruktur aufweist, eine bessere Verständlichkeit als das Sprachrauschen (SR); x das Ein–Sprecher–Geräusch (SG(1)) erlaubt wegen der Zeitstruktur und der Pausen eine deutlich höhere Verständlichkeit als das Sprachrauschen (SR); x weitere benutzte Geräusche sind unterbrochene Modulationsgeräusche und Verkehrsgeräusche, während dieser ist die Verständlichkeit je nach Zeitstruktur noch besser als beim Sprachgeräusch SG(1)); x der Informationsgehalt hat keinen oder nur einen geringen Einfluss auf die Sprachverständlichkeit, was aus den Experimenten mit vorwärts und rückwärts gespielter Sprache, bei denen die gleiche Sprachverständlichkeit zu beobachten ist, hervorgeht (s. Tab. 6.3.4-2, 6.3.4-4). Inwieweit der Informationsgehalt doch zur Maskierung und Störung beiträgt ist noch nicht abschließend geklärt (s. Abb. 6.3.4-3; s.a. Freyman et al. 2001; s. Abschn. 11.3). Während unter Störgeräuschen mit zeitlich schwankenden Pegeln normalhörende Personen eine bessere Sprachverständlichkeit erzielen als unter Geräuschen mit zeitlich konstanten Pegeln (s.o.), haben zahlreiche Untersuchungen (Festen u. Plomp 1990; Bronkhorst u. Plomp 1992; Hygge et al. 1992; Gustafsson u. Arlinger 1994; Eisenberg et al. 1995 u.a.) ergeben, dass Schwerhörige deutlich weniger Nutzen aus der kurzzeitig nachlassen-
6.3 Verdeckung und Störung der Sprache durch Geräusche
187
den Verdeckung der Sprachreize durch zeitlich schwankende Störgeräusche ziehen können. In Untersuchungen zur Schwerhörigkeit (vgl. auch in Abschn. 6.3.2) konnte beobachtet werden, dass bei einem sprachähnlichen Geräusch (konstanter Pegel, sprachähnliches Spektrum, SR) die Mithörschwelle bei gering schwerhörigen Personen gegenüber Normalhörenden um 2 bis 5 dB zunimmt (Glasberg u. Moore 1989; Plomp 1994). Der Unterschied in den Mithörschwellen steigt deutlich an, wenn ein zeitlich schwankendes Geräusch benutzt wird. Ist das Geräusch ein Sprachgeräusch von einem Sprecher (Carhart u. Tillman 1970; Duquesnoy 1983; Hygge et al. 1992; Moore et al. 1995), oder ein rückwärts abgespieltes Sprechgeräusch (Duquesnoy 1983), oder ein sprachmoduliertes Geräusch (Duquesnoy 1983; Takahashi u. Bacon 1992; Eisenberg et al. 1995), dann liegt der Unterschied zwischen den normalhörenden und schwerhörigen Personen in der Mithörschwelle immerhin bei 7–15 dB. Die Autoren vermuten den Grund für den Anstieg der Mithörschwellendifferenz in der Unfähigkeit der schwerhörigen Personen, den Vorteil der zeitlichen Löcher (Clips) im Störgeräusch für das Verstehen von Sprache nutzen zu können (Duquesnoy 1983; Festen 1987a, b; Festen u. Plomp 1990; Hygge et al. 1992; Moore et al. 1995). Schwerhörige zeigen generell eine reduzierte zeitliche Auflösung. In diesem Zusammenhang ist auch zu sehen, dass die Nutzung zeitlicher „Löcher“ im Störgeräusch zum Vorteil der Sprachdiskrimination reduziert ist (Festen 1987a, b; Glasberg et al. 1987; Moore u. Glasberg 1988; Festen u. Plomp 1990; Glasberg u. Moore 1992; Festen 1993; Moore 1995). Diese verringerte Fähigkeit von Schwerhörigen, „Löcher“ im Spektrum von Störgeräuschen zu nutzen, wird mit dem geringen Vermögen der Frequenzselektion in Verbindung gebracht (Glasberg u. Moore 1986; Tyler 1986; Moore 1995). Diese Überlegungen können durch Befunde aus einer systematischen Analyse von einer Vielzahl von Untersuchungen bestätigt werden (vgl. Übersicht in Sust u. Lazarus 2005). Das Ausmaß der Sprachverständlichkeit, deren Sprachreize durch amplitudenmodulierte Störgeräusche maskiert werden, verbessert sich in der Regel in den Zeitabschnitten, in denen das Störgeräusch eine geringere Amplitude aufweist. Arlinger u. Gustafsson (1991) benutzten zur Maskierung von Sprache ein Geräusch mit sprachähnlichem Rauschen und verschieden modulierte Geräusche (sinusförmig fmod = 2–20 Hz, zufällig; Modulationsgrad 6 dB, 12 dB, 100 %). Das Signal–Geräuschverhältnis wurde konstant gehalten. Während die Sprachverständlichkeit für junge und ältere Personen mit Hörverlust bei unmodulierter und zufälliger Modulation bei 30–40 % lag, ergaben sich Werte hinsichtlich der Sprachverständlichkeit für Personen ohne Hörverlust bei der Modulation mit hohem Modulationsgrad (12 dB, 100 %) von 50–75 %. Für ältere Personen mit Hörverlust
188
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
liegt die Sprachverständlichkeit dort nur bei 35–50 %. Die maskierende Wirkung von amplitudenmodulierten Geräuschen fällt gegenüber einem unmodulierten Geräusch gleichen mittleren Pegels (LAeq) geringer aus (Tab. 6.3.4-1). Normalhörende Personen gewinnen bis zu 45 %, Schwerhörige nur bis zu 20 % Sprachverständlichkeit hinzu. Hörgeräte beeinflussen diesen Effekt nicht. Für Zweisilber (Wilson u. Carhart 1969) oder VCV–Silben (Howard–Jones u. Rosen 1993) liegt der geringste Verdeckungseffekt bei 1 Hz, für Einsilber bei circa 10 Hz (Miller u. Licklider 1950) und für Sätze (Gustafsson u. Arlinger 1994) bei 10–30 Hz. Tabelle 6.3.4-1. Sprachverständlichkeit (SV in %) für ein unmoduliertes (konstantes) und amplitudenmoduliertes Geräusch mit einem sprachähnlichen Spektrum: Frequenz der Modulation (2–20 Hz, hier 5 Hz), Modulationsgrad (unmod., 6 dB, 12 dB, ũ dB (100 %)) zufällig und sinusförmig für normalhörende (NH) und schwerhörige (SH) Personen (HVT (1, 4 kHz)= 40, 65 dB, Alter 60–70 Jahre) Personen
NH SH
unmoduliertes Geräusch 32 34
6 dB 31 35
SV in % amplitudenmoduliertes Geräusch zufällig sinusförmig 12 dB ũ dB 6 dB 12 dB ũ dB 47 43 45 66 76 38 37 40 52 44
Duquesnoy (1983) konnte zeigen, dass ältere Personen mit üblichen Tonhörverlusten den Vorteil von fluktuierenden Geräuschen weniger nutzen können als Normalhörende (Tab. 6.3.4-2). Eine erhebliche Verbesserung der Sprachverständlichkeit kann bei Normalhörenden im Vergleich zu älteren Personen beobachtet werden, wenn das wahrzunehmende Sprachmaterial durch vorwärts– und rückwärts abgespielte Sätze maskiert wird. Ältere Personen mit altersgemäßen Tonhörverlusten profitieren kaum von ruhigen Intervallen der maskierenden Sprache (nur 0–1 dB), wohingegen normalhörende Personen 3–7 dB gewinnen. Dass das vorwärts und rückwärts abgespielte Störgeräusch keinen unterschiedlichen Effekt aufweist, lässt vermuten, dass die physikalischen Aspekte der maskierenden Schallreize für die Wahrnehmungsleistung entscheidend sind und nicht psychologische Effekte, wie etwa die Störung durch gleichzeitige Verständlichkeit von „wettstreitenden“ Sätzen.
6.3 Verdeckung und Störung der Sprache durch Geräusche
189
Tabelle 6.3.4-2. Mithörschwelle (LSNA (SV = 50 %) in dB für Sätze bei störenden Geräuschen (LNA = 55dB): sprachähnliches Rauschen (SR), Sprache (S) (Sätze) vorwärts und rückwärts für Normalhörende (NH) und ältere Schwerhörige (SH) (HVT (0.5–4 kHz) = 20–60 dB) Personen Normalh. NH(10) Schwerh. SH (20)
SR -10.7 -5.3
LSNA (50 %) in dB S vorw. S rückw. -17.6 -17.6 -4.8 -5.4
Festen u. Plomp (1990) untersuchten in ihrer Studie den Einfluss verschiedener Störgeräusche auf das Sprachverstehen von Normalhörenden und Hörgeschädigten. Hier konnte gezeigt werden, dass die Sprache bei einem Störgeräusch mit zunehmendem Modulationsgrad, d.h. von einem zeitlich konstanten Geräusch (m = 0) bis zu einem Sprechgeräusch (1 Sprecher, m = 1), für die Normalhörenden deutlich leiser sein kann, um eine Sprachverständlichkeit von 50 % zu erhalten (LSNA sinkt von -5 dB auf -12 dB). Schwerhörige Personen konnten dagegen nicht von den Lücken im Geräusch profitieren. Ihr Signal–Geräuschabstand blieb auf ähnlichem Niveau von LSNA = -0.5 bis -1 dB erhalten (Abb. 6.3.4-4).
Abb. 6.3.4-4. Sprachverständlichkeit (SV in %) von Sätzen für Normalhörende (N) und Schwerhörige (S), für Geräusche (G) mit einem sprachähnlichen Spektrum mit drei verschiedenen Pegelzeitverläufen (Hüllkurve: konstant (konst.), amplitudenmoduliert (mod.), natürliche Sprache (Sprechgeräusch (1 Sprecher), Sprech–G.); LNA = 80dB)
Bacon et al. (1998) haben die 50 %–Verständnisschwelle normalhörender und hörbehinderter Personen unter verschiedenen Arten amplitudenmodulierten Sprachrauschens gemessen (Tab. 6.3.4-3). Das Mehrsprechergeräusch, das nahezu gleichförmig war, und das konstante Geräusch
190
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
bewirkten etwa die gleiche Sprachverständlichkeit (Zeile 1, 2). Während bei den stark veränderlichen Geräuschen (Zeile 3, 4) die normalhörenden Personen eine Verbesserung (bezogen auf Zeile 1) von bis zu 15 dB durch eine Modulation des Störrauschens erzielten, wurde für die hörgeschädigten Personen lediglich eine Verbesserung von 1–5 dB registriert (Tab. 6.3.4-3). Wie ein Kontrollversuch mit simulierter Schwerhörigkeit bei gesunden Personen zeigte, liegt dies nicht allein an der verminderten Wahrnehmungsbandbreite, sondern eher an dem verminderten Zeitauflösungsvermögen, das bei schwerhörigen Personen gegenüber gesunden verringert ist. Tabelle 6.3.4-3. Mithörschwelle (LSNA (50 %) in dB) für Sätze bei drei zeitlich veränderlichen Geräuschen (2–4) und einem gleichmäßigen Geräusch (1) für Normal– und Schwerhörige (NH, SH)
1 2 3 4
Geräusche sprachähnliches Rauschen (SR) Sprechgeräusch (mehrere Spr.) Sprechgeräusch (1 Spr.) Moduliertes Geräusch (Mod. Freq. 10 Hz)
LSNA(50 %) in dB NH SH -2.5 dB 1.0 dB -3.0 dB 1.5 dB -6.0 dB 0.0 dB -17.5 dB -4.0 dB
Der geringe Unterschied der Verdeckung bei konstanten und zeitlich variablen Geräuschen zeigt sich sogar bei Schwerhörigen, die nur geringe Hörverluste im Bereich relativ hoher Frequenzen haben (Middelweerd et al. 1990). Vergleicht man (Peters et al. 1998) die Mithörschwellen von einem konstanten Geräusch mit zwei zeitlich fluktuierenden Geräuschen (Sprechgeräusch (1 Sprecher), sprachmoduliertes Geräusch), ergibt sich, um die gleiche Sprachverständlichkeit (50 %) für ältere (normal– und schwerhörig) oder schwerhörige (junge und ältere) Personen zu erhalten, folgendes Bild: x für Ältere erhöht sich die Mithörschwelle beim konstanten Geräusch um 2–4 dB und bei dem Sprechgeräusch um 4–7 dB; x bei Schwerhörigen liegen die Unterschiede höher: bei einem konstanten Geräusch benötigt der Schwerhörige im Vergleich zum Normalhörenden eine um 2–4.5 dB höhere, bei einem fluktuierenden Geräusch sogar eine um 6–8.5 dB höhere Mithörschwelle. Interessante Ergebnisse (Tab. 6.3.4-4) erhielten Hygge et al. (1992) beim Vergleich von störender Sprache und sprachähnlichem Rauschen (SR). Das störende Sprachgeräusch hatte einen festen Pegel (LNA = 58– 88 dB), der so eingestellt war, dass die Personen es angenehm fanden, den Text der störenden Sprache bei diesem Schallpegel über eine längere Zeit
6.3 Verdeckung und Störung der Sprache durch Geräusche
191
zu hören. Die Hörer hatten die Aufgabe, den Pegel eines Stimulustextes so einzustellen, dass sie ihm gerade noch folgen konnten. Der Stimulustext wurde von einer Frau auf einem Videoband vorgelesen. Die Auswertung erfolgte mit und ohne visuelle Unterstützung. Der mittlere Schallpegel (LCeq) des störenden Geräusches scheint vor allem für die Mithörschwelle schwerhöriger Hörer maßgeblich zu sein; zeitliche Schwankungen wirken sich auf die Mithörschwelle nicht aus. Dagegen profitieren die Normalhörenden um nahezu 10 dB von den Pegelschwankungen des störenden Sprachgeräusches. Der Einfluss der Information, der in dem maskierenden Geräusch steckt, ist gering (ca. 1 dB). Diese Ergebnisse stimmen recht gut mit den Ergebnissen überein, bei denen das Arbeitsgedächtnis durch Geräusche gestört wurde (s. Abschn. 11.3; Klatte et al. 1995). In dieser Untersuchung wurden die Fehler bei einer visuellen Arbeitsaufgabe, die durch zeitlich strukturierte Geräusche gestört wurde, erhoben. Es zeigte sich, dass nicht verstehbare und verstehbare Sprache (japanische und deutsche Sprache) etwa den gleichen Einfluss auf die Sprachverständlichkeit deutscher Versuchspersonen hatte, also scheint vor allem die zeitliche Struktur der Sprache für die Minderung der Sprachwahrnehmung verantwortlich zu sein. Tabelle 6.3.4-4. Mithörschwelle (LSNC in dB), bei der man dem Text gerade folgen kann, bei 3 Störgeräuschen: sprachähnliches Rauschen (SR), Sprache (S) vorwärts, (S) rückwärts; die zu verstehende (stimuli) und die störende Sprache wurde aus dem gleichen Text entnommen; bei Normalhörenden (NH) und Schwerhörigen (SH) (Alter 20–65 Jahre, NH; HVT(0.5–2 kHz): < 20 dB; SH: HVT(0.5– 2 kHz): 36–72 dB), mit und ohne visuelle Unterstützung visuelle Unterstützung ohne mit
Gehör NH SH NH SH
SR -0.6 6.9 -2.3 4.6
LSNC in dB Geräusche S vorwärts -9.2 7.0 -12.1 3.6
S rückwärts -10.1 6.3 -12.5 3.9
Fasst man die Befunde der hier angesprochenen Untersuchungen zur Wahrnehmungsleistung normalhörender und schwerhöriger Personen zusammen und wertet die Ergebnisse im Kontext vergleichbarer Untersuchungen (Tab. 8.2.3-1, Spalte 5, Spalte 6 (Gfl):x) aus, erhält man ein recht konsistentes Resultat: Die Sprachverständlichkeit ist bei zeitlich veränderlichen Störgeräuschen höher als bei konstanten Geräuschen, der Vorteil beträgt bei Normalhörenden 6 (3 bis 15) dB und bei Schwerhörigen 1 (-1 bis 5) dB.
192
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
In einer Untersuchung von Bacon et al. (1998) (Tab. 6.3.4-3) konnte gezeigt werden, dass dieser Vorteil mit steigendem Hörverlust abnimmt (Tab. 6.3.4-5). Bei zeitlich schwankenden Geräuschen lag für Personen (SH) mit leichten und mittleren Hörverlusten (3 und 8 Vp; HVT (0.5–4 kHz) = 5–35 dB und 5–70 dB) der Vorteil in der Wahrnehmung bei 1–8 dB und bei 1–4 dB. Tabelle 6.3.4-5. Differenz der Mithörschwelle DLSNA, Vorteil für Normalhörende (NH) und Schwerhörige (SH, Hörverlust: leicht, mittel) für zeitlich schwankende Geräusche bezogen auf ein zeitlich konstantes Geräusch Vorteil DLSNA in dB
NH
SH leicht mittel 3.5–15.0 1.5–8.0 1.0–4.0
Zusammenfassend lässt sich festhalten: bei störenden sprachähnlichen Geräuschen und Sprachgeräuschen unterscheidet man in der Regel zwei Maskierungseffekte: einen bedingt durch die Schallenergie und einen zweiten durch die Information im Störgeräusch. In den bisher vorliegenden Untersuchungen konnten jedoch keine klaren Effekte durch die eventuell noch wahrgenommenen störenden Sprachteile (Maskierung durch Information) auf die Mithörschwelle nachgewiesen werden. Vorwärts und rückwärts abgespielte, störende Sprache bedingt in etwa eine gleiche Mithörschwelle. Zeitlich veränderliche Sprachgeräusche dagegen reduzieren bei normalhörenden Personen ihr Maskierungspotenzial, die Mithörschwelle liegt um ca. 5 dB niedriger als bei konstanten Geräuschen. Normalhörende profitieren also von zeitlich fluktuierenden Geräuschen beim Verstehen von Sprache (SV = 50 %). Der Vorteil ist umso höher, je stärker das Geräusch zeitlich schwankt (sprachmoduliertes Geräusch, Ein–Sprecher–Geräusch, Verkehrsgeräusch). Der Vorteil, d.h. die Reduzierung der Mithörschwelle, liegt bei bis zu 8 dB. Schon normalhörende ältere Personen können diesen Gewinn für die Mithörschwelle nicht mehr voll nutzen, er liegt nur noch bei bis zu 6 dB. Bei schwerhörigen Personen reduziert sich dieser Vorteil noch weiter. Je nach Grad der Schwerhörigkeit und Alter liegt er nur noch bei 0 bis 4 dB.
6.4 Störung der Sprache durch Nachhall
193
6.4 Störung der Sprache durch Nachhall Direktschall, frühe und späte Reflexionen, Echo, die ersten 50 ms, Nutz– und Störschall, Nachhallzeiten für Räume, Normal– und Schwerhörige Sprache, die in einem Raum gesprochen wird, erreicht den Hörer als Direktschall sowie als Schallreflexion. Direktschall ist der Schall, der auf dem direkten Weg vom Sender zum Empfänger übermittelt wird. Die Sprachreize werden je nach der akustischen Beschaffenheit eines Raumes an den Decken, Wänden, Böden und Gegenständen reflektiert und überdecken mehr oder weniger stark den Direktschall. Sie treffen verzögert beim Hörer ein. Man unterscheidet bei Reflexionsschall frühe und späte Reflexionen. Frühe Reflexionen sind durch eine einzelne Schallreflexion gekennzeichnet und treffen innerhalb von 50 ms gegenüber dem Direktschall beim Hörer ein. Wird neben dem Direktschall eine einzelne Reflexion als gesondertes Schallereignis wahrgenommen, so spricht man von einem Echo. Späte Reflexionen entstehen durch die Summe aller weiteren Reflexionen im Raum; alle Reflexionen zusammen werden als Nachhall bezeichnet. Das Maß für den Nachhall ist die Nachhallzeit (T); sie ist die Zeit, in der in einem Raum die Schallenergie auf den 1 Millionsten Teil, d.h. um 60 dB, abnimmt (Abschn. 7.4). In Abbildung 6.4-1 ist die Schallintensität des Direktschalls, der ersten Reflexion und des Nachhalls in ihrer zeitlichen Folge dargestellt. Wenn ein einzelner erster Rückwurf des Schallpegels nicht auftritt, wird der gesamte Reflexionsschall als Nachhall beschrieben.
Abb. 6.4-1. Schallintensität (schematische Darstellung) an einem Platz im Raum über der Zeit (t) aufgetragen: Direkt–Schall (DS), erste Reflexion (ER), Nachhall (NH)
Ein einzelnes Schallereignis ist gegenüber dem Direktschall um so eher als Echo wahrnehmbar, je höher der Schallpegel und je länger die Verzögerung des Echosignals ist. Ein Echo (Sprache) wird also durch die Pegel-
194
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
differenz von Direktschall und Reflexionsschall und durch die Verzögerungszeit definiert, also die Zeit, die zwischen dem Direktschall und dem Echo liegt. Ein Echo ist als solches erkennbar, wenn die Pegeldifferenz zwischen Reflexions– und Direktschall bei –5 dB bis zu –40 dB liegt und die Verzögerungszeiten länger als 50–100 ms sind (Seraphim 1961). Echos spielen also nur dann eine Rolle, wenn der kürzeste Weg des Reflexionsschalls um mehr als 17 m = 340 m/s x 50 ms länger ist als der des Direktschalls (Abb. 6.4-2) (Schall benötigt 1 Sekunde für 340 m). Derartige Wegunterschiede kommen nur in großen Räumen, in Sälen und in Auditorien vor.
Abb. 6.4-2. Der Weg von Direkt– und Reflexionsschall in einem Raum (schematische Darstellung)
Frühe Reflexionen, die innerhalb von 50 oder auch 100 ms eintreffen, können die Lautstärke des Signals erhöhen und die Klangfarbe der Sprache verändern. Einzelne Reflexionen, die später als nach 100ms wahrgenommen werden, werden meistens als störendes Echo erlebt. Reflexionen, die kurzfristig erfolgen, summieren sich mit dem Direktschall und verbessern so die Sprachverständlichkeit. Ein störendes Echo ist dann zu erwarten, wenn die Verzögerungszeit so groß ist, dass die einzelnen Elemente der Sprache, Silben und Sprachlaute durch die Reflexionen nicht mehr in gleicher Weise unterstützt werden. Der Echoschall trifft in diesem Fall jeweils auf das im Sprachfluss nächstfolgende Element. Wird die Verzögerung des Echos größer als die Dauer der einzelnen Sprachlaute, so ist auf alle Fälle mit einer Störung der Sprachwahrnehmung zu rechnen. So konnte gezeigt werden (Helfer 1994), dass der Nachhall (T = 1.6 s) auf die Verständlichkeit von Konsonanten (CV, VC) bei den Endkonsonanten stärker wirkt, als bei den Anfangskonsonanten. Lochner u. Burger (1964) erhielten in ihrer Untersuchung, in der sie die Verzögerungszeiten der Schallreflexionen bis zu 30 ms verlängerten, eine Erhöhung der Lautheit des Sprachpegels und damit einen Anstieg der Sprachverständlichkeit. In einem reflexionsarmen Raum mit einer eingebauten schallharten Decke (Walker et al. 1970) wurde eine Erhöhung der Sprachverständlichkeit durch Reflexion allerdings nur bei einem geringen Schallpegel merkbar,
6.4 Störung der Sprache durch Nachhall
195
bei einem Schallpegel der Sprache, bei dem eine Wortverständlichkeit von maximal 50 % erreicht wurde. Bei höheren Schallpegeln der Sprache war die Verständlichkeit jedoch bei reinem Direktschall besser. Auch Soulodre et al. (1989) konnten die Ergebnisse von Lochner u. Burger bestätigen. In ihrer Untersuchung kombinierten sie synthetisch erzeugte frühe Reflexionen bis 30ms mit Hintergrundrauschen bei verschiedenen Sprachpegeln. Sie fanden, dass bei Signal–Geräuschabständen von –5 dB durch eine erste Reflexion nach 30 ms die Sprachverständlichkeit um rund 10 % zunimmt, während dieser Effekt bei besseren Signal– Geräuschverhältnissen (+5 dB) deutlich schwächer ausfällt. Auch in Bezug auf den Sprachpegel war allgemein zu beobachten, dass besonders unter ungünstigen akustischen Bedingungen frühe Reflexionen im Bereich von 0–30ms wie eine Anhebung des Sprachpegels wirken und die Verständlichkeit entsprechend verbessern. Je kürzer die Verzögerungszeiten sind, umso stärker ist die erzielte Wirkung auf die Sprachverständlichkeit. Während Lochner u. Burger (1964) diese Ergebnisse in dem Modell einer integrierenden Wirkung des Gehörs auf die Schalleindrücke über ca. 50 ms zusammenfassten, konnten Soulodre et al. (1989) zeigen, dass weitere Reflexionen in diesem Zeitfenster eine abnehmende Wirkung auf die Verbesserung der Sprachverständlichkeit unter störendem Rauschen haben. Nur die ersten Reflexionen werden in vollem Maß in den Sprachpegel integriert, während die folgenden Reflexionen eine deutlich geringere Nutzwirkung haben. In einer Untersuchung, in der nicht das Ausmaß der Sprachverständlichkeit, sondern der Anteil der Personen ermittelt wurde, der sich bei der Wahrnehmung von Sprache durch Reflexionen gestört fühlte, kommt Haas (1951) zu ähnlichen Ergebnissen und Schlussfolgerungen. In Abbildung 6.4-3 kann der Prozentsatz der Personen abgelesen werden, die sich bei Pegeldifferenzen zwischen Reflexions– und Direktschall von +10 dB bis zu -10 dB und Verzögerungszeiten bis 160 ms gestört fühlen. Schallverzögerungszeiten, die weniger als 30 ms betragen, erleben nur noch etwa 10 % der Personen als störend. Echos, die -10 dB niedriger als der Direktschall sind, werden kaum noch als störend wahrgenommen. Um den Einfluss der frühen Reflexionen unter realistischen Bedingungen (mehrere Sprecher, Störgeräusch) zu prüfen, wurde in einem Experiment im reflexionsarmen Raum mit 4 Lautsprechern, die Reflexion um 0, 10 und 30 ms verzögert dargeboten (Soulodre et al. 1989). Die Ergebnisse zeigen, dass die Verbesserung der Sprachverständlichkeit durch Reflexion umso höher ausfiel, je kleiner die Verzögerungszeit war. Auch der Signal– Geräuschabstand beeinflusst den Vorteil der Reflexionen, er nimmt mit steigendem Signal–Geräuschabstand ab. Auch Parizet u. Pollack (1992) zeigen, das selbst bei Reflexionen innerhalb von 10 ms der Einfluss der
196
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
ersten Reflexion auf die Sprachverständlichkeit wesentlich vom Sprecher, Hörer, dem Sprachmaterial und dem Störgeräusch beeinflusst wird, und die Reflexionen keinesfalls automatisch wie eine Erhöhung des Sprechpegels wirken.
Abb. 6.4-3. Prozentsatz von Personen (W in %), die sich durch einen Rückwurf (Echo) gestört fühlen, in Abhängigkeit von der Verzögerungszeit (W) bei gegebener Pegeldifferenz zwischen dem Pegel des Direktschalls (LD) und des Reflexionsschalls (LR): LRD = LR - LD
Wenn auch die Bedeutung der frühen Reflexion (innerhalb 50 ms) für Normalhörende weitgehend positiv ist, so ist ihre Rolle bei Schwerhörigen noch nicht geklärt (Nabelek 1976; Nabelek u. Robinette 1978; Bradley et al. 2003). In einer Untersuchung, in der ein Vergleich der Sprachverständlichkeit von normal und schwerhörigen Personen, die mit direktem Schall und mit verzögerten Einzelimpulsen von 5–160 ms (Sprachreize) beschallt wurden, vorgenommen wurde (Nabelek et al. 1975), ergaben sich für die Normalhörenden die gleichen Ergebnisse wie sie in der Untersuchung von Lochner u. Burger (1964) auftraten. Für Schwerhörige dagegen ist die Sprachverständlichkeit ohne jede zusätzliche Reflexion am höchsten, jede Verzögerung verschlechtert die Sprachverständlichkeit. Schwerhörige können also auch bei geringem Pegel der Sprache von den ersten Reflexionen für die Sprachverständlichkeit nicht profitieren wie es normalhörende Personen können (Nabelek 1976). An einem Experiment (Bradley et al. 2003), in dem der direkte Sprachschall, frühe Reflexionen und Nachhall in einem räumlichen Schallfeld simuliert wurden, nahmen Normalhörende und Schwerhörige (HVT: (0.5–4 kHz) = 10 bis 40 dB) teil. Der Sprachpegel setzte sich aus dem direkten Sprachschall (LSAD) und den frühen Reflexionen des Sprachschalls (LSAF) durch energetische Addition zusammen LSA = (LSAD, LSAF). Ein Geräuschpegel (47.6 dB, SR) war fest vorgegeben.
6.4 Störung der Sprache durch Nachhall
197
Im ersten Versuch wurde der Pegel des Direktsprachschalls verändert, im zweiten Versuch wurde ein fester Direktsprachschall (LSAD = 41.8 dB) um die frühen Reflexionen, um 3 und 6 dB, erhöht (LSAD+F = 41.8, 44.9, 48.1 dB).
Die Sprachverständlichkeit (SV) (Reimtest mit 50 Wörtern) lag für die schwerhörigen Personen generell niedriger als die für Normalhörende (Abb. 6.4-4). Das Auffüllen des Sprachpegels durch den Pegel früher Reflexionen bedingt bei einem Signal–Geräuschabstand von -2.7 dB (Direktschall +3 dB frühe Reflexion) gegenüber -2.2 dB (nur Direktschall) für Schwerhörige eine schlechtere Sprachverständlichkeit. Beim Signal– Geräuschabstand von 0.5 dB (Direktschall +6 dB frühe Reflexion) gegenüber 1.2 dB (nur Direktschall) ergeben sich für Normalhörende (98 gegen 96 %) und Schwerhörige (92 gegen 90 %) etwa gleiche Werte. Nur bei einem Signal–Geräuschabstand von -5.8 dB ergibt sich ein leichter Vorteil durch die frühen Reflexionen bei den Normalhörenden (89 gegenüber 86 %), bei Schwerhörigen ist die Sprachverständlichkeit nahezu gleich (75 gegenüber 74 %). Wird im zweiten Versuch den frühen Reflexionen noch eine Nachhallzeit (T = 1 s) hinzugefügt, verändern sich die Ergebnisse der Sprachverständlichkeit nur geringfügig. Frühe Reflexionen wie auch der Direktschall haben auf die Sprachverständlichkeit Normalhörender und Schwerhöriger offensichtlich eine ähnliche Wirkung. Die Autoren geben für einige Auditorien ein Verhältnis der frühen Reflexionen (E50) zu der quasi direkten Energie (E10), nämlich den Vorteil durch die frühen Reflexionen (10lg E50/E10) von 1 bis 9 dB an. Der Vorteil der frühen Reflexionen macht sich vor allem beim Richtungshören positiv bemerkbar. 100
SV/% 90
NH,D SH,D NH,D+F SH,D+F
80
70 -10
-5
0 LSNA/dB
5
Abb. 6.4.-4. Sprachverständlichkeit (SV in %) für Normalhörende (NH) und Schwerhörige (SH) in einem simulierten Schallfeld mit Direktsprachschall (D), frühen Reflexionen (F) (der Sprachschallpegel LSA umfasst beides) und einem Störgeräusch (LNA = 47.6 dB), über dem S/N–Abstand (LSNA = LSA - LNA)
198
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Weiterhin konnte aufgezeigt werden, dass die Geschwindigkeit, mit der gesprochen wird, einen Einfluss auf die erlebte Störung durch Echos hat. Werden etwa 7.4 Silben pro Sekunde gesprochen, fühlen sich bei einer Verzögerungszeit des Echos von 15 ms 10 % der Personen gestört. Werden etwa 3.5 Silben pro Sekunde gesprochen, muss die Verzögerungszeit etwa 55 ms betragen, damit sich 10 % der Personen belästigt fühlen. Ein Teil der Schallreflexionen eines Sprachreizes ist für die Sprachwahrnehmung eher positiv, ein anderer Teil störend. Aus diesem Grunde wird (u.a. Cremer u. Müller 1997; Kuttruff 2000) die in einem Raum von einem Sprachsignal an das Ohr des Hörers gelangende Reflexion in nützliche und störende Schallenergie aufgeteilt. Der nützliche Teil der Schallenergie (E) ist die Energie des Direktschalls und der Anteil der Schallreflexionen, der die Schallenergie des Direktschalls erhöht, so dass der Sprachschallpegel ansteigt. Die nützliche Energie (E1) wird durch das Integral aus der am Hörerplatz eintreffenden Energie innerhalb eines festgelegten Zeitraumes von 5 bis 50 (15–100 ms) bestimmt. Die restliche Schallenergie (50 ms bis ũ) ist die Energie E2, die die Wahrnehmung von Sprache stört. Diese Überlegungen gehen in die Abschätzung der Sprachverständlichkeit mit ein. Niese (1957) nimmt an, dass das Verhältnis von störender Energie (E2) zur gesamten Energie (E1 + E2) – der Echograd E2/(E1 + E2) – wichtig für die Abschätzung der Sprachverständlichkeit ist. Lochner u. Burger (1960, 1961) bestimmten das Signal–Geräuschverhältnis (E1/E2) als die für die Abschätzung der Sprachverständlichkeit maßgebende Größe. Sie summierten zu der, durch den Sprachschallpegel (LS) und den Nachhall bedingten störenden Energie (E2) die durch das Störgeräusch beim Hörer gegebene Energie (E3) und erhielten so den gesamten Störpegel (Gl. 6.4-1) zu L*N = 10lg ((E2 + E3) / E0), (E0 Bezugsenergie).
(6.4-1)
Auf diese Weise werden mehrere Größen (Gl. 6.4-2) zur Beurteilung der Raumakustik definiert (Cremer u. Müller 1997; Bradley et al. 1999a, b) C50 = 10lg E1 / E2 U50 = 10lg E1 / (E2 + E3)
(6.4-2)
und auf die Sprachverständlichkeit angewendet. Allerdings lohnt es sich nicht, die unterschiedlichen Definitionen für die Bestimmung der Sprachverständlichkeit heranzuziehen, da sich die Ergebnisse nur unwesentlich unterscheiden (Bradley et al. 1999 a; Bistafa u. Bradley 2000a). Für die Beurteilung von Räumen wurde noch eine weitere Nachhallzeit (Abnahme der Energie von 0 auf 60 dB) definiert, nämlich die sog. frühe Nachhallzeit (early decay time, EDT), die zwischen 0 und 10 dB liegt, im
6.4 Störung der Sprache durch Nachhall
199
Unterschied zur üblichen Nachhallzeit (reverberation time T), die zwischen 5 bis 25 dB angenommen wird. Die beiden Nachhallzeiten haben in unterschiedlichen Räumen recht ähnliche Werte (Tab. 6.4-1), so dass es für die Sprachverständlichkeit nicht zweckmäßig ist, hier zu differenzieren (Bradley et al. 1999a). Tabelle 6.4-1. Frühe Nachhallzeit (EDT) und Nachhallzeit (T) für 4 verschiedene raumakustische Situationen (s. Text) EDT in s 1.9 1.4 1.1 0.4
T in s 2.0 1.5 1.0 0.6
C50 (1 kHz) in dB –3.1 1.1 5.2 9.2
Aus dem Geräuschpegel LN und dem Pegel der Sprache LS bzw. der nützlichen Energie (E1) kann anhand der Kurven (Abb. 6.4-5) die Sprachverständlichkeit abgelesen werden. Die Kurven stellen den Verlauf der Sprachverständlichkeit in Abhängigkeit vom Sprachpegel (LS) und dem Geräuschpegel (LN) dar.
Abb. 6.4-5. Sprachverständlichkeit (SV in %) für Einsilber in Abhängigkeit vom Sprachpegel (LS) bei einem Umgebungsgeräusch (LN); das Verhältnis des Sprachpegels (LS) zu dem durch die Sprache bedingten Störpegel (L*N) des Nachhalls ist L*SN = -5 dB; dieses Verhältnis ist durch den Abstand Sprecher–Hörer und die Nachhallzeit gegeben (nach Lochner u. Burger 1961)
Das Verhältnis des Sprachpegels zu dem durch Sprache bedingten Störpegel des Nachhalls ist konstant gehalten. Der Betrag dieses Verhältnisses ist durch den Abstand Sprecher–Hörer und durch die Nachhallzeit gege-
200
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
ben. Hauptproblem bei der Abschätzung der durch Nachhall gestörten Sprachverständlichkeit ist die Ermittlung der Störgröße L*N = 10 lg (E2/E0), d.h. die Bestimmung des durch die Sprachintensität bedingten äquivalenten Störpegels (L*N) des Nachhalls aus den akustischen Parametern des Raumes (V, T). Die Abschätzung der Verständlichkeit aus der nützlichen und störenden Energie wurde vor allem benutzt, um die Sprachverständlichkeit in großen Räumen (Auditorien, Theater, Kongresshallen) zu bestimmen, d.h. Echos zu vermeiden, die ersten Reflexionen optimal zu nutzen und die Nachhallzeit zu optimieren. In großen Räumen kommt es darauf an, eine sehr hohe Sprachverständlichkeit über weite Entfernung hin zu erreichen. Die Einflussgrößen auf die Sprachverständlichkeit sind hier nicht nur störende Geräusche und Nachhallzeit – das Volumen ist meist vorgegeben –, sondern vor allem die Raumgeometrie, durch die die Art der Schallreflexionen des Sprachreizes bedingt ist (Cremer u. Müller 1997; Kuttruff 2000). Weitere Anforderungen und Gestaltungsmöglichkeiten von Räumen sind in DIN 18041 aufgeführt und erläutert. In Räumen mittlerer Größe (Arbeitsräume, Wohnräume) hat das Echo nur eine untergeordnete Rolle. Für Räume, in denen nur die Nachhallzeit und das Raumvolumen als Parameter von Bedeutung sind, wurden zahlreiche Experimente zum Einfluss der Nachhallzeit auf die Sprachverständlichkeit von Normalhörenden und Schwerhörigen durchgeführt. In Abbildung 6.4-6 ist die Sprachverständlichkeit in Abhängigkeit von der Nachhallzeit für normal– und schwerhörige Personen mit und ohne Störgeräusch dargestellt (Bullock (B) 1967; Moncur u. Dirks (MD) 1967; Millin (M) 1968; Borrild (Bo) 1970; Peutz (P) 1971; Houtgast u. Steeneken (HS) 1973; Nabelek u. Pickett (NP a, b) 1974a, b; Finitzo–Hieber u. Tillman (FT) 1978; Nabelek u. Mason (NM) 1981; Pekkarinen u. Viljanen 1990; Abkürzungen s. Abb. 6.4-6). Hier interessiert weniger der absolute Wert der Sprachverständlichkeit, da er wesentlich vom Sprachmaterial, Signal– Geräuschabstand etc. abhängt, sondern vor allem die Änderung der Wortverständlichkeit mit der Zunahme der Nachhallzeit. Die Sprachverständlichkeit von Normalhörenden nimmt in Ruhe mit ansteigender Nachhallzeit nur mäßig ab (B, HS, MD, P), wogegen die Abnahme der Sprachverständlichkeit bei zusätzlich vorhandenen Störgeräuschen bei geringen Nachhallzeiten (T < 1.5 s) höher ist (HS, MD, NP a, b). Personen mit Hörverlusten weisen eine ähnliche Abnahme der Sprachverständlichkeit wie die normalhörenden Personen auf, wobei vor allem bei niedrigen Nachhallzeiten (T < 1.5 s) die Verständlichkeitsabnahme hoch ist. Bullock (1967) untersuchte in seiner Arbeit Personen mit geringen Hörverlusten. Diesem Personenkreis entsprechend ist auch der Sprachverständlichkeitsverlust durch den Nachhall gering ausgeprägt. Millin (1968)
6.4 Störung der Sprache durch Nachhall
201
und Borrild (1970) erhielten in ihren Untersuchungen mit Personen, deren Schwerhörigkeit stärker ausgebildet war, eine höhere Sprachverständlichkeitsabnahme. Die Abnahme der Sprachverständlichkeit mit zunehmender Nachhallzeit ist jedoch bei Personen mit Hörverlusten weitgehend unabhängig von der Höhe des Störgeräusches (FT, NM, NPa). Die unterschiedliche Abnahme der Sprachverständlichkeit bei zunehmender Nachhallzeit, wie sie sich in den Verläufen der Kurven anzeigt, ist vor allem durch die sehr unterschiedliche Art des Nachhalls (zeitliche und räumliche Verteilung der ersten Rückwürfe) sowie durch die Art der Darbietung der Sprache und der Geräusche in den einzelnen Experimenten bedingt (Nabelek u. Robinette 1978).
Abb. 6.4-6. Sprachverständlichkeit (SV in %) von Wörtern in Abhängigkeit von der Nachhallzeit (T); Normalhörende ohne Störgeräusch (''), mit Störgeräusch (xx), Schwerhörige ohne Störgeräusch ('– – –'), mit Störgeräusch (x– – –x) aus unterschiedlichen Untersuchungen (P, B, Bo, HS, M, MD, NM, NP a, b, FT, Abkürzungen s. Text). Es sind nur die Ergebnisse der Wahrnehmungssituationen dargestellt, in denen die Darbietung der Sprache über Lautsprecher oder über Kopfhörer beidohrig erfolgte
Im Mittel nimmt die Sprachverständlichkeit (% korrekt verstandener Wörter) um etwa 10 % je Zunahme der Nachhallzeit um T = 0.5 s ab. Dabei muss jedoch hinzugefügt werden, dass die Verständlichkeit im Bereich geringer Nachhallzeiten (T < 1.5 s) stärker und bei höheren Nachhallzeiten
202
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
(T > 1.5 s) geringer abnimmt als die angegebenen 10 %. Dieser Verlauf der Verständlichkeitskurven in Abhängigkeit von der Nachhallzeit spricht dafür, einen Zusammenhang zwischen der Sprachverständlichkeit und dem Logarithmus der Nachhallzeit anzunehmen, wie ihn auch Houtgast (1980) bestimmt hat (Gl. 6.4–3). Kryter (1972) gibt eine Abnahme der Wortverständlichkeit von SVE = 10 % pro Zunahme der Nachhallzeit von 1.5 s (T = 1–9 s) an. Die Fähigkeit Sprache unter Einfluss von Nachhall zu verstehen, wird nicht unwesentlich durch das Lebensalter beeinflusst (s.a. Abschn. 6.5.4). Dieses gilt unabhängig davon, ob eine altersbedingte Schwerhörigkeit vorhanden ist oder nicht. Nabelek u. Robinson (1982) untersuchten die Verständlichkeit von Sprache unter Nachhall für alle Altersgruppen (Abb. 6.5.4-2). In den Kurvenverläufen zeigt sich ein deutliches Defizit in der Sprachverständlichkeit von Kindern und Senioren im Vergleich zu Personen im mittleren Alter. Die Fähigkeit zur Spracherkennung unter erschwerten Bedingungen steigt steil bis zum Alter von zwanzig Jahren an und fällt dann allmählich bis zu einem Alter von 60 Jahren ab. Im Alter von über 60 Jahren ist ein verstärkter Verlust in der Sprachverständlichkeit zu beobachten. Es zeigt sich weiterhin ein markanter Unterschied zwischen monauraler und binauraler Sprachverständlichkeit, der jedoch nicht vom Alter abhängig ist. Verschiedentlich wurde als Grund für die Abnahme des Spracherkennungsvermögens im Alter die nachlassende geistige Fähigkeit zum Ausnutzen binauraler Höreindrücke diskutiert. Dies konnte jedoch in der Untersuchung nicht nachgewiesen werden. Besonders wichtig war es, die Nachhallzeit in die Verfahren zur Vorhersage der Sprachverständlichkeit einzubeziehen. Houtgast et al. (1980) entwickelten ein Verfahren zur Abschätzung der Sprachverständlichkeit, den Sprach–Übertragungsindex (STI), der in Abschnitt 7.3.3 ausführlich dargestellt wird. Dieses Verfahren berücksichtigt auch den Einfluss der Nachhallzeit auf die Sprachwahrnehmung, er soll hier kurz diskutiert werden. In der Abbildung 6.4-7 ist der STI und ein dem Störeinfluss der Nachhallzeit äquivalenter Signal–Geräuschabstand (L*SN) in Abhängigkeit von der Nachhallzeit (ohne störende Geräusche und Echos) dargestellt. Der Nachhall verschlechtert in allen Fällen die Sprachverständlichkeit. In die Grafik wurde zusätzlich das S/N–Verhältnis eingezeichnet, das sich aus dem Nachhall ergibt, wenn man zur nützlichen Energie (E1) die Rückwürfe bis zu einer Verzögerungszeit von 60/90 ms rechnet und den restlichen Nachhall als störende Energie (E2) betrachtet. Geht man davon aus, dass in kleinen und mittleren Räumen im Wesentlichen der Nachhall die Sprachverständlichkeit bestimmt, Echos also keine Rolle spielen, und sieht man von einem störenden Geräusch ab, kann ein dem störenden Einfluss des Nachhalls äquivalentes Störgeräusch (L*N) be-
6.4 Störung der Sprache durch Nachhall
203
stimmt werden. Dieses äquivalente Störgeräusch kann man sich so vorstellen, dass es durch die Reflexionen der in dem Raum gesprochenen Sprache entstanden ist. Es gibt den im diffusen Schallfeld des Raumes vorhandenen minimalen Störpegel an, ohne dass ein Umgebungsgeräusch vorhanden ist. Berücksichtigt man bei der Berechnung des STI bzw. des äquivalenten Signal–Geräuschabstandes (L*SN, s. Abschn.7.3.3) nur den Einfluss der Nachhallzeit (T), erhält man folgende Abschätzung (Houtgast 1980) für den äquivalenten Signal–Geräuschabstand (Gl. 6.4-3): L*SN = –14lg (T/1.5s) dB, T = 0.5 – 5s .
(6.4-3)
Eine Verdoppelung der Nachhallzeit erniedrigt den äquivalenten Signal–Geräuschabstand um 4 dB.
Abb. 6.4-7. Äquivalenter Signal–Geräuschabstand (L*SN) und STI in Abhängigkeit von der Nachhallzeit (T), ohne Störgeräusch: () berechnet nach der STI– Methode (Abschn. 7.3.3), (– – –) berechnet aus der Nutzenergie (bis 60/90 ms) und der störenden Energie, die aus dem restlichen Nachhall (ab 60/90 ms) besteht (nach Houtgast et al. 1980)
Der Einfluss der Nachhallzeit bei vorhandenen Umgebungsgeräuschen auf den Sprach–Übertragungsindex wird in Abschnitt 7.3.3 und 7.4 ausführlich diskutiert. Dieser Einfluss ist für das diffuse Schallfeld, also dort, wo am Hörerplatz der Schallpegel des Sprechers unabhängig von der Entfernung zum Hörer ist, überschaubar angegeben (Abschn. 7.3.3, Abb. 7.3.3-1). Gibt man den Sprechpegel (LSA,1m) vor (Abb. 7.4.2-4), erkennt man, dass der Einfluss des Umgebungsgeräusches auf den STI bei vorgegebenem Volumen (V) erst im Kontext höherer Geräuschpegel (LN) wirksam wird; im Kontext niedrigerer Geräuschpegel bestimmt dagegen vorwiegend die Nachhallzeit die Höhe des Sprach–Übertragungsindex (STI).
204
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Der Pegel, ab dem ein Geräusch auf den STI und damit auf die Sprachverständlichkeit einen merkbaren Einfluss hat, wurde von Houtgast (1980) bestimmt und durch den Nachhall des Raumes bedingter, minimaler Störpegel (L*NAmin) genannt. Dieser minimale Störpegel (Gl. 6.4-4) ist direkt dem Schallpegel der gesprochenen Sprache (LSA,1m) proportional und erhöht sich in Räumen mit einem geringen Volumen (V) und hoher Nachhallzeit (T), näherungsweise gilt:
L *NA min
LSA ,1m 10lgV / m 3 dB 17lgT / s dB 8 dB .
(Gl. 6.4-4)
Für einen Wohnraum (V = 75 m3, T = 0.5 s, LSA, 1m = 54 dB) erhält man einen minimalen Störpegel von L*NAmin = 38 dB, in einem Klassenraum (V = 300 m3, T = 1.5 s, LSA,1m = 60 dB) ergibt sich ein Störpegel von L*NAmin = 46 dB. Allgemein lässt sich ableiten, dass eine Verdopplung der Nachhallzeit in kleinen Räumen eine Zunahme des minimalen Störpegels um 5 dB bewirkt. Dieser minimale Störpegel, der von einem noch so geringen Umgebungsgeräusch nicht unterschritten werden kann, kann aber nur für das diffuse Schallfeld angegeben werden, d.h. für größere Entfernungen zwischen Sprecher und Hörer (r > 3–5 m). Im direkten Schallfeld, bei kleineren Entfernungen vom Sprecher zum Hörer, ist der Nachhall weniger wirksam, so dass sich eine weitere Absenkung des Umgebungsgeräuschpegels auf den STI erhöhend und damit für die Sprachverständlichkeit verbessernd auswirkt. Die Kreuzkorrelation (0...1) zwischen den Schallpegelverläufen am Hörerplatz und am Sprecherplatz ist ein guter Prädiktor für die Sprachverständlichkeit, die sowohl durch Rauschen als auch durch Nachhall gestört sein kann (Tokuyama 1988). Es lassen sich folgende Punkte festhalten: x Der STI berücksichtigt als einziger Sprachindex den Nachhall. x Für eine gute Sprachverständlichkeit ist das Verhältnis von direktem Sprachschall zum Störschall, bedingt durch Nachhall (und Geräusche), maßgebend. Frühe Reflexionen des Sprachschalls (bis 50 ms) können dem Direktschall zugerechnet werden und verbessern damit die Sprachverständlichkeit. Das gilt für Normalhörende. Inwieweit dieser Befund auch für Schwerhörige gilt, ist nicht eindeutig belegt. Es gibt Hinweise dafür, dass nur sehr frühe Reflexionen die Sprachverständlichkeit Schwerhöriger positiv beeinflussen x Nachhall verschlechtert die Sprachverständlichkeit von normalhörenden, besonders stark aber die von schwerhörigen Personen.
6.5 Richtungshören, Alter und Sprachkompetenz
205
x
Obwohl die Sprachverständlichkeit ohne oder nur mit früh erfolgendem Reflexionsschall (< 50 ms) am besten ist, wird in Räumen, in denen eine gute Sprachverständlichkeit notwendig ist, eine gewisse Nachhallzeit gewünscht. Ein Raum ohne jegliche Reflexion wird als akustisch „tot“ erlebt. Man schlägt für bestimmte Räume deswegen eine optimale Nachhallzeit vor: für Studios T = 0.3 s für Klassenräume T = 0.35–0.7 s für Vortragsräume T = 0.7–1 s für Büroräume T = 0.4–0.8 s für Konferenzräume T = 0.5–1 s. Kurze Nachhallzeiten bedingen aber auch, einen geringeren störenden Reflexionsschall (> 50 ms). Man unterscheidet zwei Aspekte: x Durch eine gezielte Raumgestaltung können frühe Reflexionen, die nicht später als 30–50 ms nach dem Direktschall eintreffen, für die Sprachverständlichkeit positiv genutzt werden. Für Schwerhörige müssten diese Reflexionen in noch kürzerer Zeit erfolgen. x Der Nachhall ergibt sich aus den mittleren Reflexionen des Sprachschalls im Raum, die Nachhallzeit soll möglichst niedrig sein und sich an den o.g. optimalen Werten orientieren.
6.5 Richtungshören, Alter und Sprachkompetenz 6.5.1 Richtungshören von Normal– und Schwerhörigen Vorteil im freien und diffusen Feld, unter Störbedingungen, binaurales Hören Sprache wird nicht nur durch ein Geräusch selbst mehr oder weniger stark maskiert, sondern auch die Art der Darbietung verbessert oder verschlechtert die Sprachverständlichkeit. In den meisten Versuchen wird Sprache über Lautsprecher abgestrahlt oder durch Kopfhörer der Person ein– oder beidohrig zur Wahrnehmung angeboten. Werden Sprache und Geräusch innerhalb der horizontalen Ebene aus getrennten Richtungen der Person dargeboten, so verbessert sich für Normalhörende die Sprachverständlichkeit im Vergleich zur Situation, in der das Geräusch und die Sprache aus derselben Richtung dargeboten werden. Beim beidohrigen Hören wird zur Analyse der akustischen Information nicht nur die Schallamplitude und das Frequenzspektrum, sondern auch die Amplituden– und Zeitdifferenz der
206
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Schallsignale herangezogen, die zwischen den Ohren auftritt (s. u.a. Blauert 1974). Auf diese Art und Weise kann die Person die Richtung feststellen, aus der ein akustisches Signal kommt und ein Schallereignis aus einer Vielzahl von Schallereignissen besser heraushören. Neben den Leistungen des Gehörs bei der Verarbeitung von Intensitäts–, Frequenz– und Zeitmustern im auditorischen System ist die binaurale Interaktion, d.h. die zentral stattfindende Verarbeitung der an beiden Ohren ankommenden Signale von besonderer Wichtigkeit für das Hören in natürlicher Umgebung. Es trägt zur Lokalisation von Schallquellen im Raum und zur Unterdrückung von unerwünschten Störgeräuschquellen wie zur Hallunterdrückung bei. Der von einer Schallquelle (die im Raum an einem bestimmten Punkt positioniert ist) ausgesendete Schall trifft mit einem bestimmten Einfallswinkel auf den Kopf und die Ohren des Hörers. Dieser Schalleinfall bewirkt eine interaurale Zeitdifferenz, einen interauralen Intensitätsunterschied sowie eine von der Einfallsrichtung abhängige spektrale Verfärbung und befähigt so den Hörer, die Richtung festzustellen, aus der der Schall von der Schallquelle eintrifft. Gleichzeitig kann der Hörer das Nutzsignal (Sprache) und das Störsignal (Geräusche ein oder mehrerer Quellen), soweit sie aus unterschiedlichen Richtungen eintreffen, trennen und den wirksamen Signal–Geräuschabstand verbessern. Ist diese Wahrnehmungsleistung für bestimmte Frequenzbereiche durch eine Schwerhörigkeit oder das Tragen von Gehörschutz in einem oder in beiden Ohren gestört, hat dies Auswirkungen auf die Parameter der binauralen Interaktion und kann somit das Richtungshören beeinträchtigen. Wird das maskierende Geräusch und die Sprache einem Ohr und dem anderen Ohr gleichzeitig nur die Sprache oder nur das Geräusch über Kopfhörer dargeboten, so erhöht sich die Sprachverständlichkeit im Vergleich zu der Situation, in der auf die Ohren jeweils das gleiche Schallereignis trifft; die Mithörschwelle verringert sich um etwa 5 dB je nach Geräusch und Sprachmaterial (Pollack u. Pickett 1958; Lazarus–Mainka u. Lazarus 1976; Wedel 1977). Eine solche Anordnung entspricht in etwa der Situation, in der Signal und Geräusch aus zwei um 90 Grad versetzten Richtungen eintreffen. Die Veränderung der Mithörschwelle durch Richtungshören ist, im Vergleich zur Bedingung, in der Sprache und Geräusch aus der gleichen Richtung von vorn (Azimuthwinkel 0 Grad) eintreffen, von der Umgebung abhängig, in der Sprache wahrgenommen wird. Im Freifeld vermindert sich die Mithörschwelle für Sprache (Text, Sätze, Einsilber, Zahlwörter) abhängig von verschiedenen Einfallsrichtungen von Sprache und Geräusch erheblich. Die Verminderung der Mithörschwelle liegt zwischen 3 und 13 dB (Plomp 1976; Platte u. Hövel 1980; Hövel u. Platte 1980; Plomp u. Mimpen 1981; Bronkhorst u. Plomp 1988; Peissig u. Kollmeier 1997). Der
6.5 Richtungshören, Alter und Sprachkompetenz
207
maximale Gewinn an Sprachverständlichkeit ergibt sich dann, wenn der Winkel zwischen der Einfallsrichtung von Sprache und Geräusch in der Horizontalebene (Azimuthwinkel) 90 Grad beträgt (Tab. 6.5.1-1). Eine so hohe Veränderung der Mithörschwelle bzw. eine so starke Verbesserung der Sprachverständlichkeit bedingt durch das Richtungshören, tritt in geschlossenen Räumen jedoch nicht auf. In einem Raum mit einer Nachhallzeit von T = 0.4–2.3 s liegt die Reduzierung der Mithörschwelle je nach Einfallsrichtung von Sprache und Geräusch zwischen 1 bis 3 dB (Plomp 1976), für ein diffuses Geräusch erhält man je nach Einfallsrichtung der Sprache eine Reduzierung um etwa 2 dB (Plomp u. Mimpen 1979) oder 1 bis 3 dB (Hövel 1981). Selbst bei Störbedingungen (Nachhall (T = 1.6 s) und Störgeräusch (LSN = 10 dB)) gibt es nur geringfügige Verbesserungen der Sprachverständlichkeit (CV–, VC–Silben) in der binauralen gegenüber der monauralen Darbietung (Helfer 1994). Tabelle 6.5.1-1. Differenz der Mithörschwellen (DLSN(SV = 50 %) in dB): Vorteil beim binauralen Hören (Sprachverständlichkeit 50 %) im freien Schallfeld, wenn die Sprache ausschließlich bei 0° und die Geräuschquelle bei einem Azimuthwinkel von 30° bis 180° dargeboten wird (Bezug ist die Situation: Geräusch bei 0°) (s. Text) Azimuthwinkel DLSN in dB
30° 4–8
60° 7–9
90° 6–10
120° 8–13
150° 6–8
180° 0–3
Ein besonderes Problem stellt das Cocktailpartyphänomen dar (Bronkhorst 2000), bei dem aus einer Vielzahl von Stimmen eine einzelne herausgehört und eingeschränkt verstanden werden kann. Es handelt sich hierbei um einen binauralen Hörer, der die Sprache von einer Schallquelle (bestimmter Sprecher) versteht oder verstehen will und dieser Hörvorgang durch räumlich verteilte Schallquellen (Sprecher) gestört und maskiert wird. Dabei muss der Einfluss der räumlichen Verteilung, die Anzahl der Quellen, das fluktuierende Sprechgeräusch aber auch die Störung und Maskierung durch die Schallenergie und durch die Information des Sprachsignals berücksichtigt werden. Vermutlich muss bei dieser Vielzahl von verschiedenen Schallquellen auch der Prozess der selektiven und geteilten Aufmerksamkeit einbezogen werden. Bisher ist das Cocktailpartyphänomen jedoch noch nicht endgültig zu beschreiben. Weiterhin muss beachtet werden, dass sich zwar eine Veränderung der Einfallsrichtung von Sprache und Geräusch reduzierend auf die Mithörschwelle auswirkt, dass jedoch eine Änderung der Sprechrichtung die Mithörschwelle erhöht (Bezugsituation: Sprecher und Hörer sitzen frontal zueinander.) Dabei bewirkt eine Drehung der Sprechrichtung innerhalb von ± 45 Grad kaum eine Veränderung der Mithörschwelle (Thompson u.
208
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Webster 1963). Verändert der Sprecher seine Sprechrichtung bis 180 Grad, nimmt die Mithörschwelle bis zu 6 dB zu (Plomp u. Mimpen 1981). Die Veränderungen der Mithörschwelle, die durch eine unterschiedliche Richtung der Sprecher und Hörer zueinander wie auch durch die Richtung der Sprache zur Geräuschquelle gegeben ist, können kaum für eine allgemeine Vorhersage der Sprachverständlichkeit genutzt werden. Die Richtung der Zuwendung von Sprecher und Hörer ändert sich fortwährend und kann somit kaum in Rechnung gestellt werden. Bei der Bestimmung des Sprach–Übertragungsindex (STI) nehmen Houtgast et al. (1980) deshalb einen Richtungsindex für den Schallempfänger (Hörer) von uH = 1.5 an, der aus der Verbesserung der Sprachverständlichkeit im diffusen gegenüber dem freien Schallfeld abgeleitet wird, in dem die Sprache und das Geräusch aus einer Richtung eintreffen. Diese Annahme entspricht einer Verminderung der Mithörschwelle um 2 dB. Der Richtungsindex des Hörers wird in der Berechnung des STI (s. Abschn. 7.3.3 und 7.4.2) nicht mitberücksichtigt. Das Richtungshören kann im Einzelfall einen enormen Gewinn an Sprachverständlichkeit bringen, was vor allem bei hohen Geräuschpegeln auch genutzt wird. Jeder, der bei Pegeln von LNA = 90 bis 100 dB jemandem etwas mitteilen will, spricht (schreit) den Hörer nicht frontal an, sondern seitlich ins Ohr (Azimuthwinkel 90 Grad), womit er natürlich gleichzeitig die Entfernung zum Ohr verringert (Abschn. 7.2.3 und 7.4.1). Die Sprachverständlichkeit wird in jedem Fall verbessert. Will man für ein genaueres Abschätzen der Sprachverständlichkeit auch die Richtwirkung des Sprechers (Abschn. 3.4) und das Richtungshören einbeziehen, muss bei dieser Abschätzung daran gedacht werden, dass einseitig schwerhörige Personen (Platte 1978), Personen mit Schäden bei der binauralen Verarbeitung der Signale (Platte et al. 1978) oder auch Personen, die unter hohen Geräuschpegeln Gehörschutz tragen, durch das Richtungshören häufig keine Verständlichkeitsverbesserung erzielen können. Schwerhörigkeit (s. Abschn. 8.2), das Tragen von Hörgeräten oder auch das Tragen von Gehörschutz (s. Abschn. 8.4) verringern die verbessernde Wirkung des Richtungshörens für die Sprachverständlichkeit wie auch für das Heraushören von Sprache aus einem Hintergrundgeräusch. In einer typischen Analyse des Richtungshörens (Gelfand et al. 1988) konnte aufgezeigt werden, dass die Mithörschwelle älterer Personen (mit einem normalen Gehör) sich nur wenig ändert (um 2 bis 3 dB). Die Mithörschwelle von Schwerhörigen (gegenüber Normalhörenden) steigt aber um 3 bis 8 dB an, und der Vorteil des Richtungshörens reduziert sich von 6 auf 3 dB; er wird also halbiert (Tab. 6.5.1-2). Die Autoren führen dieses Ergebnis eher auf einen stärkeren Einfluss von peripheren als zentralen Hörfunktionen zurück.
6.5 Richtungshören, Alter und Sprachkompetenz
209
Tabelle 6.5.1-2. Mithörschwelle (SNRA in dB für SV = 50 %) für Sätze, gestört durch ein Sprechgeräusch (12 Sprecher) für Normal– und Schwerhörige (HVT (0.25–4 kHz) = 14–60 dB) für zwei Richtungssituationen (Azimuthwinkel zwischen Sprache (S) und Geräusch (N) 0° und 90°) Azimuthwinkel S N 0° 0° 0° 90°
SNRA(50 %) in dB Normalhörende Schwerh. < 40 J > 55 J -2 0 3 -8 -5 0
Um die Mithörschwelle von zwei Personengruppen (Alter 30–40 Jahre) mit nahezu normalen Audiogrammen zu vergleichen, wobei eine Gruppe über Verständigungsschwierigkeiten bei Gesprächen in geräuscherfüllter Umgebung klagte, wurden zwei Geräuscharten benutzt (Middelweerd et al. 1990). Es wurde ein gleichmäßiges Geräusch mit sprachähnlichem Spektrum und dasselbe gleichmäßige Geräusch, das mit einer sprachähnlichen Hüllkurve amplitudenmoduliert war und damit ein zeitlich schwankendes Geräusch darstellte, im Versuch verwendet. Die Personengruppe mit Verständigungsschwierigkeiten hatte beim zeitlich schwankenden Geräusch eine deutlich verringerte Mithörschwelle (2–3 dB). Offenbar gibt es Personen, deren Zeitauflösungsvermögen geschädigt ist (s. Abschn. 8.2). In den meisten Untersuchungen zum Richtungshören wird die Sprachverständlichkeit oder die Mithörschwelle beim frontalen Schalleinfall von Sprache (S) und Störgeräusch (N) (Bezugssituation: S:0°, N:0°) mit der beim seitlichen Schalleinfall des Geräusches (S:0°, N:90°) verglichen. Hierbei wurden teilweise eine oder mehrere kohärente Schallquellen frontal im Raum angeordnet und zum Vergleich symmetrisch oder auch unsymmetrisch um den Kopf des Hörers verteilt. In den Hörsituationen, in denen Sprache und Störschall aus getrennten Richtungen kamen, war für die Aufrechterhaltung einer bestimmten Sprachverständlichkeit (50 %) die Mithörschwelle (in der Regel der Pegel des Geräusches) entsprechend geringer. Diese Abnahme der Mithörschwelle, d.h. dieser Vorteil, wurde sowohl bei normalhörenden wie auch bei schwerhörigen Personen beobachtet (Abschn. 8.2.3). In einer Analyse von Untersuchungen (s. Lazarus et al. 2005; Sust u. Lazarus 2005) zum Einfluss der Schwerhörigkeit auf die Verständlichkeit von Sprache, wurde auch der Einfluss des Richtungshörens einbezogen (Tab. 8.2.3-1, Spalte 5, Spalte 7: x). Hierbei konnte aufgezeigt werden, dass der Vorteil für Normalhörende (Tab. 6.5.1-3) bei 3–10 dB, für Schwerhörige nur bei 2–7 dB liegt. Im Mittel bringt der Vorteil für die Sprachverständlichkeit von Schwerhörigen nur ein Drittel der Verbesserung, die die Normalhörenden vorweisen.
210
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Tabelle 6.5.1-3. Differenz der Mithörschwelle (ǻSNRA in dB für 50 % SV) beim Richtungshören, bezogen auf die Grundstellung (Azimuthwinkel für S, N = 0°, 0°) für Normal– und Schwerhörige Normalhörende Schwerhörige
ǻSNRA 6.5 (3–10) dB 4.5 (2–7) dB
Zusammenfassend kann festgehalten werden: mit Hilfe des Richtungshörens kann sich die Sprachverständlichkeit verbessern. Hörgeschädigte haben jedoch in einer binauralen Hörsituation einen geringeren Vorteil als Normalhörende. Der Vorteil, der im Freifeld durch eine Verschiebung der Geräuschquelle um 90° (Sprache weiter von vorne 0°) bedingt ist, liegt für Normalhörende bei 2 bis 12 dB, bei Schwerhörigen ist er um 2 bis 5 dB kleiner. Dabei zeigen sich die Nachteile in der Sprachverständlichkeit von Hörgeschädigten vor allem für Richtungen außerhalb der Medianebene und bei zeitlich fluktuierenden Geräuschen.
6.5.2 Blickkontakt zwischen den Gesprächspartnern Ein Parameter, der die Sprachverständlichkeit in einer Sprecher–Hörer– Interaktion verbessert, ist der Blickkontakt. In Situationen, in denen die Sprachwahrnehmung durch ein Hintergrundgeräusch oder Nachhall stark gestört ist, kann der Hörer die Sprachverständlichkeit für sich verbessern, indem er versucht, einen Teil der sprachlichen Information vom Sprechermund abzulesen. Der Zuwachs an Sprachverständlichkeit durch Blickkontakt ist umso höher, je geringer das Signal–Geräuschverhältnis ist. So kann das S/N–Verhältnis, das eine Wortverständlichkeit von SV = 80 % bedingt, mit Blickkontakt um LSN = 5–10 dB höher liegen als ohne Blickkontakt (Sumby u. Pollack 1954; Erber 1969; Martin et al. 1976). In diesem Zusammenhang ist zu klären, wie hoch der Zuwachs an Sprachverständlichkeit ist, der durch Blickkontakt in der Regel erreicht werden kann, und ob dieser Zuwachs bei der Vorhersage der Sprachverständlichkeit mit einbezogen werden soll. Eine Untersuchung zur Verständlichkeit von Sprache bei Störungen durch fluktuierende Geräusche, die schon diskutiert wurde, setzte als visuelle Unterstützung ein Videoband ein, auf dem die Sprecherin zu sehen war, die einen kurzen Text vortrug. Die Ergebnisse zeigen, dass die Verbesserung im Sprachverstehen für Normalhörende und für Schwerhörige in
6.5 Richtungshören, Alter und Sprachkompetenz
211
etwa gleich groß ausfällt (Tab. 6.3.4-1). Die Mithörschwelle nimmt gegenüber der Situation ohne visuelle Unterstützung um 2–3 dB ab. In einem weiteren Experiment (MacLeod u. Summerfield 1990) wurde die Mithörschwelle für eine Liste von 15 leichten Sätzen (mit Schlüsselwörtern) bestimmt. Der Signal–Geräuschabstand (LSA = 60 dB, SR) für eine Sprachverständlichkeit von 50 % lag um ca. 7 dB höher bei einer raumakustischen im Vergleich zu einer audiovisuellen Darbietung. Obwohl die Sprachverständlichkeit durch Blickkontakt verbessert werden kann, empfiehlt es sich nicht, die Verbesserung der Sprachverständlichkeit durch Blickkontakt in die Vorhersage der Sprachverständlichkeit mit einzubeziehen. Denn die Mitteilung von Information auf akustischem Weg (z.B. im Gespräch und in Diskussionen, Radioinformation) zeichnet sich gerade dadurch aus, dass ein direkter visueller Kontakt mit dem Sender (Sprecher) nicht erforderlich ist. Ähnliches gilt für die Mitteilung von Informationen auf optischem Wege (z.B. über Schrift). Durch die Möglichkeit, Sprache auch ohne Blickkontakt verstehen zu können, erhalten Sprecher und Hörer an den Orten, an denen Gespräche geführt werden (am Arbeitsplatz, in öffentlichen Räumen, zu Hause) (Fletcher u. Galt 1950; Harris 1960; etc.), hohe Bewegungsfreiheit ohne Informationsverlust. Sie können sprachliche Information bei konzentrierten Hausarbeiten, Bürotätigkeiten, Montagearbeiten oder auch Arbeiten an Steuerpulten – ohne aufzublicken – wahrnehmen und verarbeiten. Dabei ist es in solchen Situationen wichtig, dass auf Warnrufe ohne Blickkontakt prompt reagiert wird. Die verbessernde Wirkung des Blickkontakts auf die Sprachverständlichkeit verringert sich, wenn Sprecher und Hörer weiter als etwa r > 5 m voneinander entfernt sind. Entsprechend dieser Ausführungen ist es sinnvoll, Blickkontakt zwischen Gesprächspartnern soweit möglich zu erhalten oder herzustellen, ihn aber bei einer quantitativen Abschätzung nicht mit einzubeziehen. 6.5.3 Mehrfachstörungen Geräusch, Nachhall, Bandbreite, Unterbrechung In den Abschnitten 6.2 bis 6.4 wurde die Störung der Sprachverständlichkeit jeweils nur durch einen Einflussfaktor, z.B. die Begrenzung der Sprache durch ein Frequenzband oder die Maskierung der Sprache durch Geräusche oder die Störung der Sprache durch Nachhall diskutiert. Es treten aber in der Regel Situationen auf (z.B. bei der Sprachübermittlung über Telefon), in denen nicht nur ein Faktor, sondern mehrere Faktoren die Sprachverständlichkeit beeinflussen, so z.B. bei der Sprachübertragung über das Telefon (Bandbegrenzung, Geräusch, Unterbrechung) oder im
212
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Raum (Nachhall, Geräusch). Solche kombinierten Störungen treten häufig auf und wurden bisher auch schon mehrfach diskutiert, wie z.B. in Tabelle 6.2.4-1. Harris (1960), Martin et al. (1976) und Lacroix et al. (1979) fanden, dass Faktoren, die einzeln eine geringe Störung der Sprachverständlichkeit bedingen, deren erhebliche Reduzierung verursachen können, wenn sie gemeinsam auftreten. Dabei wird eher von einer multiplikativen als von einer additiven Wirkung der Störfaktoren auf die Sprachverständlichkeit gesprochen (Fletcher u. Galt 1950). In einer Untersuchung zur Mehrfachstörung (Harris 1960) konnte aufgezeigt werden, dass die Sprachverständlichkeit für Sätze, die schnell gesprochen wurden bzw. im Sprachband unterbrochen wurden, jeweils bei SV = 90–98 % lag. Wird schnell gesprochene Sprache jedoch zusätzlich unterbrochen, sinkt die Sprachverständlichkeit auf SV = 32 % ab. Besonders deutlich zeigt sich der Sprachverständlichkeitsverlust (Lacroix et al. 1979; Tab. 6.5.3-1), wenn Sprache (Sätze) mit einem Tiefpass gefiltert, zusätzlich zeitkomprimiert, zeitunterbrochen oder durch Geräusche gestört wird. Die Verständlichkeit der tiefpassgefilterten Sprache liegt bei SVS = 83–91 %. Wird tiefpassgefilterte Sprache zusätzlich gestört, sinkt die Verständlichkeit auf SVS = 29–88 % ab. So liegt die Verständlichkeit von Sprache, die bis 2 kHz begrenzt ist, bei SVS = 90 %, die Verständlichkeit der ungefilterten Sprache, die durch ein Geräusch (LSN = 2 dB) maskiert wurde, liegt bei SVS = 85 %. Wird die begrenzte Sprache maskiert, sinkt die Verständlichkeit auf SVS = 53 % ab. Harris u. Reitz (1985) untersuchten die Sprachverständlichkeit von Einsilbern in der Altersgruppe von 60–69 Jahren im Vergleich zu normalhörenden jungen Erwachsenen (NJ, 20–29 Jahre). Die ältere Probandengruppe wurde dabei in zwei Untergruppen (NA, SA) mit merklichem (LHVT > 20 dB) und mit vernachlässigbarem Hörverlust unterteilt. Es konnte in dieser Untersuchung gezeigt werden (Tab. 6.5.3-2), dass der Nachhall (Situation bei T= 0.6 s und 1.6 s gegenüber T = 0 s) einen deutlich stärkeren negativen Effekt auf das Sprachverstehen von hörbehinderten Personen (SA: SV = 12 und 29 %) hatte als auf das von normalhörenden älteren Personen (NA: SV = 6 und 12 %). Die zuletzt genannte Gruppe unterschied sich in der Wahrnehmungsleistung kaum von der Kontrollgruppe (NJ). Bei zusätzlicher Störung durch Hintergrundrauschen zeigte sich jedoch auch schon bei normalhörenden Testpersonen ein deutlich stärkerer Einbruch in der Verstehensleistung als bei einer Kontrollgruppe. Die Kombination zweier Störungen wirkte – wie schon in den vorhergehenden Untersuchungen gezeigt wurde – hier mehr als nur additiv auf die Verstehensleistung der drei Gruppen (NJ/NA/SA; Bezugswert ist der bei jeweils T=0 s, ohne Störgeräusch): Es zeigte sich in der Versuchsbedingung „nur Nachhall“ ein Verlust (bei den jeweiligen drei Personen-
6.5 Richtungshören, Alter und Sprachkompetenz
213
gruppen) von 9/12/29 %, „nur Geräusch“ ein Verlust von 5/6/9 %, und in der Situation, in der beide Störungen kombiniert dargeboten werden, ein Verlust von 27/43/48 % verstandener Sprache. Wird die Wahrnehmung von Sprache nicht nur durch die Maskierung mit Geräuschen erschwert, sondern auch u.a. durch eine Veränderung des Sprachsignals selbst (Abschn. 6.2), zeigten sich ebenfalls Leistungsabfälle in der Verständlichkeit, abhängig vom Alter (Bergmann et al. 1976). In dieser Untersuchung wurden 300 Personen unterschiedlichen Alters, mit Tonhörverlusten nicht größer als 40 dB, Sätze dargeboten, die durch Geräusche maskiert, verhallt oder als Sprachreiz selbst gestört waren. Nach 7 Jahren wurde die Untersuchung an den gleichen Personen (so weit möglich) wiederholt. Abbildung 6.5.3-1 zeigt die Ergebnisse. Allgemein gilt, dass sich abhängig vom Alter die Wahrnehmungsleistung reduziert. Tabelle 6.5.3-1. Verständlichkeit (SV in %) von Sätzen mit Schlüsselwörtern: gefiltert mit einem Tiefpass (TP) der Grenzfrequenz (f0 in kHz), gefiltert und zusätzlich zeitkomprimiert (ZK), gefiltert und zeitlich unterbrochen (ZU) (fr = 10 Hz, Sprachzeit/Pausenzeit 1 : 1) oder gefiltert und gestört durch ein Geräusch (N) (LSN = 2 dB); Sprachpegel LS = 72 dB) f0 in kHz TP ZK ZU N
10 91 88 88 85
4 91 84 87 79
SV in % 3 89 80 83 67
2 90 63 70 53
1 83 35 29 42
Tabelle 6.5.3-2. Sprachverständlichkeit von Einsilbern von jungen (NJ) und älteren (SA, NA) Hörern (mit und ohne Hörverluste (m, o HV)), mit und ohne Störrauschen, Nachhall (T), als Störgeräusch wurde sprachähnliches Rauschen benutzt Hörer NJ 20–29J NA 60–69J, o HV SA 60–69J, m HV
Sprachverständlichkeit in % ohne Störgeräusch mit Störgeräusch (S/N = 10dB) T=0 s T=0.6 s T=1.6 s T=0 s T=0.6 s T=1.6 s 96.0 94.8 86.6 91.2 79.2 68.8 96.8 91.0 85.0 90.8 68.8 53.8 84.0 71.8 55.2 74.6 50.4 36.4
214
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Abb. 6.5.3-1. Sprachverständlichkeit (SV in %) von Sätzen in Abhängigkeit vom Alter der Personen für 2 Testzeiträume: Durchführung der Hörversuche (1967, — o—), Wiederholung dieser Hörversuche (1974, —x—). Sechs unterschiedliche Hörversuche wurden durchgeführt: KT: Kontrolltest mit 10 Sätzen ohne jegliche Störung; ST: Die Sätze werden mit Nachhall versehen; SG: Die normale Sprechgeschwindigkeit von 120 Wörtern pro Minute wird für Sätze um das 2.5–fache erhöht; SF: Gleichzeitige Darbietung von gefilterten Sätzen für das eine Ohr (0.5– 0.8 kHz) und das andere Ohr (1.8–2.4 kHz); SN: Ein Sprecher soll aus einem Sprechgeräusch von mehreren Sprechern herausgehört werden; SU: Unterbrochene Sprache (einfache Sätze) mit einer Unterbrechungsfrequenz von fr = 8 Hz; (nach Bergman et al. 1976)
Loven u. Collins (1988) untersuchten die kombinierte Wirkung von Filterung, Nachhall, Sprachpegel und S/N–Abstand auf die Sprachverständlichkeit. Sie fanden deutliche Interaktionseffekte zwischen den eingesetzten Einflussfaktoren. Man kann also nicht davon ausgehen, dass diese vier Faktoren unabhängig voneinander wirken. So ist z.B. die starke Abnahme in der Verständlichkeit von Sprache, die tiefpassgefiltert wurde, deutlich geringer, wenn der Sprachpegel von 60 auf 90 dB zunimmt. Ebenso tritt der störende Einfluss von Nachhall auf die Sprachverständlichkeit mit 20 % deutlich stärker bei einem Signal–Geräuschabstand von +8 dB zutage als bei einem S/N–Abstand von = -8 dB. Im ersten Fall betrug die Sprachverständlichkeit 20 %, im zweiten Fall 8 %. Man kann festhalten: Mehrfachstörungen sind eher durch eine multiplikative Wirkung der einzelnen Störfaktoren verbunden.
6.5 Richtungshören, Alter und Sprachkompetenz
215
6.5.4 Junge und ältere Hörer Vergleich der Hörleistung, entwicklungsbedingte Höreinschränkungen Zwei Problembereiche stehen hier im Blickpunkt der Diskussion. Zum einen wird untersucht, in wie weit Kinder und Jugendliche durch die noch nicht voll ausgeprägte Sprachkompetenz in der Wahrnehmung und im Verstehen von Sprache eingeschränkt sind. Zum anderen werden die Sprachverständlichkeit und ihre Störung abhängig vom Alter analysiert, wobei das Thema Schwerhörigkeit in Abschnitt 8.1 und 8.2 behandelt wird. Die Fähigkeit, maskierte Sprache wahrzunehmen, verändert sich in Abhängigkeit vom Alter. Die Beziehung zwischen der Sprachwahrnehmungsleistung und dem Alter scheint U–förmig zu sein. Kinder und Jugendliche und vorwiegend Personen ab einem Alter von 60 Jahren nehmen Sprache schlechter wahr als Personen, deren Alter zwischen diesen beiden Altersgruppen liegt. Während die geringere Sprachwahrnehmungsleistung von Kindern und Jugendlichen auf die schlechtere Sprachbeherrschung (Sprachkompetenz) wie auch auf die geringere Übung in der Wahrnehmung verrauschter Sprache zurückgeführt werden kann, ist die Verschlechterung der Sprachwahrnehmung im Alter eher durch eine u.a. altersabhängige Aufmerksamkeitsschwäche bedingt (s.a. Mills 1975, Müller–Limmroth 1979). Defizite in der Sprachwahrnehmung zeigen sich hierbei vor allem bei Geräuschen und Nachhall. In den folgenden Ausführungen wird vor allem auf die Wahrnehmung von Sprache bei Kindern eingegangen, während die Sprachwahrnehmungsleistung erwachsener Personen, soweit sie hier nicht als Kontrollgruppe mit untersucht wird, im Kapitel 8 diskutiert wird. Der Satztest von Kalikow (s. Abschn. 2.6) wurde Personen im Alter von 18–25 und 60–75 Jahren und Jugendlichen vorgelegt (Kalikow et al. 1977). Es zeigte sich, dass die Verstehensleistung der Jugendlichen und Älteren um etwa SV = 10–15 % im Vergleich zu der Leistung der 18–25– Jährigen schlechter war (Abb. 6.5.4-1) Die schlechtere Sprachverständlichkeitsleistung konnte hier nicht auf eine eventuell vorhandene Schwerhörigkeit der älteren Personen zurückgeführt werden. Kalikow untersuchte in seinem Versuch nur Personen mit vergleichbaren Hörverlusten. Die Personen – jüngere wie ältere – wiesen einen geringeren Hörverlust bei 4 kHz von etwa LHVT d 20 dB auf. In einer Untersuchung von Elliott (1979), in der der Satztest von Kalikow (Abschn. 2.6) Kindern und Jugendlichen im Alter von 9–17 Jahren zur Wahrnehmung bei einem Signal–Geräuschabstand von LSNA = 0–5 dB angeboten wurde, konnte eine ähnliche Tendenz festgestellt werden. Die Sprachverständlichkeit nimmt zwischen dem 9. und 17. Lebensjahr um ca.
216
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
SVS = 2 % pro Jahr zu. Auch Bosshardt u. Hörmann (1982) konnten aufzeigen, dass 4 bis 6–jährige Kinder Sätze, die unter einem Signal– Geräuschabstand von LSNA = 0 dB dargeboten wurden, schlechter wahrnehmen als Erwachsene. Ähnliche Ergebnisse fanden Nozza et al. (1990) bei einem Experiment, bei dem synthetische Silben in einem Geräusch (48 dB) von 7 bis 11–Jährigen und Erwachsenen identifiziert werden mussten. Die Mithörschwelle der Erwachsenen lag um 6–7 dB niedriger als die der Kinder. Finitzo–Hieber u. Tillmann (1978) beobachteten, dass die Sprachverständlichkeit von Kindern bei einer Nachhallzeit von T = 0.4 s beeinträchtigt war. Durch ein weiteres Experiment (Neumann u. Hochberg 1983) konnte der stärkere Einfluss der Nachhallzeit (0 bis 0.6 s) auf die Sprachverständlichkeit (binaural) fünfjähriger Kinder (SV = 82 auf 63 %) im Vergleich zu Erwachsenen (SV = 93 auf 90 %) empirisch belegt werden (Abb. 6.5.4-1). 100 SV/% 90 m 0,6s b 0s b 0,4s b 0,6s
80
70
60 5
7
9
11
13 Alter/J
20
Abb. 6.5.4-1. Sprachverständlichkeit (SV in %) von Phonemen mit drei unterschiedlichen Nachhallzeiten (T) bei monauraler (m) und binauraler (b) Darbietung in Abhängigkeit vom Alter (in Jahren)
In einer Untersuchung, die mit einsilbigen Hauptwörtern durchgeführt wurde, waren Jugendliche (15–17 Jahre) bei der Wahrnehmung besser als Kinder (5–7 Jahre) und Ältere (70–80 Jahre) (Elliott et al. 1987). Die Autoren vermuten, dass für die Unterschiede in der Wahrnehmungsleistung Effekte der Worthäufigkeit des Stimulusmaterials und der Sprachverarbeitungsprozesse selbst verantwortlich sind. Nabelek u. Robinson (1982) haben Sätze mit Schlüsselwörtern in einem Raum mit verschiedenen Nachhallzeiten aufgenommen und über Kopfhörer binaural oder monaural (einohrig) Personen im Alter von 10 bis 72 Jahren mit normaler Hörschwelle (LHVT,f < 27 dB; f = 250 bis 4 kHz) dargeboten. Die Ergebnisse (Abb. 6.5.4-2) zeigten, dass sowohl ältere wie auch
6.5 Richtungshören, Alter und Sprachkompetenz
217
junge Personen bei höheren Nachhallzeiten Defizite in der Wahrnehmungsleistung im Vergleich zur Leistung von 20 bis 40–jährigen Personen aufweisen. mT=0
100
m T = 0,4 m T = 1,2
SV/% 90
b T = 0,4 b T = 1,2
80
70
60 10
30
50
Alter/J
70
Abb. 6.5.4-2. Sprachverständlichkeit (SV in %) (Sätze mit Schlüsselwörtern) in Abhängigkeit von Alter (in Jahren) und der Nachhallzeit (T = 0 bis 1.2 s) bei monauraler (m) und binauraler (b) Hörbedingung
Nozza et al. (1988) fanden, dass bei binauralem (beidohrigem) Hören (BMLD) Kleinkinder (7–8 Monate) und Vorschulkinder (3.5–4.5 Jahre) schlechter abschneiden als Erwachsene. Dieses Ergebnis weist auf den Vorteil des beidohrigen Hörens hin, der genutzt werden kann, wenn Sprache und Störgeräusche aus entgegen gesetzter Richtung kommen, im Vergleich zu der Situation, in der beide akustischen Ereignisse aus gleicher Richtung eintreffen (BMLD) (s. Tab.6.5.4-1). Tabelle 6.5.4-1. BMLD (Binaural Masking Level Difference) für Kleinkinder (KK), Vorschulkinder (VK) und Erwachsene (EW) BMLD
KK 5 dB
VK 8 dB
EW 10 dB
In einer Untersuchung von Johnson (2000) wurde die Altersabhängigkeit der Sprachverständlichkeit überprüft. In einer Gruppe von Hörern im Alter von 6 bis 30 Jahren (normalhörend LHVT,f d 15 dB) wurden sinnlose Silben (CVCV) mit einem Sprachpegel von LSA = 60– 70 dB zur Wahrnehmung in vier unterschiedlichen Bedingungen vorgelegt. Die sinnlosen Silben wurden in drei Störbedingungen, in denen die Nachhallzeit und der S/N–Abstand isoliert bzw. miteinander kombiniert (T = 1.3 s; LSNA = 13 dB, SG (mehrere Sprecher)) und in einer Kontrollbedingung, in der die Silben mit Sprechgeräuschen maskiert wurden (T = 0, S/N–Verhältnis > 40 dB) dargeboten.
218
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Die Ergebnisse zeigen eine deutliche Zunahme der Verständlichkeit von Konsonanten mit dem Alter (Abb. 6.5.4-3). 100 SV/% 80 a b
60
c d 40
20 K
T
N
T+N
Abb. 6.5.4-3. Verständlichkeit (SV in %) für Konsonanten (SiSi) für 4 Bedingungen (Nachhallzeit (T), S/N–Abstand (N)): K (Kontrolle) (0 s, > 40 dB), T (1.3 s, > 40 dB), N (0 s, 13 dB), T + N (1.3 s, 13 dB) für vier Altersgruppen mit einem normalen Gehör: a (ältere Personen); b (14–15 Jahre); c (10–11 Jahre); d (6–7 Jahre)
In einem weiteren Experiment wurden Wörter in Sätzen, die durch Sprechgeräusche von acht Sprechern maskiert wurden, vier Altersgruppen zu Wahrnehmung dargeboten. Das S/N–Verhältnis musste, um die gleiche Wahrnehmungsleistung zu erreichen, für die 5–jährigen Versuchspersonen 5 dB höher gesetzt werden als für die 20–jährigen (Fallon et al. 2000). Man kann feststellen: x Kinder unter 13 Jahren können als eine Gruppe mit einem besonderen Gehör beschrieben werden (Nabelek u. Nabelek 1994). Kinder bis 13 Jahre, so wird angenommen, befinden sich bezüglich ihrer Fähigkeit, Sprache wahrzunehmen und zu verstehen noch in der Entwicklung. (Sussmann 1993). Die Wahrnehmungsprozesse im peripheren und auch zentralen auditiven System sind bei Schulkindern noch nicht ausgereift; Schulkinder sind weniger sensitiv gegenüber zeitlich bedingten Übergangsprozessen (Formantveränderungen) bei der Sprache und haben ein gewisses Defizit bei Selektionsprozessen (u.a. Morrongiello et al. 1984; Elliott 1986; Elliott u. Hammer 1988; Sussmann u. Carney 1989; Wightman et al. 1989; Hall u. Grose 1991). Auffallend sind z.B. die hohen Tonhörschwellen von 6–Jährigen (68 dB) gegenüber 10–Jährigen (46 dB) und Erwachsenen (34 dB) bei Rückwärtsverdeckung (20 ms–Ton kurz vor dem Maskierer) (Hartley et al. 2000).
6.5 Richtungshören, Alter und Sprachkompetenz
x
x
219
Es geht bei der Sprache um schnelle Erkennung von Mustern (im Millisekundenbereich). Die entwicklungsbedingten, noch nicht voll funktionsfähigen Hirnprozesse könnten Defizite in kritischen Schulsituationen bedingen, die eintreten, wenn schlecht artikuliert wird oder laute Geräusche und Nachhall die Wahrnehmung von Sprache erschweren. Deshalb ist es wichtig, solche Störeffekte zu reduzieren, um die Entwicklungsverläufe und Lernprozesse, die zum Erreichen einer differenzierten Sprachkompetenz erforderlich sind, nicht zu beeinträchtigen. Im Alter (> 60 Jahre) beeinflussen vor allem Hörverluste die Sprachverständlichkeit.
6.5.5 Zweitsprache Sprecher und Hörer, Sprachkompetenz, Einfluss der Lernjahre, erforderliche Hörbedingungen, notwendige Erhöhung des Signal– Geräuschabstandes Die Wahrnehmung und das Verstehen von Sprache bei Umgebungsgeräuschen werden auch durch die Sprachkompetenz, d.h. durch die Fähigkeit im Umgang mit Sprache beeinflusst. Personen, die im Ausland leben und die Sprache dieses Landes mehr oder weniger gut sprechen und verstehen können, stellen fest, dass sie diese Fremdsprache, sobald sie durch Geräusche maskiert wird, erheblich schlechter verstehen. Einflussgrößen sind bei der Verständigung von Mutter– und Zweitsprachlern vor allem das Sprechen (Artikulieren) und das Hören (Verstehen) der Sprache, aber auch die Art und Weise, wie (im Herkunftsland oder im Ausland) und wann (Eintrittsalter und Dauer des Erlernens) die Zweitsprache erlernt wurde und natürlich das Sprachmaterial. Das Sprachmaterial war in der Regel das des Auslandes (Deutsch oder Englisch). Auch beim Umgang mit Dialektsprechern kann eine reduzierte Sprachkompetenz sich für den Hörer entsprechend auswirken. Gat u. Keith (1978) untersuchten die Wahrnehmungsleistung von einsilbigen, englischen Wörtern. Die Untersuchung wurde bei drei Signal–Geräuschabständen (LSNA = 10, 4, -2 dB) durchgeführt, abhängig von der Fähigkeit im Umgang mit dieser Sprache. Am Versuch nahmen 18 Studenten teil, die nach der Sprachkompetenz in drei gleichgroße Gruppen geteilt wurden: in die Gruppe der Personen, die amerikanisch als Muttersprache sprachen, in die Gruppe der Personen, die sich 3–4 Jahre und in die Gruppe der Personen, die sich erst 1 Jahr in Amerika aufhielten. Ihr Alter lag bei 23–34 Jahren.
220
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Die Ergebnisse zeigten, dass sich die Sprachverständlichkeit mit sinkendem Signal–Geräuschabstand abhängig von der Sprachkompetenz gravierend verschlechterte. Ausländische Studenten weisen einen Sprachverständlichkeitsverlust von SVE = 20–40 % auf (s. Abb. 6.5.5-1). 100 SV / % 80
MS (HF)
60
ZS (HF) MS (GK)
40
ZS1 (GK)
20
ZS2 (GK)
0 -15
-5
5 15 LSNA / dB
Abb. 6.5.5-1. Sprachverständlichkeit (SV in %) von Wörtern für Muttersprachler (MS) und Zweitsprachler (ZS) bei zeitlich schwankendem Störgeräusch (Hojan et al. 1997 (HF)) und weißem Rauschen (Gat u. Keith 1978 (GK)), für unterschiedliche Signal–Geräuschabstände (LSNA)
Zu ähnlichen Ergebnissen kamen Buus et al. (1986), Takata u. Nabelek (1990), Hojan et al. (1997) und Mayo et al. (1997), (s. Tab. 6.5.5-1). Wie gravierend das Störgeräusch die Sprachverständlichkeit von Zweitsprachlern beeinflusst, wird in diesen Untersuchungen deutlich. Takata u. Nabelek führten den Modified Rhyme Test (Kreul et al.) zunächst in Ruhe, dann im Störgeräusch und bei Nachhall durch. In Ruhe gaben die Muttersprachler 99.3 % und die Nicht–Muttersprachler 97.4 % der Testwörter korrekt an. Unter Einfluss des Störgeräusches (LSNA = -3 dB) oder der Nachhallzeit (T = 1.2 s) konnten die Muttersprachler noch 81 % korrekt angeben, die Nicht–Muttersprachler nur noch etwa 72 bis 73 %. Hojan et al. (1997) arbeiteten mit dem Freiburger Wörtertest mit einem zeitlich schwankenden Störgeräusch nach Fastl (1987) und mit 40 polnischen Versuchspersonen mit unterschiedlichen Deutschkenntnissen. Die Ergebnisse (Abb. 6.5.5-1) wurden zum Vergleich den Daten normalhörender deutscher Versuchspersonen gegenübergestellt. Die Mithörschwelle (50 % SV) lag für die polnischen Versuchspersonen bei LSN = -4 dB, für die deutschen Testpersonen bei LSN = -7.5 dB. Florentine (1985) zeigte, dass Nicht–Muttersprachler in ihrer Wahrnehmungsleistung nicht nur erheblich durch Störgeräusche beeinträchtigt werden, sondern dass es ihnen auch wesentlich schwerer fällt, den Kontextin-
6.5 Richtungshören, Alter und Sprachkompetenz
221
formationsgehalt zu verarbeiten. Muttersprachlern und Nicht–Muttersprachlern wurden jeweils 50 Sätze (Schlüsselwort im Satz; SPIN–Test nach Kalikow et al. 1977) zunächst in Ruhe, dann im Störgeräusch dargeboten. Die Differenz der Satzverständlichkeit zwischen den Muttersprachlern und Zweitsprachlern ist bei Sätzen mit hoher Vorhersagewahrscheinlichkeit (hVW) höher (36 %), als bei Sätzen mit niedriger Vorhersagewahrscheinlichkeit (nVW). Die Nicht–Muttersprachler hatten unabhängig von der Vorhersagewahrscheinlichkeit deutlich Schwierigkeiten, das korrekte Schlüsselwort zu erkennen, bzw. aus dem Satzkontext zu entnehmen. Phonetische, lexikalische und syntaktisch–semantische Faktoren haben einen wesentlichen Einfluss auf die Sprachverständlichkeit, besonders wenn die Übertragung der sprachlichen Mitteilung durch Geräusche gestört ist. Dies konnte durch die Zweitsprachler nur bedingt genutzt werden, was die Wahrnehmungsleistung stark beeinträchtigte. Selbst Versuchspersonen mit sehr guten Kenntnissen der fremden Sprache wiesen im Störgeräusch gegenüber den Muttersprachlern einen Sprachverständlichkeitsverlust von 30 % auf (Florentine 1985). Wesentliche Auswirkungen auf die Verstehensleistung hat ebenso das Alter, in dem die Zweitsprache erlernt wird (Mayo et al. 1997; Abb. 6.5.52).
Abb. 6.5.5-2. Sprachverständlichkeit (SV in %) bei Störgeräuschen (Signal– Geräuschabstand LSN) für monolingual aufgewachsene Muttersprachler (MS), von Geburt an bilingual aufgewachsene Zweitsprachler (ZS0), Zweitsprachler, die vor dem 6. Lebensjahr die zweite Sprache erlernten (ZS6), Zweitsprachler, die nach dem 14. Lebensjahr die zweite Sprache erlernten (ZS14); für Wörter in Trägersätzen mit kontrollierbarer Vorhersagewahrscheinlichkeit (hohe/niedrige Vorhersagewahrscheinlichkeit (hVW/nVW)), (nach Mayo et al. 1997)
222
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Versuchspersonen, die bilingual aufwachsen, oder zumindest seit früher Kindheit eine Zweitsprache erlernen, zeigen deutlich bessere Ergebnisse beim Verstehen dieser Sprache im Störgeräusch, als Personen, die die zweite Sprache später erlernten (Abb. 6.5.5-2). Personen, die vor dem 6. Lebensjahr begonnen haben, die Zweitsprache (Englisch) zu lernen, unterscheiden sich von den Muttersprachlern nicht so markant (die Differenz der Mithörschwelle liegt bei 1–3 dB) wie Zweitsprachler, die erst nach dem 14. Lebensjahr mit dem Erlernen der Zweitsprache begonnen haben. Hier liegt die Differenz bei (SV = 50 %) 8–9 dB. Die Differenz der Mithörschwellen, die eine etwas bessere Sprachverständlichkeit voraussetzt (SV = 75 %), liegt dann bei ca. 15 dB. Will man für Zweitsprachler, die erst mit 14 Jahren eine neue Sprache erlernt haben, eine relativ gute Sprachverständigung erreichen (SV = 75 %), muss der Geräuschpegel 15 dB niedriger sein als für Normalhörende. Bradlow u. Pisoni (1999) untersuchten den Einfluss von lexikalisch unterschiedlichen Wortlisten, die von mehreren Sprechern gesprochen wurden, auf die Sprachverständlichkeit (Abb. 6.5.5-3). Der Versuch wurde mit 20 Zweitsprachlern und 20 Muttersprachlern durchgeführt. Das Testmaterial setzte sich aus zwei verschiedenen Testwörterlisten zusammen, aus einer Liste mit leichten Wörtern (hAW) und aus einer mit schwierigen Wörtern (nAW) (h/n AW = 35–9800/1–370), die im Hinblick auf lexikalische und phonetische Eigenschaften verschieden waren. Die Testwörter (2 x 75) wurden von fünf männlichen und fünf weiblichen Sprechern (MS) in einer mittleren Sprechgeschwindigkeit aufgenommen, wobei ihre produzierte Sprache auf Verständlichkeit hin überprüft wurde. Derjenige Sprecher wurde als einzelner Sprecher ausgewählt, der die höchste Sprachverständlichkeit erzielte. Den Versuchspersonen (MS, ZS) wurden zwei Darbietungen präsentiert: (a) von dem Sprecher mit höchster Sprachverständlichkeit (weiblich) wurden 78 Wörter (39 leichte und 39 schwierige), (einzelner Sprecher); (b) von den restlichen 9 Sprechern wurden jeweils 8 Wörter (4 leichte und 4 schwierige), d.h. 72 Wörter dargeboten, (mehrere Sprecher). In einem weiteren Experiment bekamen die Versuchspersonen die Testwörter der Wortlisten per Computermonitor dargeboten und wurden aufgefordert, die Vertrautheit dieser Wörter auf einer Skala von 1 (Ich habe dieses Wort noch nie gehört) bis 7 (Ich kenne dieses Wort) zu bewerten.
Deutlich zeigt sich in der Abbildung (Abb. 6.5.5-3), dass die Auftretenswahrscheinlichkeit der Wörter (AW), aber nicht die Vertrautheit der Sprechreize einen Einfluss auf die Wahrnehmungsleistung hat. Die Höhe der Auftretenswahrscheinlichkeit der Wörter und die Anzahl der Sprecher bestimmen die Wortverständlichkeit bei Mutter– wie auch bei Zweitsprachlern, diese unterscheidet sich signifikant zwischen den Gruppen. Die Wortverständlichkeit liegt bei Muttersprachlern bei 85–97 %, bei Zweitsprachlern bei 45–79 %.
6.5 Richtungshören, Alter und Sprachkompetenz
223
Um auszuschließen, dass der Einfluss der Vertrautheit die geringe Wortverständlichkeit der Zweitsprachler zur Folge hat, wurden in einer weiteren Auswertung nur Wörter einbezogen, deren Vertrautheit mit 6 und höher skaliert worden war. Das Ergebnis änderte sich nicht wesentlich (SV = 48–81 %). MS
ZS (aW)
ZS (vW)
100
hAW
SV/ %
nAW 80
60
40
E
M
E
M
E
Abb. 6.5.5-3. Von Muttersprachlern (MS) und Zweitsprachlern (ZS) richtig verstandene Wörter (SV in %) für leichte Wörter (Wörter mit hoher Auftretenswahrscheinlichkeit (hAW)) und schwierige Wörter (Wörter mit niedriger Auftretenswahrscheinlichkeit (nAW)), dargeboten von einem Sprecher (E) und 9 unterschiedlichen Sprechern (M); dargestellt für alle Wörter (aW), und Wörter die den Hörern sehr vertraut waren (vW), (Vertrautheit (1–7) > 6), (nach Bradlow & Pisoni 1999)
Die Autoren führen die geringe Wortverständlichkeit der Zweitsprachler vor allem auf die eingeschränkte Fähigkeit zurück, phonetische Muster im Detail sicher erkennen zu können, d.h. phonetische Muster zu erkennen, die sich nur geringfügig von anderen unterscheiden. Bei Zweitsprachlern treten häufiger Verwechslungen auf. Die Wortverständlichkeit der schwierigen Wörter (nAW) korreliert mit der Anzahl der Jahre ihres Aufenthaltes im Ausland, nicht aber mit der Anzahl der Jahre, in der sie die Zweitsprache gelernt haben oder mit dem Alter, in dem sie begannen, die Zweitsprache zu erlernen. Die Vertrautheit mit den schwierigen Wörtern korreliert negativ mit dem Alter des Sprachbeginns der Zweitsprachler. Es kann also festgehalten werden: Muttersprachler sind mit den psycholinguistischen Faktoren ihrer Sprache wesentlich vertrauter, was die Sprachverständlichkeit erheblich positiv beeinflusst. Zweitsprachler greifen häufig, um Verstehenslücken auszufüllen, auf die ihnen aus ihrer Muttersprache bekannten akustischen Muster zurück, wodurch die Wahrnehmungsleistung erheblich beeinträchtigt werden kann.
224
6 Verstehen von Sprache in realer Umgebung und Sprachkompetenz
Die Verstehensleistung korreliert also offenbar nicht nur mit der Dauer und der Intensität des Studiums der jeweiligen Zweitsprache, sondern auch mit der Fähigkeit psycholinguistische Faktoren wahrzunehmen und zu verwerten, welche durch die Länge des Aufenthaltes in einem Gastland begünstigt wird. Mangelnde Sprachkompetenz von Nicht–Muttersprachlern zeigte sich auch beim Sprechen und spiegelte sich wiederum in der Verständlichkeit der Sprache wider. So haben auch Muttersprachler im Störgeräusch Probleme Nicht–Muttersprachler zu verstehen. Die Gründe sind mit den bisher genannten vergleichbar. Der Nicht–Muttersprachler greift während des Sprechens auf die ihm bekannten phonetischen Strukturen seiner Muttersprache zurück und verfälscht somit das Klangbild. Insbesondere bei sehr kurzen sprachlichen Nachrichten wie z.B. bei einzelnen Wörtern, mit denen der Sprecher zudem nicht gut vertraut war, wurde die Verständlichkeit durch die für einen Muttersprachler befremdliche Artikulation herabgesetzt (Wijngaarden et al. 2002). Tabelle 6.5.5-1. Verstehen einer Zweitsprache bei Störgeräuschen und Nachhall. Angegeben werden: (1) (Spalte 5) die Ergebnisse von Sprachverständlichkeitstests: das Signal– Geräuschverhältnis (Mithörschwelle, LSNA bei SV = 50 %); (h/n AW: hohe/niedrige Auftretenswahrscheinlichkeit der benutzten Wörter, h/n VW: hohe/niedrige Vorhersagewahrscheinlichkeit der Wörter im Satz). (2) (Spalte 6) Vergleich: die Mithörschwelle der Zweitsprachler (ZS), bezogen auf die der Muttersprachler (MS) (bei gleichen Bedingungen) (ţLSNA = LSNA(ZS) LSNA(MS) in dB) und die Sprachverständlichkeit der Zweitsprachler, bezogen auf die der Muttersprachler (bei gleichen Bedingungen) (-ţSV =-(SV(ZS) - SV(MS)) in %; damit die Abnahme der SV in der Spalte 6 (rechts) positiv ist, wurde das Vorzeichen umgedreht). (3) (Spalte 2, 3) Versuchsbedingungen, Testmaterial (Spalte 2; E: Einsilber, S: Satz, MRT: Reimtest; En: englisch, De: deutsch, Ni: niederländisch; Sprachpegel am Ohr der Versuchsperson (LSA in dB); m. Spr.: mehrere Sprecher, Muttersprachler, Zweitsprachler als Sprecher); Störgeräusch, Nachhall (Spalte 3; WR: Weißes Rauschen, RR: Rosa Rauschen, SG (12; m): Sprachgeräusch mit 12 oder mehreren Sprechern, SM: sprachmoduliertes Geräusch, VG: Verkehrsgeräusch, SR: sprachähnliches Rauschen; T: Nachhallzeit. (4) (Spalte 4) Versuchspersonen: Muttersprachler (MS), Zweitsprachler (ZS), (N: Normal, S: simulierte Schwerhörigkeit), (Alter 16–62 Jahre) differenziert nach Lernjahren: Lebensjahr des Beginns des Erlernens (BL, in Jahren), bisherige Dauer des Erlernens (DL, in Jahren), Aufenthalt im Gastland (AG, in Jahren), Besuch im Gastland (B). (5) (Spalte 1) die Autoren
6.5 Richtungshören, Alter und Sprachkompetenz 1 Autor
2 Testmaterial LSA Spr. Gat & E Keith En 1978 72 dB Nabelek MRT 1983
3 Geräusch LNA WR
T =0s T =0.4s T =0.8s SG(m)
Florentine E im S 1985 (h/n AW) En 75 dB Buus S WR et al. En 1986 70 dB Takata & MRT Nabelek En 1990 70 dB Hojan et al. 1997 Mayo et al. 1997
Bradlow & Pisoni 1999 Wijngaarden et al. 2002 Volberg et al. 2004
Sust et al. 2007
Ruhe SG(12) T =1.2s SM
E, De 48–80 dB E im S SG(m) En 70 dB
Worte, En – m. Spr. 70 dB S, Ni SR MS ZS1 ZS2 RR S, De 55–75 dB 60 dB MS ZS MS ZS S, De VG 45–75 dB 55 dB MS ZS
4 Art
N
MS ZS1 ZS2 MS ZS ZS ZS MS ZS MS ZS MS ZS1 ZS2 ZS3 MS ZS ZS ZS MS ZS MS ZS1 ZS2 ZS3 MS ZS1 ZS2 ZS3 MS ZS ZS
6 6 6 10 10
MS MS MS
20
13 16 4 6 5 3 10 10
88 40 9 3 9 9
20 20
MS,N 40 MS,N MS,S MS,S
MS MS
32
5 LSNA Vpn in dB Lernjahre BL DL AG (SV = 50 %) ŭ -6.0 3–4 -1.0 1 2.0 -3.0 (hVW) 0.5 4–16 0.0 (nVW) 4.0 -1 1–4 B 2 > 4 1–2 7 > 4 11 12-13 > 6 -7.5 -4.0 -4.0 (hVW) -3.0 >0 -3.0 14 -1.0 (nVW) 2.0 1.5 7.0 - (hAW) 2–18 - (nAW) -0.9 >6 0.4 75 dB ist und Gehörschutz getragen wird).
7.2 Verfahren mit bewerteten Schallpegeln
243
Die Entfernung zwischen Sprecher und Hörer wie folgt einbezogen LSAe = LSA,1md - 20 log (r/1m) dB. - Das Sprechen in einer Fremdsprache kann wahlweise mit einbezogen werden (Abschn. 6.5.5): LSA = LSAf = LSAe - 4 dB. Damit ist der Sprachpegel LSA am Ohr des Hörers ermittelt. x Signal–Geräuschabstand (Sprach–Störschallpegel) SIL = LSA - LSIL Die Differenz (SIL) zwischen dem Sprachpegel (LSA) und dem Störgeräuschpegel (LSIL) bestimmt die Qualität der Sprachverständlichkeit (s. Tab. 10.4-3, Spalte 4, 6; Tab. 10.4-4, Spalte 1, 5 bei SNRA ū SIL + 8 dB; Tab. 10.5-2). Die Bewertung der Sprechanstrengung (LSA,1md) erfolgt mit Tabelle 10.4.2. -
Festzuhalten ist: das SIL– Verfahren ist ein recht einfaches und effektives Verfahren zur Abschätzung der Qualität der Sprachkommunikation (s.o. drei Hauptschritte). Da die Sprachkommunikation und das Verhalten der Gesprächspartner durch eine Vielzahl von – nicht immer bekannten – Parametern variiert wird, ist es nur unter spezifischen Bedingungen sinnvoll, auch auf die aufwändigeren Verfahren wie SII oder STI (Abschn. 7.3, 7.4) zurück zu greifen. 7.2.4 Beispiele für die Bestimmung des SNR und SIL Der A–bewertete Signal–Geräuschabstand (SNRA) und der Sprach–Störschallpegel (SIL) sind zwei relativ einfache Verfahren zur Beurteilung der Sprachverständlichkeit, wobei das zweite Verfahren das genauere ist. Zur Beurteilung der Sprachverständlichkeit wird die Abbildung 7.6-1 und zur Beurteilung ihrer Qualität die Tabellen 10.4-3 (Spalte 4 und 6, (7) und 10.4-4 (Spalte 1 und 5) herangezogen.
x Beispiel (a). In einem großen Büro schreiben drei Personen am PC. In einer Entfernung von drei Metern, in der der Geräuschpegel LNA = 55 dB beträgt, unterhalten sich zwei Personen in 2m Abstand. Wie gut – so lautet die Frage – ist die Sprachverständlichkeit bei normaler Sprechweise (LSA,1m = 60 dB) und wie groß ist der prozentuale Zuwachs an Sprachverständlichkeit, wenn der Geräuschpegel der PCs etwa durch einen Schallschirm oder durch den Kauf eines leiseren PCs um ungefähr 5 dB verringert wird? Zur Beantwortung dieser Fragen werden die o.g. Abbildungen und Tabellen benutzt.
244
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Aus dem Signal–Geräuschabstand beim Hörer (bei beiden Gesprächspartnern) von LSNA = 60 dB - 6 dB - 55 dB = -1 dB ergibt sich eine Sprachverständlichkeit von Einsilbern von SVE | 55 % vorliegt. Die Qualität der Sprachverständlichkeit liegt bei schwach (Tendenz zu angemessen). Wird der Geräuschpegel um LNA = 5 dB gesenkt, so steigt die Sprachverständlichkeit um 25 % auf SVE | 80 % an, sie ist dann angemessen bis gut.
x Beispiel (b). An einem Montagearbeitsplatz ist die Entfernung vom Sprecher zum Hörer etwa r = 2 m. Wie laut darf der Geräuschpegel sein, damit Sprecher und Hörer sich noch (angemessen, zufriedenstellend, befriedigend) verstehen können, wenn sie mit sehr lauter Stimme sprechen? Das SIL–r–Diagramm (Abb. 7.2.3-1) gibt den Geräuschpegel an, der für eine angemessene Sprachverständlichkeit noch zulässig ist. Man entnimmt diesem Diagramm, dass der Sprach–Störgeräuschpegel von etwa LSIL = 60 bis 61 dB (das entspricht etwa einem Schallpegel des Geräusches von LNA = 70 bis 71 dB) nicht überschritten werden soll, damit der den SIL–Kurven zugrunde gelegte Signal–Geräuschabstand (SIL = 10 dB) und die angemessene Sprachverständlichkeit (SVE = 70 %) noch gewährleistet ist.
x Beispiel (c). Am Arbeitsplatz herrscht ein Geräuschpegel gemessen in Oktaven von LNi = 50, 53, 56, 60 dB (fi = 0.5–4 kHz, i = 4–7) und damit ein Sprach–Störgeräuschpegel von LSIL = 52 dB (LNA = 60 dB). Wie weit können sich Sprecher und Hörer voneinander entfernen, ohne dass der Sprecher seine Sprechweise „angehoben“ verändern muss, mit der er den Hörer ansprechen soll? Die Entfernung von Sprecher zu Hörer kann (Abb. 7.2.3-1), um eine angemessene Verständlichkeit zu gewährleisten, etwa 1.6 m betragen.
x Beispiel (d). In einem Büro herrscht ein Geräuschpegel von LSIL = 42 dB (LNA = 50 dB) vor. Frage 1: Wie weit kann die Entfernung von Sprecher zum Hörer sein, damit eine angemessene Sprachverständlichkeit gewährleistet ist? Frage 2: Welche zu erwartende Sprechweise und welche Entfernung zwischen Sprecher und Hörer werden gewählt? Um eine angemessene Sprachverständlichkeit einzuhalten (Frage 1), können nach den Werten der Abbildung 7.2.3-1 Sprecher und Hörer bei entspannter Sprechweise r = 1.3 m, bei normaler Sprechweise r = 2.5 m und bei angehobener Sprechweise r = 4 m voneinander entfernt sein. Ermittelt man entsprechend dem Lombardeffekt (Abb. 5.3-1) die zu erwartende Sprechweise (Frage 2), wird sie für diesen niedrigen Geräusch-
7.2 Verfahren mit bewerteten Schallpegeln
245
pegel (LNA = 50 dB) bei 'entspannt' bis 'normal' (LSA,1m = 54–60 dB) liegen; die dabei gewählte Entfernung der Gesprächspartner wird r = 1.5–2 m betragen (bei der geforderten angemessenen Verständlichkeit). Im Büro wird aber eher eine gute Sprachverständlichkeit erwartet (ab SIL = 15 dB), was durch eine normale Sprechanstrengung (LSA,1m = 60 dB) gewährleistet und eine Gesprächsentfernung von etwa r = 1.4 m (60 dB - 20 log1.4 dB = 57 dB: 57 dB-15 dB = 42 dB). Entsprechend der praktischen Erfahrung und den empirischen Befunden (Pearsons et al. 1977, Abb. 5.7-1) sollte ein Gespräch bei einem Geräuschpegel von LNA = 50 dB eher bei einer Entfernung von 0.7–1.2 m und einer etwas weniger anstrengenden Sprechweise (LSA = 55 dB) stattfinden, was einer verbesserten Sprachverständlichkeit (AI = 0.7, SIL = 17 dB) entspricht.
x Beispiel (e). In einem Sitzungszimmer (4 m x 12 m x 20 m), in dem die Gesprächspartner eine Entfernung von 15 m zueinander haben, sollte eine sehr gute Sprachverständigung bei normaler Sprechweise (Tab. 5.22) gewährleistet sein. Welcher Schallpegel des Störgeräusches kann bei diesen Bedingungen noch toleriert werden? Das Sitzungszimmer ist ein Flachraum (4 ŭ 1/3 (12)) mit einer gut absorbierenden Decke. Damit die Schallausbreitung vom Sprecher zum Hörer berechnet werden kann, wird Abbildung 7.4.1-2 herangezogen. Es kann eine Pegelabnahme pro Abstandsverdopplung von DLr = 4 dB/AV ab h/2 = 2 m postuliert werden. Bei den entsprechenden Entfernungen (r) vom Sprechermund ergeben sich die folgenden Sprachpegel (LSA) beim Hörer: r in m LSA in dB
0.5 66
1 60
2 54
4 50
8 46
16 42
32 38
Entsprechend der Qualitätsbewertung der Verständlichkeit (Tab. 10.4-3 und 10.4-4) ergibt sich für eine angemessene Sprachverständigung (SIL = 10 dB, LSNA = 2 dB) ein schon ein recht niedriger Störgeräuschpegel ( LSIL < 32 dB, LNA d 40 dB). Um eine sehr gute Sprachverständigung zu erhalten (Tab. 10.4-3, Sp 6: SIL = 21 dB, (LSIL + 8dB = LNA) SNR = 13 dB; Tab. 10.4-4, Sp.5: SIL = 23 dB, LSNA = 16 dB), wie sie im Beispiel verlangt wird, muss der Störgeräuschpegel damit unterhalb von LNA d 30 dB liegen. Dabei ist noch zu beachten, dass der Nachhall, der in diesem Raum möglicherweise relativ gering ist (T < 1 s), zusätzlich die Sprachverständlichkeit verringern könnte.
x Beispiel (f). In einer großen Werkhalle (8 m x 25 m x 70 m, ohne schallabsorbierende Decke) soll abgeschätzt werden, bis zu welcher Entfernung Warnrufe (Sprechweise: maximal schreien, LSA,1m = 90 dB,
246
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Tab. 5.2-2) bei einem Störgeräuschpegel von LNA = 75 dB noch gehört bzw. verstanden werden können. Wie aus dem SIL–r–Diagramm (Abb. 7.2.3-1) zu entnehmen ist, ergibt sich bis zu einer Entfernung von etwa r d 4 m eine angemessene (befriedigende) Sprachverständigung. Für Warnrufe im Betrieb gibt es aber nur eine begrenzte Anzahl von Wörtern (z.B. Halt, Vorsicht, zur Seite treten). Deshalb kann statt einer befriedigenden Sprachverständigung mit einem Signal–Geräuschverhältnis von SIL = 10 dB (LSNA = 2 dB) ein niedrigeres S/N–Verhältnis (z.B. LSNA = -5 dB) gewählt werden. Wie aus ISO 9921 Anhang F hervorgeht, wird für einen solchen Fall die Einstufung „schwach“ vorgeschlagen (Tab.10.43, Sp 6: SIL = 3 dB, LSNA = -5 dB). Auch die Ergebnisse der Abbildung 7.6-1 unterstützen dieses Vorgehen. Aus ihr geht hervor, dass die Verständlichkeit eines von 32 Wörtern bei einem Signal–Geräuschverhältnis von LSNA = -5 dB (STI = 0.3) bei SVE | 90 % liegt. Da die Entfernung zwischen Sprecher und Hörer sicher größer ist als die oben angenommenen 4 m, kann für die Abschätzung des Sprachpegels nicht nur die Schallausbreitung im direkten Schallfeld benutzt werden. Die Halle ist ein Flachraum (8 d 1/3 (25, 70)) ohne eine schallabsorbierende Decke, in der eine große Anzahl von Maschinen steht. Entsprechend der Abbildung 7.4.1-2 ist in diesem Fall von einer Pegelabnahme pro Abstandsverdopplung von DLr = 3 dB/AV ab h/2 = 4 m auszugehen. Somit können die Schallpegel der Sprache (LSA) bei entsprechenden Abständen (r) berechnet werden. Es ergeben sich folgende Werte: r in m LSA in dB
1 90
2 84
4 78
8 75
16 72
32 69
Um eine „schwache“ Qualität der Sprachverständigung zu erreichen, muss ein Signal–Geräuschabstand von SIL = 3 dB (LSNA t -5 dB) bis zu einer Entfernung von etwa r d 25 m eingehalten werden. Bezüglich der oben festlegten Qualität der Sprachverständigung ist zu bedenken:
x dass die Sprachverständlichkeit durch die Nachhallzeit, die in solchen Fabrikhallen bei T = 2–4 s liegt, verringert sein kann; x dass für Warnrufe, die in der Regel die Sicherheit der Person und einen fehlerfreien Arbeitsablauf garantieren sollen, die oben festgelegte Qualitätsstufe der Sprachverständigung zu niedrig sein kann und eher eine höhere Qualität festzulegen ist; x dass die angegebene Sprachverständlichkeit von SVE = 90 %, nur für die Warnrufe gilt, die dem Hörer bekannt und vertraut sind.
7.3 Verfahren mit Spektren: Sprachindices
247
7.3 Verfahren mit Spektren: Sprachindices 7.3.1 Sprachindices, Prinzipien Bandartikulation, Gewichtsfunktion, Sprachdynamik, Schwerhörigkeit, Qualität, Begrenzung Neben der Bestimmung der Sprachverständlichkeit nach dem Grenzkurvenverfahren (Abschn. 7.2.2) und Bewertungsverfahren (Abschn. 7.2.1) wurden Verfahren entwickelt, in denen mittels arithmetischer Mittelwerte von frequenzgewichteten Schallspektren die Verständlichkeit vorhergesagt werden kann. Zur Abschätzung der Sprachverständlichkeit nach den frequenzgewichteten arithmetischen Mittelwerten geht man allgemein so vor: innerhalb bestimmter Frequenzbänder wird der Signal–Geräuschabstand ermittelt. Der Signal–Geräuschabstand wird entsprechend dem Beitrag, den die Frequenzbänder zur Sprachverständlichkeit leisten, gewichtet und arithmetisch über den gesamten Frequenzbereich der Sprache gemittelt. Dieser Mittelwert gibt das mittlere Verhältnis vom Signal zum Störgeräusch an und ist somit ein Maß für die Sprachverständlichkeit. Der Bildung des gewichteten arithmetischen Mittelwertes von Signal– Geräuschabständen liegen ähnliche Prinzipien zugrunde wie der Bestimmung der Lautheit (Stevens 1961; Zwicker u. Feldtkeller 1967; Scharf 1970). Für die Lautheitsbildung wird im Ohr innerhalb einer Frequenzgruppe (s. Abschn. 2.3), die in ihrer Bandbreite etwa einer Terz entspricht, die Schallintensität des akustischen Signals ermittelt. Hieraus ergibt sich bei Berücksichtigung der ohrgemäßen Frequenzbewertung und Verdeckung in den einzelnen Frequenzgruppen (Terzen) die spezifische Lautheit. Diese spezifische Lautheit wird für den gesamten Hörfrequenzbereich arithmetisch gemittelt und stellt die Lautheit des akustischen Signals dar. Dabei liegen die Frequenzbewertungen und die Frequenzgruppen (Abb. 2.3-3) für die Ermittlung der Lautheit und für die Bestimmung der Sprachverständlichkeit in gleicher Größenordnung. Die arithmetische Mittelung der frequenzgewichteten Schallpegel ist Ausgangspunkt der wichtigsten Verfahren, die zur Vorhersage der Sprachverständlichkeit aus den physikalischen Parametern der Sprache und des Geräusches entwickelt worden sind: der Sprach–Störschallpegel (SIL, Abschn. 7.2.3), der Artikulationsindex, der Sprach–Verständlichkeitsindex (AI, SII, Abschn. 7.3.2) und der Sprach–Übertragungsindex (STI, Abschn. 7.3.3). Die Berechnung des Artikulationsindex (AI) geht auf die Ausführungen von Fletcher u. Steinberg (1929) und Collard (1930) zurück. Während Fletcher u. Steinberg ein allgemeines Konzept zum Artikulationsindex entwickelten, hatte Collard sich zum Ziel gesetzt, die Verständlichkeit von Sprache zu bestimmen, die über ein Telefon vermittelt wird. Das Konzept
248
7 Vorhersage der Sprachverständlichkeit: Sprachindices
des Artikulationsindex stellt den Einfluss der Sprache, des Geräusches und der Filterung beider auf die Sprachverständlichkeit in den Mittelpunkt. Eine direkte Bestimmung der korrekt verstandenen Sprachsignale von einzelnen Telefonnetzwerken und Teilen dieser vorzunehmen, wäre mit einem großen Zeitaufwand verbunden. Aus diesem Grunde ging Collard dazu über, aus den Parametern des Telefonschaltkreises, des Signals und des Geräusches die Sprachverständlichkeit vorherzusagen. Da das Spektrum der Sprache einen weiten Frequenzbereich umfasst, vermutete Collard, dass sich die Verständlichkeit der Buchstaben und Silben aus der Bandartikulation ableiten lässt. Die Bandartikulation wird jeweils innerhalb der charakteristischen Sprachfrequenzbänder ermittelt und je nach Signal– Geräuschabstand im Frequenzband multiplikativ gewichtet. Das Maß für die Sprachverständlichkeit, die Artikulation, ergibt sich aus der Addition der einzelnen gewichteten Bandartikulationen. (Leider wird der Begriff Artikulation nicht eindeutig benutzt: er bedeutet meisten Aussprache (Kap. 5), aber hier eher die Sprachverständlichkeit in den Bändern.) Das Konzept von Fletcher u. Steinberg sowie von Collard wurde von French u. Steinberg (1947) zu dem bekannten Artikulationsindex AI ausgebaut und eingeführt. Alle weiteren Modelle zum Artikulationsindex beruhen auf dem von French u. Steinberg vorgestellten Modell. Wesentliche Ergänzungen, Einschränkungen und Anpassungen an die Praktikabilität wurden von Beranek (1947a), Fletcher u. Galt (1950), Richards u. Archbold (1956) und Kryter (1962a, b) vorgenommen. Eine informationstheoretische Begründung für den Artikulationsindex wurde von Mantel (1968) vorgenommen (s.a. Abschn. 7.3.4). Die wesentliche Festlegung ist die Einteilung des Frequenzbereiches in die für die Sprache wichtigen 20/21 Frequenzbänder. Die Bandbreite wurde nach dem Ausmaß der Sprachverständlichkeit so bestimmt, dass in jedem Frequenzband die gleiche Sprachverständlichkeit auftritt, d.h. jedes Filter trägt gleichviel zur Sprachverständlichkeit bei. Die Artikulation (AR) ist der Anteil von korrekt wahrgenommenen Phonemen, die in sinnlosen Silben dargeboten wurden. Sie ist schließlich die Summe der Teilartikulationen oder der Bandartikulationen (Bi) und der einzelnen Frequenzbänder (i) mit der Bandbreite (Dfi); es gilt also AR = ť Bi. Die Artikulation (AR) kann eine Zahl von 0 bis 1 annehmen. Kennt man den Zusammenhang der Artikulation und der Sprachverständlichkeit, so lässt sich für ein vorgegebenes Sprachmaterial die Sprachverständlichkeit (SV) in Prozent angeben. In diesem Modell des Artikulationsindex wird angenommen, dass die Information der Sprache in dem wahrgenommenen Pegel der einzelnen Frequenzbänder enthalten ist und diese sich zu einer Gesamtartikulation additiv zusammenfügen lässt. Die einzelnen Bandartikulationen werden als
7.3 Verfahren mit Spektren: Sprachindices
249
unabhängig vorausgesetzt. Fletcher entwickelte eine nichtlineare Transformation zur Ermittlung der einzelnen Bandartikulationen. Kennzeichnend für den von Kryter entwickelten Artikulationsindex sind
x der Dynamikbereich der Sprache von 30 dB, x der Gültigkeitsbereich des bandbezogenen Signal–Geräuschabstandes von LSNi = -18 bis 12 dB und x die Festlegung von Gewichtsfunktionen für 15 Terzen und 6 Oktaven. Dieser Artikulationsindex wurde in ANSI S3.5 (1969) festgelegt und ist in Abschnitt 7.3.2 beschrieben. Der Artikulationsindex ist für die Abschätzung der Sprachverständlichkeit bei der Störung durch zeitlich konstante Geräusche gut geeignet. Zehn bis fünfzehn Jahre später wurde diese amerikanische Norm aufgrund der neueren Ergebnisse überarbeitet und so verändert, dass ein Rahmenverfahren entstanden ist, in das auch andere Verfahren integriert werden können (z.B. MTF). Mit dieser Norm (ANSI S3.5 1997) wurde auch ein neuer Name, der Sprach–Verständlichkeitsindex (SII), eingeführt (s. Abschn. 7.3.2). Der Artikulationsindex (AI) hat ebenso wie der Sprach–Verständlichkeitsindex (SII, Abschn. 7.3.2) jedoch einen wesentlichen Nachteil. Er bezieht nur die Störungen durch Geräusche, aber nicht die durch Nachhall ein. Erst der STI hat den Nachhall durch die Berücksichtigung der Hüllkurve der Sprache in jeder Oktave auf fachlich fundierte Weise einbezogen (s. Abschn. 7.3.3). In einer Reihe von kritischen Artikeln und Aufsätzen wird das Konzept des Artikulationsindex, das sowohl dem AI, SII, aber auch dem STI zu Grunde liegt, analysiert und Vorschläge für Änderungen und Erweiterungen konzipiert (Pavlovic u. Studebaker 1984; Pavlovic 1984, 1987a, b; Lazarus 1990a, c; Müsch u. Buus 2001a, b; Müsch 2001; Bormann et al. 2005). Aus diesen Überlegungen werden, bezogen auf das Modell Sprecher– Raum–Hörer, die wesentlichen Aspekte zur Vorhersage und zur Qualität der Sprachverständlichkeit abgeleitet und benannt sowie die Anwendbarkeit der Sprachindexverfahren (AI, SII, STI) diskutiert: a) zum Sprecher Die gesprochene Sprache wird durch Schallpegel, Frequenzspektrum (weiblich, männlich) und Sprechweise, den Lombardeffekt und die Abnahme der Sprachverständlichkeit bei der Zunahme der Sprechanstrengung beschrieben. Weiterhin wird die Ausbreitungsfunktion des Sprechpegels bis zum Hörer genannt. In der Regel wird ein freies Schallfeld angenommen. Beide Verfahren (SII, STI) machen hier entsprechende Vorschläge. b) zum bandbezogenen Signal–Geräuschabstand Der Artikulationsindex (AI) ergibt sich, wie ausgeführt wurde, aus dem Beitrag (Bi) der Frequenzbänder (i) für die Sprachverständlichkeit und
250
7 Vorhersage der Sprachverständlichkeit: Sprachindices
einer Gewichtsfunktion (gi), die den Anteil der Information enthält, der den Hörer unter den gegebenen Bedingungen tatsächlich erreicht (z.B. das Signal–Geräuschverhältnis; Gl. 7.3.1-1): AI = ť gi Bi .
(7.3.1-1)
Hierbei wird die Dynamik des Sprachpegels (LSF oder LSpeak, bei gleich bleibender Sprechweise) mit 30 dB angenommen. Dieses bleibt umstritten, da die Pegeldynamik bei 30–50 dB liegt. Ebenso entspricht die Annahme einer Linearität in den entsprechenden Sprachbändern nicht den Ergebnissen sprachbezogener Analysen (s. Abschn. 3.2). Trotzdem ist es aber sicher zweckmäßig, für alle Bänder (Bi) die gleiche lineare Abhängigkeit anzunehmen (Gl. 7.3.1-2): gi= 1/ L2 (LSi - LNi + L1).
(7.3.1-2)
Beim AI wurde ǻL1 = 12 dB, beim SII und STI ǻL1 = 15 dB gewählt und in dieser Weise die wirksamen Pegelspitzen zum Mittelwert der Sprache (LSi) definiert. Dabei hat man den Dynamikbereich der Sprache (ǻL2 = 30 dB) konstant gehalten. Die Formulierung der Zeitbewertung, die bei der Bestimmung der Dynamik der Sprache eine wichtige Rolle spielt, ist noch umstritten. In der Regel wird die Zeitkonstante der Lautheitsbildung (T= 50 bis 125 ms, Zeitbewertung Fast) verwendet. Ob es aber für die Sprachverarbeitung, um die es hier ja geht, nicht adäquater ist, eher kürzere Zeiten auszuwählen, bleibt offen. Die Benutzung der Hüllkurve zur Bestimmung der Sprachdynamik spricht für die Verwendung der Zeiten um 100ms. Aber selbst bei der Zeitbewertung um 100 ms liegt die Pegeldynamik schon bei 40–50 dB (Pavlovic 1993; Abschn. 3.1). D.h. die niedrigsten Pegel der Sprache liegen damit im Bereich von 40 bis 30 dB unter dem Mittelungspegel (LAeq) der Sprache. Sie geben den Pegel an, ab dem Geräusche störend werden können. Beim AI wird aber erst ab 18 dB und beim SII und STI werden erst ab 15 dB unterhalb des Mittelungspegels der Sprache eine relevante Beeinflussung der Sprache durch Störgeräusche (AI, SII, STI < 1) angenommen. Besieht man die Datenlage und den Einfluss dieser Pegelgrenzen auf die Sprachverständlichkeit, ist es zweckmäßig:
x die linearisierte Pegeldynamik beizubehalten, x den Dynamikbereich aber auf 33 oder 36 dB zu erhöhen und x die untere Grenze der Sprachindices auf 20 dB unter dem Mittelungspegel der Sprache (LSNi = -20 dB) festzulegen und sie nicht wie beim AI, SII und STI von -18 dB auf -15 dB anzuheben.
7.3 Verfahren mit Spektren: Sprachindices
251
Bei den jetzt vorliegenden Sprachindices insb. beim SII und STI erhält man für den Mittelbereich (um 0.5) differenzierte Aussagen, ebenso für den unteren Bereich (< 0.3), für den man sie aber kaum benötigt. Im oberen Bereich (> 0.8) dagegen, für den differenzierte Aussagen für eine „gute, sehr gute und exzellente“ Sprachverständigung erforderlich sind, ist es nicht möglich, differenziert zu bewerten (s.u.: g) Qualität; Abschn. 10.4). (Man muss berücksichtigen, dass sich die Werte des AI um 0.1 (SII = AI + 0.1) unter sonst gleichen Messbedingungen erhöhen.) c) Zur Gewichtsfunktion, Frequenzfunktion Durch die Bestimmung der Bandartikulation (Bi) wird der Beitrag der einzelnen Frequenzen zur Sprachverständlichkeit, der Artikulation, ermittelt. Bisher wurden meistens 20 Filter im Frequenzbereich der Sprache (etwa 0.1–8 kHz) angenommen (French u. Steinberg 1947; Pavlovic u. Studebaker 1984; Pavlovic 1987a). Die Bandartikulation ist in Abbildung 7.3.2-2 angegeben. Da aber Terz– und Oktavfilter zur Verfügung stehen, werden die Filter gleicher Sprachverständlichkeit (Bk) in Filter von Terzen (t) und Oktaven (ok) mit ihren Bandartikulationen (Bti, Boki) und Gewichtsfunktionen umgewandelt (Gl. 7.3.1-3):
AI ~
¦B ¦q B ¦q k
k
ti
i
ok i Boki
ti
.
(7.3.1-3)
j
Diese Frequenzgewichtsfunktion (frequency important function) bzw. die Gewichte der Terzen und Oktaven (qi) sind eingehend untersucht worden (Studebaker u. Sherbecoe 1993; s.a. Abschn. 6.2.2.2). Entscheidend ist, dass für jedes Sprachmaterial andere Werte angenommen werden. So wurde die Gewichtsfunktion für sinnlose Silben (Beranek 1947a; French u. Steinberg 1947; Duggirala et al. 1988), für Wörter (Black 1959; Schum et al. 1991; Studebaker u. Sherbecoe 1991; Studebaker et al. 1993; DePaolis et al. 1996), für sinnlose Sätze (Schum et al. 1991; Bell et al. 1992), Sätze (DePaolis et al. 1996) und für einen laufenden Text (Studebaker et al. 1987; DePaolis et al. 1996) ermittelt. In den Normen sind für den AI, SII und STI weitere Gewichtsfunktionen angegeben (s. Pavlovic 1994). Der SII enthält Gewichtsfunktionen für drei Filterarten (kritisches Band, Terzen, Oktaven) und für verschiedene Audiometrietests (Studebaker u. Sherbecoe 1993: NNS, CID–22, NU 6, DRT, SPIN (für Einsilber); s. Tab. 2.6-1). Es wird vor allem der Schnittpunkt diskutiert, d.h. der Punkt, an dem die Sprachverständlichkeit beim Hoch– und Tiefpassfilter gleich ist (s. Abb. 6.2.2.1-2). Er liegt je nach S/N–Abstand im Tief–/Hochpass und Art des Sprachmaterials bei 1.8–2.2 kHz (DePaolis et al. 1996). Die Gewichtsfunktionen für Terzen und Oktaven haben einen ähnlichen Verlauf. Die Verteilung der Gewichtsfunktion q(f) ist eingipflig (es gibt auch zwei-
252
7 Vorhersage der Sprachverständlichkeit: Sprachindices
gipflige), wobei sie bei niedrigen und hohen Frequenzen geringe Werte annimmt. Die hohen Werte liegen im Bereich von 1 bis 4 kHz. Ihr Maximum liegt bei 2 kHz (s. Tab. 7.3.2-1, -2 Spalte 7, 6; Tab. 7.3.3-1; Abb. 7.3.1-1a, b). Für weibliche und männliche Sprecher wurden unterschiedliche Gewichtsfunktionen ermittelt (s. STI; Steeneken u. Houtgast 2002a, b). 0,3 qi
0,2
SH FS S
0,1
0 0,125
0,5
2
f / kHz
8
Abb. 7.3.1-1a. Frequenzgewichtsfunktion qi für Oktaven für den AI und STI für sinnlose Silben (FS, French u. Steinberg 1947), CVC–Wörter (SH, Steeneken u. Houtgast 1980) und leichte Sprache (S, Studebaker et al. 1987) 0,4
0,3 SV P
qi 0,2
SW SK 0,1
0 0,125
0,5
2
f / kHz
8
Abb. 7.3.1-1b. Frequenzgewichtsfunktion qi für 4 Sprachmaterialien: sinnlose Silben (P, Pavlovic u. Studebaker 1984, ANSI S3.5), PB–Wörter (SW (Steeneken u. Houtgast 1980, IEC 60268–16), Konsonanten (SK) und Vokale (SV) (Steeneken 1992)
Die Gewichtsfaktoren wurden zur Beantwortung unterschiedlicher Fragestellungen entwickelt. Wenn nur ein einzelner Index berechnet werden soll, der die Sprachverständlichkeit mit einem bestimmten Sprachtest (bestimmte Wörter von einem bestimmten Sprecher) gut vorhersagen soll (z.B. bei der Prüfung von Hörgeräten), ist es sinnvoll, spezifische Ge-
7.3 Verfahren mit Spektren: Sprachindices
253
wichtsfaktoren vorzugeben. Für allgemeine Qualitätsaussagen ist es zweckmäßiger, sich auf ein bestimmtes Sprachmaterial zu einigen. Die Autoren diskutieren die verschiedenen Ergebnisse der Gewichtsfunktion im Kontext der Phonemverteilung, der Worthäufigkeit und der Strategie, die ein Hörer für leichte und schwierige Texte verfolgt. Hier ist auch die Variation der Testsprache zu berücksichtigen, die durch die unterschiedlichen Sprecher bedingt ist. Auffällig sind die Unterschiede der Gewichtsfunktionen (Abb. 7.3.11a), die im AI/SII (FS, S) und im STI (SH) benutzt werden. Im STI wird die gegenseitige Abhängigkeit der Bandartikulation diskutiert (Steeneken u. Houtgast 1999), wobei im neu justierten STI eine Redundanzkorrektur, getrennt für weibliche und männliche Sprecher, vorgenommen wird (s. Tab. 7.3.3-1). Die Gewichtsfunktion wurde zudem für den SII und den STI unterschiedlich ermittelt. Der SII benutzt den für den AI entwickelten Weg, bei dem die Gewichtsfunktionen aus der Bandartikulation (s. Abschn. 7.3.2) abgeleitet werden. Für den STI werden die Gewichtsfunktionen so optimiert, dass die Abweichungen zur direkten Sprachverständlichkeit minimiert werden. Allerdings konnte für eine spezifische Fragestellung – z.B. der Sprachverständlichkeit im Kfz–Bereich – kein wesentlicher Einfluss der verschiedenen Gewichtsfunktionen auf die Ergebnisse gefunden werden (Parizet 1992). d) Zu den Störungen bei der Übertragung Störungen bei der Übertragung werden im Faktor g des Artikulationsindex (AI = ť gi Bi) berücksichtigt. Er soll in jedem Band (i) zwischen 0 und 1 liegen. Der Einfluss der Geräusche (Frequenzverlauf, Bandbreite) auf die Sprachverständlichkeit wurde eingehend untersucht (Kryter 1962a, b; Pavlovic u. Studebaker 1984; s. Abschn. 7.3.2). Die Maskierung benachbarter Frequenzbereiche (Weitabverdeckung: Aufwärts– und Abwärtsverdeckung) ist in den Normen zum AI unübersichtlich und teilweise nicht zutreffend beschrieben. So spielt die Abwärtsverdeckung in der Regel keine Rolle, die Weitabverdeckung existiert für den SII nur in der Terzversion, der STI gibt ein praktikables Verfahren für die Aufwärtsverdeckung an, die erhöhte zentrale Verdeckung bei Schwerhörigen wird nicht berücksichtigt (s. Abschn. 6.3.2, 8.2). Der Nachhall kann im AI durch eine Korrektur und im SII durch die Modulations–Übertragungsfunktion (MTF) einbezogen werden. Was bisher kaum gemacht wurde und auch nicht zu empfehlen ist. Im STI wird der Nachhall dagegen durch die Berücksichtigung der Hüllkurve der Sprache einbezogen. Auch hier liegt eine Reihe von Arbeiten vor, in denen die Parameter des STI justiert worden sind (Abschn. 7.3.3). e) Zur Schwerhörigkeit
254
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Die untere Grenze des Sprachbereichs wird für eine normalhörende (und für eine schwerhörige) Person durch den Pegel eines Geräusches (AI: LSi 18 dB; SII, STI: LSi - 15 dB) und durch die Hörschwelle selbst vorgegeben. Die Festlegung dieser unteren Grenze kann auf zweierlei Weise erfolgen. Zum einen werden der Pegel des Geräusches und der Pegel der Hörschwelle miteinander verglichen; der höhere Pegel ist maßgebend. Zum anderen wird die Hörschwelle als internes Geräusch aufgefasst und die Intensität des externen und des internen Geräusches (Hörschwelle) werden addiert (Pavlovic 1984; Pavlovic et al. 1986; SII, STI). Die Berücksichtigung der Hörschwelle als Grenze für den Sprachbereich kann aber nur den direkten Einfluss dieser Hörschwelle auf die Sprachverständlichkeit beschreiben. Zu berücksichtigen sind aber auch die Auswirkungen der Schwerhörigkeit im überschwelligen Bereich. Überlegungen zur Entwicklung eines Modells, das sowohl die Ruhehörschwelle als auch ein Hördefizit im überschwelligen Bereich einbezieht, liegen vor, weisen aber noch große Unsicherheiten auf. Ein solches einfaches und übersichtliches Modell ist das von Plomp (Plomp 1978, 1986, Plomp et al. 1983). In diesem Zusammenhang ist auf die Übersicht und Bewertung der Sprachindexverfahren für Schwerhörige (Bormann et al. 2005) und auf die Ausführungen in Abschnitt 6.3.2 und 8.2 (s.a. Lazarus 1990a; Lazarus et al. 2005; Sust u. Lazarus 2005) zu verweisen. Natürlich kann es bei der Einbeziehung der Schwerhörigkeit nicht darum gehen, individuelle Vorhersagen zu machen. Man kann nur versuchen, Klassen von Schwerhörigen (Leitungsschwerhörige, Schallempfindungsschwerhörige) mit Hilfe der Ruhehörschwelle so zu berücksichtigen, dass die Begrenzung der Sprachverständlichkeit im Bereich der Hörschwelle und im überschwelligen Bereich im Mittel erfasst wird (Abschn. 6.3.2). f) Zu weiteren Einflussfaktoren Eine Reihe weiterer Faktoren, die die Ergebnisse der Verfahren AI, SII und STI beeinflussen, wird hier nur kurz aufgezählt:
x Gehörschutz (s. Abschn. 8.4) x Übersteuerung des Gehörs (s. Abschn. 5.9) x Zweitsprache (s. Abschn. 6.5.5) g) Zur Variabilität der Einflussgrößen, Sprachqualität Die Sprachindices sollen auf Grund objektiver Messungen und Daten eine gewisse Güte der Sprachkommunikation, d.h. Sprachverständlichkeit, gewährleisten, so z.B. in Räumen, in denen Sprachkommunikation unter mehr oder weniger großen Störbedingungen stattfindet: im häuslichen Bereich, in der Freizeit (Gaststätten), in Bildungsstätten (Schule, Universität, Fortbildungsstätten), in Tagungsräumen (Hotel–, Konferenzräumen), im
7.3 Verfahren mit Spektren: Sprachindices
255
öffentlichen Bereich (Büro, Callcenter), am Arbeitsplatz, bei der Verständigung mit Kommunikationsgeräten (Telefon, Hörgeräte, etc.), mit Rufanlagen (Betrieb, Bahnhof) und bei der Konversation von Personengruppen (Jugendliche, Kinder, Ältere, Schwerhörige). In den oben genannten Bedingungen ist es zweckmäßig, ein Verfahren heranzuziehen, das Geräusche wie auch die Nachhallzeit mitberücksichtigt. Die Variabilität jeder Kommunikationssituation ist vor allem gegeben durch
x den Sprecher, mit seiner individuellen Artikulation und seinem selbst gewählten Sprechpegel, der auch durch die selbstgewählte Entfernung zum Gesprächspartner mitbestimmt wird, x den Geräuschpegel mit seinem Spektrum. Dieser kann häufig um mehr als 10 dB schwanken und ist damit nur ungenau zu bestimmen, x das benutzte Sprachmaterial: einfache und komplizierte Sätze, Wörter mit komplexen neuartigen Inhalten, fremdsprachiges Sprachmaterial. Diese Aufzählung und die Variabilität in der Gesprächsituation sprechen dafür, ein robustes Verfahren zu entwickeln, das nicht so sehr auf Feinheiten eingeht, sondern nur wesentliche Aspekte berücksichtigt. Die Sprachindexverfahren wurden in der Regel für Fälle entwickelt, bei denen das Störgeräusch und der Sprachpegel (in Pegel und Spektrum) gut bekannt sind, bspw. im Cockpit oder in Warten von Kraftwerken. Dort ist die Form des Spektrums wesentlich für die Verständlichkeit. Aber bei der Vielzahl der o.g. Fälle ändert sich sowohl der Pegel als auch das Spektrum von Zeit zu Zeit derart, dass das mittlere Spektrum nur eine grobe Schätzung sein kann. Unter diesen Umständen ist es wenig hilfreich, auf Verfahren zu setzen, die im Wesentlichen mit dem Spektrum arbeiten und die andere Einflussfaktoren, von denen eine Reihe genannt wurden, kaum oder nicht berücksichtigen. Deshalb ist die Verwendung von Spektren in Form von Terzen und die Definition von Gewichtsfunktionen für unterschiedliche Sprachmaterialien wenig hilfreich. Selbst die Verfahren, bei denen Oktavspektren benötigt werden, dem AI, SII und STI, geben in vielen Fällen keine genaueren Ergebnisse als einfache Verfahren (SIL, SNR). Ein weiteres Problem ist die relativ schlechte Projektion der AI– bzw. SII– und STI– Werte auf die Ebene der Sprachverständlichkeit (oder umgekehrt). Um die Sprachverständlichkeit differenziert vorhersagen zu können, benötigt man einen möglichst linearen Zusammenhang zwischen den Sprachindices und der Sprachverständlichkeit: SV(0 bis 100 %) ū AI(0 bis 1) ū STI (0 bis 1). Diese Proportionalität ist im Bereich mittlerer Sprachverständlichkeit für sinnlose Silben tendenziell gegeben, teilweise auch für Einsilber (s. Abb. 7.6-1, -2). Im Bereich hoher Sprachverständlichkeit jedoch treten bei allen Sprachmaterialien mehr oder weniger starke
256
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Sättigungseffekte auf, so dass eine differenzierte Vorhersage zur Sprachverständlichkeit bei hohen AI– oder STI– Werten (> 0.80) schwierig ist. Die Sprachverständlichkeit ist der wesentliche Parameter der Sprachqualität. Die Sprachqualität umfasst zudem eine Reihe von weiteren Faktoren, die die Bewertung der Sprache und die subjektive Befindlichkeit beim Verstehensprozess betreffen (s. Kap. 10). Sie sind vor allem bei der Störung des Prozesses des Sprachverstehens interessant. Für eine Bestimmung der Sprachqualität wurden neuere Bewertungsmethoden entwickelt (Sato et al. 2005; Volberg et al. 2006; Sust et al. 2007; s. Abschn. 10.4). Sie können herangezogen werden, um den Sättigungseffekt, der eine valide Abschätzung der Sprachverständlichkeit im Bereich hoher Werte einschränkt, zu vermeiden. Weiterhin sind die gebräuchlichen Sprachindices AI, SII, STI (Werte von 0 bis 1) nach oben (und nach unten) begrenzt (AI: LSi - 18 dB; STI, SII: LSi - 15 dB), so dass der Bereich sehr guter und exzellenter Sprachverständlichkeit kaum noch erfasst werden kann. Mit dem Artikulationsverlust für Konsonanten (ALcons; Abschn. 7.3.4) und dem Sprach–Störschallpegel (SIL–Verfahren; Abschn. 7.2.3) sind dagegen gute Erfahrungen gemacht worden. Beide Verfahren sind nach oben (und unten) offen, d.h. für hohe (und niedrige) Werte der Sprachverständlichkeit nicht begrenzt. Der Artikulationsverlust (ALcons) wie auch der STI beinhalten den Einfluss der Nachhallzeit und des Geräuschpegels. Der Einfluss des Geräuschpegels auf die beiden Sprachindices STI und ALcons macht sich besonders an der sensiblen oberen Grenze bemerkbar. Der STI wird durch einen Signal–Geräuschpegel nur bis zu einem Wert von 15 dB verändert. Ist dieser Wert größer (SNR > 15 dB), bestimmt nur noch die Nachhallzeit den STI (Abschn. 7.3.3). Beim ALcons macht sich der Einfluss des Signal–Geräuschpegels bis 25 dB bemerkbar (Abschn. 7.3.4). Auch neuere Untersuchungen (Sato et al. 2005; Sust et al. 2007, Abschn. 10.4) zeigen, dass deutliche Veränderungen der Sprachqualität zwischen den Signal–Geräuschpegeln von 10 bis 25 dB zu beobachten sind. Weiterhin ist es für den Zusammenhang von Sprachindices und Sprachverständlichkeit wichtig, dass die Qualität der Sprachkommunikation zweckmäßig festgelegt wird. Hierbei ist es erforderlich, die Sprechweise und die Sprachverständlichkeit, wie auch die Anstrengung und die Konzentration von Sprecher und Hörer einzubeziehen, die zur Aufrechterhaltung der Kommunikation erforderlich sind. Dazu müssten die Stufen der Qualität mit den Wertebereichen der Sprachindices verbunden werden. In Abschnitt 10.4 werden dazu Vorschläge vorgelegt.
7.3 Verfahren mit Spektren: Sprachindices
257
Zusammenfassend kann festgehalten werden: x Es ist zweckmäßig, die Qualität von Räumen oder Teilräumen, die für eine Kommunikation genutzt werden sollen, mit objektiven Kriterien, wie es die Sprachindices sind, zu bestimmen. x Der STI berücksichtigt die Nachhallzeit und ist ein effektives Maß zur Vorhersage der Sprachverständlichkeit mittlerer Qualität. x Im Bereich hoher Sprachverständlichkeit (AI, SII, STI > 0.80) liegt für die Vorhersage der Sprachverständlichkeit nur eine geringe Differenzierungsmöglichkeit vor, was unbefriedigend ist. x Ein Sprachindex sollte auch Signal–Geräuschabstände über 15 dB erfassen können, etwa bis 25 dB. x Der Einfluss der Schwerhörigkeit wird in den Sprachindices für den überschwelligen Bereich bisher nicht berücksichtigt. x Valide Tests zur Festlegung der Sprachqualität sollten entwickelt werden (s. Abschn. 10.4). x Die Anwendung des SIL–Verfahrens zur Vorhersage der Verständlichkeit ist zweckmäßig, solange noch kein einfacheres Verfahren, das (einfacher als der STI) die Nachhallzeit im gesprächsnahen Bereich näherungsweise mitberücksichtigt, zur Verfügung steht. Ersatzweise kann – mit geringerer Genauigkeit – auch das SNR–Verfahren benutzt werden, insbesondere wenn die Bestimmung des Spektrums unsicher ist. 7.3.2 Artikulationsindex (AI), Sprach–Verständlichkeitsindex (SII) Bandartikulation, Rechenschritte, Beispiel Der SII und der AI werden in diesem Abschnitt gemeinsam behandelt, da der SII (ANSI S3.5–1997) eine Weiterentwicklung des AI (ANSI S3.5– 1969) ist. Exkurs: Mit der in Abschnitt 7.3.1 aufgeführten Methodik wurde der AI entwickelt. Zuerst wird die Bandartikulation (Bi) als Teil der Gesamtartikulation (AR) ermittelt. Die Größe (h) gibt den Zusammenhang zwischen der Sprachverständlichkeit (SV) und der Artikulation (AR) an: SV = h (AR). Die Bandartikulation kann in jedem Frequenzband durch Geräusche gestört werden, so dass nur ein Teil (g) der Bandartikulation (Bi) des bestimmten Bandes zur Wirkung kommen kann. Die Bandartikulation des Bandes (Bi) ergibt sich dann aus der maximal möglichen Bandartikulation, verringert um die Gewichtsfunktion (gi; Gl. 7.3.2-1):
258
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Bi
g i Bimax .
(7.3.2-1)
Bimax ist die maximal mögliche Bandartikulation in dem Frequenzband (i), wobei die Minderung der Sprachverständlichkeit nur durch die Bandbegrenzung des Filters bedingt ist. Der Gewichtsfaktor (gi) ist eine Funktion des Signal– Geräuschabstandes (LSNi) und der Frequenz (fi). Für die Abschätzung der Sprachverständlichkeit mit Hilfe der Artikulation (AR) müssen die Größen Frequenzbreite (Dfi) der einzelnen Filter für die maximale Bandartikulation (Bimax), die Gewichtsfunktion (gi) und der Zusammenhang zwischen der Artikulation und der Sprachverständlichkeit (h) bekannt sein. Im Weiteren wird die Bestimmung dieser drei Größen diskutiert. Zur Bestimmung der Funktion SV = h (AR), der Sprachverständlichkeit in Abhängigkeit von der Artikulation, haben French u. Steinberg (1947), Fletcher u. Galt (1950) und Richards u. Archbold (1956) Versuche durchgeführt. Die Versuchspersonen bekamen Silben und Buchstaben über einen Tief– (t) und Hochpassfilter (h) dargeboten. Der Prozentsatz korrekt verstandener Sprachreize wurde ermittelt (SVt und SVh). Der Gedanke, den Versuchspersonen Silben und Sprachlaute durch Tief– sowie Hochpassfilter anzubieten und aus diesen Werten die Artikulation zu bestimmen, geht auf die Annahme der Additivität der Bandartikulationen bzw. Artikulationen zurück. Die Gesamtartikulation (ARg) setzt sich additiv aus der Artikulation der zwei Frequenzfilter des Tiefpasses (ARt) und des Hochpasses (ARh) zusammen (ARg = ARt + ARh), wobei dieses auch für die Teilfrequenzbänder gilt (Dft + Dfh = Dfg). Die Funktion SV = h (AR) wird aus der Sprachverständlichkeit SV = SVg/SVt /SVh für die unterschiedlichen Artikulationen ARg/ARt/ARh bestimmt. Die Summe der ermittelten Sprachverständlichkeiten der Teilbänder SVt und SVh entspricht in der Regel nicht der Sprachverständlichkeit des Gesamtbandes (SVg Ŭ SVt + SVh), denn dann wäre die Aufgabe, die Funktion SV = h (AR) zu bestimmen, schon gelöst, es wäre SV = AR. French u. Steinberg (1947) und Richards u. Archbold (1956) haben den Frequenzbereich des Sprachbereiches (0.1 bis 10 kHz) dem Gesamtfrequenzband Dfg gleichgesetzt und oberhalb und unterhalb einer Frequenz (fk) mit einem Hoch– und Tiefbandpass die Sprachverständlichkeit (SVh und SVt) gemessen (Abb. 6.2.2.1-2; Gl. 7.3.2-2), dann gilt (dabei ist h-1 die Umkehrfunktion von h):
ARg
ARt ARh
h 1 ( SVt ) h 1 ( SVh ) h 1 ( SVg ) .
(7.3.2-2)
Umfasst das Band Dfg den gesamten Frequenzbereich und ist der Sprachpegel und das Signal–Geräuschverhältnis ausreichend hoch, so ist: ARg = 1. Legt man die Frequenz fk so, dass die Teilbänder jeweils die halbe Artikulation repräsentieren, ist ARt = ARh = 0.5. Nach French u. Steinberg ist die Silbenverständlichkeit entsprechend dieser Aufteilung SV = h (AR = 0.5) = SVt = SVh = 0.68 (Abb. 6.2.2.1-2). Wird durch Veränderung des Pegels der Sprache die Sprachverständlichkeit SV = 68 % erreicht, das gilt für LS = 35 dB, erhält man durch Halbierung der Artikulation (ARt = ARh = 0.25) eine Sprachverständlichkeit von SV = h (AR = 0.25) = SVt = SVh = 0.24 (Abb. 6.2.2.1-2). Die Funktion h kann dann z.B. wie folgt abgeleitet werden:
7.3 Verfahren mit Spektren: Sprachindices
259
für ARt = ARh = 0.5: Art + Arh = h-1(SVt) + h-1(SVh) = 2h-1(0.68) = 1 für ARt = ARh = 0.25: 2h-1(0.24) = h-1(0.68) = 0.5. In Abbildung 7.3.2-1 sind Kurven SV = h(AR) von French u. Steinberg (1947) und Pollack (1948) angegeben, die aus Messungen der Verständlichkeit von Silben und Einsilbern, gefiltert mit Tief– und Hochpässen unterschiedlicher Grenzfrequenzen gewonnen wurden.
Abb. 7.3.2-1. Sprachverständlichkeit (SV) in Abhängigkeit von der Artikulation (AR), bestimmt aus der Verständlichkeit für Silben (Si) und Einsilber (E), die mit einem Tief– und Hochpass gefiltert wurden, nach French u. Steinberg (1947) (Si, , Abb. 6.2.2.1-2), Pollack (1948) (E, ---), sowie aus der Verständlichkeit von Silben, die mit Terzen gefiltert wurden, nach Sotscheck (1973) (Si, - - , Abb. 6.2.2.1-5)
Abb. 7.3.2-2. Artikulation (AR) bzw. kumulative Bandartikulation in Abhängigkeit von der Grenzfrequenz des Tiefpasses (fo) bei maximaler Bandartikulation (Bi = Bimax) für Silben () nach French u. Steinberg (1947) und (- -) nach Richards u. Archbold (1956) und Einsilber (- - -) nach Pollack (1948). Die Kurven nach French u. Steinberg und Pollack sind aus Abbildung 6.2.2.1-2 u. 7.3.2-1 abgeleitet
260
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Aus Messwerten der Silbenverständlichkeit, wobei die Silben über Terzfilter dargeboten wurden (Sotscheck 1973, s. Abb. 6.2.2.1-5), wurde eine weitere Kurve SV = h(AR) abgeleitet, die den beiden anderen Kurven relativ ähnlich ist. Damit ist der Zusammenhang (h) zwischen der Artikulation und der Sprachverständlichkeit gegeben, der für ein bestimmtes Sprachmaterial jeweils unterschiedlich ausfällt. Aus den Ergebnissen der Sprachverständlichkeit des Tiefpasses (SVt) lässt sich die Artikulation bzw. die kumulative Bandartikulation eines Tiefpasses (Abb. 7.3.2-2) bestimmen (ARt = h-1(SVt(fo)), dessen obere Grenzfrequenz (fo) von 0.1 nach 10 kHz ansteigt. Wird der Sprachfrequenzbereich in 20 Frequenzbänder eingeteilt, kann die Bandbreite (Dfi) dieser Frequenzbänder aus der kumulativen Bandartikulation (Abb. 7.3.2-2) in folgender Weise bestimmt werden: Jedes Teilfrequenzband (Dfi) trägt 5 % (Bimax = 1/20) zur Gesamtartikulation bei (AR = ť Bimax = 1, bei gi = 1). Die zu jedem Frequenzband (i) gleicher Bandartikulation gehörende Bandbreite (Df) ist in Abhängigkeit von der Mittenfrequenz (fi) in Abbildung 7.3.2-2 dargestellt.
French u. Steinberg (1947) und Beranek (1947a) gehen davon aus, dass das Geräusch Teile des Frequenzbandes des Sprachspektrums verdeckt und dadurch die Verständlichkeit von Sprachsignalen reduziert wird (Abb. 7.3.2-3). Deshalb wird bei der Berechnung der Sprachverständlichkeit das Frequenzspektrum des Störgeräusches und das der Sprache innerhalb eines jeden Frequenzbandes berücksichtigt.
Abb. 7.3.2-3. Bestimmung des Artikulationsindex aus den Oktavschallpegeln (Li) der Sprache (idealisierter Oktavschallpegel (LSi)) und dem Geräusch (LNi). Angegeben ist der idealisierte Dynamikbereich der Sprache mit den höchsten (max), mittleren (LSim = LSi,eq) und den niedrigsten (min) Werten des Sprachpegels in jeder Oktave, bei einem Mittelungspegel der Sprache von LSA = 60 dB; im schraffierten Bereich ist die Sprache durch das Geräusch (LNA = 61 dB) verdeckt
Um die Störwirkung des Geräusches zu erfassen, wird der prozentuale Anteil der Verdeckung der Sprache durch das Geräusch in jedem Teilfrequenzbereich bestimmt. Die Gewichtsfunktion (gi) soll in jedem Frequenzband (i) den prozentualen Anteil der Verdeckung angeben. Die Schallpegel
7.3 Verfahren mit Spektren: Sprachindices
261
der Sprache umfassen von den minimalen bis zu den maximalen Pegeln innerhalb eines Sprachflusses einen Pegelbereich von 30–50 dB (s. Abschn. 3.2). Ist der Geräuschpegel so hoch, dass er gleich den Pegelspitzen der Sprache ist, kann die Sprache nicht mehr verstanden werden (g = 0); ist der Geräuschpegel kleiner als der minimale Sprachpegel, so ist die Sprachverständlichkeit sehr gut (g = 1). Für French u. Steinberg und Beranek sind die Schallpegelanalysen von Dunn u. White (1940) Grundlage für die Bestimmung der Gewichtsfunktion (gi) (s. Abschn. 3.2). Die Pegelspitzen der Sprache – es wird das 1 %–Perzentil oder der Maximalwert bei einer Mittelungszeit von 125 ms des Sprachpegels benutzt – liegen etwa 10–12 dB über dem Effektivwert der Sprache. Die Pegelhäufigkeitsverteilung kann nach Dunn u. White (1940) und Lazarus u. Lazarus–Mainka (1979) als praktisch unabhängig von der Frequenz angesehen werden (Abschn. 3.2), so dass unabhängig von dem Bandpass die gleichen Gesetzmäßigkeiten für die Gewichtsfunktion angenommen werden können (French u. Steinberg). Die Pegeldynamik der Sprache wird von French u. Steinberg mit 'L2 = 36 dB und von Beranek mit 'L2 = 30 dB angegeben, wobei Beranek 20 % Pausenzeit in der gesprochenen Sprache annimmt, die Pausenzeit jedoch nicht in die Pegeldynamik einbezieht. French u. Steinberg (1947) gehen davon aus, dass die Beziehung zwischen der Gewichtsfunktion (gi) und dem Signal–Geräuschverhältnis fast linear ist. Beranek nimmt an, dass sie linear ist. Richards u. Archbold (1956) verwenden in ihren Berechnungen eine Pegeldynamik von 70 dB und gehen von einer nicht linearen Beziehung zwischen Gewichtsfunktion und Sprach– Geräuschverhältnis aus. Die verschieden gewählte Sprachpegeldynamik und die Annahme des Zusammenhangs zwischen Gewichtsfunktion und Signal–Geräuschabstand kann von der Art des Sprechens und von der Art des Sprachmaterials abhängig sein (Bowman 1974). Nach Beranek (1947a) geht man davon aus, dass für jedes Frequenzband (i) die Gewichtsfunktion (gi) aus der Differenz des Pegels der Sprache (LSi) und des Geräuschpegels (LNi) bestimmt wird. Dabei ist LSi der Pegel des Effektivwertes, d.h. der Langzeit–Mittelungspegel der Sprache (LSi = LSim = LSi,eq). Die Gewichtsfunktion (gi) ergibt sich dann für jeden Bandpass (i) zu (Gl. 7.3.2-3): 1 gi LSieq L Ni ǻL1 , ǻL2 (7.3.2-3) wobei gi = 1 bei (...) > 'L2 = 30 dB, gi = 0 bei (...) < 0 dB
ǻL1
LSiF 1% LSieq
12 dB .
262
7 Vorhersage der Sprachverständlichkeit: Sprachindices
'L1 ist die Differenz zwischen dem Spitzenpegel und dem Effektivwert. Übersteigt der Sprachpegel (LSi) den Geräuschpegel um mehr als 18 dB, bleibt der Gewichtsfaktor g = 1, da die Sprachverständlichkeit nicht mehr zunehmen kann. Ist die Differenz LSi - LNi kleiner als -12 dB, ist eine Sprachverständlichkeit nicht mehr möglich, es wird g = 0 gesetzt (Abb. 7.3.2-3). Unter der Annahme, dass sich die Teilverständlichkeiten der einzelnen Bandfilter addieren, kann man die Artikulation (AR) als Artikulationsindex (AI) beschreiben und erhält die bekannte Formel für den Artikulationsindex AI (Gl. 7.3.2-4): 1 1 AI ( LSi LNi ǻL1 ) , n i ǻL2 (7.3.2-4) wobei n = 20, 'L2 = 30 dB, 'L 1 = 12 dB ist. Die Integration bzw. Summierung erfolgt über die n = 20 Filter (i) gleicher Sprachverständlichkeit. Diese speziellen Filter erschweren jedoch die Anwendung des Artikulationsindex. French u. Steinberg und auch Beranek haben diese Filter gleicher Sprachverständlichkeit in ihren Berechnungen benutzt. Kryter (1962a), der für die Praxis ein vertretbares Verfahren entwickeln wollte, benutzte zur Bestimmung des Signal–Geräuschabstandes übliche Terz– und Oktavfilter. Das Heranziehen von Filtern mit üblichen Frequenzbreiten führt jedoch dazu, dass das Ergebnis jedes einzelnen Filters mit dem Gewichtsfaktor qi' multipliziert werden muss. Die Formel für den AI lautet dann (Gl. 7.3.2-5):
¦
AI
1 1 ¦ qi ' L Si L Ni 12 dB n 30 dB i
¦ qi LSi L Ni 12 dB . (7.3.2-5) i
Die Gewichtsfaktoren qi für Oktaven (n = 5) sind in Tabelle 7.3.2-1 (Spalte 7) angegeben. Will man einen A–bewerteten Signal–Geräuschabstand (LSA - LNA) in einen Artikulationsindex umrechnen, wird folgende Beziehung (Gl. 7.3.2-6) benutzt: AI
1 LSA L NA 12 dB , 0 dB d (...) d 30 dB . 30 dB
(7.3.2-6)
Beranek (1954) und Kryter (1962a) versuchten, die Reflexionen von Sprachschall (Abschn. 6.4, 7.4) durch eine Korrektur in die Berechnung des Artikulationsindex einzubeziehen. Die Nachhallzeit bedingt im Wesentlichen eine Erhöhung des effektiven Störpegels (Abschn. 7.4). Exkurs: In die Berechnung des Artikulationsindex geht in der Regel nur die zentrale Verdeckung des Sprachsignals durch das Störgeräusch in jedem einzelnen Frequenzband ein. Um aber auch die durch das Geräusch bedingte Weitabverde-
7.3 Verfahren mit Spektren: Sprachindices
263
ckung, das ist die Verdeckung von Sprachfrequenzen durch tiefer liegende Geräuschanteile (s. Abschn. 2.3, 6.3.2), zu erfassen, müssten bei der Bestimmung des Signal–Geräuschabstandes nicht nur die Werte des Sprach– und Geräuschspektrums, sondern auch ein Wert für die Mithörschwelle oder eine adäquate Größe für diese berücksichtigt werden. Kryter (1962a) ist dieser Anforderung in der Formulierung des Artikulationsindex nachgekommen und hat in Anlehnung an Bilger u. Hirsh (1956) und Carter u. Kryter (1962) einen Wert für die Weitabverdeckung in die Berechnungsformel aufgenommen. Kryter (1962b) kommt entsprechend seiner Ergebnisse zu dem Schluss, dass insbesondere bei schmalbandigen Geräuschen die Einbeziehung der Weitabverdeckung zur Berechnung des Artikulationsindex sinnvoll ist. Allerdings wird dadurch der technische Aufwand erheblich vergrößert, so dass in der Praxis diese Verdeckungsformel nicht benutzt wird. Kryter hat außer dieser Verdeckungsformel und der Korrekturformel für den Einfluss der Nachhallzeit auf die Sprachverständlichkeit eine Reihe weiterer Korrekturwerte entwickelt, die bei der Berechnung des Artikulationsindex berücksichtigt werden können: Korrekturwerte für die Zunahme der Verdeckung, verursacht durch Geräusche mit hohen Pegelwerten, Korrekturwerte für Veränderungen des Geräuschpegels über die Zeit, sowie Korrekturwerte für peak–clipping. Die Anwendung des Artikulationsindex wurde von mehreren Autoren diskutiert (u.a. Kryter 1962b; Webster 1964a; Webster 1969).
1997 wurde der Sprach–Verständlichkeitsindex (SII) vorgestellt, der aus dem Artikulationsindex weiter entwickelt wurde. Dabei waren die Randbedingungen des Artikulationsindex mit Hilfe verschiedener Studien überprüft und diskutiert worden (Pavlovic 1984, 1987a, b, 1993; Pavlovic u. Studebaker 1984). In der neuen ANSI–Norm wurde das Konzept des AI beibehalten, nur die Grenzen, innerhalb deren der SII gebildet wird, wurden geändert: AI:
-12 dB < LSNi < 18 dB,
SII:
-15 dB < LSNi < 15 dB.
Weiterhin wurde die Pegeldynamik der Sprache erneut überprüft (Studebaker u. Sherbecoe 1991; Pavlovic 1993; s.a. Abschn. 3.2). Die Weitabverdeckung wurde im SII einfacher formuliert als im AI. Die Hörschwelle und die Übersteuerungseffekte wurden in veränderter Weise einbezogen. Der Frequenzbereich wurde erweitert. Die Gewichtsfunktionen wurden eingehend überprüft (Pavlovic 1994; Studebaker et al. 1987; Studebaker u. Sherbecoe 1991, 1993; s. Abschn. 6.2.2.2, 7.3.1) und für mehrere Sprachmaterialien festgelegt. Inwieweit jedoch die Minderung der Sprachverständlichkeit von Schwerhörigen berücksichtigt werden kann, indem die Parameter der Hörschwelle miteinbezogen werden, ist umstritten. Die Ruhehörschwelle wird weiterhin als eine der unteren Grenzen des SII einbezogen (Abschn. 7.3.1). In verschiedenen Studien konnte sowohl eine erhöhte Verdeckung als auch eine verstärkte Weitabverdeckung im
264
7 Vorhersage der Sprachverständlichkeit: Sprachindices
überschwelligen Bereich (u.a. Ludvigsen 1985, 1987; Pavlovic et al. 1986; Pavlovic 1993; Humes et al. 1997; s.a. Abschn.6.3.2, 8.2) aufgezeigt werden. Da aber die Streuung der Befunde hoch war, wurden diese nicht in den SII aufgenommen. Die genaue Berechnung des AI und SII ist den ANSI–Normen (1969, 1997) zu entnehmen. Im Weiteren werden die Berechnungsschritte des AI (Kryter 1972) vereinfacht dargestellt und an einem Beispiel für den AI und den SII erläutert.
x Bestimmung des Schallpegels der Sprache am Hörerplatz; - Bestimmung des Schallpegels (LSA) und des Oktav– oder Terzspektrums (LSi) der Sprache; die Schallpegel entsprechen dem Langzeiteffektivwert der Sprache des Sprechers (LSA = LSAeq, LSi = LSieq). - Ist nur der A–Schallpegel der Sprache (LSA) und nicht das Sprachspektrum der aktuell auftretenden Sprache bekannt, wird ein idealisiertes Sprachspektrum herangezogen (s. Abb. 3.3-1, Kurve K, Abb. 7.3.2-3). Das Sprachspektrum (LSi) ergibt sich aus dem idealisierten, auf den A–Schallpegel der Sprache bezogenen Schallpegel des jeweiligen Bandpasses (L’Si): LSi = L’Si + LSA. - Ist auch der A–Schallpegel der Sprache (LSA) nicht bekannt, muss dieser aus dem A–Schallpegel für unterschiedliche Sprechweisen in 1 m Abstand vom Sprechermund, der in Tabelle 5.2-2 angegeben ist (LSA,1m) und aus der Schallpegelabnahme (DLr), die durch die Entfernung vom Sprecher zum Hörer bedingt ist, bestimmt werden. Die Annahme, in welcher Weise die Person spricht, kann entsprechend dem am Sprecherplatz vorhandenen Geräuschpegel abgeschätzt (Abb. 5.3-1) oder als Erfahrungswert (Tab. 5.2-2) angegeben werden. Wird in nicht zu halligen Räumen gesprochen, so kann der Einfachheit halber bis zu einer Sprecher–Hörer–Entfernung von r d 5 m näherungsweise mit einer Schallpegelabnahme von DLr = 6 dB/AV, wie sie im Freifeld üblich ist, gerechnet werden. - Nimmt der Schallpegel der Sprache höhere Werte als LSA Ů 85 dB an, so muss – da die Sprachverständlichkeit bei hohen Pegeln geringer ist – bis zu 30 dB vom Schallpegel des Sprachspektrums abgezogen und ein effektiver Schalldruckpegel (L*SA) zur Berechnung des AI herangezogen werden: - Die Reduzierung des Sprachpegels auf einen effektiven Sprachpegel ist vor allem bei der Berechnung des Sprachpegels von Lautsprechersprache notwendig (s.a. Abschn. 5.9). LSA in dB L*SA in dB
85 85
90 88
95 91
100 93
105 94
110 95
115 96
120 97
125 98
7.3 Verfahren mit Spektren: Sprachindices
265
Der Oktav– bzw. Terzschalldruckpegel der Sprache kann keine größeren Werte als LSi ŭ 125 dB bzw. 120 dB annehmen. x Bestimmung des Schallpegels des Geräusches. - Bestimmung des Oktav– oder Terzspektrums (LNi) des Geräusches. - Der Oktav– bzw. Terzschalldruckpegel des Geräusches kann nicht unterhalb der Werte von LNi ŭ 25 dB bzw. 20 dB fallen. - Je nachdem, ob eine durchschnittliche oder eine gerade noch mögliche Sprachverständlichkeit berechnet werden soll, wird in den einzelnen Bandpässen (Oktave, Terz) der Mittelungspegel LNim oder der maximale Schallpegel in der Zeitbewertung Slow LNiSmax gebildet. x Verrechnung der Schallpegel des Geräusches und der Sprache und die Bestimmung des Artikulationsindex (AI). - In jedem Bandpassfilter werden zu den Oktav– oder Terzschallpegeln der Sprache (LSi) 12 dB hinzuaddiert und die Oktav– oder Terzschalldruckpegel des Geräusches (LNi) subtrahiert. Diese Differenz (LSi + 12 dB - LNi) wird (falls sie größer als 30 oder kleiner als 0 ist, 30 oder 0 gesetzt) mit dem Gewichtsfaktor qi multipliziert. Die Summe dieser Werte ist der AI. -
Die Berechnung des AI wird nun an einem Beispiel erläutert: es ist der Artikulationsindex (AI) zu bestimmen, bekannt sind der idealisierte Sprachpegel (L’Si), der Geräuschpegel (LNi), der am Arbeitsplatz vorhanden ist und der Abstand der Gesprächspartner (r = 2 m) (s. Tab. 7.3.2-1). x Bestimmung des Schallpegels der Sprache. Ein Sprecher, dessen Mitteilung an einem 2 Meter entfernten Arbeitsplatz verstanden werden soll, wird entsprechend des herrschenden Geräuschpegels (LNA = 61 dB, Spalte 5) mit angehobener Stimme, d.h. mit einem Schallpegel von LSA = 66 dB in 1m Abstand gemessen, sprechen. Bei einer Schallpegelabnahme von 6 dB pro Abstandsverdopplung ist der Sprechschallpegel am Arbeitsplatz LSA = 60 dB. Zur Berechnung der Oktavschallpegel der Sprache (LSi) wird das idealisierte Sprachspektrum (L’Si) verwendet (Spalte 2). Zu diesem idealisierten Sprachspektrum wird der A–Schallpegel der Sprache hinzugezählt, man erhält die am Arbeitsplatz vorherrschenden Oktavpegel der Sprache LSi = LSA + L’Si (Spalte 4).
266
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Tabelle 7.3.2-1. Beispiel für die Berechnung des Artikulationsindex (AI) aus dem Schallpegel der Sprache am Hörerplatz (LSA, LSi) und dem Geräuschpegel (LNA, LNi). Vorgegeben ist der Sprachpegel und sein Sprachspektrum (Spalte 2, 4: LSA, LSi; Spalte 2: L’Si nach Abb. 3.3-1 (K)) sowie der Geräuschpegel und das Geräuschspektrum (Spalte 5: LNA, - LNi) für fünf Oktaven. Das Ergebnis in Spalte 6 liegt zwischen -12 bis 18 dB; Spalte 7: qi Gewichtsfunktion; (Spalte 3: A– Bewertung) 1 fi
2 L’Si
3 L’Ai
4 LSi
5 LNi
6 7 8 9 LSNi LSNi qix +12 dB 10-4 +12 dB AI in Hz in dB in dB in dB in dB in dB 1/dB x qi x 10-4 250 - 0.5 -8.6 59.5 53 18.5 24 432 500 0.0 -3.2 60.0 56 16.0 48 768 1k - 5.5 0.0 54.5 57 9.5 74 703 0.322 2k -11.5 1.2 49.0 55 6.0 109 654 | 4k -16.5 1.0 43.5 47 8.5 78 663 0.32 (A)* (0) (60.1) (60.8) (333) 0.32 *(Die A–Bewertung in Spalte 3 ist für die Berechnung des AI nicht notwendig, sie ist nur zum Nachrechnen der A–bewerteten und unbewerteten Schallpegel angegeben.)
x Bestimmung des Geräuschpegels. Am Arbeitsplatz werden die vorherrschenden Oktavpegel des Geräusches (LNi) gemessen (Spalte 5). x Berechnung des Signal–Geräuschabstandes in den einzelnen Oktaven und die Bestimmung des AI. In jeder Oktave wird die Differenz zwischen dem Oktavschallpegel der Sprache (LSi) und dem des Geräusches (LNi) (Sp. 5) bestimmt, 12 dB hinzuaddiert (Sp. 6) und mit dem Gewichtsfaktor qi (Sp. 7) multipliziert (Sp. 8). Das für 5 Oktaven berechnete Ergebnis wird addiert (Sp. 8) und ergibt den AI (Sp. 9). Der AI liegt bei 0.32, was (umgerechnet in einen effektiven SNRA = -2.4 dB, Abschn. 7.5.1) einer schwachen Sprachverständlichkeit entspricht (Tab. 10.4-3, Sp. 7; Tab. 10.4.-4, Sp.5). Der SII gilt für einen Signal–Geräuschabstand von -15 bis 15 dB und folgt sonst im Wesentlichen den Prinzipien des Artikulationsindex. In Tabelle 7.3.2-2 ist ein Beispiel analog zum AI aufgeführt. Für vergleichbare akustische Bedingungen liegen die Werte des SII um ca. 0.1 höher als die des AI. Das Ergebnis von SII = 0.4 (umgerechnet in den SNRAeff = -3.0 dB) entspricht etwa der gleichen Qualität wie der oben für den AI berechnete. Da der STI für die Bestimmung der Sprachverständlichkeit die Nachhallzeit integriert, wird er in der Regel dem SII vorgezogen (s. Abschn. 7.3.1, 7.3.3).
7.3 Verfahren mit Spektren: Sprachindices
267
Tabelle 7.3.2-2. Beispiel für die Berechnung des Sprach–Verständlichkeitsindex (SII) aus dem Schallpegel der Sprache am Hörerplatz (LSA, LSi) und dem Geräuschpegel (LNA, LNi). Vorgegeben ist der Sprachpegel und sein Sprachspektrum (Spalte 3: LSA, LSi; Spalte 2: L’Si nach Abb. 3.3-1 (K)) sowie der Geräuschpegel und das Geräuschspektrum (Spalte 4: LNA, LNi) für sechs Oktaven. Das Ergebnis in Spalte 6 liegt zwischen -15 und 15 dB ((A) s. Tab. 7.3.2-1) 1 fi
2 L’Si
3 LSi
4 LNi
in Hz 250 500 1k 2k 4k 8k (A)
in dB - 2.5 0.0 - 6.3 -11.0 -16.0 -21.0 (0)
in dB 57.5 60.0 53.8 49.0 44.0 39.0 (60.0)
in dB 53 56 57 55 47 40 (60.8)
5 LSNi +15 dB in dB 22.5 19.0 11.8 9.0 12.0 14.0 -
6 qix 10-4 1/dB 20.6 55.7 79.1 88.3 71.4 18.3 (333.4)
7 (LSNi +15 dB) X qi 309.0 835.5 933.4 794.7 856.8 256.2 -
8 SII
0.399 | 0.40 0.40
7.3.3 Sprach–Übertragungsindex (STI) Nachhall, Rechenschritte, Beispiel Die Kriterien zur Vorhersage der Sprachverständlichkeit (SNR, SIL, SII) beziehen sich auf das Verhältnis vom Pegel des Langzeitmittelwertes der Sprache zum Pegel des Störgeräusches. Houtgast u. Steeneken (1972, 1973) meinen jedoch, dass es nicht ausreichend sei, nur das Langzeitspektrum der Vorhersage der Sprachverständlichkeit zu benutzen, sondern dass es notwendig ist, die Hüllkurve des Sprachsignals (Abschn. 3.1), mit der die wesentlichen Teile der sprachlichen Information übermittelt werden, zur Vorhersage heranzuziehen. Den Überlegungen von Houtgast u. Steeneken liegt die Beobachtung zugrunde, dass ein amplitudenmoduliertes Signal mit einem Modulationsgrad von m = 1 nach Übertragung durch ein elektronisches System (Fernsprecher) sowie nach Übertragung in einen Raum zwar in seiner Schwingungsform erhalten bleibt, aber geglättet wird, d.h. der Modulationsgrad nimmt ab (m < 1). Die Glättung der Hüllkurve ist bedingt durch das Störgeräusch, den Nachhall und durch das Echo. In einer Vielzahl von Messungen wurde die Hüllkurve der Sprache ermittelt (Steeneken u. Houtgast 1983). Ausgehend von der Glättung der Hüllkurve der Sprache durch Störgeräusche und Nachhall, formulieren Houtgast u. Steeneken (1971) den Sprach–Übertragungsindex (Speech–Transmissionsindex STI). Um den Sprach–Übertragungsindex bestimmen zu können, werden über ein Übertragungssystem zwei Signale, Rauschen mit einem sprachähnlichen Spekt-
268
7 Vorhersage der Sprachverständlichkeit: Sprachindices
rum, die jeweils unterschiedliche Pegel (DL = 20 dB) aufweisen, mit einer Wechselfrequenz von fw = 3 Hz geleitet. Die Veränderung dieser Pegeldifferenz (DLi), die von der Höhe des Geräuschpegels und der Nachhallzeit im Übertragungssystem abhängt, wird am Empfangsort in 5 Oktaven mit der Mittenfrequenz f3 = 250 Hz bis f7 = 4 kHz gemessen (Gl. 7.3.3-1): 0 ,5
1 7 § DLi · qi ¨ qi , qi | 1, f i 0 ,25 4kHz . (7.3.3-1) ¸ , q q i 3 © DL ¹ Dieser Sprach–Übertragungsindex wird vor allem zur Bestimmung der Qualität eines Rundfunk– oder Fernsprechersystems oder eines anderen elektroakustischen Übertragungssystems benutzt. Um den Einfluss von raumakustischen Faktoren auf Sprachsignale zu erfassen, wurde die Modulationsübertragungsfunktion eingeführt (Houtgast u. Steeneken 1973; Steeneken u. Houtgast 1980; Schröder 1981; Houtgast u. Steeneken 1985a, b). Folgende Modellvorstellung liegt dieser Funktion zugrunde: am Ort des Senders wird für jede Oktave (i) mit der Frequenz (fi) der Raum durch ein Signal mit dem Modulationsgrad m = 1, dessen Intensität (Iei) sich kosinusförmig mit der Modulationsfrequenz (fj) ändert, angeregt (Abb. 7.4.2-1; Gl. 7.3.3-2,-3): STI
¦
¦
I ei 1 cos2ʌ f j t .
I ei
(7.3.3-2)
Das am Ort des Empfängers erhaltene Signal hat eine Intensität von
I ai
I ai 1 mi cos2ʌ f j ( t IJ ) ,
(7.3.3-3)
wobei W die Laufzeit des Signals und m der Modulationsgrad oder die Modulationsübertragungsfunktion bedeutet. Die Modulationsübertragungsfunktion (m) erfasst den Einfluss des Raumes wie z.B. Nachhallzeit, Volumen, die Entfernung vom Sender zum Empfänger, Pegel des Störgeräusches und den Einfluss des Sprechpegels auf die Sprachübermittlung. Die Modulationsübertragungsfunktion kann gemessen, oder auch berechnet werden, wenn die Parameter des Raumes bekannt sind. Dabei muss für jede Terz im Frequenzbereich der Hüllkurve (fj = 0.63–12.5 Hz, j = 1–14) innerhalb der Oktaven im Hörbereich (fi = 0.125–8 kHz, i = 1–7) die Modulationsfunktion und für jeden Modulationsgrad mij in jeder der dazugehörigen Terz (j) und Oktave (i) ein äquivalentes Signal– Geräuschverhältnis L*SNij (Gl. 7.3.3-4) bestimmt werden: mi j I L *SN i j 10lg 10lg S . (7.3.3-4) 1 mi j I *N Dem äquivalenten Signal–Geräuschabstand entspricht in jedem Frequenzband (ij) ein bestimmtes Verhältnis der Schallintensität des Signals (IS) zur Intensität des äquivalenten Störgeräusches (I*N). Das äquivalente
7.3 Verfahren mit Spektren: Sprachindices
269
Störgeräusch schließt sowohl den Einfluss des Umgebungsgeräusches wie auch den der Nachhallzeit ein. Das S/N–Verhältnis (LSN) enthält dagegen im Vergleich zum äquivalenten S/N–Verhältnis L*SN nur den Schallpegel des Umgebungsgeräusches. Das äquivalente S/N–Verhältnis (L*SNij) liegt im Bereich von -15 dB < L*SNij < 15 dB. Aus den einzelnen L*SNij wird dann für jede Oktave (i) ein mittleres äquivalentes S/N–Verhältnis L *SNi (Gl. 7.3.3-5) berechnet : L * SNi
1 14
14
¦ L*
SN ij ,
fj
0.63 12 .5 Hz .
(7.3.3-5)
j 1
Das mittlere äquivalente Signal–Geräuschverhältnis ( L *SNi) entspricht dem Signal–Geräuschverhältnis innerhalb der einzelnen Frequenzbänder (i) im Hörbereich. Wie erinnerlich, liegt auch eine ähnliche Berechnung bei der Bestimmung des Artikulationsindex vor. Den Sprach– Übertragungsindex (STI) erhält man schließlich aus den gewichteten Mitteln der L *SNi (Gl. 7.3.3-6,-7): 7
STI
¦ q' L * i
SNi
ǻL1 / ǻL2 ,
(7.3.3-6)
i 1
STI
7
¦ q i L *SNi 15 dB
i 1
¦ q'i
1,¦ q i
1 / 30 dB, f i
(7.3.3-7)
0 ,125 8kHz
(q'i = ai - bi). Wird die Nachhallzeit (T), der Sprachpegel (LSi) und der Geräuschpegel (LNi) bzw. der S/N–Abstand (LSNi) und somit auch der Modulationsgrad (mi) und das äquivalente S/N–Verhältnis ( L *SNi) nicht in jeder Oktave (i), sondern im gesamten Frequenzbereich der Sprache (f = 0.1–10 kHz) bestimmt und die Pegel A–bewertet, so kann man zur Orientierung eine mittlere Beziehung zwischen dem Sprach–Übertragungsindex (STI) aus dem mittleren äquivalenten S/N–Abstand angeben, wobei die Gewichtsfaktoren (q’i, qi) durch deren Summe ersetzt werden (q’ = 1, q = 1/30 dB; Gl. 7.3.38):
STI
L *SNA 15 dB / 30 dB,
0 dB d (...) d 30 dB .
(7.3.3-8)
Für die Nachhallzeit wird dann der Wert bei 500 Hz oder 1 kHz benutzt. Die Modulationsübertragungsfunktion und der Sprach–Übertragungsindex (Houtgast u. Steeneken 1978; Houtgast et al. 1980; Steeneken u. Houtgast 1980; Houtgast u. Steeneken 1985a; Humes et al. 1986, 1987; Humes 1993), dessen Bestimmung und Anwendung gut erprobt ist (Steeneken u. Houtgast 1982, 1983), wurden in den 90er Jahren weiterentwi-
270
7 Vorhersage der Sprachverständlichkeit: Sprachindices
ckelt und neu justiert (Steeneken u. Houtgast 1999, 2002a, b). Verbessert wurde u.a. der Weg, wie die Hörschwelle und die Weitabverdeckung einbezogen werden. Die Gewichtungsfunktion wurde neu bestimmt und mit einer Redundanzkorrektur versehen. Der validierte und revidierte STIr ist in der IEC 60268–16 (2002) beschrieben. Will man die Verdeckung hochfrequenter Schalle (fi, Ii) durch tieffrequente Schalle (fi-1, Ii-1) in der Berechnung des Sprach–Übertragungsindex mitberücksichtigen (Gl. 7.3.39), so ist ein korrigierter Modulationsgrad m’i zu bestimmen: Ii m'i m i . (7.3.3-9) I i wI i 1 I 0 ,i In der Gleichung (7.3.3-4) ist dann m durch m’ zu ersetzen. Die Aufwärtsverdeckung wird durch den Faktor w einbezogen und gibt den Abfall von der unteren (i-1), auf die obere (i) Oktave an. Dieser Abfall liegt bei Pegeln um 50 dB bei -40 dB und bei -10 dB bei Pegeln über 90 dB. Der Einfachheit halber (mittlerer Pegelbereich) wird w = 0.001 angenommen. I0,k ist die Nachbildung der absoluten Hörschwelle und wird als Untergrenze benutzt. Die Gewichtsfunktion ist in der Tabelle 7.3.3-1 angegeben. Tabelle 7.3.3-1. Gewichtsfunktion (a, b) und Hörschwellenwerte (I0) in den einzelnen Oktaven (i = 1–7) fi in Hz männlich weiblich Hörschwellenwert I0
a 10-3 b 10-3 a 10-3 b 10-3
125 85 85 46
250 127 78 117 99 27
500 230 65 223 66 12
1k 233 11 216 62 6.5
2k 309 47 328 25 7.5
4k 224 95 250 76 8
8k 173 0 194 0 12
Um die einzelnen Parameter des STI zu bestimmen, wurde die Sprachverständlichkeit von Einsilbern (SVE) in Versuchen ermittelt, in denen die Bandbreite, das Spektrum des Geräusches und das Signal–Geräuschverhältnis systematisch variiert wurden. Die erhaltenen Sprachverständlichkeiten wurden zur Berechnung des STI in Beziehung gesetzt. Die geringste Abweichung (s = 5.2 % SVE) zwischen dem STI–Wert und dem Ausmaß der Sprachverständlichkeit (SVE) ist dann zu erwarten, wenn der Pegelbereich für den Signal–Geräuschabstand 'L2 = 30 dB und der Signal–Geräuschabstand, bei dem die Oktave (i) nichts mehr zur Berechnung des STI beiträgt, L *SNi = -'L1 = -15 dB ist und die Gewichtsfaktoren eine Größe von qi = qi / 30 dB (fi = 0.125–8 kHz, i = 1–7) besitzen. In empirischen Untersuchungen zur Sprachverständlichkeit wurde der Einfluss von Nachhallzeit (T = 0.9–3.2), von peak clipping und der Einfluss einer automatischen Verstärkerregelung auf die Verständlichkeit von Einsilbern unter-
7.3 Verfahren mit Spektren: Sprachindices
271
sucht (Steeneken u. Houtgast 1980). Es zeigt sich, dass der Prozentsatz korrekt verstandener Einsilber, der in empirischen Untersuchungen erhoben wurde, mit dem Prozentsatz verstandener Einsilber, der rechnerisch ermittelt wurde, recht gut übereinstimmt (s = 5–6 %). Der STI wurde durch verschiedene Bandfilter–Geräuschkombinationen mit Hilfe von CVC–Wörtern überprüft und validiert (Steeneken u. Houtgast 1999). Mit Hilfe der damals vorliegenden Gewichtsfunktionen wurde eine Sprachverständlichkeit männlicher und weiblicher Sprache mit einer Standardabweichung von 8 bis 13 % ermittelt. Durch eine Redundanzkorrektur (bi) – diese reduziert die gegenseitige Korrelation zwischen den Bandfiltern – konnte die Standardabweichung auf 4–5 % reduziert werden (Steeneken u. Houtgast 2000a, b). Dabei wurden die Gewichtsfunktionen in verschiedenen Versuchsbedingungen (Bandpass, nichtlineare Verzerrungen, automatische Verstärkungsanpassung, Geräusche, Nachhall, Echos, S/N–Verhältnis) überprüft und angepasst. Das vorliegende Modell (Gl. 7.3.3-4,-5,-6,-7) wurde beibehalten und nur die Art verändert, in der die Gewichtsfunktionen (Gl.7.3.3-10) einbezogen werden: 7
STI
¦
6
ai MTI i
1
mit MTI i
¦b
i
MTI i MTI i 1 ,
1
L SNij 15 dB 30 dB
1 14 ( L * SNij 15 dB ) ¦ 14 1 30 dB
¦ a ¦b i
(7.3.3-10)
i
1.
Die Gewichtsfaktoren (männlich, weiblich) sind in Tabelle 7.3.3-1 aufgeführt. Der Sprach–Verständlichkeitsindex (SII) und der Sprach–Übertragungsindex entsprechen sich in etwa. Die Gewichtsfaktoren der beiden Verfahren liegen in gleicher Größenordnung. Die Oktaven fi = 2 und 4 kHz enthalten die höchsten Gewichtsfaktoren. Nur wenn bei der Berechnung des STI und des SII die Nachhallzeit nicht berücksichtigt wird, sind die beiden Werte etwa gleich (STI ū SII). Um die Nachhallzeit im STI zu berücksichtigen, muss die Modulations– Übertragungsfunktion (MTI) bekannt sein. Diese ist aber auf einfache Weise nur für wenige Schallfelder zu bestimmen (s. Abschn. 7.4.2). Hat die Nachhallzeit keinen wesentlichen Einfluss auf die Sprachverständlichkeit, z.B. da wo die Entfernung zwischen Sprecher und Hörer gering ist, und wird die Redundanzkorrektur vernachlässigt, kann der Sprach–Übertragungsindex (STI) mit der Gleichung 7.3.3-6 (mit L*SNi = LSNi) abgeschätzt werden. Beeinflusst die Nachhallzeit die Sprachverständlichkeit, so muss neben der Größe der Nachhallzeit auch der Abstand zwischen Sprecher und Hörer (r) in der Berechnung der Sprachverständlichkeit beachtet
272
7 Vorhersage der Sprachverständlichkeit: Sprachindices
werden. Ist der Abstand zwischen Sprecher und Hörer relativ groß, größer als der Hallradius (rH) r >> rH, kann ein diffuses Schallfeld (Abschn. 7.4) angenommen werden. Abbildung 7.3.3-1 stellt die Beziehung zwischen dem Sprach–Übertragungsindex und der Sprachverständlichkeit im diffusen Schallfeld dar.
Abb. 7.3.3-1. Sprach–Übertragungsindex (STI) in Abhängigkeit von dem Signal– Geräuschverhältnis LSN (LSNA, LSNi) und der Nachhallzeit (T), gemessen am Hörerplatz im diffusen Schallfeld, d.h. bei größeren Entfernungen zwischen Sprecher und Hörer (r >> rH)
In einem diffusen Schallfeld gilt ein recht einfacher Zusammenhang (Abb. 7.4.1-1) zwischen dem am Hörerplatz ermittelten S/N–Abstand (LSN), der Nachhallzeit (T) und dem Sprach–Übertragungsindex (STI). Dabei werden die Gleichungen des Modulationsgrades eines Raumes (Gl. 7.4.2-1, -2, -3) und die des STI (Gl. 7.3.3-4,-5,-7,-10) benutzt. Diese Bestimmung des Sprach–Übertragungsindex (STI) (Abb. 7.3.3-1) gilt nur für den Fall, dass der Schallpegel der Sprache (LS) und der Schallpegel des Umgebungsgeräusches (LN) am Hörerplatz im diffusen Schallfeld als A– Schallpegel (LSA, LNA) oder als Oktavschallpegel (LSi, LNi) ermittelt worden sind. Aus Abbildung 7.3.3-1 geht hervor, dass der STI mit sinkendem Signal– Geräuschabstand (LSN) und zunehmender Nachhallzeit (T) abnimmt. Bei höheren Signal–Geräuschabständen bewirkt die Nachhallzeit eine stärkere Veränderung des Sprach–Übertragungsindex als bei niedrigen Signal– Geräuschabständen. Die Ermittlung des STI (nach IEC 60286–16; DIN EN 60286–16) erfolgt in folgenden Schritten:
7.3 Verfahren mit Spektren: Sprachindices
273
x Bestimmung des Sprachspektrums in Oktaven (LSi) am Ohr des Hörers aus dem Spektrum der Sprache des Sprechers (LSA,1m) und der Schallausbreitung (im freien Schallfeld -20lg (r/1 m)) oder durch direkte Messung (ggf. Berücksichtigung des Gehörschutzes). x Bestimmung des Geräuschpegels in Oktaven (LNi) am Ohr des Hörers x Bestimmung der Nachhallzeit (T) x Bestimmung des Modulationsgrades mij für jede Oktave (i) und Modulationsfrequenz (j) 1. Modulationsgrad (mTij)für die Nachhallzeit (Gl. 7.4.2-2,-3) 2. Modulationsgrad (mNi) für das Geräusch (Gl. 7.4.2-2,-3) 3. allgemeiner Modulationsgrad (mij)= mNi mTij 4. Korrektur des Modulationsgrades (mi) in jeder Oktave entsprechend der Aufwärtsverdeckung des Geräusches und der angenommenen Hörschwelle (Hörverlust) (Gl. 7.3.3-9) x Bestimmung des effektiven Signal–Geräuschabstands mit den Bereichsgrenzen (-15 bis 15 dB) in jeder Oktave (L*SNij) (Gl. 7.3.3-4) x Ermittlung des Modulations–Übertragungsindex (MTIi) (Gl. 7.3.3-10) x Bestimmung des STI aus dem MTIi (Gl. 7.3.3-10). Zum Schluss werden noch zwei Beispiele angeführt, die den Umgang mit dem STI erläutern sollen.
x Beispiel (a). Nach der Abbildung 7.3.3-1 kann mit Hilfe der Größen LSNA und Nachhallzeit (T) der Sprach–Übertragungsindex (STI) bestimmt werden: Liegt im diffusen Schallfeld (r >> rH) am Hörerplatz LSNA = 0 dB vor und wird eine Nachhallzeit von T = 0.5 s gemessen, so erhält man einen STI = 0.4. Dieser STI = 0.4 gilt auch dann, wenn am Hörerplatz LSNA = 5 dB und die Nachhallzeit T = 1.5 s ist. x Beispiel (b). Zwischen Sprecher und Hörer besteht eine Entfernung von r >> rH. Es ist der Sprach–Übertragungsindex (STI) aus den Größen des Schallpegels der Sprache (LSA = 60 dB), des Geräuschpegels (LNA = 59.5 dB) und der Nachhallzeit (T = 0.8–2.5 s) zu berechnen. Diese Größen werden am Hörerplatz bestimmt. Das Spektrum der Sprache wird aus Abbildung 3.3-1 (Kurve K) entnommen. Die Ermittlung des Sprach–Übertragungsindex (STI) erfolgt nach den o.g. Gleichungen. Hier wurden der Einfachheit halber die Signal– Geräuschabstände in den Oktaven (Tab. 7.3.3-2, Spalte 7, 8, 9) nach Abbildung 7.3.3-1 ermittelt und MTIi ū MTIi+1 gesetzt; letzteres ergibt eine vereinfachte Gewichtsfunktion (Spalte 6). Aus der Nachhallzeit und dem Pegel des Störgeräusches erhält man äquivalente S/N–Verhältnisse L *SNi = -10.0 dB bis -3.4 dB und einen STI von 0.27. Geht man davon aus (Tab. 7.3.3-2), dass nur ein Geräusch
274
7 Vorhersage der Sprachverständlichkeit: Sprachindices
ohne Nachhall (Spalte 8) oder nur die Nachhallzeit ohne Geräusch (Spalte 9) die Sprachverständlichkeit beeinträchtigt, so liegt der Signal– Geräuschabstand in dem vorliegenden Beispiel bei LSNi und L*SNi = -6.5 dB bis 6.5 dB und der STI hat eine Größe von 0.46 und 0.54. Wird die Sprache durch den Geräuschpegel und die Nachhallzeit gemeinsam gestört, so sinkt der Sprach–Übertragungsindex erheblich (auf 0.27) ab. Tabelle 7.3.3-2. Berechnung des Sprach–Übertragungsindex (STI) aus dem Schallpegel der Sprache (LSi) (Spalte 4) und dem des Geräusches (LNi) (Spalte 5) sowie aus der Nachhallzeit (T) (Spalte 3) in 7 Oktaven (i) der Mittenfrequenzen (fi) (Spalte 1) für r >> rH (Abb. 7.3.3-1). Angegeben ist der entsprechende Signal– Geräuschabstand (Spalte 7) und zusätzlich der äquivalente Signal– Geräuschabstand (LSNi, für T = 0) (Spalte 8) und der äquivalente Signal– Geräuschabstand (L*SNi für LNi < 20 dB) (Spalte 9). Gerechnet wird mit einer vereinfachten Gewichtsfunktion (Spalte 6) ((A) s. Tab. 7.3.2-1) 1
2
3
1 2 3 L’Ai T fi in Hz in dB in s 125 -16.1 2.5 250 - 8.6 2.0 500 - 3.2 1.8 1k 0.0 1.6 2k 1.2 1.4 4k 1.0 1.0 8k - 1.1 0.8 (A) STI
4 LSi in dB 55.5 59.5 60.0 54.5 49.0 43.5 38.0 (60.1)
5 LNi in dB 53 53 54 56 52 50 42 (59.5)
6 7 qi L*SNi x 10-4 In dB in 1/dB 0.0 - 6.4 16.3 - 3.7 55.0 - 3.4 74.0 - 7.3 87.3 - 8.0 43.0 -10.0 57.7 - 7.3 (333.3) 0.27
8 LSNi in dB (T=0) 2.5 6.5 6.0 -1.5 -3.0 -6.5 -4.0 0.46
9 L*SNi in dB (LNi < 20 dB) -2.9 -1.6 -0.9 -0.2 1.7 2.7 4.1 0.54
Zusammenfassend kann festgehalten werden, dass der STI ein gut geprüftes Verfahren zur Vorhersage der Sprachverständlichkeit ist. Mit ihm kann man alle Störungen, die durch Geräusche, Nachhall, Bandpass, etc. bedingt sind, valide erfassen. Der STI ist damit den anderen Sprachindices (SII, AI, SIL, SNR) überlegen. Die Berücksichtigung des Nachhalls setzt jedoch ein diffuses Schallfeld voraus. Der STI hat zwei Nachteile: (a) Soll die Nachhallzeit im gesprächsnahen Bereich (bis zu 5 m) berücksichtigt werden, ist der Berechnungsaufwand dafür recht hoch; (b) der STI ist im Bereich hoher Werte relativ unempfindlich gegenüber Änderungen des Signal– Geräuschabstandes.
7.3 Verfahren mit Spektren: Sprachindices
275
7.3.4 Artikulationsverlust für Konsonanten (ALcons) Beziehung zum STI Der Sprach–Übertragungsindex (STI) baut auf Gesetzesmäßigkeiten der Raumakustik auf und kann so den Einfluss des Nachhalls auf die Sprachverständlichkeit auf systematische Weise berücksichtigen (s. Abschn. 7.3.3 und 7.4). Peutz (1971) ging bei der Bestimmung der Sprachverständlichkeit einen umgekehrten Weg. Er bestimmte die Verständlichkeit von sinnlosen Silben (Konsonant–Vokal–Konsonant, CVC) in verschiedenen Räumen mit Hilfe von Versuchspersonen und ermittelte aus den Ergebnissen die Beziehungen zwischen den Raumparametern und der gemessenen Verständlichkeit. Barnett (1992, 1997) sieht einen Nachteil darin, dass die bisher diskutierten Sprachindices (Abschn. 7.2 und 7.3) nicht die Sprachverständlichkeit direkt vorhersagen können. Man kann aber auch in diesem Vorgehen einen Vorteil sehen, weil auf diese Weise objektive, physikalisch–akustische Bedingungen vorhergesagt werden und nicht die Sprachkommunikation, die sich von Fall zu Fall stark verändert. Insofern ist es zweckmäßig, Sprachindices aus physikalischen und ggf. aus den physiologischen Merkmalen der Personen (z. B. Schwerhörigkeit) zu entwickeln und sich nicht zu strikt an den Gebrauch von bestimmtem Sprachmaterial zu orientieren. So ergeben die Sprachindices (Abschn. 7.2, 7.3) mehr oder weniger die Qualität des Raumes oder die eines Raumteils. Das Sprachverständlichkeitsmaß (ALcons) versucht direkt die Verständlichkeit (oder deren Verlust) anzugeben. Der Zusammenhang zwischen dem Artikulationsverlust (ALcons) und den anderen Sprachindices soll kurz erläutert werden (Bistafa u. Bradley 2000b). Fletcher (1953) nahm w als die Wahrscheinlichkeit an, mit der ein Phonem verstanden wird; dann ist (1-w) die Wahrscheinlichkeit, dass es nicht verstanden wird. Für n Frequenzbänder (i) ergibt sich dann (wi, die Wahrscheinlichkeit für das Band i; Gl. 7.3.4-1):
log ( 1 w )
n
¦ log ( 1 wi )
(7.3.4-1) 1 log ( 1 w ) KA . Fletcher nannte A den Artikulationsindex. K betrifft das Sprecher– Hörer–Paar und kann unter idealen Bedingungen 1 werden. Peutz (1978, 1998) und Peutz u. Kok (1984) setzten (Gl. 7.3.4-2) log (l - w) = -cI
(7.3.4-2)
und nannten I den Informationsindex, c ist eine Konstante. Es ist klar, dass der Informationsindex (I) dem Artikulationsindex nahezu gleich ist.
276
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Die Untersuchungen ergaben, dass I ū 1.1A ist, I ist im Wesentlichen durch die Verständlichkeit der Konsonantenphoneme gegeben, und c liegt für Sprecher–Hörer–Paare bei 2–3. Der Artikulationsverlust für Konsonanten (Articulation Loss of Consonants, ALcons; Peutz 1998; Gl. 7.3.4-3) ist dann definiert als ALcons = 100 (1 - wcons) = 100 (10 -cI) + a .
(7.3.4-3)
Bei der Verwendung von sinnlosen Silben ist die Sprachverständlichkeit nur über die Verdeckung der Phoneme durch das diffuse Nachhallschallfeld beeinträchtigt. Unter diesen Umständen wird der schallintensive mittlere Vokal am wenigsten durch den Nachhall beeinträchtigt, während die nachfolgenden Phoneme der Konsonanten – wobei eine ausreichend kleine Verzögerung bis zur ersten Reflexion vorausgesetzt wird – durch den stärkeren Nachhall am intensivsten gestört werden. Insgesamt lässt sich zwischen den Raumeinflüssen und der korrekten Erfassung der Konsonanten deutlich besser eine Korrelation herstellen als zu den Vokalen. Dieses führt zur Definition des „Articulation Loss of Consonants“ (ALcons), welcher den durchschnittlichen prozentualen Anteil falsch verstandener Konsonanten angibt. Die Abhängigkeit des ALcons vom Abstand r zwischen Sprecher und Hörer in einem Raum mit Volumen V (in m3) und Nachhallzeit T (in s) lässt sich grundsätzlich in zwei Bereiche unterteilen. Bis zu einer kritischen Distanz rc folgt der Verlauf der Beziehung (Gl. 7.3.4-4):
ALcons
§ 200( rT )2 · ¨ a ¸¸ . ¨ V © ¹
(7.3.4-4)
Die Korrekturgröße a ist dabei für einen optimal artikulierenden Sprecher Null. Sie kann bei schlechteren Sprechern Werte bis ca. 15 annehmen. Die kritische Distanz (Gl. 7.3.4-5) in Metern errechnet sich aus
rc
0.2 V / T
(7.3.4-5)
und entspricht etwa dem Hallradius. Außerhalb der kritischen Distanz verschwindet der Direktschall im diffusen Hallfeld, und der Wert von ALcons ist näherungsweise (Gl. 7.3.4-6) gegeben durch
ALcons
9T a .
(7.3.4-6)
Peutz untersuchte ferner die Abhängigkeit des ALcons vom Hintergrundgeräusch. Es zeigte sich, dass der ALcons exponentiell abhängig ist vom reziproken Signal–Geräuschabstand. Aufbauend auf Peutz (1971) geben Bistafa u. Bradley (2000a, b) schließlich eine zusammenfassende Nähe-
7.3 Verfahren mit Spektren: Sprachindices
277
rungsformel (Gl. 7.3.4-7) für den ALcons unter Berücksichtigung der Nachhallzeit (T) und des Signal–Geräuschabstandes (SNR = LS - LN) an:
ALcons mit
Kc
9 T K c ( 1.071 T 0.0285 )25 SNR ( r / rc )2
für r d rc
(7.3.4-7)
Kc 1 für r rc 3 (ALcons in %, V in m , r in m, T in s, SNR in dB, a = 0). Allgemein repräsentieren ALcons–Werte von 0 bis 10 % eine gute Sprachverständlichkeit, während Werte über 20 % eine deutliche Beeinträchtigung der Verständlichkeit anzeigen. Bistafa u. Bradley (2000a, b) zeigten, dass sich die Ergebnisse zur Optimierung von Räumen sehr gut entsprechen, gleichgültig ob man das STI– oder das ALcons–Verfahren benutzt (s.a. Abschn. 12.2). Beispielsweise wird eine näherungsweise Beziehung (Gl. 7.3.4-8) zwischen ALcons und STI mit ALcons = 170e-5.4 STI
(7.3.4-8)
angegeben. Der Zusammenhang zwischen dem ALcons und dem STI ist, wie er in der Regel angenommen wird (Houtgast 1980; Mapp 2002; DIN 18041), in Tabelle 7.3.4-1 angegeben. Tabelle 7.3.4-1. Zusammenhang zwischen ALcons und STI STI ALcons in %
0.75 3
0.60 7
0.45 15
0.30 35
Dieser Zusammenhang von STI und ALcons gilt jedoch nur im Mittel und für übliche Nachhallzeiten (0.8 bis 4 s). Der ALcons ist vor allem für Räume mit Nachhall entwickelt worden, aber selbst dort schwankt der ALcons für einen vorgegebenen STI von 0.75 zwischen 1 und 7 %. Barnett (1997) weist auf die Differenz zwischen dem ALcons und dem STI hin, die vor allem dann zu beobachten ist, wenn Geräusche zusätzlich die Sprache stören. Besonders deutlich wird die Diskrepanz, wenn der Signal–Geräuschabstand zwischen 10 und 25 dB liegt. Der ALcons gibt für diese Bedingungen entsprechende Werte an. Der STI ist bei 15 dB begrenzt und zeigt ab 10 dB kaum noch Änderungen an. Das ALcons–Verfahren kann den Schallpegel des Direktschalls, des reflektierten Schalls im diffusen Feld sowie den des Geräusches und die Nachhallzeit ohne Begrenzung einbeziehen, und ist dadurch häufig den praktischen Belangen besser angepasst (Ahnert u. Steffen 1993, 1999).
278
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Mapp (2002) gibt in seiner Übersichtsarbeit einen Zusammenhang von Nachhallzeit, Signal–Geräuschabstand und ALcons an, aus der ein Auszug für geringe Nachhallzeiten in Tabelle 7.3.4-2 gegeben ist. Tabelle 7.3.4-2. Articulation Loss (ALcons in %) in Abhängigkeit vom Signal– Geräuschabstand (SNRA in dB) für geringe Nachhallzeiten (T < 0.5 s) ALcons in % SNRA in dB
2 25
3 22
4 18
5 16
10 11
20 4
Der ALcons hat gegenüber den anderen Verfahren einen Vorteil: er ist gerade bei hohen Verständlichkeitswerten (STI > 0.85), bei denen die Sprachindices AI, SII und STI Ceilingeffekte aufweisen und begrenzt sind, in seiner Aussage deutlich differenzierter (s.a. Abschn. 10.4).
7.4 Sprachverständlichkeit im Freien und in Räumen 7.4.1 Grundregeln der Raumakustik Schallausbreitung im direkten und im diffusen Schallfeld sowie in Flachräumen; Schallabsorption, Nachhallzeit, Hallradius Bei der Bestimmung der Sprachverständlichkeit im Freien sowie in Räumen geht man von der Schallquelle, dem Sprecher, aus. Aus den Parametern des Sprechers, denen des Raums (Nachhall, Geräusch) und den Bedingungen beim Hörer ist die Sprachverständlichkeit zu bestimmen. Bevor auf die Bestimmung der Sprachverständlichkeit in Räumen eingegangen wird, werden einige Grundsätze und Annahmen der Raumakustik erläutert. Die vom Sprechermund erzeugten Schallwellen ergeben für nicht allzu hohe Frequenzen eine Kugelwelle. Bei einer Kugelwelle, die sich ungehindert, d.h. im freien Schallfeld ausbreiten kann, nimmt die Schallintensität (I) proportional mit der Entfernung (r) ab, I a 1/r2. Ausgedrückt in Schallpegeln ist das eine Pegelabnahme von DLr = 6 dB pro Abstandsverdopplung (Abb. 7.4.1-1, linke Seite). Innerhalb von Räumen kann sich eine Kugelwelle nur in der Nähe der Schallquelle – man nennt diesen Bereich das direkte Schallfeld – ungehindert nach allen Richtungen gleichmäßig ausbreiten, die Pegelabnahme entspricht dann der des freien Schallfeldes. Der Sprecher ist durch seinen Schallleistungspegel (LSWA; Abschn. 3.4) oder durch seinen Schallpegel in 1m Abstand (LSA,1m) gekennzeichnet. Solange die Schallausbreitung ungehindert in Form einer Kugelwelle stattfinden kann, kann aus dem Schallleistungspegel (LSWA) oder aus dem Schallpegel in 1 m Abstand vom Sprechermund (LSA,1m) der Sprechpegel am Hörerplatz (LSA (r); Gl. 7.4.1-1) berechnet werden:
7.4 Sprachverständlichkeit im Freien und in Räumen
LSA(r) = LSWA - 20lg(r / 1m) dB - 8 dB, LSA(r) = LSA,1m - 20lg(r / 1m) dB.
279
(7.4.1-1)
Eine ungestörte Schallausbreitung ist im freien Schallfeld oder auch im direkten Schallfeld gegeben, d.h. in einem Raum mit geringen Nachhallzeiten und unterhalb einer Sprecher–Hörer–Entfernung von r < 2–5 m. Ist die Entfernung zwischen Sprecher und Hörer größer und liegt eine höhere Nachhallzeit vor, dann wirken sich die Reflexionen des Sprachschalls bedingt durch Decken, Wände und Möbel verstärkt aus und verringern die Schallpegelabnahme pro Abstandsverdopplung gegenüber der im direkten Schallfeld. Gegenstände, die zwischen Sprecher und Hörer stehen, können dagegen die Pegelabnahme auch erhöhen. Ungeachtet dieser durch die Räumlichkeiten bedingten Abweichungen von der 6 dB Pegelabnahme pro Abstandsverdopplung, wird trotzdem häufig für die Bedingungen der Gespräche eine freie Schallausbreitung vorausgesetzt, wie es bspw. bei den SIL–Kurven geschieht (Abb. 7.2.3-1). Die Bestimmung der Sprachverständlichkeit ist dann mit Fehlern behaftet, was bei der Interpretation der Daten zu berücksichtigen ist. Will man die Schallausbreitung vom Sprecher zum Hörer genauer bestimmen, so sind die Gesetzmäßigkeiten der Raumakustik heranzuziehen (Schirmer 1996; Kuttruff 2000; Cremer u. Möser 2005). Mit wachsender Entfernung von der Schallquelle nimmt der von den Wänden, Decke und Boden reflektierte Schall im Verhältnis zum direkten Schall an Intensität zu. In größerer Entfernung von der Schallquelle bestimmt nur noch der reflektierte Schall den Schallpegel, er ist dann unabhängig von der Entfernung (s. Abb. 7.4.1-1, rechts); man befindet sich im diffusen Schallfeld. Der Schallpegel des diffusen Schallfeldes hängt nur von der Schallleistung der Schallquelle, dem Volumen des Raumes (V) und dem Schallabsorptionsvermögen ( Į S) der Oberflächen (S) im Raum bzw. seiner Nachhallzeit (T) ab; Į ist der mittlere Absorptionsgrad im Raum ( Į nimmt Werte zwischen 0 und 1 an). Wird einem Raum laufend Schallenergie zugeführt, stellt sich zwischen der absorbierten Energie und der zugeführten Energie ein Gleichgewicht ein. Wird die zugeführte Energie plötzlich abgeschaltet, so verschwindet nicht im gleichen Moment auch die Schallenergie im Raum, sondern es gilt: je höher die Schallabsorption im Raum ist, umso schneller klingt die Schallenergie E (t) im Raum aus. Die Nachhallzeit (T) ist durch den Schallpegel definiert, der in dieser Zeit um 60 dB abklingt, d.h. die Schallenergie sinkt in dieser Zeit auf den millionsten Teil, der Schalldruck auf den tausendsten Teil ab. Die Nachhallzeit (T) ist für kleine Absorptionsgrade ( Į ) näherungsweise durch die Beziehung (Gl. 7.4.1-2) gegeben:
280
7 Vorhersage der Sprachverständlichkeit: Sprachindices
T/s
0 ,163V / m 3 . Į S / m2
(7.4.1-2)
Abb. 7.4.1-1. Abnahme des Schallpegels (DLr) mit der Entfernung (r) in Räumen, dessen Abmessungen etwa in gleicher Größenordnung sind, mit unterschiedlicher Schallabsorption Į S ( Į Absorptionsgrad der Raumbegrenzungsflächen S), r < rH: direktes Schallfeld, r > rH: diffuses Schallfeld; die angegebenen Werte können beispielsweise folgende Räume dem Volumen (V) und dem Schallabsorptionsgrad ( Į = 0.4 hohe Schallabsorption/ Į = 0.15 geringe Schallabsorption wie z.B. in üblichen Werkhallen) entsprechen (Hallradius rH = rH0): Į S = 50 m2 : V = 80 m3 / 400 m3, rH = 1 m; 2 V = 3000 m3 / 10 000 m3, rH = 3.16 m; Į S = 500 m : 2 V = 8000 m3 / 400 000 m3, rH = 10 m Į S = 5000 m :
Zwei Punkte müssen beachtet werden, wenn man die akustischen Parameter von Räumen bei der Bestimmung der Sprachverständlichkeit einbeziehen will. Zum einen werden bei der Berechnung der Schallausbreitung in Räumen nur die Schallleistung der Schallquelle und der Abstand zu dieser berücksichtigt, sowie das Volumen des Raumes und das mittlere Absorptionsvermögen ( Į S) im Raum, das durch Decke, Boden, Wände und Möbeleinrichtungen oder Maschinen gegeben ist. Zum anderen kann für einen Raum mit bekanntem Volumen und Absorption ( Į S) nur ein mittlerer Schallpegelverlauf von einem Raumpunkt aus berechnet werden. Auch für den Nachhall wird nur ein mittlerer Wert bestimmt und angenommen. Unterschiedliche Verläufe der Schallausbreitung, die in einem Raum zwischen Sprecher und Hörer auftreten können, werden bei dieser Berechnung nicht beachtet. Eine unterschiedliche Schallausbreitung kann z.B. in
7.4 Sprachverständlichkeit im Freien und in Räumen
281
einem Raum durch Gegenstände bedingt sein, die in der Nähe von oder zwischen Sprecher und Hörer stehen. Durch die Gegenstände (Möbel, Regale, Maschinen, Wand, Reflektoren) bedingt, kann der Sprechschall zum Hörer hin oder auch vom Hörer weg reflektiert werden und die Schallpegelabnahme mit der Entfernung erhöhen oder auch verringern. Eine zweckmäßige geometrische Gestaltung von Räumen kann die Sprachverständlichkeit in diesen erhöhen (DIN 18041). Dabei ist daran zu denken, dass
x die Bestimmung des Schallpegels im diffusen Schallfeld an bestimmte Voraussetzungen geknüpft ist, x die Abmessungen des Raumes wie Höhe, Breite, Länge in der gleichen Größenordnung liegen (wie es üblicherweise bei kleinen Räumen ist), x die Schallabsorption auf möglichst alle Flächen im Raum verteilt ist, und x der Schall durch reflektierende Flächen oder Gegenstände (Möbel, Maschinen) möglichst diffus gestreut wird. Diese Voraussetzungen gelten nicht oder nur mit erheblichen Einschränkungen für Flach– und Langräume, bei denen die Höhe bzw. die Höhe und Breite jeweils kleiner gegenüber den anderen Raumabmessungen sind (Abb. 7.4.1-2). Eine große Anzahl von Räumen kann als Flachräume (bzw. Langräume) gekennzeichnet werden, da ihre Höhe (bzw. ihre Höhe und Breite) kleiner als 1/3 ihrer Breite und Länge (bzw. ihrer Länge) ist. Ein Büroraum ist mit den Abmessungen 3m x 9m x 11m ein Flachraum (3 d 1/3 · (9, 11)) und eine Werkhalle mit den Abmessungen 8m x 20m x 80m ein Langraum ((8, 20) ŭ 1/3 · 80). Die Berechnung der Schallausbreitung in solchen Räumen ist recht aufwändig (Jovicic 1979; Lazarus 1990b; Schirmer 1996; VDI 3760). Sehr vereinfacht lässt sich für den Flachraum der in Abbildung 7.4.1-2 skizzierte Verlauf des Schallpegels angeben. Bis zu einer Entfernung (r) von der Schallquelle von r = h/3 - h/2 (h = Höhe des Flachraumes) wird ein direktes Schallfeld angenommen (DLr = 6 dB pro Abstandsverdopplung), von dieser Entfernung bis r = (4– 5) h gilt eine Schallpegelabnahme je nach Absorptionsvermögen des Raumes von DLr = 2–5 dB pro Abstandsverdopplung. Bei großen Entfernungen (r > 5 h) übertrifft die Pegelabnahme die des direkten Schallfeldes. Sie beträgt DLr = 6–8 dB pro Abstandsverdopplung. Im Gegensatz zum diffusen Schallfeld nimmt der Schallpegel in Flachräumen mit der Entfernung weiter ab.
282
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Abb. 7.4.1-2. Schallpegelabnahme (DLr) mit der Entfernung (r) in einem Flachraum mit der Höhe h = 4 m; angegeben wird zusätzlich die Pegelabnahme (DLr) pro Abstandsverdopplung (dB/AV): h/2 < 5h
> rH ; Gl. 7.4.2-6) gilt dann:
LS ( r ) LS ,1m 10lg rH2 0 / m 2 dB 10lg u dB .
(7.4.2-6)
Diese Gleichung (7.4.2-6) gilt jedoch nur, wenn die Entfernung zwischen Sprecher und Hörer (r) größer ist als der Hallradius des Raumes (r >> rH). Angenommen wird hierfür häufig der Wert von rH: r Ů 3rH ū 0.2 V / T (Tolk u. Peutz 1965). Die Modulationsübertragungsfunktion (Gl. 7.4.2-7) ergibt sich dann aus den Gleichungen (Gl. 7.4.2-3,-4,-5,-6):
mR
1 T / s· § 1 ¨ 2ʌ f j / Hz ¸ 13.8 ¹ © 1
2
§ V / m2 0.1 ( L N LS ,1m ) · ¨ 1 0.0034 ¸ u.10 ¨ ¸ T / s © ¹
(7.4.2-7)
.
Nimmt man in der Abbildung 7.4.2-4 als Abszisse einen allgemeinen Pegel L = LN - LS,1m + 10lg V/m3 dB an, so ist es möglich, den STI für unterschiedliche Geräusch– und Sprechpegel und die Nachhallzeiten direkt abzulesen. Für kleine Werte von L (Abb. 7.4.2-4), d.h. für geringere Geräuschpegel (LN), für hohe Sprechpegel (LS,1m) und kleine Räume (V), bestimmt im Wesentlichen die Nachhallzeit (T) den Sprach–Übertragungsindex; die STI–Kurven verlaufen dann parallel zur Abszisse. Sind die Werte von L > 5 dB und liegt die Nachhallzeit bei T = 0.5–4 s, dann ist der
288
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Sprach–Übertragungsindex (STI) im Wesentlichen durch den Wert L gegeben, d.h. bei bekanntem Volumen (V) des Raumes bestimmt der Signal– Geräuschabstand (LSA,1m - LN) den STI. 1,0
0 0,1
0,6
0,25 0,5
STI
0,8
1 2
0,4
4
0,2
8 0,0 -15 -10 -5
0
5 10 15 20 25 30 35 40 45
L /dB Abb. 7.4.2-4. Sprach–Übertragungsindex (STI) dargestellt für unterschiedliche Nachhallzeiten (T = 0 bis 8 s) über dem Pegel L = LN - LS,1m + 10lg(V/m3) dB, wobei V das Volumen des Raumes, LN (LNA, LNi) bzw. LS,1m (LSA,1m, LSi,1m) der Geräusch– bzw. Sprechpegel ist
Die Bedeutung des STI wird im weiteren Text für einen gegebenen Sprechpegel und verschiedene Geräuschpegel für das diffuse Schallfeld in drei Räumen verdeutlicht. Für die Räume mit verschiedenen Volumen (V) werden jeweils 4 Nachhallzeiten (T) und der Sprach–Übertragungsindex (STI) aus dem A–Schallpegel des Sprechers in entsprechender Entfernung im diffusen Schallfeld bestimmt. Tabelle 7.4.2-1 enthält die Ergebnisse, die anhand der Abbildung 7.4.2-4 dargstellt werden können. Sie gelten für Entfernungen zwischen Sprecher und Hörer, die größer als der Hallradius (r >> rH) sind, in der Regel wird r t 3 rH für die Entfernung festgesetzt. Die in der Tabelle 7.4.2-1 angenommenen Volumen (75, 275, 1000 m3) entsprechen etwa den Volumen von Wohnräumen, Klassenzimmern oder Büros und größeren Arbeitsräumen (Großraumbüro oder Werkstatt) oder Auditorien. Sie haben jeweils eine unterschiedliche Nachhallzeit. Sie ist im Mittel für Wohnräume T = 0.5–1.0 s, für Klassenzimmer T = 0.5–2.0 s, für Büroräume T = 0.5 - 1.0 s, für große Arbeitsräume T = 1.0 - 3.0 s, und für Auditorien T = 0.5 - 1.5 s. Aus der Tabelle 7.4.2-1 ist abzulesen, dass eine Verbesserung des Sprach–Übertragungsindex durch Verringerung des Geräuschpegels (LNA) und der Nachhallzeit (T) zu erreichen ist. So kann z.B. der Sprach–Übertragungsindex von STI = 0.54 auf STI = 0.71 erhöht wer-
7.4 Sprachverständlichkeit im Freien und in Räumen
289
den, wenn im Klassenzimmer (V = 275 m3) der Geräuschpegel von LNA = 45 dB auf LNA = 35 dB gesenkt und die Nachhallzeit von T = 1.0 s auf T = 0.5 s vermindert wird, wobei die Entfernung Sprecher–Hörer größer als der Hallradius (r > 3 rH | 5–7 m) sein muss. Tabelle 7.4.2-1. Sprach–Übertragungsindex (STI) für eine Entfernung von Sprecher zu Hörer von r >> rH (rH Hallradius) und einem Sprechpegel von LSA,1m = 60 dB für drei Räume (Volumen V) mit jeweils 4 Nachhallzeiten (T). Der Sprechpegel ist gegeben durch LSA,1m = 60 dB (LSi = 59.1, 57.5, 53.7, 51.8, 44.4, 42.1 dB), das Geräusch ist ein Verkehrsgeräusch mit dem Spektrum (LNA = 55 dB; LNi = 59.1, 53.3, 50.1, 49.8, 48.2, 41.8, 31.7 dB) und 5 verschiedenen Pegeln (LNA) V in m³ T in s rH in m LNA in dB 25 35 45 55 65
75 0.25 0.5 1.4 1.0
1.0 0.7
2.0 0.5
275 0.25 0.5 2.7 1.9
1.0 1.3
2.0 0.9
1000 0.25 0.5 5.1 3.6
1.0 2.0
2.0 1.8
0.85 0.84 0.75 0.54 0.23
0.59 0.58 0.57 0.50 0.32
0.44 0.44 0.43 0.40 0.30
0.85 0.81 0.64 0.54 0.07
0.59 0.58 0.54 0.42 0.16
0.44 0.43 0.42 0.36 0.18
0.83 0.73 0.50 0.19 0.00
0.58 0.56 0.48 0.28 0.05
0.44 0.43 0.40 0.27 0.06
0.73 0.73 0.69 0.54 0.29
0.73 0.71 0.62 0.42 0.12
0.72 0.67 0.52 0.25 0.03
Bei eher kleineren Räumen mit niedrigen Geräuschpegeln, d.h. bei hohen Signal–Geräuschabständen bestimmt vorwiegend die Nachhallzeit die Höhe des STI. Das kann auch aus den Abbildungen 7.3.3-1 (LSN > 10 bis 15 dB) und 7.4.2-1 (L < -5 dB) abgelesen werden, die beide für das diffuse Schallfeld gelten. Je größer der Raum ist, umso mehr kommen Geräusche mit niedrigen Pegeln (LNA = 25–35 dB) zum Tragen. Natürlich sind diese Ergebnisse auch durch die weiten Entfernungen (r > rH) von Sprecher und Hörer bedingt, die in größeren Räumen (diffuses Schallfeld) auftreten. Der hohe Einfluss der Nachhallzeit bei der Berechnung des STI ist teilweise durch seine Begrenzung (LSNi < 15 dB) gegeben, die häufig der realen Situation nicht gerecht wird (s. Abschn. 7.3.1). Wird der Sprechpegel erhöht oder erniedrigt, erhält man entsprechend höhere oder niedrigere STI–Werte (Tab. 7.4.2-2). So wird in Wohnungen eher mit niedrigeren Schallpegeln (entspannte Sprechweise LSA,1m = 54 dB), und in größeren Räumen eher mit höheren Schallpegeln (angehobene Sprechweise LSA,1m = 66 dB) gesprochen. Allerdings macht sich ein niedrigerer bzw. ein höherer Sprechpegel erst bei höheren Geräuschpegeln im STI bemerkbar. Diese etwas widersprüchlichen Ergebnisse – ein veränderter Sprechpegel ergibt keinen veränderten STI – hängen mit der Annahme zusammen, dass in den Räumen ein diffuses Schallfeld ist, was aber häufig nicht zutrifft.
290
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Tabelle 7.4.2-2. Sprach–Übertragungsindex STI (Eingangsdaten und Hallradius rH, s. Tab. 7.4.2-1), im direkten Schallfeld (r = 2 m; 3 linke Spalten) und für 2 Räume (Volumen V) im diffusen Schallfeld für r >> rH bei drei verschiedenen Sprechpegeln (LSA,1m). Zum Vergleich sind die STI–Werte für das diffuse Schallfeld bei LSA,1m = 60 dB der Tabelle 7.4.2-1 noch einmal aufgeführt LSA,1m in dB 54 V in m3 T in s rH(r) in m (2) LNA in dB 25 0.99 35 0.90 45 0.60 55 0.28 65 0.03
60 (2)
66 (2)
60 75 0.5 1.0
66 54 66 1000 75 1000 1.0 0.25 0.5 1.0 2.0 0.25 0.5 1.0 2.0 2.0 1.40 1.0 0.7 0.5 5.10 3.6 2.0 1.8
1.00 0.98 0.79 0.48 0.15
1.00 0.99 0.94 0.66 0.35
0.73 0.73 0.69 0.54 0.29
0.58 0.56 0.48 0.28 0.05
0.85 0.81 0.63 0.36 0.07
0.73 0.71 0.61 0.41 0.11
0.59 0.58 0.54 0.41 0.15
0.44 0.43 0.42 0.36 0.17
0.85 0.81 0.65 0.38 0.08
0.73 0.72 0.62 0.43 0.13
0.59 0.58 0.56 0.47 0.26
0.44 0.43 0.42 0.36 0.19
Zum Vergleich ist in Abbildung 7.4.2-2 auch der STI für das direkte Schallfeld (Annahme: r = 2 m, kein Einfluss der Nachhallzeit) angegeben. Will man den Sprachpegel für kleine Entfernungen zwischen Sprecher und Hörer berechnen, so muss im Wesentlichen die Schallpegelabnahme mit dem Abstand der Entfernung vom Sprechermund in Rechnung gestellt werden. Die Nachhallzeit hat im direkten Schallfeld (r < rH) einen geringeren Einfluss auf den Sprach-Übertragungsindex (STI) (Abb. 7.4.2-5).
Abb. 7.4.2-5. LNA-r–Diagramm, Zusammenhang zwischen dem Geräuschpegel (LNA) und der maximal möglichen Entfernung Sprecher–Hörer (r) für eine befriedigende Sprachverständigung (STI = 0.55) bei unterschiedlicher Sprechweise entspannt, normal bis sehr laut, bei gegebenem Volumen (V) und Nachhallzeit (T)
7.4 Sprachverständlichkeit im Freien und in Räumen
291
Die Verbesserung der Sprachverständlichkeit bzw. die Erhöhung des Sprach–Übertragungsindex (STI) kann im direkten Schallfeld (r d 0.5– 3 m), wie es z.B. im Wohnbereich, in kleineren Arbeitsräumen und in Verkehrsmitteln vorliegt, nur bei gleicher Sprechanstrengung durch Minderung des Geräuschpegels (LNA) erreicht werden. 7.4.3 Berechnung des STI in verschiedenartigen Räumen Raummodelle, Flachräume; Absorption, Streuung der Raumflächen; Publikumsgeräusche, Nachhall Eine genaue Bestimmung des Sprach–Übertragungsindex in Räumen für beliebige Entfernungen zwischen Sprecher und Hörer ist recht aufwändig. Will man trotzdem die Sprachverständlichkeit auf einfache Weise abschätzen, so sollte folgendes beachtet werden: bei größeren Entfernungen zwischen Sprecher und Hörer (r > 3 rH) – relativ selten im privaten und öffentlichen Bereich und Arbeitsräumen – kann der STI aus den Kurven der Graphik (Abb. 7.4.2-4) abgelesen werden. Ist dagegen die Entfernung zwischen Sprecher und Hörer geringer (r < 3–5 m), so ist der Einfluss des Raumvolumens bzw. der Nachhallzeit auf die Sprachverständlichkeit nicht so stark ausgeprägt. In diesem Fall kann die Sprachverständlichkeit, aufgrund der Annahme eines direkten Schallfeldes – mit Hilfe des SIL–Verfahrens abgeschätzt werden. So kann z.B. die Bestimmung des für eine befriedigende Sprachverständlichkeit noch zulässigen Geräuschpegels anhand der Kurven des SIL–r–Diagramms (Abb. 7.2.3-1) vorgenommen werden. Die Genauigkeit dieser Bestimmung nimmt aber mit größerer Entfernung (r > 5 m) ab. Der Wert des zulässigen Geräuschpegels (Abb. 7.2.31) wird, ist die Nachhallzeit klein, eher zu niedrig, ist die Nachhallzeit höher, eher zu hoch geschätzt. Um eine genaue Bestimmung des STI vornehmen zu können, wird die Art der Übertragung von der Quelle (Sprecher) zum Empfänger (Hörer) und der Modulationsgrad m beim Empfänger benötigt. Diese Bestimmung kann anhand von drei unterschiedlich differenzierten Raummodellen erfolgen. Die Annahme, dass ein diffuses Schallfeld vorliegt (Stufe 1), berücksichtigt nur das Volumen und eine mittlere Absorption. In einer gewissen Entfernung von der Schallquelle und in kleinen Räumen mit einer guten Diffusität ist diese Annahme häufig ausreichend. Jede genauere Berechnung würde ein differenziertes Modell des Raumes, mehr Daten und einen höheren Rechenaufwand erfordern. In der zweiten Stufe (Stufe 2) der Berechnung wird eine bestimmte Geometrie des Raumes (Rechteck–, Flach–, Langräume), eine mittlere Absorption ( Į S) seiner 6 Begrenzungsflächen
292
7 Vorhersage der Sprachverständlichkeit: Sprachindices
und eine mittlere Streuung des Schalls im Raum berücksichtigt. Man nimmt bei diesem Vorgehen eine mittlere Schallausbreitungskurve für einen bestimmten Raum an und kann so die Schallpegelabnahme zwischen 2 Punkten (Quelle (Sprecher) – Empfänger (Hörer)) berechnen (Probst 1992; VDI 3760; DIN EN ISO 11690–1, –3). Beliebige Raumformen, individuelle (quellennahe) Absorptionsflächen, Abschirmungen oder Streuungen des Schalls können auf dieser Stufe noch nicht in der Rechnung berücksichtigt werden. Diese und weitere Berechnungen können erst in der dritten Stufe (Stufe 3) des Modells verwirklicht werden. In dieser kann z.B. die Wirkung reflektierender oder absorbierender Teilflächen relativ zum Sprecher oder Hörer (Probst 1999) geklärt werden. Houtgast und Mitarbeiter haben in einer umfangreichen Studie über die Rolle der Modulations–Übertragungsfunktion in Räumen (Houtgast et al. 1980; Plomp et al. 1980; Rietschote et al. 1981; Schröder 1981; Wattel et al. 1981; Rife 1982; Steeneken u. Houtgast 1982; Rietschote u. Houtgast 1983) mehrere Modelle für die Vorstellungen entwickelt, die in den drei Stufen angesprochen worden sind. Dabei wurden vor allem die Absorption und die Geräusche des Publikums, die Absorption und die Streuung der Raumbegrenzungsflächen sowie die Raumform untersucht. Die Grundidee des Modells geht von einer Schallquelle (Sprecher) und von einzelnen Punkten im Publikumsbereich im Raum aus (s.a. Abschn. 12.2). Die Autoren (Rietschote u. Houtgast 1983) fanden, dass die Anwendung der Diffusfeldtheorie (Stufe 1), die Annahme der Raumform (Rechteck; Stufe 2) oder die Annahme von differenzierteren Modellen (Stufe 3) zu stark voneinander abweichenden Ergebnissen führen (D STI ū 0.1–0.2). Sie konnten aber generell einen Einfluss von Publikumsgeräusch, Publikumsabsorption und auch von der Streuung an Decke und Wänden nachweisen. So kann der STI bedingt durch die Streuung der Decke und Wände um bis zu einem STI ū 0.1 gegenüber einem Diffusfeld abnehmen, die Absorption des Publikums (Boden) erhöht dagegen den STI. Die Simulation der Ausgangswerte und ihrer Zusammenhänge im Modell (Plomp et al. 1980) weisen darauf hin – wie es auch für Klassenräume aufgezeigt werden konnte (Abschn. 12.2) – dass es eine optimale Nachhallzeit gibt, bei der der STI bei vorgegebenen Bedingungen (Geräusche des Publikums, Absorption des Publikums Į = 1, Sprecher LS,1m = 65 dB, Publikumssprechgeräusch LS,1m = 20–35 dB) für unterschiedliche Raumgrößen (für kleine (10 x 15 x 5 m) bis zu größeren (40 x 60 x 20m) Räumen) maximale Werte annehmen kann, die zwischen 0.3 und 1.7 s liegen. Diese Werte stimmen mit denen überein, die von Kuttruff (2000) angegeben worden sind (0.5 bis 1.2 s; s. Abschn. 6.4); wobei die höheren Nachhallzeiten sich immer auf die größeren Räume beziehen. In weiteren Arbeiten werden die Sprachverständlichkeit in U–Bahnhöfen (Yang u. Shield 2001) und die Anordnung von Lautsprechern in
7.4 Sprachverständlichkeit im Freien und in Räumen
293
Räumen (Kang 1996) untersucht. In mehreren Untersuchungen wurden das STI– und das RASTI–Verfahren (ein vereinfachtes STI–Verfahren) in Schulklassen (s. Abschn. 12.2), in Auditorien und in Kirchen überprüft, wobei in den beiden letzteren Fällen nur die Nachhallzeit und die Raumgeometrie eine Rolle spielt. Llopis u. Llinares (1987) wendeten das RASTI–Verfahren in Konferenzräumen an und erhielten Werte zwischen 0.78 und 0.43, wobei bei 85 % der Sitzplätze die Werte unter 0.55 lagen. In acht Kirchen unterschiedlicher Baustile lag der STI bei einer Entfernung von der Schallquelle bis zu 5 m bei 0.6 bis 0.7, bei größeren Entfernungen über 30 m lag der STI bei 0.3 (Carvalho 1999). Die Ergebnisse aus einer Untersuchung (Tisseyre et al. 1998), die in 7 größeren Auditorien (V = bis 800 103 m3; T = 0.7 bis 11 s) durchgeführt worden ist, weisen daraufhin, dass eine gute Sprachverständlichkeit nur bei Räumen mit kleineren Volumen und geringer Nachhallzeit zu erwarten ist. Eine optimale Nachhallzeit liegt für diese Räume bei T = 0.8 bis 1.6 s. Für höhere Nachhallzeiten zeigt das RASTI–Verfahren größere Abweichungen von den gemessenen Verständlichkeitswerten. In einem Hörsaal (10 x 10 m) wurden bei einer Nachhallzeit von 2 und 1 s (Fastl et al. 1990) Vergleiche zwischen RASTI–Werten, zwischen Messwerten der relativen Schwankungsstärke von rosa Rauschen sowie zwischen Messwerten von Hörversuchen durchgeführt. Die Korrelation zwischen den Messwerten war sehr hoch. Die RASTI–Werte zeigten geringe Unterschiede zwischen den Plätzen wie auch zwischen den Situationen vor und nach der Reduzierung der Nachhallzeiten. Türk u. Körpert (1987) konnten aufzeigen, dass der Einfluss verschiedener Geräuschspektren auf die RASTI–Werte relativ gering ist. Die Autoren halten deshalb das RASTI–Verfahren, das nur zwei Oktaven (0.5, 2 kHz) benutzt, für Messungen „vor Ort“ für zu ungenau. In einer Studie (Reyna u. Sancho 1988) wurde von 10 verschiedenen Auditorien der Störgeräuschpegel geschätzt, der den RASTI gerade beeinflusst. Diese Schätzwerte lagen für LNokt(0.5 kHz) bei 26–29 dB. Die Erfahrungen, die mit dem STI– und RASTI–Verfahren in den oben diskutierten Untersuchungen gemacht wurden, beziehen sich vorwiegend auf verschiedene Raumsituationen mit unterschiedlicher Raumakustik, bei der der Geräuscheinfluss nur eine geringe Rolle spielt. Das Geräusch wird – wenn überhaupt – nur als Publikumsgeräusch (Schülergeräusch) einbezogen. Der Raum wird meistens als diffuses Schallfeld behandelt. In kleinen bis mittelgroßen Räumen oder Teilräumen (Sprecher–Hörer–Abstand bis 5–8 m) liegt bei kleinen Entfernungen jedoch ein direktes Schallfeld und bei größeren Entfernungen eher ein Übergang zu einem Raumschallfeld (Schallfeld mit Reflexionen) vor und nicht ein reines Diffusfeld. Einige Messungen und Berechnungen (Tolk u. Peutz 1965; Houtgast et al.
294
7 Vorhersage der Sprachverständlichkeit: Sprachindices
1980; Plomp et al. 1980; Brulle 1995; Probst 2003) bestätigen das. Sie zeigen, dass der Schallpegel auch noch bei einer Entfernung abnimmt (r = rH bis 5 rH), bei der sonst schon ein diffuses Schallfeld mit einem konstanten Schallpegel angenommen wird. Somit scheint es eher zweckmäßig zu sein nicht – wie häufig praktiziert (Abschn. 7.3.2, 7.3.3, 7.4.2) – für eine etwas größere Entfernung die Näherung des Diffusfeldverfahrens heranzuziehen, sondern eine Näherung, die auf dem Direktschallfeld aufbaut. Auf diese Weise könnte man den Einfluss von Geräuschpegel und Nachhall in Gesprächssituationen bis 10 m besser abbilden. Untersuchungen (Bradley 1986a, b; Bradley et al. 1999a), die beide Einflussfaktoren der Sprachverständlichkeit, Geräusch und Nachhall beachten, betonen den starken Einfluss des S/N–Verhältnisses.
7.5 Vergleich unterschiedlicher Sprachvorhersage– Verfahren Sprachindices, Genauigkeit der Verfahren 7.5.1 Vergleich der Verfahren und deren Treffsicherheit für die Vorhersage SNR, SIL, AI, SII, STI Mit Hilfe der bekannten Verfahren u.a. SNR, SIL, AI, SII, STI (vgl. Abschn. 7.2–7.4) versucht man in der Praxis aus den akustischen Daten, die das Geräusch und die Sprache beschreiben, die Güte der Sprachverständlichkeit bestmöglich vorherzusagen. Exkurs: Klumpp u. Webster (1963) haben in Untersuchungen die Maße zur Vorhersage der Sprachverständlichkeit miteinander verglichen und die Brauchbarkeit abgeschätzt. Zu diesem Zweck verwendeten sie 16 unterschiedliche Geräusche: typische Schiffs–, Flugzeug–, Maschinen– und Bürogeräusche, die teilweise zeitlich schwankende Pegel aufwiesen, wie auch stationäre Geräusche. Die Frequenzspektren dieser Geräusche waren recht unterschiedlich ausgesucht, von niederfrequenten Geräuschen, in denen die Abnahme der höheren Frequenzen pro Oktave 10 dB betrug, bis zu hochfrequenten Geräuschen, in denen die Abnahme der niederen Frequenzen ebenso pro Oktave um 10 dB lag. Die Geräusche wurden aus zwei Lautsprechern abgestrahlt, links und rechts von der Versuchsperson. Die Sprache ertönte aus einem Lautsprecher, der vor der Person stand. Der Sprachpegel betrug LSCF = 78 dB. Die Personen (8 Versuchspersonen) hatten die Anweisung, den Geräuschpegel so einzustellen, dass die Sprachverständlichkeit (SV) für einsilbige Reimwörter etwa 50 % betrug. Der Geräuschpegel wurde gemessen und die Vorhersagekriterien A–Schallpegel, Sprach– Störschallpegel (SIL) usw. bestimmt.
7.5 Vergleich unterschiedlicher Sprachvorhersage–Verfahren
295
In Abbildung 7.5.1-1 sind die Ergebnisse dargestellt. Tabelle 7.5.1-1 enthält die Standardabweichungen der einzelnen Vorhersagekriterien. Das Kriterium, das die kleinsten Abweichungen für alle 16 Geräusche ergibt bzw. für die 16 Geräusche jeweils nahezu den gleichen Wert erbringt, kann als bestmögliches Vorhersagekriterium angesehen werden. Tabelle 7.5.1-1. Standardabweichung (s) für die Vorhersageverfahren: Sprach– Störschallpegel (LSIL), Frequenzbewertung (LA, LB, LC), Grenzkurvenverfahren (LNR) bei gleicher Sprachverständlichkeit (SV = 50 % Reimwörter) für 16 Geräusche (Klumpp u. Webster 1963) LSIL LSIL LSIL LSIL LA LB LC LNR
(0.50–2.0) (0.85–3.4) (0.43–3.4) (0.43–1.7)
s in dB 2.8 4.8 3.1 2.5 4.7 5.5 7.4 4.8
Wie aus der Darstellung (Abb. 7.5.1-1) hervorgeht, kann allgemein festgehalten werden, dass mit zunehmender Verlagerung der Hauptenergie des Geräuschspektrums außerhalb des Frequenzbereichs der Sprache die Messwerte zusehends voneinander abweichen. Der Sprach–Störschallpegel (LSIL) weist die brauchbarste Vorhersage auf. Dieser Umstand kann daran liegen, dass zur Vorhersage nur die Geräuschanteile herangezogen worden sind, die im Sprachfrequenzbereich liegen. Die Vorhersage der Sprachverständlichkeit mit Hilfe der A–Bewertungskurve ist auch noch brauchbar, jedoch liegen die Schallpegel der Störgeräusche verschiedenster Spektren für die gleiche Sprachverständlichkeit zwischen LNA = 76 und 94 dB, die Standardabweichung beträgt s = 4.7 dB. Die beste Vorhersage erhält man nach dem SIL–Verfahren LSIL (0.5–2); die Pegelwerte liegen zwischen 70 und 80 dB, die Standardabweichung ist s = 2.8 dB. Die Berechnung der Sprachverständlichkeit nach den Grenzkurvenverfahren, in denen die Oktavpegel Verwendung finden, die der Grenze am nächsten liegen, sowie die Vorhersage mit Hilfe der C–Bewertungskurve sind nur begrenzt brauchbar.
296
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Abb. 7.5.1-1. Pegelwerte (L) von 5 Vorhersageverfahren bei gleicher Sprachverständlichkeit (SV = 50 % für Reimwörter) für 16 unterschiedliche Geräusche mit zunehmendem Anteil an hohen Frequenzen. Als Vorhersageverfahren werden benutzt: der C–bewertete und A–bewertete Schallpegel (LNC, LNA), der Sprach– Störschallpegel (LSIL (0.5–2), LSIL (0.3–4.8)) und die Werte der Grenzkurven (LNR) (nach Klumpp u. Webster 1963)
Zusammenfassend kommt Webster (1965) zu dem Schluss, dass ein Geräusch mit einer Abnahme des Pegels der höheren Frequenzen um 3 dB pro Oktave diese 16 verschiedenen Geräusche am besten repräsentiert: 50 % korrekt verstandene Reimwörter bei einem Geräusch mit einer Pegelabnahme pro Oktave um 3 dB kann durch folgende Werte beschrieben werden: LSIL (0.5 - 2) = 73 dB, LSIL (0.43 - 3.4) = 72 dB, LNA = 79 dB.
(7.5.1-1)
Webster (1973) hat in einer weiteren Untersuchung, in der er wiederum die 16 Geräuscharten verwendete, die Vorhersagequalität der einzelnen Verfahren untereinander verglichen. Bei einem vorgegebenen Artikulationsindex AI von 0.2, 0.5, 0.8 wurde der Sprach–Störschallpegel (LSIL), der A–Schallpegel (LA) und ein Pegelwert mit Hilfe der Bewertungskurven (Abb. 7.2.1-2) SI–50, –60, –70 für jedes der 16 Geräusche berechnet und über die erhaltenen Werte jeweils der Mittelwert und die Standardabweichung (Tab. 7.5.1-2) gebildet. Die Treffsicherheit der Vorhersage ist nach dem SIL–Verfahren am höchsten. Die Standardabweichungen für die SIL– Schätzungen 0.5–2, 0.5–4 kHz liegen zwischen s = 0.7–3.0 dB. Das SIL– Verfahren mit 4 Oktaven (LSIL (0.5–4)) ist vor allem bei einem Artikulationsindex AI = 0.5 (befriedigende bis gute Sprachverständlichkeit) anzu-
7.5 Vergleich unterschiedlicher Sprachvorhersage–Verfahren
297
wenden, da es hier die höchste Treffsicherheit erreicht. Dieses Verfahren wird auch in der ISO/TR 3352 und der DIN 33410 empfohlen. Alternativ zu dem SIL–Verfahren kann der A–Schallpegel zur Vorhersage verwendet werden, da hier die Standardabweichungen noch in einem vertretbaren Rahmen bleiben (s = 2.8–3.7 dB). Die Treffsicherheit in der Vorhersage des Artikulationsindex mit Hilfe der Pegelwerte, die mit den Frequenzbewertungskurven (SI–50, –60, –70) ermittelt worden sind, ist für die AI–Bereiche am größten, für die sie auch konzipiert worden sind (vgl. Abschn. 7.2.1): für einen AI = 0.8 ist die SI– 50; für einen AI = 0.5 die SI–60 und für einen AI = 0.2 die SI–70 Frequenzbewertungskurve zu benutzen. Die Standardabweichung der Werte, die mit Hilfe der SI–Kurven für den gesamten AI–Bereich ermittelt werden, weisen ähnliche Größenordnungen auf wie die Werte, mit denen man mittels der A–Schallpegel eine Vorhersage vornimmt. Werden die Standardabweichungen (Tab. 7.5.1-1 und 7.5.1-2) miteinander verglichen, so stellt man kleinere Werte in der Tabelle 7.5.1-2 fest. Die verschiedenen Standardabweichungen der Messangaben können an den verwendeten Bezugsgrößen liegen. Während in Tabelle 7.5.1-2 zur Vorhersage Sprachverständlichkeitswerte (Wortverständlichkeit) benutzt wurden, zog man in den Berechnungen, die in Tabelle 7.5.1-2 wiedergegeben sind, den Artikulationsindex heran. aT bel 7.5.1-2 . Standardabweichung (s) der Vorhersageverfahren: Sprach– Störschallpegel (LSIL), Frequenzbewertungskurven (SI–50, –60, –70, LA) bei einem vorgegebenen Artikulationsindex (AI = 0.2, 0.5, 0.8) für 16 Geräusche (Webster 1973) AI Verfahren LSIL (0.5–2) LSIL (0.5–4) LSIL (1–4) SI–50 SI–60 SI–70 LA
0.2 1.5 3.0 5.4 5.6 3.0 2.4 3.7
0.5 0.8 s in dB 1.6 2.7 0.7 1.4 3.2 2.7 3.1 2.6 1.6 2.3 3.1 4.0 2.8 3.2
Kryter u. Williams (1966) haben verschiedene Vorhersageverfahren für Flugzeuggeräusche mit unterschiedlichen Frequenzspektren überprüft. Wortlisten (modifizierter Reimtest) wurden bei einem Störgeräusch von LNC = 100 dB mit einem Sprachpegel LSC = 80, 84 oder 88 dB vorgelesen. Die Personen hatten anzugeben, was sie verstanden hatten. Abbildung 7.5.1-2 enthält die Ergebnisse der Untersuchung. Je nach benutztem Verfahren treten unterschiedliche Abweichungen in der vorhergesagten
298
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Sprachverständlichkeit auf: bei einem C–bewerteten Signal–Geräuschabstand (LSNC) treten Schwankungen zwischen SV = 20–40 %, bei einem A– bewerteten Signal–Geräuschabstand (LSC - LNA) Schwankungen zwischen SV = 5–30 %, beim Sprach–Störschallpegel (LSC - LSIL (0.85 - 3.4)) Schwankungen von 5–15 % auf. Die Vorhersage mit Hilfe des Artikulationsindex ergibt die geringsten Schwankungen; sie liegen bei einer Sprachverständlichkeit von SV = 5–10 %.
Abb. 7.5.1-2.Verständlichkeit für Sprache (SV in %, modifizierter Reimtest), gestört durch vier Flugzeuggeräusche beim Start (A–D), dargestellt über dem Signal–Geräuschabstand (LSC - LNC, LSC - LNA, LSC - LSIL (0.85 - 3.4)) und über dem Artikulationsindex (AI) für drei Sprachpegel (LSC). Das Spektrum der Geräusche wurde so verändert, dass es dem Spektrum im Innenraum entspricht. Die vier Flugzeuggeräusche haben unterschiedliche Spektren: A (tieffrequent, LNimax bei fi = 50 Hz), B (breitbandig, LNimax bei fi = 212 Hz), C (breitbandig, LNimax bei 425 Hz), D (hochfrequent, LNimax bei 1.7 kHz) (nach Kryter u. Williams 1966)
Cluff (1969) hat in seiner Untersuchung, in der er 112 Geräusche mit unterschiedlichsten Spektren benutzte, die Vorhersagegenauigkeit bestimmter Verfahren für die gesamte Breite der Sprachverständlichkeit (AI = 0.1...0.9) überprüft. Die Standardabweichungen für die Schallpegel nach der A–Kurve und nach der SI–70 liegen im Allgemeinen zwischen s = 0.5– 4.5 dB. Bezogen auf die einzelnen Bereiche des Artikulationsindex zeigen sich folgende Unterschiede in den Standardabweichungen:
x für den Bereich AI = 0.1–0.7 wird mit der SI–70 Frequenzbewertungskurve bei einer Standardabweichung von s = 0.5–3 dB, x für den Bereich AI = 0.3–0.9 wird mit dem A–Schallpegel bei einer Standardabweichung von s = 0.5–2.5 dB mit der besten Treffsicherheit vorhergesagt. Botsford (1969) hat versucht, die durch unterschiedliche Spektren des Geräusches hervorgerufenen Unsicherheiten, die bei der Vorhersage der
7.5 Vergleich unterschiedlicher Sprachvorhersage–Verfahren
299
Sprachverständlichkeit nach dem A–Schallpegel auftreten, durch eine zusätzliche Messung des C–Schallpegels zu verringern. Er verwendete die Differenz zwischen den Werten des A– und C–Schallpegels (LC - LA) als Korrekturwert. Der Vorteil des Verfahrens liegt auf der Hand: Zur Messung des LA und des LC Schallpegels wird nur ein Schallpegelmesser benötigt, Oktavfilter sind nicht nötig. In einer Untersuchung mit 950 Geräuschen hat Botsford (1969) versucht, diesen Korrekturfaktor empirisch abzusichern. Er bildete die Differenzen zwischen den Messwerten LSIL (0.85–3.4) und LA und den Messwerten von LC und LA und verglich die erhaltenen Differenzen miteinander. Bei hohen Abweichungen der Schallpegel LC und LA also LC - LA | 8 bis 20 dB ist auch die Differenz zwischen LSIL und LA groß: LSIL - LA | 6 bis 20 dB. Bei kleinen Abweichungen der Schallpegel LA - LC | 2 bis 8 dB ist auch die Differenz zwischen LSIL und LA klein: LSIL - LA | 5 bis 11 dB. Die Berechnung einer Korrektur des A– Schallpegels aus der Differenz (LC - LA) scheint aber wenig sinnvoll zu sein, da nur Geräuschanteile, die im Frequenzbereich unter 0.5 oder über 8 kHz liegen, zu einer sichtbaren Differenz der Schallpegel LC - LA führen. Diese Frequenzbereiche verdecken aber nur zu einem geringen Anteil die Sprachfrequenzen. Webster (1970) versuchte aus den in den Untersuchungen von Beranek (1956), Webster u. Klumpp (1965), Kryter u. Williams (1966) und Williams et al. (1967) verwendeten Geräuschen die Beziehungen zwischen einigen Vorhersageverfahren zu berechnen. Die Schallpegel dieser 66 Geräusche wurden auf den Sprach–Störgeräuschpegel (LSIL (0.5–2)) bezogen, der in der Tabelle 7.5.1-3 als Bezugswert benutzt wird. Tabelle 7.5.1-3. Mittlere Differenz (DL) und Standardabweichung (s) zwischen LSIL (0.5–2) und den Werten der anderen 4 Vorhersageverfahren LSIL (0.85–3.4), LNR, LA, LC für die 66 Geräusche (Anzahl N) mit unterschiedlichen Spektren Bürogeräusche Fluggeräusche Überflüge Beranek 1956 N
17
LSIL (.85–3.4) -3 LNR 2 LA 7 LC 18
1.5 1.7 1.7 3.5
verschiedene Geräusche Kryter u. Williams et al. Webster u. Williams 1966 1967 Klumpp 1965 14 19 16 DL, s in dB -2 2.1 -2 2.0 -2 3.3 3 2.5 3 1.9 6 3.3 8 2.3 7 1.9 10 3.2 16 8.0 10 2.9 13 7.2
300
7 Vorhersage der Sprachverständlichkeit: Sprachindices
In dieser Tabelle 7.5.1-3 sind die mittleren Differenzen und die Standardabweichungen zwischen den LSIL (0.5–2) und den Werten der anderen Verfahren (LSIL, LNR, LA, LC) angegeben. Während in der Vorhersage der Sprachverständlichkeit mit Hilfe der oben diskutierten Verfahren (u.a. SIL, LA, LB, LNR) nur die Charakteristik des Geräusches (Spektrum und Pegel) einfließt, berücksichtigt der Artikulationsindex für eine Vorhersage zusätzlich die Bandbreite des Geräusches und der Sprache. Kryter (1962b) hat aus Ergebnissen einiger Untersuchungen (Egan u. Wiener 1946; French u. Steinberg 1947; Miller 1947; Pickett u. Pollack 1958) den Zusammenhang zwischen dem Artikulationsindex und der Sprachverständlichkeit (sinnlose Silben, PB– und andere Wörter) bestimmt und dargestellt, wobei der Zusammenhang zwischen diesen beiden Größen von Experiment zu Experiment variiert. Die Sprachverständlichkeit innerhalb eines Experiments lässt sich für einen bestimmten AI mit einer Genauigkeit von SV = 3–10 % vorhersagen. Die Ungenauigkeit der Vorhersage ist auf eine Reihe recht unterschiedlicher Einflussgrößen zurückzuführen (u.a. Art des Sprechens, Übung in Wahrnehmen von Sprache, Art der Darbietung der Sprachreize, Antwortverhalten). Licklider (1959) konnte feststellen, dass die Vorhersage der Sprachverständlichkeit dann treffsicher ist, wenn das Frequenzband der Sprache breitbandig ist. Sobald die Sprache jedoch durch einen oder mehrere Bandpässe gefiltert wurde, sinkt die Treffsicherheit der Vorhersage ab. Licklider weist in seiner Untersuchung weiter darauf hin, dass der Einfluss des Signal–Geräuschabstandes, der Bandbreite der Sprache und des Geräusches auf die Vorhersage nicht gleichwertig ist. Bei gleichem Artikulationsindex ermöglicht ein Kommunikationssystem mit breitbandiger Sprachübermittlung und geringem Signal–Geräuschabstand eine bessere Sprachverständlichkeit als ein System mit schmalbandiger Sprachübermittlung und großem Signal–Geräuschabstand. Dieser erwähnte Zusammenhang zwischen der Breite des Sprachspektrums und des Geräusches gilt im ähnlichen Sinn auch bei breitbandig übertragener Sprache und gleichem Artikulationsindex für unterschiedliche Geräuschpegel und extreme Veränderungen des Störgeräuschspektrums. Bei einem schmalbandigen Störgeräusch ist eine schlechtere Sprachverständlichkeit zu erwarten als bei einem breitbandigen Störgeräusch. Dieser nichtlineare Effekt, der sich in einer unterschiedlichen Sprachverständlichkeit bei gleichem Artikulationsindex anzeigt, ist in einer Verschiebung der für die Sprachverständlichkeit wichtigsten Frequenzbereiche der Sprache bei zunehmender Maskierung zu sehen. Der für die Sprache ausschlaggebende Frequenzbereich um 2 kHz verlagert sich bei starker Maskierung zu tieferen Frequenzen etwa zu 1 kHz hin (Abschn. 6.2.2.2, 8.1).
7.5 Vergleich unterschiedlicher Sprachvorhersage–Verfahren
301
Ein weiterer Faktor, der die Treffsicherheit der Vorhersage mittels der diskutierten Messverfahren einschließlich des Artikulationsindex reduziert und der die nichtlinearen Effekte verstärkt, ist die Höhe des Pegels der Sprache und des Geräusches. Liegt der Sprachpegel am Ohr des Hörers über LSA = 80 dB, so verringert sich die Sprachverständlichkeit wegen der Übersteuerung des Gehörs; zusätzlich nimmt die Weitabverdeckung zu. Beide Einflussgrößen werden in den Vorhersageverfahren nicht oder nur bedingt berücksichtigt (Abschn. 2.3, 5.9, 6.3.2, 8.2). Kryter (1962a) entwickelte für die Berechnung des Artikulationsindex eine Korrekturformel, mit der der Effekt der Weitabverdeckung, sowie der Einfluss des nichtlinearen Anstiegs der Verdeckung bei Geräuschpegeln über 85 dB auf die Sprachverständlichkeit erfasst wird (Abschn. 7.3.2). Mit Hilfe der Korrekturformel lässt sich das Ausmaß der Sprachverständlichkeit auch dann treffsicher vorhersagen, wenn Sprache durch Schmalbandrauschen verdeckt (Miller 1947) oder durch Geräuschpegel über 90 dB (Pickett u. Pollack 1958) maskiert wird. Wie ausgeführt wurde, verdeckt Schmalbandrauschen mit niedrigen Pegeln das Sprachsignal kaum, während die Sprachverständlichkeit durch Schmalbandrauschen mit hohen Pegeln stark beeinträchtigt wird. Schmalbandrauschen mit hohen Frequenzen (> 2 kHz) stört die Sprachverständlichkeit weniger als Schmalbandrauschen mit niedrigeren Frequenzen bei gleich hohem Pegel. Der Anstieg der Verdeckung, der durch die Erhöhung des Pegels bedingt ist, ist auf den Einfluss der Weitabverdeckung zurückzuführen (Abschn. 2.3, 6.3.2). Die Aussagekraft des Sprach–Übertragungsindex (STI), des Sprach– Verständlichkeitsindex (SII) und des Artikulationsindex (AI) sind etwa gleichwertig, wenn der Einfluss des Geräusches (Spektrum), der Bandbreite des Geräusches und der Sprache (Spektrum) auf die Sprachverständlichkeit abgeschätzt werden soll. Der STI bezieht jedoch im Gegensatz zum SII und AI in die Vorhersage den Einfluss der Nachhallzeit und der Amplitudenbegrenzung mit ein. Die einzelnen Werte der Vorhersageverfahren lassen sich im Mittel aufgrund folgender Beziehungen ineinander umrechnen:
LNA LSIL ( 0.5 4 ) 8 dB LSIL ( 0.5 4 ) LSIL ( 0.5 2 ) 1 dB LSIL ( 1 4 ) 1 dB AI STI 0.1 (0 d AI), AI ( LSNA 12 dB ) / 30 dB STI = SII = (SNRA + 15 dB)/ 30 dB SNRA = SIL – 8 dB.
(7.5.1-1)
302
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Für die Abschätzung der Sprachverständlichkeit (Abschn. 7.6) oder ihrer Qualität (Tab. 10.4-3, 10.4-4) empfiehlt es sich die Ergebnisse der im konkreten Fall benutzen Verfahren (STI, SII, AI, SIL) in einen Signal– Geräuschabstand (SNRA) umzurechnen. Mit Hilfe des so bestimmten effektiven Signal–Geräuschabstand (SNRAeff) kann man das entsprechende Qualitätsniveau ablesen. Zusammenfassend kann festgehalten werden: x Der unbewertete oder C–bewertete Signal–Geräuschabstand ist für eine treffsichere Vorhersage der Sprachverständlichkeit nicht brauchbar. Liegen Geräusche mit unterschiedlichen Spektren vor, so ist die Vorhersage mit dem SIL–Verfahren dem mit der A–Bewertung vorzuziehen. Die mittlere Standardabweichung, die die Treffsicherheit der Verfahren anzeigt, ist für den A–bewerteten Signal–Geräuschabstand (SNRA) s = 3–4 dB, für den Sprach–Störschallpegel (SIL) jedoch nur s = 2–3 dB. Der Sprach–Störschallpegel mit 4 Oktaven bei den Frequenzen fi = 0.5–4 kHz ermöglicht eine treffsichere Vorhersage. x Der Sprach–Verständlichkeitsindex, der Artikulationsindex sowie der Sprach–Übertragungsindex liefern für verschiedene Geräuschspektren die treffsichersten Vorhersagen. Das gilt auch für den Sprach–Übertragungsindex, wenn er zusätzlich den Einfluss der Nachhallzeit berücksichtigt; die Standardabweichung der Vorhersagewerte der Sprachverständlichkeit beträgt dann im Allgemeinen s = 5 %. Eine starke Einschränkung der Bandbreite des Geräusch– oder des Sprachspektrums reduziert die Sicherheit der Vorhersage. x Zeitlich schwankende Pegel des Geräusches erschweren die Vorhersage der Sprachverständlichkeit. Der Mittelungspegel (auch in Oktaven) kann als Schätzwert für den Pegel des Geräusches und der Sprache benutzt werden (s Abschn. 6.3.3).
7.5.2 Auswahl der Verfahren zur Bestimmung und Vorhersage In Abschnitt 7.2 und 7.3 sind die Verfahren zur Bestimmung der Sprachverständlichkeit entwickelt und erläutert worden. Grundlage für diese Verfahren sind die Spektren und die A–Schallpegel der Sprache und des Geräusches sowie die Nachhallzeit. Die unterschiedliche Treffsicherheit, mit der die Sprachverständlichkeit mittels der verschiedenen Verfahren bestimmt oder vorhergesagt werden kann, ist in Abschnitt 7.5.1 darge-
7.6 Bestimmung der Sprachverständlichkeit aus den Vorhersageverfahren
303
stellt. Eine kurze Zusammenstellung und Beschreibung der Sprachindices ergibt sich wie folgt: SNR ist das ungenaueste Verfahren, aber auch das einfachste, es benötigt nur die beiden A–bewerteten Pegel. Es gibt aber als einziges Verfahren eine direkte Beziehung zu den Lärmgrenzwerten an, die im Umwelt– und Arbeitsbereich (u.a. Wohnungen, KFZ, Büro) als A–bewertete Werte vorliegen. Es wird deswegen auch von der WHO empfohlen (Berglund u. Lindvall 1995). SIL ist ein recht einfaches und doch genaues Verfahren. Es ist begrenzt in A–bewertete Werte umzurechnen. SII, AI sind genaue, aber aufwändige Verfahren, berücksichtigen aber nicht die Nachhallzeit. STI ist ein genaues aber auch aufwändiges Verfahren. Es berücksichtigt die Nachhallzeit und ist zurzeit das beste Verfahren zur Vorhersage der Sprachverständlichkeit.
7.6 Bestimmung der Sprachverständlichkeit aus den Vorhersageverfahren Sprachverständlichkeit: sinnlose Silben, Einsilber, Sätze; Sprachindices: SNR, AI, STI; Umgangssprache In fast allen Kapiteln (z.B. Kap. 2, 6, 7, 8, 9, 10) wird die Sprachverständlichkeit von unterschiedlichen Sprachmaterialien (Abschn. 2.6) bei verschiedenen Wahrnehmungsbedingungen diskutiert. Um aus den Werten der Vorhersageverfahren (Kap. 7: SNR, SIL, SII, AI, STI) das Ausmaß der Sprachverständlichkeit ablesen zu können, wurde in Abbildung 7.6-1 und 7.6-2 für verschiedene Sprachmaterialien (sinnlose Silben, Einsilber, Sätze) der mittlere Zusammenhang zwischen Verständlichkeit (SV) und Vorhersagewerten (SNR, AI, STI) zusammengestellt, wie er in der ISO/TR 4870 von Kryter (1970) und in ISO 9921 angegeben wird. Zum Vergleich wurden Kurvenverläufe von Sprachreizen deutscher Sprache eingefügt. Die einzelnen Sprachtests werden in Abschnitt 2.6 erläutert. Die Qualität der Sprachverständlichkeit für qualitativ hochwertige Räume und elektroakustische Übertragungssysteme wird mit Hilfe eines Hörtestes aus sinnlosen Silben ermittelt (Abb. 7.6-1 und 7.6-2, Kurve Si). Auf diese Weise wird nur die Wahrnehmung von Sprachlauten unabhängig von ihrem Sinngehalt erfasst. Zur Abschätzung der Verständlichkeit von Umgangssprache wird bedeutungshaltiges Sprachmaterial benutzt. Bei diesen Tests wird die Verständlichkeit mit Hilfe von Einsilbern und Sätzen bestimmt (Abb. 7.6-1).
304
7 Vorhersage der Sprachverständlichkeit: Sprachindices
Abb. 7.6-1. Sprachverständlichkeit (SV in %) für sinnlose Silben (Si), Einsilber (E), Sätze (S) für einen begrenzten Einsilbertest (EB), einen Reimtest (R) in Abhängigkeit vom Artikulationsindex (AI) und vom Signal–Geräuschabstand (LSNA). Die Kurven Si, E1, S1, S2, EB1, EB2, R gelten für Sprachpegel bei etwa LSA = 65 dB und wurden mit trainierten Personen durchgeführt Kurve Sprachmaterial Si sinnlose Silben (Konsonant–Vokal–Konsonant) E1 englische Einsilber (600–1000 unterschiedliche Wörter, phonetisch ausbalanciert) S1 Schlüsselwörter in einfachen, englischen Sätzen, erste Darbietung für den Hörer R Reimtest, (50 Gruppen von 6 englischen Einsilbern) EB1 Einsilbertest begrenzten Umfangs (256 englische Einsilber, die dem Hörer bekannt sind und ihm vorliegen) S2 Schlüsselwörter in einfachen englischen Sätzen, die dem Hörer bekannt sind EB2 Einsilbertest begrenzten Umfangs (32 englische Einsilber, die dem Hörer bekannt sind und ihm vorliegen) E2 deutsche Einsilber nach DIN 45621–1 S3
deutsche Sätze, erste Darbietung für den Hörer
Autor ISO/TR 4870 1991 ISO/TR 4870 1991 ISO/TR 4870 1991 ISO/TR 4870 1991 Kryter 1970 Kryter 1970 Kryter 1970 Lazarus u. Lazarus– Mainka 1979 Lazarus u. Lazarus– Mainka 1979
7.6 Bestimmung der Sprachverständlichkeit aus den Vorhersageverfahren
305
Die Bestimmung der Sprachverständlichkeit mit Hilfe von Einsilbern wird bevorzugt verwendet (Abb. 7.6-1, E1, E2), da die Testdurchführung und –auswertung einfach, überschaubar und die Qualität der Leistung eindeutig zu interpretieren ist. Die Verständlichkeit von Sätzen dagegen ist im Wesentlichen von der Konstruktion dieser, aber auch von der Testinstruktion und der Art der Auswertung abhängig. Zudem wird die Verständlichkeit von Einsilbern als Referenz für das Ausmaß und die Qualität der Sprachverständlichkeit, wie sie in Tabelle 7.6-1 beschrieben wird, herangezogen, da zwischen den Wahrnehmungsleistungen von Einsilbern unterschiedlicher Sprachen hohe Übereinstimmung besteht. Außerdem werden sie als Referenz für Normalhörende und Schwerhörige herangezogen (Abschn. 2.4, 8.1.6.2). Die Ergebnisse der Satztests dagegen schwanken erheblich. Ein Vergleich der Ergebnisse verschiedener Satztests zeigt, dass die Verständlichkeit von Sätzen bei einem Signal–Geräuschabstand von LSNA = 0 dB (STI = 0.5, AI = 0.4) bei SVS = 45–100 % liegt (s. Abb. 2.61, Kurve N; Abb. 7.6-1, Kurve S1, S3; 7.6-2; Abb. 9.4-2, Kurve 1).
Abb. 7.6-2. Sprachverständlichkeit (SV in ) für sinnlose Silben (SiSi; CVC– Silben mit ausgeglichener Phonemverteilung, Steeneken u. Houtgast 1999, 2002a, b), PB–Worte (Worte, ausgeglichene Harvard–Liste, Anderson u. Kalb 1987) und einfache Sätze (S) für den Sprach–Übertragungsindex (STI) über dem Signal– Geräuschabstand (LSNA in dB) (nach ISO 9921 2003)
Ein zentraler Punkt bei der Auswahl von Sprachmaterial und bei der Konstruktion eines Sprachtests ist die Frage, was unter „Umgangssprache“ zu verstehen ist. Es können kaum Situationen im Alltag genannt werden, in denen ein festgelegtes Wortmaterial während einer sprachlichen Kommu-
306
7 Vorhersage der Sprachverständlichkeit: Sprachindices
nikation benutzt wird. Möglich wäre das ggf. für Warnrufe in Gefahrensituationen im Betrieb. Mit solch einem Wortmaterial wäre es durchaus möglich, einen Sprachtest zu entwickeln. In der Regel wird aber bei der sprachlichen Kommunikation Sprachmaterial benutzt, das zwar allgemein bekannt ist, aber dessen Gebrauch kaum vorherbestimmt werden kann. Deshalb kann auch ein Reimtest oder ein Sprachtest mit einfachen Sätzen, auch wenn diese phonetisch ausgeglichen sind, die Umgangssprache nicht abbilden. Mit solchen Tests kann man zwar ggf. effektiv Systeme, Geräte und Räume in ihrer akustischen Qualität miteinander vergleichen, aber nicht die Sprachverständlichkeit von Umgangssprache vorhersagen. Dafür sollten eher Sätze benutzt werden, deren Syntax mit der der Umgangssprache vergleichbar ist, deren Wörter im Satz auf ihre Vorhersagewahrscheinlichkeit überprüft und deren Auftretenswahrscheinlichkeiten kontrolliert eingesetzt worden sind. Zudem ist es nötig, dass auch unbekannte oder schwierige Wörter korrekt wahrgenommen werden müssen. Dieses muss bei der Auswahl des Sprachmaterials für den Test berücksichtigt werden. Da man in der Regel eine abgestufte Qualität der Sprachverständlichkeit vorhersagen möchte, sollte beispielsweise die Vorhersage einer sehr guten oder exzellenten Sprachverständigung (höchstes Niveau) auch beinhalten, dass einzelne unbekannte Wörter (geringe Vorhersagewahrscheinlichkeit im Satz, geringe Auftretenswahrscheinlichkeit in der Sprache) zu verstehen sind. Weitere abgestufte Niveaus niedrigerer Qualität lassen sich dann ableiten und bei entsprechenden Bedingungen definieren (s.a. Abschn. 2.6, 7.3.1, 10.4, 10.5). Ein Problem liegt vor allem darin, dass bei einem Sprachtest eine hohe Zahl von Sätzen gleicher Art (gleiche Schwierigkeit etc.), aber mit unterschiedlichen Wörtern benötigt wird. Obwohl auch einige neue Satztests vorliegen (s. Abschn. 2.6), fehlen Satztests in deutscher Sprache, die – ähnlich dem von Kalikow (s. Abb. 2.6-1) – Sätze mit Wörtern hoher und niedriger Vorhersagewahrscheinlichkeit enthalten. Offenbar kann man einfache Sätze mit vier Inhaltsworten und geringer Vorhersagewahrscheinlichkeit bilden, deren Verständlichkeit der von isolierten Einsilbern in etwa entspricht (Abb. 10.4-7; Sust et al. 2007). In Tabelle 7.6-1 ist der Zusammenhang zwischen verschiedenen Sprachmaterialien angegeben (DIN 18041). Wird die Anzahl der Einsilber, die in einem Test verwendet werden, auf einen bestimmten Umfang begrenzt, d.h. der Hörer bekommt nur jeweils ein Wort aus einer ihm bekannten Anzahl von Wörtern dargeboten, die ihm sichtbar vorliegen, so nimmt die Verständlichkeit um so mehr zu, je geringer die Anzahl der ihm bekannten Wörter ist (Abb. 7.6-1, Kurve EB1, EB2).
7.6 Bestimmung der Sprachverständlichkeit aus den Vorhersageverfahren
307
Tabelle 7.6-1. Zusammenhang zwischen der Sprachverständlichkeit für sinnlose Silben (CVC–Silben; SiSi), Wörter (Einsilbern, E) und der Satzverständlichkeit (S) (nach DIN 18041) Sprachverständlichkeit in % SiSi E 0…34 0…67 34…48 67…78 48…67 78…87 67…90 87…94 90…96 94…96
S 0…89 89…92 92…95 95…96 96
Der in Abbildung 7.6-1 und 7.6-2 angegebene Zusammenhang zwischen der Sprachverständlichkeit und den Werten der physikalischen Vorhersageverfahren (STI, AI, LSNA) gilt nur für normalhörende Personen, die zudem noch teilweise ein gewisses Training im Hören von verrauschtem Material aufweisen und die sich nur auf die Wahrnehmungsaufgabe konzentrieren. Teilweise wurde das Sprachmaterial von trainierten Sprechern gesprochen. Obwohl es eine Vielzahl von Untersuchungen zur Sprachverständlichkeit gibt, fehlen bisher vergleichbare Ergebnisse zu Einsilbern oder sinnlosen Silben, d.h. Untersuchungen unter gleichen akustischen Bedingungen, mit mehreren untrainierten Sprechern und in den wichtigsten Sprachen. Selbst die hier in den beiden angegebenen Abbildungen enthaltenen Ergebnisse weichen deutlich voneinander ab, was an den Sprechern und der Art des phonetischen Ausgleichs und an den spezifischen Sprachmaterialien liegen kann. Wie aus Untersuchungen hervorgeht (Egan 1948; Lazarus u. Lazarus– Mainka 1979; Sust et al. 2007), kann das Verstehen verrauschter Sprache nur bedingt geübt werden. Lernerfolge gab es nur beim Wahrnehmen verrauschter Sätze, nicht aber bei Einsilbern. Hervorzuheben ist, dass bei der Bewertung der Wahrnehmungs– und Verstehensprozesse von Sätzen und von Einsilbern keine Lernerfolge beobachtet wurden.
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.1 Schwerhörigkeit: Entwicklung, Bewertung 8.1.1 Formen der Schwerhörigkeit, Problematik Die Schwerhörigkeit stellt eine Einschränkung des Hörvermögens dar, die sich in einer Verminderung und in einem Verlust der Wahrnehmung von Schallereignissen und der Sprachkommunikation äußert. Die Einteilung der Schwerhörigkeit orientiert sich an ihrer Entwicklung und Entstehung, aber auch an unterschiedlichen Formen der reduzierten Wahrnehmung. Im Allgemeinen werden drei typische Formen der Schwerhörigkeit unterschieden: x Innenohrschädigungen (Schallempfindungsschwerhörigkeit): Lärmschwerhörigkeit, altersbegleitende Schwerhörigkeit / Presbyakusis, ototoxische Medikation; x Schallleitungsschwerhörigkeit (Übertragungsdefiziten im Mittelohr); x zentrale Hörschäden, bedingt durch Funktionsstörungen und/oder Zerstörungen des Hörnervs bzw. der betroffenen Hirnareale. Ursachen können biologische Faktoren sein, wie Medikamente, Stoffwechselstörungen, Schädelverletzungen oder Entzündungen, sie können altersbedingt, durch chemisch–physikalische Einflüsse (toxische Stoffe) und/oder durch Schalleinwirkung entstanden sein. Im Fokus steht die Analyse der verminderten Sprachkommunikation bei Schallempfindungsschwerhörigen und ihre Folgen. Zusätzlich ist zu untersuchen wie durch Hinweise auf die Gestaltung die Auswirkungen der Schwerhörigkeit begrenzt werden können. Durch eine zweckmäßige Gestaltung der akustischen Umgebung sollte es möglich sein, eine weitgehend einheitliche Ausgangslage für alle Personen, auch für Hörbehinderte, zu schaffen. Die Folgen einer reduzierten Sprachverständlichkeit gehen weit über die Einschränkung der Sprachkommunikation mit ihren direkten Folgen wie Missverständnisse, häufigeres Nachfragen sowie Verzögerungen bis zu ei-
310
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
ner erhöhten Unfallgefährdung hinaus. Reduziert ist eben nicht nur das Verständnis der Sprache mit seinen unmittelbaren Konsequenzen auf die Prozesse, die vorwiegend über einen verbalen Informationsaustausch funktionieren, wie die soziale Interaktion in der Familie, im Freundeskreis, im öffentlichen Bereich oder bei Arbeitsprozessen. Beachtet werden müssen auch die Abnahme der Lebensqualität und die Verringerung der allgemeinen psychischen Gesundheit sowie die reduzierte Möglichkeit, Konflikte sozialverträglich auszutragen. Natürlich muss bei hörgeschädigten Kindern ein möglicher verzögerter Spracherwerb in der Schule begegnet werden. Laut einer Umfrage (Bertoli et al. 1996) ist eine höhere Schwerhörigkeit verstärkt mit einem höheren Handicap verbunden (Tab. 8.1.1-1). Tabelle 8.1.1-1. Ergebnisse einer Umfrage in % bezüglich der Empfindung von Schwerhörigkeit als Handicap Handicap klein leicht schwer
Hörverlust gering (LHVT < 30 dB) hoch (LHVT > 30 dB) 67 % 33 % 30 % 43 % 4% 25 %
Angesichts des wachsenden Anteils älterer Personen in der Bevölkerung und aufgrund des zunehmend höheren Anteils vorgeschädigter Personen ist zu erwarten, dass die alltägliche Interaktion mehr und mehr auch durch den Umgang mit Schwerhörigen geprägt sein kann. Insofern ist eine Analyse der Schwerhörigkeit und deren Folgen im betrieblichen, öffentlichen und privaten Leben dringend erforderlich. Dabei umfasst der Schwerpunkt nicht nur eine Analyse und Beurteilung der reduzierten Sprachkommunikation von Schwerhörigen, sondern auch deren geändertes Verhalten (Abschn. 8.3) und verbesserte Gestaltungsmöglichkeiten (Abschn. 8.2). 8.1.2 Was bedeutet Schwerhörigkeit Hörfläche Schwerhörigkeit im Sinne einer Hörschwellenverschiebung ist bei Schallempfindungsschwerhörigen (u.a. Lärmschwerhörige) kombiniert mit einer Fehlhörigkeit: Schwerhörige hören nicht nur schlechter (leiser), sondern auch anders, denn die Sprache ist verzerrt. Die Tonhörschwelle, das bekannte Kriterium für die Schwerhörigkeit, gemessen in Ruhe, gibt nur die unterste Grenze (Schwelle) des Hörvermögens an. Akustische Verständigung, insbesondere Sprachkommunikation, findet aber im überschwelligen Bereich von 30 bis 80 dB statt. Insofern sagen die Hörschwellen selbst
8.1 Schwerhörigkeit: Entwicklung, Bewertung
311
wenig über das Fehlhören und die Hörfehler im alltäglichen Kommunikationsprozess aus. Sie sind nur ein deutliches Kennzeichen dafür, dass das Hörvermögen reduziert ist (Dieroff 1994). Aber allein schon die Berücksichtigung der Tonhörschwelle gibt einen Eindruck über die reduzierte Sprachkommunikation. In Abbildung 8.1.2-1 ist die Hörfläche skizziert. Sie ist durch die untere und obere Hörfrequenz (16 Hz bis 16 kHz), unten durch die Tonhörschwelle und oben durch die Schmerzschwelle (etwa 120 dB) begrenzt. Skizziert ist auch der Sprachbereich (Pegel und Frequenzbereich), wie er sich bei einer üblichen Kommunikation ergibt (übliche Sprechweise und übliche Entfernung der Gesprächspartner). Dabei liegen die Vokale eher bei den tieferen und die Konsonanten eher bei den höheren Frequenzen. Zieht man die untere Grenze nicht durch die Tonhörschwelle von Normalhörenden, sondern von Schwerhörigen, erkennt man sofort die Defizite. Wenn aber vor allem und zuerst der Bereich der Konsonanten betroffen ist (bzw. die Phoneme, die mit Konsonanten verbunden sind), ist dies für die Sprachverständlichkeit besonders nachteilig, denn mit den Konsonanten werden die bedeutungsunterscheidenden Elemente der Sprache beschrieben. Hat sich der Hörverlust z.B. schon in den Bereich der stimmhaften Konsonanten ausgebreitet, versteht die Person zwar den Vokal, wird aber bei der Unterscheidung von „dir“ und „mir“ oder „wir“ Schwierigkeiten haben. Wird die Sprache durch Geräusche maskiert, bleibt nur noch ein geringer Teil der Sprache verständlich, der in der Regel nicht ausreicht, den Sinn zu erschließen.
Abb. 8.1.2-1. Hörfläche des menschlichen Gehörs und die Einschränkung der Sprache (dunkelgraue Fläche) durch Hörverlust und Geräusch (s.a. Abb. 2.2-1)
312
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Dies hat weit reichende Folgen, gerade auch für den sozialen Kontext, und das sowohl am Arbeitsplatz wie in der Freizeit. Wichtige Informationen werden nicht hinreichend präzise erkannt und die Wahrscheinlichkeit von Fehlern steigt. 8.1.3 Lärmschwerhörigkeit: Entstehung, Entwicklung, Grenzwerte, Prävention Gehörgefährdung durch Dauer und Höhe der Lärmeinwirkung, Auslöseschwelle, Gestaltungsgrundsätze Das Risiko, durch Arbeitslärm einen Gehörschaden zu erhalten, wurde in den letzten fünfzig Jahren in Feldstudien untersucht. Das Ergebnis aus einem Großkraftwerk zeigt beispielsweise recht gut, wie der Hörverlust durch den Pegel des Arbeitslärms und die Dauer der Lärmbelastung über einen Zeitraum von 1 bis 50 Jahren zunimmt (s. Abb. 8.1.3-1). Man erkennt, dass die Intensität des Lärms (gemessen als Pegel über eine Arbeitsschicht und ermittelt als mittlerer Pegel über die exponierten Jahre) und die Dauer der Lärmeinwirkung (8 Stunden täglich, 40 Stunden wöchentlich, über die Jahre) den Hörverlust bestimmen. Man sieht weiterhin, dass ein relevanter Hörverlust durch eine Lärmexposition ab 75 bis 80 dB bei mehr als 10–20 Jahren entstehen kann.
Abb. 8.1.3-1. Tonhörverlust für Lärmschwerhörige (LHVT) im Pegelbereich von 75–95 dB, über der Dauer der Lärmeinwirkung (D); Tonhörverlust (LHVT) bei 4 kHz, Beurteilungspegel über ca. 8 Std. (LM = LAr), ermittelt bei ca. 1.000 Arbeitnehmern (nach Lazarus et al. 1986)
8.1 Schwerhörigkeit: Entwicklung, Bewertung
313
Die individuelle Entwicklung eines Gehörschadens veranschaulicht Abbildung 8.1.3-2.
Abb. 8.1.3-2. Individuelle Entwicklung der Lärmschwerhörigkeit bei einer Person über einen Zeitraum von 30 Jahren bei etwa gleicher andauernder Lärmbelastung (nach Ising et al. 1997)
Ergebnisse von Felduntersuchungen zur Belastung des Gehörs durch Arbeitslärm sind in der ISO 1999 (1990) zusammengefasst worden. Dabei besteht die Lärmeinwirkung aus dem Pegel über eine Arbeitsschicht von acht Stunden (LAeq,8h) und der Dauer von fünf Tagen in der Woche über Jahre; außerhalb der Arbeitsschicht und an 2 Tagen in der Woche (Sa, So) wird eine Gehörerholung angenommen (LAeq,8h ŭ 70 dB). In der ISO 1999 (s.a. VDI 2058–2) wird das Risiko angegeben, einen bestimmten Hörverlust bei einer Frequenz von 250 Hz – 8 kHz für eine Lärmbelastung (Pegel, Dauer) zu erhalten. Bei Betroffenen mit einem Alter von 60 Jahren, die 40 Jahre im Lärm tätig waren, liegt der Hörverlust bei Pegeln von 75 bis 100 dB bei 5 bis 85 dB. Entsprechend des Anteils der Population (95, 50 oder 5 %; Abb. 8.1.3-3) liegt der Hörverlust, der mindestens eintritt, bei LHVT,4k = 5–35 dB (95 %) oder bei 55–85 dB (5 %). Ein Risiko für Gehörschäden entsteht bei Geräuschen ab 75 dB, wobei eine Einwirkungszeit von 8 Stunden pro Tag, respektive von 40 Stunden pro Woche zu Grunde gelegt wird. Eine Erholung für das Gehör wird angenommen, wenn der Geräuschpegel 70 dB nicht übersteigt (VDI 2058–2). Mit zunehmendem Pegel und zunehmender Lärmeinwirkung steigt das Risiko, einen Hörschaden zu erleiden, ständig an, insbesondere dann, wenn die Geräuscheinwirkung täglich über Jahre hinweg erfolgt (vgl. Abb. 8.1.3-1, -3).
314
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Abb. 8.1.3-3. Hörverlust (LHVT, 4 kHz, männliche Person, 60 Jahre, 40 Jahre Lärmexposition) für unterschiedliche Lärmbelastung (LAeq,8h: Perzentile 0.05, 0.5, 0.95) für männliche Lärmexponierte („stark gesiebte“ Population ohne Vor– und Nebenschäden) nach ISO 1999 (1990); z.B. bei einer Lärmbelastung (85 dB, 40 Jahre) haben 95 % der belasteten Personen einen Hörverlust von mind. 11 dB
Derartige Geräuscheinwirkungen kommen beispielsweise in Arbeitsbereichen der holz–, stein– und metallver– und bearbeitenden Industrie vor, aber auch in Bereichen der Getränke– (Abfüllanlagen) und Textilindustrie (Webereien, Spinnereien). Für die schädigende Wirkung ist es belanglos, ob es sich dabei um Maschinengeräusche am Arbeitsplatz oder in der Freizeit handelt. Wenn der Schalldruckpegel über der Risikogrenze liegt, besteht die Gefahr von Hörschäden bzw. –beeinträchtigungen. Auch Diskothekenbesuche können Hörschäden nach sich ziehen, ebenso wie Musiker potenziell einer Gefährdung ihres Gehörs ausgesetzt sind. Auch der langjährige Musikkonsum mit Kopfhörern kann zu Beeinträchtigungen des Gehörs führen, die über eine kurzfristige Vertäubung oder Symptome wie Ohrenklingeln hinausgehen. Andauernde hohe Geräuschintensitäten führen zu einer Zerstörung der Zilien (Fortsätze der Haarzellen im Cortischen Organ der Innenohrschnecke) im Innenohr, die sich vor allem im Bereich der höheren Frequenzen darstellt. Das heißt, eine Hochtonsenke sowie ein Hochtonabfall mit Senkencharakter werden nach Lehnhardt (1996) am häufigsten durch Lärm verursacht. Bei einem Hochtonabfall spricht der Nachweis einer erkennbaren Senke für eine Lärmgenese. Über den exakten Ort der Senke gibt es unterschiedliche Ergebnisse. Nach Brusis (1978) kündigt sich eine beginnende Lärmschwerhörigkeit im
8.1 Schwerhörigkeit: Entwicklung, Bewertung
315
Tonaudiogramm durch einen starken Hörverlust bei 4 kHz, durch die sogenannte C5–Senke an. Nach Dieroff (1994) entsteht insbesondere bei Impulslärm zunächst oft eine Senke bei 6 kHz. Sehr kurzfristige Geräuschbelastungen mit hohem Schallpegel können sich unmittelbar schädigend auf das Gehör auswirken. Ein sogenanntes Knalltrauma kann etwa durch Gewehrschüsse mit Spitzenpegeln bis zu 165 dB hervorgerufen werden oder durch Feuerwerkskörper an Silvester mit Spitzenpegeln zwischen 145 und 160 dB bei einer Entfernung von 2 m. Im Fall einer geräuschinduzierten Schwerhörigkeit durch ein Knalltrauma treten häufig asymmetrische, d.h. einseitige Hörschäden auf. Das Audiogramm des geschädigten Ohres weist meist die typische Konfiguration einer Lärmschwerhörigkeit auf. Leitsymptome eines Knalltraumas sind ein akut starker Hörverlust sowie Tinnitus. Sowohl gesamtgesellschaftlich als auch individuell besteht ein Interesse, Personen vor Schäden durch Schall zu schützen, was sich in der Formulierung von Grenzwerten und Maßnahmen zur Minderung des Lärms niederschlägt. Die Bestimmung von Grenzwerten schließt die Frage nach dem Prozentsatz der Population ein, der vor Gehörschäden geschützt werden soll. Gemäß EPA–Bericht 1974 soll die gesamte Population gegen Gehörschäden geschützt werden. Gierke u. Johnson (1976) vertreten jedoch die Meinung, den Grenzwert so festzulegen, dass etwa 90 % aller Personen geschützt sind. Dazu ist es erforderlich, den Beurteilungspegel (Abschn. 2.1) zu ermitteln, der gerade noch nicht zu Hörschäden führt. Der Beurteilungspegel (LAr) entspricht im Wesentlichen dem A–bewerteten äquivalenten Dauerschallpegel (LAeq,T) für eine Schichtdauer T: LAeq,T = LAeq,8 + 10 lg T/8 dB. Um die Schädlichkeit impuls– und tonhaltiger Geräusche zu berücksichtigen, können Korrekturzuschläge (KI, KT) hinzugefügt werden (s. DIN 45645–2,): LAr = LAeq,T = LAeq,8 + 10 lg T/8 dB + KI + KT. Aus Felduntersuchungen in den sechziger und siebziger Jahren (Passchier–Vermeer 1968, Robinson 1968, Baughn 1973; zusammengefasst in EPA 1974) wurde das Risiko eines Hörverlustes bei einem bestimmten Pegel abgeleitet, der über Jahre (8 Stunden pro Tag) auf die Betroffenen einwirkt. Die Ergebnisse geben den Zusammenhang zwischen Hörverlust, der durch Arbeitslärm entstanden ist, und dem verursachenden Geräuschpegel (LAeq,T) an (Abb. 8.1.3-4). In dieser Abbildung werden der geräuschbedingte Hörverlust bei 4 kHz und die Mittelwerte über die Hörverluste bei den Frequenzen 0.5/1/2 kHz sowie über die Frequenzen 0.5/1/2/4 kHz angegeben. Bei der Annahme von einer Messunsicherheit von 5 dB kann man aus diesen Daten entnehmen, dass unterhalb des Geräuschpegels von LAeq,8h = 73–75 dB, dem man 40 Jahre ausgesetzt war, kein Risiko besteht,
316
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
einen Hörverlust bei 4 kHz zu erhalten, das heißt, dass DLHVT,4 < 5 dB ist (EPA 1974; Gierke u. Johnson 1976; WHO 1980).
dB
Abb. 8.1.3-4. Hörverlust (DLHVT), bedingt durch eine berufliche Geräuschexposition, in Abhängigkeit vom Geräuschpegel (LAeq,8 in dB) für gleichförmige Geräusche über 8 Stunden täglich (40 Stunden pro Woche), dargestellt mit drei Hörverlustkriterien (nach Gierke u. Johnson 1976): Hörverlustkriterien
4 kHz
- die gesamte Stichprobe (der gesamte Hörver{{ lust bei einer 40–jährigen Geräuschexposition) - 90 % der Stichprobe (der maximale Hörverlust '' bei einer 40-jährigen Geräuschexposition) - 90 % der Stichprobe (der Hörverlust für eine 10-jährige Geräuschexposition)
DLHVT für 0.5/1/2 0.5/1/2/4 kHz kHz {- - -{ '- - -'
'---'
- - -
---
Um einen für die betriebliche Praxis handhabbaren Grenzwert zu schaffen, wurde in den meisten Ländern der Grenzwert auf 85 dB festgelegt (Embleton 1997). Ab diesem Grenzwert sind gezielte Lärmminderungsmaßnahmen vorgeschrieben. Einerseits sollen dabei die meisten Personen (> 95 %) vor zu hoher Lärmimmission geschützt werden, andererseits aber sollte der Aufwand zweckmäßig begrenzt werden, also eben nicht ganze Betriebsbereiche in Lärmbereiche verwandelt werden, um beispielsweise
8.1 Schwerhörigkeit: Entwicklung, Bewertung
317
nur 1 % der Population vor einem geringen lärminduzierten Hörverlust zu schützen. Ab diesem Grenzwert von 85 dB werden in den meisten Ländern Maßnahmen zum Schutz des Gehörs (s.u.) empfohlen oder vorgeschrieben. Für den Lärmschutz in Arbeitsstätten ist die EG–Arbeitsplatz–Lärmschutzrichtlinie 86/188/EWG maßgebend. Die Bestimmungen derselben wurden umgesetzt durch die Unfallverhütungsvorschrift BGV B3 Lärm der gewerblichen Berufsgenossenschaften. Danach ist der Unternehmer verpflichtet, die Lärmgefährdung für versicherte Beschäftigte vorrangig im Hinblick auf Gehörschädigung und erhöhtes Unfallrisiko zu minimieren. Er hat unter anderem sicherzustellen, dass Arbeitsmittel, Arbeitsverfahren und Arbeitsstätten nach den fortschrittlichen Regeln der Lärmminderungstechnik beschaffen sind. Lärmintensive Bereiche sind zu ermitteln und die dort vorhandenen Lärmbelastungen anhand eines aufzustellenden Lärmminderungsprogramms mittels technischer Maßnahmen nachweisbar abzubauen. Soweit eine Gehörgefährdung besteht, müssen geeignete persönliche Gehörschutzmittel bereitgestellt und von den betroffenen Beschäftigten benutzt werden. Die gefährdeten Beschäftigten haben sich Gehörvorsorgeuntersuchungen zu unterziehen. Die EG–Arbeitsplatz–Lärmschutzrichtlinie 86/188/EWG wurde in den Jahren 2001/2002 überarbeitet und liegt als neue EG–Richtlinie 2003/10/EG vor, die zur Zeit in deutsches Recht überführt wird. Die wesentlichen Unterschiede zwischen den beiden Vorschriften macht die Tabelle 8.1.3-1 deutlich. Tabelle 8.1.3-1. Grenzwerte und Auslöseschwellen und die entsprechenden Maßnahmen (X) der EG–Arbeitsplatz–Lärmschutzrichtlinien 2003/10/EG (2003) und 86/188/EWG (1986) und deren nationale Umsetzung (BGV B3, A4) Deutsche Vorschrift wird zurzeit erarbeitet BGV B3, A4 Richtlinie 2003/10/EG 86/188/EWG Grenzwert 87 dB nicht vorhanden Auslöseschwellen 80 dB 85 dB 85 dB 90 dB Information der Arbeitnehmer X X Gehörschutz zur Verfüg. stellen X X Gehörschutz–Tragepflicht ab X X Gefährdungsbewertung o* nicht vorhd.nicht vorhd. Lärmminderung o* o* Lärmbereichskennzeichnung X X Lärmminderungsprogramme X X Anspruch auf Gehörvorsorge (X)*** X** X** X * ohne eine Schwelle ** in Deutschland Pflicht *** Wenn Lärmimmissionsmessung und –bewertung ein Gehörrisiko zeigen
318
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Die Arbeitsstättenverordnung enthält ebenfalls das Lärmminimierungsgebot. Zusätzlich zur Begrenzung des Beurteilungspegels bzw. des äquivalenten Dauerschallpegels darf der Spitzenschalldruckpegel (LCpeak) zur Vermeidung akuter Gehörschäden den Wert von 130 bis 140 dB nicht überschreiten. Mehrfach auftretende Schallimpulse sollten den Wert von LAI = 120 dB möglichst nicht überschreiten (VDI 2058–2). Weiterhin muss das Eindringen von intensivem Ultraschall durch direkten Kontakt auf den Schädelknochen ausgeschlossen werden. Bei luftgeleitetem Ultraschall sollte der Terzschalldruckpegel mit der Mittenfrequenz von 20 kHz den Wert 110 dB nicht übersteigen. Jedoch hängt das Risiko nicht allein von der Höhe des Geräuschpegels ab. In VDI 2058–2 wird darauf hingewiesen, dass weitere Faktoren eine Gehörgefährdung nach sich ziehen können. Kombinationswirkungen können das Schädigungsrisiko erhöhen, wie beispielsweise zusätzliches Auftreten von ototoxischen Stoffen, Schwingungen, Nachtarbeit oder ungünstigen Klimabedingungen. Das Ausmaß des Hörverlustes nimmt mit der Intensität und Dauer der Geräuscheinwirkung zu. Anhand dieser Kriterien wird eine Reihe von präventiven Maßnahmen zum Schutz des Gehörs abgeleitet: x x x x x x
Festlegen und Einhalten von Grenzwerten zur Geräuschimmission Technische Maßnahmen zur Lärmminderung Auswahl leiser Maschinen Hohe Schallpegelabnahme im Raum Kennzeichnung von Lärmbereichen Durchführung und Teilnahme der Betroffenen an Vorsorgeuntersuchungen x Tragen von Gehörschutz Diese Maßnahmen sind in den EG–Richtlinien und deutschen Vorschriften enthalten und werden durch europäische und nationale Normen präzisiert und erläutert (DIN 45645–2; VDI 2058–2, –3; DIN EN ISO 11690–1, –2). So finden sich zu den oben genannten Punkten in der DIN EN ISO 11690–1, –2 und der VDI 2058–2 genauere Angaben. Für die tägliche Arbeitsbelastung ist anzustreben, dass ein Beurteilungspegel von 75 bis 85 dB am Arbeitsplatz nicht erreicht oder nicht überschritten wird, sowie ein ausreichend niedriger Geräuschpegel für die Gehörerholung gewährleistet ist. Maschinen sollte eine Information über die Höhe der nach Norm gemessenen Geräuschemission beigegeben werden. Besteht bei der Benutzung solcher Geräte die Gefahr eines Gehörschadens, soll auf die Notwendigkeit, Gehörschutz zu tragen, hingewiesen werden. Außerdem sollten
8.1 Schwerhörigkeit: Entwicklung, Bewertung
319
technische und organisatorische Maßnahmen zur Minderung der Lärmbelastung durchgeführt werden. Bei Beurteilungspegeln von 85 dB und mehr, bei tonhaltigen und impulshaltigen Geräuschen sowie bei kombinierten Belastungen sollten bevorzugt Maßnahmen zur Lärmminderung durchgeführt und/oder die zusätzlichen Belastungen verringert werden. An Arbeitsplätzen mit Beurteilungspegeln von 85 dB und mehr muss Gehörschutz getragen werden, außerdem sollten die Personen sich einer arbeitsmedizinischen Gehörvorsorgeuntersuchung unterziehen. Der Anamnese zur Feststellung des Hörvermögens bereits zu Beginn der Ausbildung bei lärmbelasteten Berufen sowie einer jährlichen Gehörprüfung, kommt eine große Bedeutung zu. Bei der Auswahl von Gehörschutz kommt es darauf an, den Schutz gegen den Lärm (Schalldämmung) und den Tragekomfort, sowie eine ausreichende Sprach– und Signalerkennung (s. Abschn. 8.4) miteinander zu vereinen. Auch die Gewöhnung an das Tragen von Gehörschutz ist gerade für Jugendliche besonders wichtig. Bei Hinweisen auf erhöhte Lärmempfindlichkeit des Gehörs sollen Lärmeinwirkungen, wenn nicht anders möglich, durch besonders ausgewählten und angepassten Gehörschutz begegnet werden. Freizeit und Arbeitspausen sollten bei Arbeitern in Lärmbereichen zur Gehörerholung genutzt werden. Im Rahmen des Arbeitsschutzgesetzes ist eine Gefährdungsbewertung hinsichtlich Lärm vorzunehmen (Lazarus et al. 2001). Hohe Geräuschpegel gibt es nicht nur im Arbeitsbereich, sondern auch in vielen anderen Bereichen mit lauten Maschinen oder Tätigkeiten, wie in der Freizeit (Heimwerker) und im Sport. Aber auch dort, wo elektronisch verstärkte Musik gehört wird, können hohe Belastungen entstehen: in Diskotheken und bei Großveranstaltungen (kurzfristig hohe Pegel) und beim häufigen und langen Gebrauch von tragbaren Abspielgeräten. 8.1.4 Altersbegleitende Schwerhörigkeit Im höheren Alter tritt zu der Lärmschwerhörigkeit gegebenenfalls die altersbegleitende Schwerhörigkeit hinzu. Das Altern des auditiven Systems ist typischerweise charakterisiert durch eine Abnahme der Hörsensitivität in beiden Ohren, hauptsächlich für hochfrequente Geräusche, und eine erhöhte Schwierigkeit der Sprachverständlichkeit, vor allem in Gegenwart von Hintergrundgeräuschen. Das Sprachverstehen älterer Hörer wird dabei auch durch Faktoren wie Veränderung der kognitiven Fähigkeiten, Hörgeräte, Ernährungsgewohnheiten oder Stress beeinflusst bzw. überlagert (Hülse u. Boll 1979; CHABA Working Group on Speech Understanding and Aging 1988). Auch scheint es Hinweise darauf zu geben, dass die Er-
320
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
fassung der Schwerhörigkeit mit einem Tonaudiogramm mit methodischen Problemen behaftet ist. Ältere Personen sind beispielsweise bei der Entscheidung darüber, ob sie einen Ton im Audiogramm gehört haben, deutlich konservativer als jüngere Personen (Hellbrück u. Ellermeier 2004). Da die altersbegleitende Schwerhörigkeit geschlechtsspezifisch unterschiedlich stark ausgeprägt ist, werden für jeden Personenkreis und jede Alterklasse getrennt Mittelwerte des Hörverlustes in den Frequenzbereichen von 0.25 bis 8 kHz angegeben (Schmidt 1967; Spoor 1967; Hülse u. Boll 1979; Mayer u. Baltes 1996). Biologisch betrachtet ist die altersbegleitende Schwerhörigkeit (Presbyakusis), die Summe der Hörverluste, die aus einer Reihe verschiedener physiologischer Degenerationen entstehen. Diese Degenerationen können aus Lärmbelastung, aber auch aus anderen bekannten oder unbekannten Einflüssen, durch ototoxische Materialien, aus systemischen medizinischen Störungen (Arteriosklerose, Bluthochdruck, Diabetes Mellitus etc.) oder aus der Behandlung dieser Krankheiten entstehen. Die meisten, vielleicht alle, dieser Effekte werden möglicherweise durch eine genetisch determinierte Vulnerabilität modifiziert. Interessant sind in diesem Zusammenhang die Ergebnisse von Glorig et al. (1950), die nachweisen konnten, dass die altersbegleitende Schwerhörigkeit teilweise durch den Geräuschpegel bedingt ist, dem Personen im Laufe ihres Lebens ausgesetzt waren. Personen aus Industriegebieten weisen im Alter stärkere Hörverluste als die Durchschnittsbevölkerung auf. Die altersbegleitende Schwerhörigkeit ist bei Personen aus besonders ruhigen Umgebungen dagegen geringer als die des Durchschnitts. Das klinische Bild der Presbyakusis ist durch einen symmetrischen Hörverlust im Hochtonbereich gekennzeichnet. Ein weiteres charakteristisches Merkmal ist eine unverhältnismäßig große Beeinträchtigung der Sprachverständlichkeit, vor allem unter Lärm. Der Grad der daraus resultierenden Beeinträchtigung variiert stark. Viele Betroffene fühlen sich eingeschränkt und ziehen sich aus ihrem sozialen Beziehungsnetz zurück (vgl. Bertoli et al. 1996). Dabei sind die Ursachen der Presbyakusis noch nicht vollständig geklärt und sie muss als multifaktorielles Geschehen betrachtet werden. Bereits 1964 postulierte Schuknecht auf der Basis der Audiogramme und postmortalen histopathologischen Befunden vier verschiedene Typen von Presbyakusis, für die er verschiedene typische audiometrische Muster beschrieb: x die sensorische Presbyakusis (Verlust der Haarzellen und sekundäre Degeneration der entsprechenden Neurone) zeigt einen steil abfallenden Hörverlust im hochfrequenten Bereich und eine proportionale Redukti-
8.1 Schwerhörigkeit: Entwicklung, Bewertung
321
on der Sprachverständlichkeit in diese Kategorie scheinen die meisten Betroffenen zu fallen; x die neurale Presbyakusis (primäre Degeneration der Ganglienzellen und der zentralen auditiven Verbindungen), die als reiner Typ relativ selten ist, zeigt variable Tonaudiogramme, aber einen disproportional hohen Verlust der Sprachverständlichkeit; x die metabolische Presbyakusis (Atrophie der Stria Vascularis) zeigt einen flachen Tonhörverlust und relativ normale Sprachverständlichkeit, dieser Typ scheint eher genetisch determiniert zu sein und möglicherweise falsch klassifiziert (vgl. CHABA Working Group on Speech Understanding and Aging 1988); x die mechanische oder cochlear–konduktive Presbyakusis (Verhärtung der Basilarmembran) zeigt ein graduell abfallendes Audiogramm und relativ gute Sprachverständlichkeit. Aktuell verfügbare epidemiologische Informationen weisen allerdings nicht auf ein häufiges Auftreten dieser Typen hin. Deshalb finden sie in der Literatur selten Beachtung. Eine Ausnahme ist eine Studie von Novak u. Anderson (1982), in der Unterschiede im Maskierungslevel in Ruhe verwendet wurden, um die Hypothese zu testen, dass ältere Personen mit neuraler Presbyakusis erhöhte Level internaler Geräusche aufweisen. Dazu erhoben sie Unterschiede im Maskierungslevel in Ruhe bei 500 Hz von fünf Personengruppen: junge und alte Normalhörende, ältere Personen mit metabolischer, sensorischer oder neuraler Presbyakusis (N=30), die auf der Basis von ihren Tonaudiogrammen ausgewählt wurden. Die Gruppe mit angenommener neuraler Presbyakusis (d.h. bilateraler hochfrequenter sensorineuraler Hörverlust und schlechte Sprachverständlichkeit) wies Unterschiede im Maskierungslevel x in Ruhe auf, die signifikant größer waren als die für die anderen Gruppen, und x mit einem Hintergrundgeräusch, die signifikant kleiner waren als die der anderen Gruppen. Die Daten legen nahe, dass ein erhöhter internaler Geräuschlevel die neurale Presbyakusis begleitet. Ende der 80er Jahre nahm die CHABA (Working Group of the Committee on Hearing, Bioacoustics and Biomechanics of the National Research Council 1988) eine Klassifikation der möglichen Ursachen für die Presbyakusis vor. Dabei beschrieben sie drei mögliche Hypothesen (s.a. Sust u. Lazarus 2005):
322
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
x eine periphere Hypothese: Sprachverständlichkeitsprobleme werden hier durch altersbezogene Veränderungen der auditorischen Peripherie erklärt. Und zwar entweder durch einfache Veränderungen in der Hörbarkeit, die mit peripheren Veränderungen der Struktur assoziiert sind, oder mit anderen peripheren Defiziten, die die cochleare Pathologie begleiten und die über den Verlust der Hörsensitivität hinausgehen, wie zum Beispiel die Zeitauflösung; x eine zentral–auditive Hypothese, die annimmt, dass es strukturelle Veränderungen in den auditorischen Bahnen des Hirnstamms oder den auditiven Teilen des Kortex gibt; x eine kognitive Hypothese, in der ein generelles kognitives Defizit angenommen wird, das zwar nicht die auditiven Funktionalitäten beeinträchtigt, aber in einer Dysfunktion bei der Verarbeitung resultiert. 8.1.5 Verbreitung der Schwerhörigkeit Man geht davon aus, dass in den Industriestaaten, so auch in der Bundesrepublik, etwa 5 bis 10 % der Arbeitnehmer, das sind ca. 2 bis 3 Millionen von 34 Millionen Arbeitnehmern, bei Geräuschimmissionen über LAr = 85 dB tätig sind. Die Lärmschwerhörigkeit liegt mit an der Spitze der Berufskrankheiten, ihr Anteil an der Gesamtzahl der Berufskrankheitsfälle lag in den vergangenen Jahren bei ca. 30 %. Jedes Jahr werden über 10.000 neue Fälle der Berufskrankheit Lärmschwerhörigkeit angezeigt, 6.000 neue Fälle erstmals anerkannt, ca. 1.000 Fälle erstmals entschädigt (Tab. 8.1.5-1). Zeiger (1979) erwähnt eine Umfrage, in der sich 5.8 Millionen Menschen – ca. 10 % der Bevölkerung der Bundesrepublik über 16 Jahre – als mittel– oder hochgradig schwerhörig einstufen. Guski et al. (1996) berichten von 15 bis 20 % Gehörgeschädigten in Deutschland und zitieren eine Studie von Fengler (1990), in der jeder vierte einer repräsentativen Stichprobe in der Bundesrepublik ein beeinträchtigtes Hören aufwies. Sohn u. Jörgenshaus (2001) ermittelten auf der Basis eines Screenings mit 2031 Probanden den Anteil der Personen mit einer behandlungsbedürftigen Schwerhörigkeit auf knapp 15 %, den gesamten Anteil von Personen mit einer Hörstörung auf 19 %. Aus Skandinavien werden ähnliche Daten berichtet: 8 % der schwedischen Bevölkerung weist nach Aniansson (1980) Hörschäden auf – bedingt durch Lärmexposition, Alter oder Ohrkrankheiten –, die die alltägliche Sprachverständlichkeit beeinträchtigen.
8.1 Schwerhörigkeit: Entwicklung, Bewertung
323
Tabelle 8.1.5-1. Anzahl und Anteile der einzelnen Berufskrankheiten (gesamt in Deutschland): Die Zahlen beinhalten die Jahresdaten der Gewerblichen und Landwirtschaftlichen Berufsgenossenschaften sowie des Unfallversicherungsträgers der öffentlichen Hand (Bericht für Sicherheit und Gesundheit bei der Arbeit 2001 des BMWA) Berufskrankheiten
Anzeigen auf Anerkannte Neue BK Renten Verdacht Anzahl Anteil% Anzahl Anteil% Anzahl Anteil% Sehnenscheiden/Meniskus 3153 4.1 383 2.1 173 3.0 Schäden durch Vibration* 1248 1.6 168 0.9 115 2.0 Lärmschwerhörigkeit 12114 15.8 7294 39.2 789 13.7 Lunge und Atemwege 16731 21.8 6868 36.9 3323 57.8 Hauterkrankungen 21494 28.1 1533 8.2 445 7.7 Sonstige 21872 28.5 2353 12.7 905 15.7 Insgesamt 76612 100.0 18599 100.0 5750 100.0 * Beinhaltet 2103, 2104 und 2110 (Bandscheibenbedingte Erkrankungen der Lendenwirbelsäule durch langjährige vertikale Einwirkung von Ganzkörperschwingungen im Sitzen)
Eine Reihe von Quer– und Längsschnittuntersuchungen sind an jüngeren oder älteren Personen (Rekruten, Jugendlichen mit hohem Musikkonsum) vorgenommen worden (Plomp 1978; Axelsson et al. 1994; Hoffmann 1997; Leitmann 2003), deren Ergebnisse noch kein einheitliches Bild zeigen. Der Anteil an Hörschäden bei Rekruten scheint jedoch vergleichbar zu sein: Axelsson et al. (1994), Borchgrevink (1994) und Hoffmann (1997) fanden in ihren Studien, dass 13 % bzw. 19 % der Rekruten Hörverluste von mehr als 20 dB aufweisen. Die Daten zur Altersschwerhörigkeit (Schmidt 1967), mit denen derzeit operiert wird, stellen Durchschnittswerte dar, die vor ca. 50 Jahren ermittelt wurden. Solche Durchschnittswerte sind heute kaum brauchbar. Die Anzahl weit verbreiteter lauter Geräuschquellen (Maschinen für Heimwerker, Gartengeräte) und der intensive Musikkonsum (via Kopfhörer, Diskotheken, Konzerte) sowie der sich andeutende hohe Anteil von Personen mit Hörverlusten bei jungen Personen (Rekruten) lässt vermuten, dass bei vielen Personen mit zunehmendem Alter mit einer Verschlechterung des Hörvermögens gerechnet werden muss. Dies ist umso bedeutsamer, als aufgrund der demographischen Entwicklung und der zu erwartenden Verlängerung der Lebenszeit der Anteil älterer Personen am gesellschaftlichen Leben zunehmen wird.
324
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.1.6 Verfahren zur Ermittlung und Bewertung der Schwerhörigkeit 8.1.6.1 Vorbemerkung
Die Diagnose der Schwerhörigkeit dient ihrer Identifizierung und Beschreibung sowie der Bestimmung ihres Ausmaßes, um beispielsweise x das Vorliegen einer Berufskrankheit bzw. eine Minderung der Erwerbstätigkeit (MdE) festzustellen; x Hörschadensrisiken abzuschätzen und geeignete Maßnahmen zu ihrer Beseitigung bzw. Minimierung in die Wege zu leiten; x eine geeignete Hörhilfe auszuwählen und anzupassen; x entsprechende Fördermaßnahmen (beispielsweise bei schwerhörigen Kindern) in die Wege zu leiten; x Aufschluss über die Sprachverarbeitung sowie die Verarbeitung akustischer Informationen (Signale, Maschinengeräusche etc.), ggf. unter verschiedenen Umweltbedingungen zu erhalten. Es gibt eine Reihe audiologischer Verfahren zur Ermittlung unterschiedlicher Formen der Schwerhörigkeit, die für den vorliegenden Kontext aber nicht von zentraler Bedeutung sind (vgl. Böhme u. Welzl–Müller 1988; Kollmeier 2004). In diesem Zusammenhang interessieren vor allem das Tonaudiogramm und das Sprachaudiogramm, das in Deutschland häufig eingesetzt wird. Das Maß zur Beurteilung der Schwerhörigkeit, d.h. der Erschwernis durch die Hörverluste, ist der prozentuale Hörverlust (HVP). Er wird in fast allen Ländern verwendet. Dabei geht man von der Vorstellung aus, dass die Hörfläche in der Intensität durch die Hörschwelle (der Normalhörenden) und die Schmerzschwelle und im Frequenzbereich von den unteren und oberen Frequenzen (16 Hz bis 16 kHz) begrenzt ist. Diese Fläche (Intensitätsbereich x Frequenzbereich, vgl. Abb. 2.2-1, 8.1.2-1) wird je nach dem, wie viel Prozent der maximalen Fläche für einen Schwerhörigen noch zur Verfügung steht, von 0 bis 100 % aufgeteilt. Der HVP wird in der Regel aus dem Tonhörverlust bei ausgewählten Frequenzen berechnet, kann aber insbesondere in Deutschland auch aus dem Sprachhörverlust ermittelt werden (s. Abschn. 8.1.6.4, 8.1.6.5). In der Regel ist man daran interessiert, die Sprachverständlichkeit im alltäglichen Umgang (öffentliches, privates, berufliches Leben) zu beurteilen, um diese sicherzustellen oder ihre Einschränkung abzuschätzen. Für eine differenzierte Analyse der Schwerhörigkeit ist daher das Tonaudiogramm nicht ausreichend. Sie muss mithilfe des Sprachaudiogramms ergänzt werden. Der Einsatz der Sprachaudiometrie unterliegt aber gewissen
8.1 Schwerhörigkeit: Entwicklung, Bewertung
325
Einschränkungen. Sie wird in hohem Maße durch die sprachliche Kompetenz beeinflusst – also beispielsweise Umfang und Qualität des Sprachschatzes, sprachliche Intelligenz, Zugehörigkeit zu bestimmten Sprachgruppen (Dialektsprecher, Muttersprachler) etc. Die Durchführung eines Sprachaudiogramms ist aus diesen Gründen sehr aufwändig, so dass in der Regel gerade bei epidemiologischen Studien oder anderen Reihenuntersuchungen vor allem Tonaudiogramme eingesetzt werden. Vom Verlauf des Tonaudiogramms wird dann auf das Ausmaß des Sprachverständlichkeitsverlustes bei Schwerhörigen geschlossen. Dies erfordert die Kenntnis der Beziehung zwischen Ton– und Sprachhörverlust bzw. der Kriterien, nach Maßgabe derer von den Ergebnissen des Tonaudiogramms auf den Sprachhörverlust geschlossen werden kann. 8.1.6.2 Die Parameter des Sprachgehörs
Ton – und Sprachaudiometrie, Sprachhörverlust, Gesamtwortverstehen, Diskriminationsverlust Auch wenn es im Hinblick auf den effizienten Einsatz von Ressourcen sinnvoll ist, den Hörverlust über ein Tonaudiogramm abzuschätzen, gibt es doch eine Reihe von Gründen für den Einsatz von Sprachaudiogrammen. Die präzise Beschreibung des Hörverlustes in Bezug auf die Einschränkung der Wahrnehmung von Sprache und Signalen ist dabei nur eine Möglichkeit. Bei der Entwicklung solcher Verfahren zur Bestimmung des Hörverlustes ist eine Reihe von Faktoren zu berücksichtigen. So müssen phonetische Bedingungen geschaffen werden, die der Lautstruktur der Umgangssprache genügen. Das Verhältnis von Konsonanten zu Vokalen im Sprachtest muss dem der deutschen Sprache entsprechen (s. Abschn. 9.2). Die Anzahl der Sprachlaute innerhalb einer Silbe als auch die Stellung der Laute als Anlaut und Endlaut müssen bestimmt werden. Werden Wörter im Test verwendet, so kommt noch hinzu, dass ihre Auftretenswahrscheinlichkeit in der Umgangssprache zu kontrollieren ist, da die Auftretenswahrscheinlichkeit die Wahrnehmungsleistung beeinflusst (Howes 1957). Werden Sätze verwendet, so erfordert dies die psycholinguistische Analyse der Satzstruktur. Genauere Ausführungen dazu sind in Abschnitt 2.6, 7.6 und in Kapitel 9 zu finden. Mit Hilfe der Sprachaudiometrie lassen sich die Parameter des Sprachgehörs bestimmen: x des Sprachhörverlustes (LHVZ) – in der Regel unter Verwendung von Zahlwörtern (DIN 45621–1) – der die notwendige Schallpegelerhöhung für eine vorgegebene Sprachverständlichkeit von SVZ = 50 % angibt (s.a.: Freiburger Sprachverständlichkeitstest);
326
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
x des Gesamtwortverstehens (GW), das die Summe der korrekt verstandenen Wörter (Einsilber; SVE) in Prozent bei einem Sprachpegel am Ohr des Hörers von LS = 60/80/100 dB angibt (Boenninghaus u. Röser 1973; Feldmann 2001). Die Summe der Sprachverständlichkeit einer normalhörenden Person ist in der Regel bei diesen drei Sprachpegeln GW = 250–300 (bei einem Höchstwert von 300 entspricht dies 100 % bei jedem der drei Sprachpegel). Unterschieden wird das einfache und gewichtete Gesamtwortverstehen (1, 1, 1; (3, 2, 1)/2); x des Diskriminationsverlustes (DV), der für eine schwerhörige Person die Diskrepanz zwischen maximaler und 100 % Sprachverständlichkeit (SV) angibt: DV = 100 % - SVmax; x des Pegels, der 40 dB über dem Pegel des Sprachverlustes (meistens für Zweisilber) liegt (LHVZS + 40 dB; vorzugsweise im angelsächsischen Raum). Das Gesamtwortverstehen (GW) und auch der Diskriminationsverlust (DV) werden mittels schwierigem Sprachmaterial diagnostiziert, vor allem mit Einsilbern (Abb. 8.1.6.2-1). Im Gegensatz zum Sprachhörverlust, der nur die notwendige Schallpegelerhöhung für vorgesehene einfache Wörter bei SVZ = 50 % angibt, erlaubt die Verwendung schwierigen Sprachmaterials differenzierte Aussagen und schließt zudem die Möglichkeit aus, aufgrund individueller Sprachkompetenz nicht ganz verstandene Sprachreize zu ergänzen. Mit der Erkennungsleistung von Einsilbern oder auch sinnlosen Silben wird – soweit es überhaupt möglich ist – die „reine“ Wahrnehmungsleistung erfasst. So kann z.B. der Einfluss der unterschiedlichen „Grenzfrequenzen“ des Tiefpasses Lärmschwerhöriger auf die Sprachwahrnehmung aufgezeigt werden. Gibt man Normalhörenden Sprache über einen Tiefpass, dessen Grenzfrequenz tiefer als 3 kHz liegt, wird die maximale Sprachverständlichkeit von Einsilbern (SVE = 90–100 %) auch von diesen Normalhörenden nicht mehr erreicht. Versteht man also das Tonaudiogramm als Tiefpass mit den Grenzfrequenzen von z.B. 1–2 kHz (Abb. 8.1.6.2-1, Kurve 3), liegt die maximale Verständlichkeit bei SVE = 80 %. Die Angaben der Sprachverständlichkeit von Sprachsignalen bei drei verschiedenen Pegeln (Gesamtwortverstehen) ist im Vergleich zum Diskriminationsverlust sinnvoller, da sich dieser Wert auf einen für Schwerhörige wichtigen Pegelbereich (Sprechweisen normal, sehr laut, höchster Ausgangspegel von Hörgeräten) und nicht nur auf einen einzigen Pegelwert bezieht.
8.1 Schwerhörigkeit: Entwicklung, Bewertung
327
Abb. 8.1.6.2-1. Tonaudiogramm (oben: LHVT) und Sprachaudiogramm (unten: SV) für fünf unterschiedlich schwerhörige Personen (linkes Ohr): Tonhörverlust (LHVT) über der Frequenz (f); Sprachverständlichkeit (SV) für Zahlwörter (links) und Einsilber (rechts) (Bezugskurve für Zahlwörter (Z) und Einsilber (E) nach DIN 45621–1, 45626–1) in Abhängigkeit vom Pegel der Sprache (LS). Angegeben ist: Sprachhörverlust: LHVZ, Gesamtwortverstehen: GW; beispielsweise für Person (2): LHVZ = 19 dB, GW/gGW = 78 + 100 + 100 | 278/267 Person (3): LHVZ = 26 dB, GW/gGW = 30 + 73 + 60 | 163/148. - - - - - (1) beginnende Lärmschwerhörigkeit (2) knapp geringgradige Lärmschwerhörigkeit (3) gering bis mittelgradige Lärmschwerhörigkeit (4) hochgradige Lärmschwerhörigkeit (5) mittelgradige Altersschwerhörigkeit (nach Hahlbrock 1970; Brusis 1978)
328
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Der so ermittelte Wert der Sprachverständlichkeit berücksichtigt einerseits Pegelwerte, die im gewöhnlichen Sprechverhalten vorkommen, aber auch Pegel, die bei angehobener bis lauter Sprechweise und geringen Entfernungen zum Gesprächspartner auftreten, das heißt LS = 10–20 dB über dem Pegel der normalen Sprechweise liegen und somit selten vorkommen. Andererseits werden Pegel von 100 dB einbezogen, die im natürlichen Gespräch nicht vorkommen. Das Tragen eines Hörgerätes wird damit schon vorweg genommen. Das kann für eine Diagnose des Vermögens, Sprache zu verstehen, zweckmäßig sein. Bei der Beurteilung der Beeinträchtigung von Schwerhörigen gegenüber Normalhörenden in einer Gesprächssituation sind so hohe Pegel aber nicht sachgerecht und sollten somit gesondert behandelt werden. In einer Gesprächssituation kann ein Sprachpegel am Ohr des Hörers von 80 dB nur mit einem hohen Sprechaufwand („Schreien“) und/oder durch geringe Entfernungen vom Mund zum Ohr (zumutbare soziale Distanz) erreicht werden, von 100 dB ganz zu schweigen. Üblich sind Sprachkommunikationssituationen durch eine leise oder normale Sprechweise bei geringer Gesprächsentfernung (ca. 0.5–1 m) oder eine angehobene Sprechweise bei größerer Entfernung gekennzeichnet. Das wären Sprachpegel am Ohr des Hörers von 50 bis 70 dB, aber nicht 80 bis 100 dB. Hier ist inzwischen zweckmäßiger Weise das gewichtete Gesamtwortverstehen (60, 80, 100 dB = 3 : 2 : 1) eingeführt worden (Feldmann 2001), das die Sprachpegel von LS = 60 (und 80 dB) höher bewertet. Für eine Bewertung wird das gewichtete Gesamtwortverstehen bei geringerer Schwerhörigkeit (HVP = 20–40 %) und das einfache Gesamtwortverstehen bei einer stärkeren Schwerhörigkeit herangezogen. In der Standardaudiometrie wird häufig der Freiburger Sprachverständlichkeitstest (DIN 45621–1; s.a. Hahlbrock 1970; Abschn. 2.6) eingesetzt, bei dem einsilbige Wörter als Testmaterial verwendet werden. Mit dem Sprachverständlichkeitstest kann das sprachliche Unterscheidungsvermögen des Probanden geprüft werden. Dieser Test ist als ein Audiometrieverfahren konzipiert. Grundlage des Audiometrieverfahrens ist es, dass Sprachlaute mit zunehmender Intensität der Versuchsperson solange dargeboten werden, bis sie erkannt werden. Hierbei wird nicht nur ein Sprachreiz, sondern eine Reihe von Wörtern jeweils gleicher Intensität zur Wahrnehmung dargeboten, um so einen repräsentativen Querschnitt über das sprachliche Unterscheidungsvermögen des Probanden zu erhalten.
8.1 Schwerhörigkeit: Entwicklung, Bewertung
329
8.1.6.3 Beziehung zwischen Ton– und Sprachaudiogramm
Hörschwelle für Töne bei unterschiedlichen Frequenzen und Hörschwelle für Sprache in Ruhe und bei Geräuschen Eine differenzierte Analyse der Schwerhörigkeit kann – wie bereits ausgeführt worden ist – mit Hilfe eines Sprachaudiometers erfolgen (Abschn. 2.6, 8.1.6.2). Die Durchführung eines solchen Tests ist jedoch recht aufwändig und für Reihenuntersuchungen nur schwerlich geeignet. Außerdem ist das Ergebnis von der Sprachkompetenz des Hörers (Abschn. 6.5.5) abhängig. Deshalb empfiehlt es sich, vor allem bei Reihenuntersuchungen die Diagnose der Schwerhörigkeit mit Hilfe eines Tonaudiogramms vorzunehmen. Vom Verlauf des Tonaudiogramms wird dann auf das Ausmaß des Sprachverständlichkeitsverlustes bei Schwerhörigen geschlossen. Insofern sollte der Zusammenhang zwischen dem Tonhörverlust und dem Sprachhörverlust bekannt sein. In den letzten 70 Jahren sind Untersuchungen durchgeführt worden, in denen versucht wurde, das Ausmaß des Verlustes an Sprachverständlichkeit aus dem Tonhörverlust zu bestimmen. Dabei wurden immer wieder Modifizierungen zur Verbesserung der Vorhersageleistung vorgenommen. Eine Reihe dieser Untersuchungen beschäftigt sich mit dem Zusammenhang zwischen dem Tonaudiogramm und der Sprachverständlichkeit unter Ruhebedingungen und unter unterschiedlichen Störbedingungen. Dabei zeigt sich, dass abhängig vom Sprachmaterial und vom Störfaktor und von der Konfiguration des Audiogramms (also von den Frequenzen, in denen der Hörverlust am stärksten ausgeprägt ist), jeweils unterschiedliche Frequenzen am besten mit der Sprachwahrnehmung korrelieren. Weiterhin wird mit Hilfe der multiplen Regression angegeben, wie gut die Tonhörverluste bei den einzelnen Frequenzen (LHVT,f) mit den vorgegebenen Kriterien der Sprachverständlichkeit (LHVS, SV, DV) korrelieren (Tab. 8.1.6.3-1, s. S. 336). In den ersten Untersuchungen wird als Kriterium für die Sprachverständlichkeit der Sprachhörverlust (LHVS), in den späteren auch die Satzverständlichkeit bei einem Sprachpegel, der 40 dB oberhalb der Hörschwelle für die Sprache liegt (Harris 1965), oder auch die Sprachverständlichkeit für Sätze und Einsilber (Kryter et al. 1962) benutzt. Für in Ruhe dargebotene Sprache zeigt ein Vergleich der Korrelationskoeffizienten (Tab. 8.1.6.3-1) folgendes Bild: in den Untersuchungen (Zeile 1, 2, 6, 7) sind die Korrelationen zwischen dem für die Sprachverständlichkeit benutzten Maß, dem Sprachhörverlust bei den drei Frequenzen 0.5/1/2 kHz, besonders hoch (r = 0.74–0.81; r = 0.79–0.89; r = 0.62–0.90; r = 0.63–0.98). Diese hohe Korrelation bei den drei Frequenzen führte seinerzeit zu der Vereinfachung des Hörverlustkriteriums (s. Abschn.
330
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.1.6.4). Die hohe Korrelation für den Sprachverlust für Zweisilber oder Zahlen mit dem Tonhörverlust bei den Frequenzen bis zu 2 kHz hängt vermutlich damit zusammen, dass der Hörer an der Schwelle der Verständlichkeit besonders auf die hohen Schallintensitäten der Vokale (bei 0.5 und 1 kHz) reagiert und Normalhörende, obwohl sie ein besseres Gehör haben, unter diesen Bedingungen kaum mehr verstehen. Wird dagegen die Sprachverständlichkeit von Einsilbern und Sätzen (ohne Störungen) gemessen (Zeile 3, 5, 6), erhält man im Bereich der etwas höheren Frequenzen f = 2/3 kHz bzw. f = 1/1.5/2 kHz höhere Korrelationen (r = 0.44–0.47; r = 0.32–0.52; r = 0.60–0.70). In einer Untersuchung zur Ton– und Sprachschwerhörigkeit ermittelte Plath (1971) auf empirischem Wege den Zusammenhang zwischen Sprachverständlichkeit und Tonhörverlust bei den einzelnen Frequenzen. Plath beabsichtigte mit seiner Untersuchung vor allem, die Sprachverständlichkeit der Alltagssprache vorherzusagen. Zu diesem Zweck korrelierte er den Hörverlust von Zahlwörtern und den Diskriminationsverlust von Einsilbern lärmschwerhöriger Personen, aufgeteilt in drei Altersklassen, mit den Tonhörverlusten derselben Personen. Das Ausmaß des Hörverlustes für Zahlen korreliert recht gut mit dem Tonhörverlust (r = 0.62–0.90) bei den Frequenzen f = 0.5/1/2 kHz. Das Ausmaß des Diskriminationsverlustes für Einsilber zeigt eine etwas geringere Korrelation mit dem Tonhörverlust an, dabei verschieben sich die Frequenzen mit den höchsten Korrelationen mit der Zunahme des Tonhörverlustes nach höheren Frequenzen (von f = 0.5 nach f = 2 kHz). In einer Untersuchung (Jerger u. Jerger 1976) mit 2000 Patienten wird der Ursache für die unterschiedlichen Ergebnisse nachgegangen. Die Patienten teilen sich auf in 20 % Normalhörende, 18 % Leitungsschwerhörige und 60 % Schwerhörige (bedingt durch Haarzellenschäden im Innenohr). Es wurde der Sprachhörverlust bei 50 % korrekt verstandenen Einsilbern (LHVE) mit den Mittelwerten des jeweiligen Tonhörverlustes bei den Frequenzen f = 0.5/1/2 kHz verglichen, wobei die Differenz (LHVT0,5/1/2 - LHVE (50 %)) gebildet wurde.
85 % der Personen (normalhörende und schwerhörige Personen mit Leitungsschäden) weisen eine Differenz auf, die zwischen den Werten des Tonhörverlustes und des Sprachhörverlustes innerhalb von r10 dB liegt. Nur 71 % Schwerhörige mit Haarzellenschäden im Innenohr haben eine Differenz zwischen den Variablen Tonhörverlust und Sprachhörverlust im Bereich von r10 dB. In 25 % der Fälle dieser Personengruppe ist der Sprachhörverlust um 10 dB größer als der Tonhörverlust. Normalhörende und Schwerhörige mit Leitungsschäden weisen diese Differenz nur in 5– 10 % der Fälle auf. Die Differenz zwischen dem Tonhörverlust und dem Sprachhörverlust für Einsilber ist besonders bei den Personen negativ aus-
8.1 Schwerhörigkeit: Entwicklung, Bewertung
331
geprägt, bei denen eine hohe Differenz zwischen den Tonhörverlusten bei 0.5 und 4 kHz zu verzeichnen ist, d.h. bei steil abfallendem Hörverlust. Sprachliche Kommunikation geschieht in der Regel nicht ohne Störung. Deshalb wurde die Wirkung von Störfaktoren auf die Sprachverständlichkeit untersucht. Die Wahrnehmung von Sprache, die schneller als normal gesprochen wurde (Zeile 5), weist im Bereich der Frequenzen f = 1.5/2/3 kHz höhere Korrelationen zwischen dem Tonaudiogramm und der Sprachverständlichkeit (r = 0.37 bis r = 0.48) im Vergleich zu den Korrelationen (r = 0.10 bis r = 0.27) außerhalb dieser Frequenzen (Zeile 5) auf. Ist Sprache verhallt (T = 5 s), treten höhere Korrelationen zwischen den Werten des Tonaudiogramms und der Sprachverständlichkeit bei den Frequenzen f = 2/3/4 kHz (r = 0.22 bis 0.63) auf. Die Korrelationen zwischen diesen Variablen im Frequenzbereich f = 0.5/1/1.5 kHz in diesem Bereich sind nahezu Null (r = 0.01 bis 0.05). Kryter et al. (1962) störten die Sprachverständlichkeit durch Geräusche unterschiedlicher Pegel und durch Tiefpassfilterung der Sprache selbst (Zeile 4). Für die einzelnen Störbedingungen und für die Summe der 10 Störbedingungen (Einsilber: LS = 65 dB, LSN = 0/10 dB; LS = 95 dB, LSN = 0/10 dB, fo = 2/7 kHz; Sätze: LS = 95 dB, LSN = -3/+5 dB, fo = 2/7 kHz) gibt Kryter die Korrelation (r) zwischen dem Tonhörverlust und der Sprachverständlichkeit und die multiple Korrelation (R) an (Tab. 8.1.6.31). Die multiple Korrelation von R = 0.81 bedeutet, dass – benutzt man zur Vorhersage der Sprachverständlichkeit (SVE, SVS) den Tonhörverlust bei den Frequenzen 1/2/3 oder 2/3/4 kHz – 66 % der gesamten Varianz durch die benutzten Variablen (LHVT, f) erklärt werden kann. Wird also Sprache durch Geräusche gestört und gleichzeitig eine Bandbegrenzung der Sprache vorgenommen, erhält man besonders hohe Korrelationen bei den Frequenzen f = 2/3/4 kHz zwischen der Sprachverständlichkeit und dem Tonaudiogramm (r = 0.55 bis r = 0.80). Werden Mittelwerte über die Sprachverständlichkeiten von 4 Störbedingungen (Zeile 5) und von 10 Störbedingungen (Zeile 4) gebildet und diese Mittelwerte mit den Tonhörverlusten korreliert, zeigt sich, dass die Frequenzen f = 1.5–4 kHz für die Sprachverständlichkeit am wichtigsten sind. Auch in weiteren Untersuchungen (9, 10, 11, 12) wurde die Korrelation zwischen dem Hörverlust bei einzelnen Frequenzen und der Sprachverständlichkeit (Zeile 9, 10) und der Hörschwelle für Sprache (Sätze, Einsilber, sinnlose Silben) (Zeile 8, 11, 12) in Ruhe und bei Geräuschen geprüft. Die Ergebnisse sind nicht eindeutig; sie sind sowohl abhängig vom Geräuschpegel (Ruhe) als auch dem S/N–Verhältnis (10 bis -5 dB), aber insbesondere auch von der Art des Sprachmaterials und der Höhe und der Art der Schwerhörigkeit. Tendenziell zeigt sich bei Ruhe ein höherer Zusam-
332
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
menhang zwischen der Sprachverständlichkeit und dem Hörverlust bei den niedrigeren Frequenzen (bis 2 kHz). Bei der Verständlichkeit von Sprache, gestört durch Geräusche, liegen die höheren Korrelationen bei den höheren Frequenzen (ab 2 kHz). Schon 1956 wurde die Mithörschwelle von Normal– und Schwerhörigen untersucht (Lightfoot et al. 1956). Als Versuchspersonen dienten 31 Normalhörende und 59 hörgeschädigte Personen (42 Schallempfindungsschwerhörige, 17 Leitungsschwerhörige). Gemessen wurde die Tonhörschwelle und die Schwelle für Zweisilber in Ruhe sowie unter verschiedenen Geräuschpegeln (weißes Rauschen: Normalhörende 60 und 80 dB, Hörgeschädigte 80 und 90 dB).
Es ergaben sich für Normalhörende eine Ruhehörschwelle von LHSZS = 16 dB, sowie eine Mithörschwelle von LSNA = -5.5 dB und für Hörgeschädigte eine Ruhehörschwelle von LHSZS = 22.8 dB und eine Mithörschwelle von LSNA = -1.8 dB für die gleiche Sprachverständlichkeit. Die Beziehung zwischen Tonaudiogramm und Sprachverständlichkeit ergab, dass Hörverluste für Sprache in Ruhe (LHSZS) am besten mit dem Tonhörverlust bei 500 Hz, Hörverluste für Sprache unter Geräuschen, d.h. die Mithörschwelle, am besten mit Veränderungen im 2–3 kHz–Bereich korrelierten. Da das Verstehen von Sprache oft von Umgebungsgeräuschen gestört wird, impliziert das Ergebnis, dass Hörverluste über 2 kHz wichtig für die Sprachwahrnehmung sind. Die Korrelationen zwischen den beiden Sprachverständlichkeitsmessungen in Ruhe und unter Lärm sind jedoch gering (r = 0.37). Weitere Untersuchungen konzentrieren sich auf die Frage, welche Zusammenhänge in Ruhe– und Geräuschsituationen existieren. So untersuchten Smoorenburg et al. (1982) schwerhörige Personen (22 Lärmschwerhörige mit einem mittleren Tonhörverlust von LHVT0,5/1/2 ŭ 30 dB) in Ruhe und bei Geräuschen für Sprache (Sätze). Die Erhöhung der Ruhehörschwelle und der Mithörschwelle für Sprache (Sätze) bei den Schwerhörigen gegenüber der von normalhörenden Personen lag bei LHVS = 6.8 und 3.7 dB. Zusätzlich wurde die Beziehung zwischen dem Hörverlust für maskierte Sprache (Sprachpegel LS = 40, 55, 70 dB) und dem Hörverlust für Sprache und Töne in Ruhe bestimmt.
Während eine Beziehung zwischen dem Hörverlust für maskierte Sprache und dem Hörverlust für Sprache in Ruhe nicht nachgewiesen werden konnte, zeigt sich jedoch eine Beziehung zwischen diesem und dem Tonhörverlust in Ruhe. Die Beziehung zwischen dem Hörverlust für maskierte Sprache zu dem Tonhörverlust bei den Frequenzen 1/2/3 kHz (LHVT 1/2/3) ist enger als zu dem Hörverlust bei 0.5/1/2 kHz (LHVT0,5/1/2). Butts et al. (1987) verwendeten als vorherzusagendes Kriterium das Verstehen sinnloser Silben (SVSi, NST). Sie untersuchten die Beziehung der SVSi zum Tonhörverlust. Dazu untersuchten sie 109 Personen mit
8.1 Schwerhörigkeit: Entwicklung, Bewertung
333
normalem Gehör oder Schallempfindungsschwerhörige und setzten die Fehler im NST (SVSi) mit den jeweiligen Tonaudiogrammen in Verbindung. Die Studie ergab, dass Konsonantenfehler die häufigsten Fehler für leichten oder mäßigen Hörverlust sind, aber der Anteil der Vokalfehler mit einem Anstieg zu einem ernsthaften Hörschaden zunimmt. Sie fanden eine hohe Korrelation zwischen NST–Fehlern und dem Hörverlust bei 2 kHz. Eine weitere Untersuchung (Smoorenburg 1992) geht auf die Beziehung zwischen Tonaudiogramm und Sprachverständlichkeit in Ruhe und unter Geräuscheinwirkung ein. Gemessen wurden die Tonhörschwellen (Békésy–Methode) und die Sprachhörschwellen (einfache Sätze) bei 200 Individuen (Alter unter 55 Jahren, die in verschiedenen lauten Umgebungen arbeiteten). Die Personen wiesen einen lärminduzierten Hörverlust auf (LHVT (4 kHz) ŭ 60 dB). Die Sprachhörschwellen wurden in einer ruhigen Bedingung und unter Geräuscheinwirkung mit einem Sprachspektrum bei Pegeln von 35, 50, 65 und 80 dB erhoben.
Die Tonaudiogramme konnten durch drei Hauptkomponenten beschrieben werden: den Hörverlust in den Regionen über 3 kHz, von 1–3 kHz und unter 1 kHz. Die Sprachhörschwellen konnten durch zwei Komponenten beschrieben werden: das Sprachverständnis in Ruhe und das Sprachverständnis unter Geräuscheinwirkung bei 50–80 dB. Der Hörverlust über 1 kHz stand in Verbindung mit der Sprachverständlichkeit unter Geräuscheinwirkung, der Hörverlust bei und unter 1 kHz mit der Sprachverständlichkeit in Ruhe. Die Korrelationen zwischen den Sprachhörschwellen in Ruhe und unter Geräuscheinwirkung waren gering (R = 0.45). Ein adäquater Prädiktor von der Sprachhörschwelle unter Lärm, dem Hauptfaktor des Hörgeschädigtenhandicaps, war der mittlere Tonhörverlust bei 2 und 4 kHz (R = 0.72). Der kleinste Wert für den Vorhersagefehler für jeden tonaudiometrischen Prädiktor dieser Sprachhörschwelle war s = 1.2 dB. In einer weiteren Untersuchung konnte recht deutlich gezeigt werden (Bosman u. Smoorenburg 1995, Zeile 11), dass sich im Mittel über alle drei Gruppen (Normalhörende, Lärmschwerhörige, Altersschwerhörige) die Sprachhörschwelle für Sätze in Ruhe aus der Hörschwelle für Phoneme (CVC) in Ruhe, und für Sätze im Lärm aus der Hörschwelle für Phoneme (CVC) im Lärm vorhersagen lassen. Der beste Prädiktor für die Hörschwelle (SVSi und SVS) in Ruhe ist die Hörschwelle bei 0.5 kHz, wogegen der beste Prädiktor für die Hörschwelle (SVSi, SVS) im Lärm bei 2 und 4 kHz der Hörschwelle liegt. Dieser Wechsel von den niedrigen Frequenzen der Hörschwelle zu den höheren bei der Vorhersage von Lärm, gilt nur für die Lärm– und Altersschwerhörigen (SHL, SHA). Diese und weitere Untersuchungen über die Beziehung zwischen dem Tonaudiogramm und dem Sprachaudiogramm in Ruhe und unter Störbe-
334
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
dingungen zeigen auch trotz Einbeziehen psychoakustischer Parameter weiterhin ein sehr vielschichtiges Bild (Carhart u. Porter 1971; Tyler et al. 1980, 1982b; Welzl–Müller et al. 1990; Hansen et al. 1994). Die individuelle Vielfalt und Ausprägung der Schwerhörigkeit und die Vielzahl der Störbedingungen und des Testmaterials (Sprache) lassen bisher nur grobe Aussagen zu. Aber gerade die erwähnten Untersuchungen von Smoorenburg (et al. 1982, 1992) und Bosman u. Smoorenburg (1995) lassen doch erkennen, dass die Verhältnisse in Ruhe anders sind als unter Geräuscheinwirkung, die letzteren aber eher die alltägliche Situation beschreiben. Es wurde schon gezeigt, dass für schwierigere Wahrnehmungsaufgaben (Einsilber) gegenüber leichteren (Zahlworte) eher die höheren Frequenzen verantwortlich sind (> 1 kHz). So bleibt für Ruhe und bei einfachem Sprachmaterial der Hauptprädiktor der Mittelwert aus 0.5, 1, 2 kHz der Tonhörschwelle, bei der Sprachverständlichkeit (Einsilber, Sätze) im Lärm ist der Mittelwert aus 2 und 4 kHz geeignet. Die Ergebnisse der angeführten Studien zeigen, dass die Hörschwellen unter Lärm nicht durch die in Ruhe vorhergesagt werden können; die Sprachwahrnehmung in Ruhe gibt wenig Aufschluss über die Sprachwahrnehmung unter Geräuscheinwirkung. Mit Hilfe des Tonaudiogramms kann im Mittel die Hörschwelle, bzw. der Hörverlust für Sprache unter Lärm gültiger abgeschätzt werden als mit Hilfe des Sprachaudiogramms in Ruhe. Außerdem wurde gezeigt, dass die Schätzung des Sprachverständnisses durch konventionelle tonaudiometrische Werte für einige Gruppen von Hörgeschädigten nicht anwendbar ist. Zusammenfassend lässt sich festhalten: Die Befunde deuten darauf hin, dass das Tonaudiogramm im Mittel besser geeignet ist den Verlust an Sprachverständlichkeit unter Lärm abzuschätzen als das Sprachaudiogramm in Ruhe. Geeignet sind dafür die Tonhörschwellen bei 2 und 4 kHz. Soll nur die Erhöhung des Sprachpegels, der Sprachhörverlust (LHVS) festgestellt werden, der notwendig ist, damit Personen mit mehr oder weniger hohem Tonhörverlust eine Sprachverständlichkeit von SV = 50 % erreichen, so ist der prozentuale Hörverlust (HVP) aus dem Tonhörverlust bei den Frequenzen 0.5/1/2 kHz zu bestimmen. Auf diese Weise ist ein Minimum an Sprachverständlichkeit, eine Verständlichkeit z.B. von Zahlwörtern oder Zweisilbern in ruhiger Umgebung gewährleistet. Um die Verständlichkeit schwieriger Texte (Einsilber oder auch Sätze) ggf. auch unter Störbedingungen (Geräusche, Nachhall) vorhersagen zu können, müssen bei der Bestimmung des prozentualen Hörverlustes (HVP) die Tonhörverluste bei höheren Frequenzen hinzugezogen werden. Der prozentuale Hörverlust wird dann zweckmäßig aus den Tonhörverlusten bei den Frequenzen f = 0.5/1/2/4 kHz, f =1/2/3 kHz oder = 2/4 kHz berechnet.
8.1 Schwerhörigkeit: Entwicklung, Bewertung
335
Es ist allerdings fraglich, ob der Sprachhörverlust mit Hilfe des Tonaudiogramms (LHVT) und des Sprachaudiogramms (LHVZ, GW) gültig beschrieben werden kann. Schon Niemeyer (1983) und Spreng (1983a, b) weisen auf diesen Punkt hin und fassen die Faktoren zusammen, die die Verständlichkeit von Sprache beeinflussen. x Das Tonaudiogramm zeigt zwar beginnende Schäden des Gehörs gut an, trotzdem können auch ohne wesentliche Hörverluste (LHVT,f ū 10 dB) Veränderungen des Adaptionsvermögens beobachtet werden. Um der Hüllkurve der Sprache folgen zu können, ist die Fähigkeit zur schnellen Adaption und Re–Adaption erforderlich. x Die verminderte Fähigkeit des Schwerhörigen, kurzzeitige Intensitäts– Frequenzmuster und zeitliche Veränderungen der Frequenz und der Intensität zu diskriminieren und zu identifizieren, kann die Erkennung von Sprachlauten erheblich verschlechtern. x Durch Recruitmentschäden verändert sich vor allem bei den höheren Frequenzen die Kennlinie des Gehörs. Das Zueinander von einzelnen Formanten bei einem Vokal oder der Intensitätssprung vom Konsonanten zum Vokal erzeugen durch die unterschiedlichen Recruitmentkennlinien beim Schwerhörigen ein verändertes Erregungsmuster, das eine verfälschte Wahrnehmung von Sprache zur Folge hat. x Der Hörverlust wirkt als Tiefpassfilter; das meist tieffrequente Umgebungsgeräusch (z.B. Verkehrsgeräusch) wirkt besonders störend, da es den verbleibenden tieffrequenteren Sprachschall (< 1 kHz), den der Schwerhörige nur noch wahrnehmen kann, zusätzlich verdeckt. Tabelle 8.1.6.3-1. (S. 336 bis 8) Korrelationskoeffizienten r (Spalte 2) (bei den einzelnen Frequenzen (fi)) und multipler Korrelationskoeffizient R (für den Frequenzbereich (fa - fb)) zwischen dem Tonhörverlust (LHVT,fi) und den Kriterien der Sprachverständlichkeit; Kriterien der Sprachverständlichkeit (Spalte 4): Sprachhörverlust für Einsilber (LHVE in dB), Zahlwörter (LHVZ in dB), für Zweisilber (LHVZS in dB), für Sätze (LHVS in dB) und sinnlose Silben (LHVSi in dB), Diskriminationsverlust (DV in %), Sprachverständlichkeit für Einsilber (SVE in %), für Sätze (SVS in %) und sinnlose Silben (SVSi in %), Mithörschwelle (LHSS,N bei SV = 50 %), Sprachpegel (LS bei 50 %); Mittelwert (MW) der Ergebnisse der Kriterien (Spalte 5); die Anzahl der Personen (Spalte 6); der mittlere Tonhörverlust (LHVT, Spalte 7) bei den Frequenzen 0.5, 1, 2, 4 kHz und ggf. die Störbedingung/Randbedingungen (Spalte 3), bei der die Sprachverständlichkeit gemessen wurde; Autoren (Spalte 1); Normalhörende NH, Schwerhörige SH, Alter A;
2 .76
3 .52
65dB E
LHVZS
9dB
kHz
38 5
28 4
319 0.5
21
2
15
LHVT in dB
1
197 0.5
N
fi in
mittlerer Hörverlust
7
-
-
.15
.41 LS =
DV=100% SV(LS); -
al. 1962
4 Kryter et
R(1-3),(2-4)=.81(nur SH)
.75
.62
.55
-
.76
.62
.48
.59
.31
.60
.67
.36
.68
.80
.23
.65
.80
.48
.51
.27
.34
95dB S
-
.39 10 Störbed.
LSN = -3/5dB
.36 LS =
LSN = 0/10dB
95dB E
LSN = 0/10dB .40 LS =
15% 85% 20% 85% 40% 95% 10% 95%
SVE SVS SVE SVS SVS SVS SVE SVS
rade gehört werden
.47
LS:Pegel, wo E ge-
.44
.21
R(.5-1.5)=.91
.26
1957
.14
u. Bangs
3 Mullins
SH
4
2
162 1
NH 0.5
66
139
30
10
2
3
SH
27
.49
-
zahl
An-
6
4
.53
LHVE
MW
5
8
.62
.57
6/8
Kriterium
4
13
.79
4 .38
Randbedingungen
Störbedingung/
3
2
.86
R(1-4)=.87
1.5
f in kHz
R bei fa - fb
1957
.89
.74
.84
1
.81
0.5
r bei fi
1
-
.25
2
et al.
2 Quiggle
al. 1956
1 Harris et
Autoren
1
336 8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
.10
.14
.03 .16 .86 .81 .77 .46 .82 .59 .95 .91 .87
-
-
-
.51 .68 R(0.25-8)=.81 .58 .61 .61 R(0.25-8)=.87
.28
.62
.57
.39
.64
.63 .53 .41 .49 .67 .70 .54 .60 -
.34
.37
9 Tyler et al. 1980
.22 .50 .70 .59 .65 .63 .62 .76 .92 .84 .63
.33
.48
3 .09
R(0.5-4)=.78
.01 .39 -
.28
.44
f in kHz 1.5 2 .52 .34
-
.05 .24 .90 .72 .79 .56 .80 .59 .98 .93 .81
.17
.26
1 .32
.60
.71
.57 .49 .27 .49 .58 .55 .46 .54 .89 .79 .64
.32
.27
4 .10
R bei fa - fb
8 Lyregaard 1982
7 Carhart .92 u. Porter .69 1971 .67
6 Plath 1971
5 Harris 1965
0.5 .19
r bei fi
.25 -
1 2 Autoren
A1 (27J): LHZV DV A2 (41J): LHZV DV A3 (56J): LHZV DV LHVZS
SVS bei LS=LHVZS+40dB
4 Kriterium
SVW
SVE
SR LHSS,N bei LSN= 4 - 12dB, NH SVSi 50% LSN=-2 - 6dB, SH
.54 LS = 96dB LNA = 67dB, SG .60 LS = 98dB LNA = 78dB, SR
-
6/8 - normale Sprache (250 Wörter(Min)) - beschl. Sprache (350 Wörter(Min)) - unterbrochene Sprache mit 8 Hz - Nachhall T05s - 4 Störbed. zusamm. - S1 - S2 S3
3 Störbedingung/ Randbedingungen
0.5 360 1 2 326 4
64
A1 23 28 42 60 S1 35 34 34 38
A2 29 24 49 69 S2 34 40 49 61 -5 - 55 -5 - 70 0 - 70 0 - 75 10 10 20 45
A3 41 48 65 78 S3 28 44 61 77
6 7 An- mittlerer Hörverlust zahl fi in LHVT in dB N kHz 52 0.5 4 1 10 2 20 4 60
3x 0.5 100 1 2 4 -8dB 56 0.5 bis 1 19dB 2 4 74% 10 0.5 NH 1 75% 12 2 SH 4
21% 16dB 16% 22dB 15% 37dB 32% 32dB 37dB 36dB
38%
61%
-
5 MW
8.1 Schwerhörigkeit: Entwicklung, Bewertung 337
12 Bertoli et al. 1996
11 Bosman u. Smoorenburg 1995
10 Gelfand et al. 1986
0.5 .20 .38 .17
1 .46 .32 .12
r bei fi
.43 .49 .40 .71 .84 .87 -.10 .27 .54 .75 .12 .22 R(.5,1,2)=.67
R(.5,1,2)
.25 .14 .38 .18
1 2 Autoren
.26 .19 .20 .39 .34 .42 .04 .27 .60 .77 .33 .60
R(2,4)
f in kHz 1.5 2 .19 .13 .01 -
3 Störbedingung/ Randbedingungen
Geräusch: LN = 70 bis 85 dB Sätze
LNA = 76 dB
LSNA für 50% LNA = 60dB, SR LNA = 60dB
LSA für 50% Ruhe
6/8 .45 Ruhe .62 LSNA = 10 dB .50 LSNA = 5 dB
R(.125-8)
4 .35 .40 .32
.64 .60 .64 .80 .98 .96 .78 .56 .81 .87 .65 .82 R(4,6,8)=.40
3 -
R bei fa - fb
NH: SVSi NH: SVS SHL: SVSi SHL: SVS SHA: SVSi SHA: SVS NH: SVSi NH: SVS SHL: SVSi SHL: SVS SHA: SVSi SHA: SVS Baseler Satztest LHSS,N (50%)
SV(SVSi) (NST) 5 Altersgruppen 20-70 J.
4 Kriterium
6 7 An- mittlerer Hörverlust LHVT in dB zahl fi in kHz N 0.6 – 9.4 70% 64 0.5 0.3 – 10.3 1 bis 0.0 – 8.5 2 90% 4 1.9 – 18.0 NH SHL SHA 3x20 5 40 0.5 0 10 45 1 5 22dB 20 58 2 0 16dB 55 62 4 0 33dB SHL: Lärm-SH 24dB SHA: Alters-SH 66dB Alter: 61-88 J. 53dB -1.7dB -5.5dB 2.6dB -1.6dB 4.1dB 1.4dB 25 -2dB 201 .5-2 4-8 62 bis Alter: 60-99 J. 34dB
5 MW
338 8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.1 Schwerhörigkeit: Entwicklung, Bewertung
339
8.1.6.4 Prozentualer Hörverlust (HVP) und Tonaudiogramm
Frequenzauswahl, –gewichtung des Tonhörverlustes, Einstufung der Schwerhörigkeit anhand des HVP Die Bestimmung der Erschwernis, die durch die Schwerhörigkeit bedingt wird, wird anhand des prozentualen Hörverlustes (HVP) vorgenommen. Die Erschwernis soll die reduzierte Möglichkeit und Fähigkeit mit Sprache zu kommunizieren bewerten. Die allgemeine Wahrnehmung von Schall – wie die zur Orientierung, zur Sicherheit und zum Genuss (Musik) – spielt nur eine untergeordnete Rolle. Da Sprachaudiogramme ihre eigene Problematik besitzen (welche Sprache wird zur Beurteilung herangezogen, welche Sprachkompetenz muss der Hörer besitzen (Zweitsprachler)), hat man versucht, den prozentualen Hörverlust (HVP) aus dem Tonaudiogramm abzuleiten. Dazu wurden die Gewichtskoeffizienten (bi; Tab. 8.1.6.4-1) bestimmt, mit denen aus dem Tonhörverlust (LHVT, f) als gewichtetem Mittelwert der prozentuale Hörverlust (HVP = 0–100 %) geschätzt werden kann (Gl. 8.1.6.4-1):
HVP
¦b L i
HVT , fi
.
(8.1.6.4-1)
i
Fletcher hatte bereits 1929 vorgeschlagen, mit Hilfe des Mittelwertes des Tonhörverlustes bei den Frequenzen 0.5/1/2 kHz das Ausmaß der Sprachverständlichkeit vorherzusagen. 1942 entwickelte Sabine eine Methode, mit der man den Verlust der Sprachverständlichkeit mit Hilfe eines Tonaudiogramms vorhersagen kann. Er teilte das für den Hörbereich wichtige Frequenzspektrum in 6 Oktaven (fi = 0.125–4 kHz) und den Pegelbereich in 10 Stufen ein. Aus der Anzahl der Oktavfrequenzen und Pegelstufen, in denen entsprechend des Tonaudiogramms keine Wahrnehmungen registriert wurden, wird der prozentuale Hörverlust geschätzt. Ein ähnliches Verfahren entwickelte Fowler (1941, 1942). Er gewichtete den bei den Frequenzen 0.5/1/2/3/4 kHz auftretenden Hörverlust, wobei zusätzlich der von einem Hörverlust abhängige Lautheitsausgleich (Recruitment) berücksichtigt wurde. Aus dem so gewichteten Tonaudiogramm bzw. Tonhörverlust kann der prozentuale Hörverlust prognostiziert werden (Tab. 8.1.6.4-1). Aus dem Vorhersageverfahren von Sabine und Fowler wurde von der American Medical Association (Carter 1947) ein Kompromissverfahren erstellt. Es wurde eine vom Hörverlust unabhängige Gewichtung für die Frequenzen 0.5/1/2/4 kHz eingeführt und von diesen Werten ausgehend der prozentuale Hörverlust vorhergesagt. Etwa 1950/53 entwickelte Carter aufgrund des Lautheitskonzepts eine Methode zur Vorhersage der Sprachverständlichkeit auf Basis von Tonhörverlusten (0.25 bis 4 kHz, 8 kHz).
340
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Tabelle 8.1.6.4-1. Gewichtsfaktoren bi(fi) zur Abschätzung des prozentualen Hörverlustes (HVP) aus den Tonhörverlusten (LHVT,fi) bei den einzelnen Frequenzen wie sie Autoren oder Normen vorgeben; die Gewichtsfaktoren sind teilweise von der Höhe des Tonhörverlustes abhängig. Sie werden nur für den Bereich von Tonhörverlusten mittleren Umfangs angegeben und gelten auch hier nur näherungsweise. Teilweise ist auch der Beginn der Schwerhörigkeit (SH) angegeben Autor
Gewichtsfaktoren für die Freq. f in kHz
0.25 1 Fletcher 1929 2 Fowler 1941 3 Fowler 1942 4 Carter 1947 5 Fletcher 1953 0.37 6 Lierle 1959 7 Kryter et al. 1962 8 Harris 1965 9 Kryter 1973 10 Röser 1973 (4) 11 Röser 1973 (2) 12 Alberti et al. 1976 13 Plundrich 1979 14 Röser 1980 (3) 15 ISO 1999 1990 -
0.5 0.33 0.15 0.15 0.15 0.13 0.33 0.20 0.25 0.60 0.25 0.20 -
1 0.33 0.25 0.30 0.30 0.25 0.33 0.33 0.33 0.33 0.35 0.65 0.33 0.25 0.20 0.20 0.25 0.25 0.40 -
2 0.33 0.30 0.40 0.40 0.30 0.33 0.33 0.33 0.33 0.30 0.33 0.20 0.20 0.25 0.25 0.50 0.30 0.50 0.33
3 0.25 0.33 0.33 0.33 0.35 0.33 0.25 0.20
SH ISO LHVT 1999 in dB x
4 6 0.15 0.15 0.15 0.23 25.0 25.0 0.15 40.5 0.20 0.20
0.25 0.25 0.25 0.5 0.10 0.50 0.33 0.33
-
x x x
x x x x x x x
Harris et al. (1956), Mullins u. Bangs (1957) und Quiggle et al. (1957) versuchten mit Hilfe der multiplen Regression eine Vorhersage über den Sprachverlust aufgrund des Tonaudiogramms vorzunehmen. Harris et al. haben in dieser Arbeit die Güte der Vorhersage der Sprachverständlichkeit anhand der Tonaudiogramme nach verschiedenen Verfahren abgeschätzt. Zu diesem Zweck erhoben sie von Personen das Tonaudiogramm und das Sprachaudiogramm von Einsilbern (PB–Wörter) und verglichen den gemessenen Sprachhörverlust mit den aus dem Tonaudiogramm – entsprechend der Literatur – errechneten prognostischen Werten. Es zeigte sich, dass je nach dem verwendeten Verfahren die mittlere Differenz zwischen dem Vorhersagewert und dem gemessenen Sprachverständlichkeitswert um -5 dB bis -10 dB zu klein war. Eine Kombination des einfachen Mittelwertes bei den Frequenzen f = 0.5/1/2 kHz und den
8.1 Schwerhörigkeit: Entwicklung, Bewertung
341
gewichteten Mittelwerten nach Harris et al. (1956) mit den Gewichtskoeffizienten nach dem Verfahren der multiplen Regression (f = 0.5–6 kHz) ergibt die beste Vorhersage. Einige der bis in die Mitte der 50er Jahre durchgeführten Untersuchungen (Carhart 1946; Fletcher 1950; Harris et al. 1956; Quiggle et al. 1957) erbrachten eine Vereinfachung der bis dahin gültigen Berechnung des prozentualen Hörverlustes: hierbei wird der prozentuale Hörverlust nur noch durch den Mittelwert aus dem Tonhörverlust bei 0.5/1/2 kHz bestimmt (Lierle 1959). Ist dieser Wert kleiner als 25 dB, wird angenommen, dass keine Beeinträchtigung der Wahrnehmung von Sprache in ruhiger Umgebung vorliegt, d.h. Sprachverständlichkeit in alltäglichen Bedingungen gewährleistet ist. In den hier zitierten Untersuchungen steht der Sprachhörverlust für Zweisilber oder teilweise auch für Einsilber als Kriterium für die Sprachverständlichkeit im Vordergrund. Da in erster Linie der Verlust des Sprachgehörs beurteilt werden soll, wird das Kriterium zur Bewertung des Gehörs aus den gewichteten Mittelwerten der Tonhörverluste bestimmt, gemessen bei den Frequenzen f = 0.5–6 kHz (Tab. 8.1.6.4-1). Aus diesen gewichteten Mittelwerten der Tonhörverluste wird der prozentuale Hörverlust bestimmt, der auch international zur Einschätzung der Erschwerung (Handicap) der Sprachverständigung benutzt wird (ISO 1999, 1990). Das Kriterium für die Bewertung des gemessenen Tonhörverlustes ist in den verschiedenen Ländern recht unterschiedlich. In den USA (Lierle 1959) wird der Mittelwert des Tonhörverlustes bei den Frequenzen 0.5/1/2 kHz, in Kanada der Mittelwert bei den Frequenzen 0.5/1/2/3 kHz und in Großbritannien der Mittelwert bei den Frequenzen 1/2/3 kHz benutzt (Alberti et al. 1976). Die Umrechnung dieser Kriterien in den prozentualen Hörverlust (HVP) kann nur näherungsweise angegeben werden. Die Kriterien, die zur Beurteilung Schwerhöriger in den USA, Großbritannien und auch von Kryter herangezogen werden, unterscheiden sich von denen, die von Plundrich und Röser erarbeitet worden sind. Die ersteren trennen ab einem bestimmten Wert des Tonhörverlustes die Normalhörenden von den Schwerhörigen, wobei nur die Schwerhörigen nach ihrem prozentualen Hörverlust von 0–100 % aufgeteilt werden. In der Bundesrepublik (Röser) wird dagegen ein prozentualer Hörverlust von HVP = 0–20 % den Normalhörenden und von HVP = 20–100 % den Schwerhörigen zugeschrieben. Das in den USA (Lierle) benutzte Kriterium (LHVT0,5/1/2) beginnt bei 25 dB; eine Schwerhörigkeit von HVP = 100 % wird erst bei einem Hörverlust von 93 dB erreicht. Dieses Kriterium, das relativ hohe Tonhörverluste zulässt, hat einen geringen Anstieg von 1.2%/dB.
342
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Die Kurven von Kryter, Röser und Alberti weisen einen Anstieg von 1.8%/dB auf. Röser hat, da die Bestimmung des prozentualen Hörverlustes (HVP) aus dem Sprachaudiogramm (LHVZ, GW) und aus dem Tonhörverlust nicht gut übereinstimmen, 1980 neue Tabellen für die Bestimmung des prozentualen Hörverlustes aus dem Tonaudiogramm (LHVT bei 1/2+3 kHz) vorgelegt. Man erhält nach diesen einen im Mittel um 10–15 % niedrigeren prozentualen Hörverlust. Die Einführung des mittleren Tonhörverlustes bei den Frequenzen f = 0.5/1/2 (LHVT0.5/1/2 > 25 dB) als Kriterium für eine Schwerhörigkeit (USA, Lierle 1959, ISO 1999) hat zu umfangreichen Diskussionen geführt (Kryter 1963, 1973; Harris 1965; Eldredge 1976; Gierke u. Johnson 1976; Suter 1980). Kryter hat 1973 aufgrund von Untersuchungen vorgeschlagen, den Mittelwert bei f = 1/2/3 kHz als Kriterium zu benutzen. Er hat die Steilheit seines Kriteriums (1.8 %/dB) aus Berechnungen des Artikulationsindex (AI), bei dem die Hörschwelle berücksichtigt wurde, gewonnen. Suter (1980) konnte zeigen, dass bei Umgebungsgeräuschen (Signal–Geräuschabstand LSNA = 0 bis -6 dB) die Sprachverständlichkeit von Personen mit mittlerem Hörverlust von LHVT0.5/1/2 = 10–18 dB ( L HVT 4 = 57 dB) gegenüber Personen mit einem Hörverlust von LHVT0.5/1/2 d 8 dB ( L HVT 4 < 8 dB, LHVTf < 20 dB) signifikant höher war. Mit dem mittleren Hörverlust bei den Frequenzen f = 1/2/4 kHz lässt sich nach Suter der Verlust an Sprachverständlichkeit gültiger vorhersagen als mit dem mittleren Hörverlust bei den Frequenzen f = 0.5/1/2 kHz. Sie schlägt vor, als Kriterium zur Bewertung des Sprachgehörs diesen mittleren Tonhörverlust (LHVT1/2/4) zu benutzen. Personen, die einen mittleren Hörverlust von LHVT1/2/4 < 22 dB aufweisen, sollten als normalhörend bezeichnet werden. Dieser Vorschlag stimmt mit dem von Kryter (1973) recht gut überein. Nach Smoorenburg et al. (1982) führt ein Tonhörverlust von LHVT > 15 dB zu einem erkennbaren Sprachhörverlust unter Lärm. Da der prozentuale Hörverlust die Erschwernis bei der alltäglichen Sprachverständigung, die die Verständigung von schwierigem Sprachmaterial auch unter Störbedingungen einschließt, angemessen abbilden und auch in gewissem Umfang die Wahrnehmung akustischer Signale berücksichtigen soll, ist es sinnvoll,
x als Kriterium den mittleren Hörverlust von LHVT0.5/1/2/4 | LHVT1/2/3 zu benutzen, x die Grenze zwischen Normalhörenden und geringgradig Schwerhörigen (HVP = 10–20 %) bei dem mittleren Hörverlust von LHVT0.5/1/2/4 = 15–20 dB anzusetzen,
8.1 Schwerhörigkeit: Entwicklung, Bewertung
343
x und die Zunahme des prozentualen Hörverlustes mit dem Anstieg des Tonhörverlustes von 1.8%/dB anzunehmen. Aus diesem Vorschlag lässt sich ableiten, dass dem mittleren Hörverlust von LHVT0.5/1/2/4 = 15/20/25 dB ein prozentualer Hörverlust von HVP = 10/15/20 % entspricht, und als Beziehung zwischen dem prozentualen Hörverlust (HVP) und dem mittleren Tonhörverlust (LHVT0.5-4) die Kriterien von Kryter (1973) oder evtl. auch die von Röser (1973) zu benutzen sind. Auch die Annahme, dass ein Tonhörverlust von LHVT > 40 dB zu einem prozentualen Hörverlust von HVP = 15% und mehr führen kann (Lehnhardt 1978, 1996), bzw. dass ein Tonhörverlust bei den Frequenzen f = 1, 2, 3 kHz, der den Wert LHVT,f > 15, 30 oder 40 dB übersteigt, einen prozentualen Hörverlust von HVP = 20 % ergibt (Feldmann 2001), unterstützt die Benutzung der Umrechnung des Tonhörverlustes in den prozentualen Hörverlust nach der Kurve von Kryter und Röser (1973). Ein Tonhörverlust von LHVT3 = 40 dB ist bei einem entsprechenden Audiogramm (LHVT(bei1/2/3 kHz) = 15/30/40 dB) gleich dem mittleren Tonhörverlust von LHVT1/2/3 = 28 dB. Wird dieses Audiogramm (LHVT (bei 1/2/3 kHz) = 15/30/40 dB) als Grenzkurve (Feldmann 2001) benutzt, so liegt der mittlere Hörverlust, gebildet über diese 3 Frequenzen, um etwa 3 dB niedriger: bei LHVT1/2/3 | 25 dB. Das Kriterium für eine nicht unwesentliche Schwerhörigkeit, die versicherungsrechtlich eine erhebliche Hörminderung darstellt, nämlich das Übersteigen des Tonhörverlustes bei einer der Frequenzen von f = 1, 2 oder 3 kHz von LHVT,f > 15, 30 oder 40 dB (Westermann 1996; Feldmann 1998, 2001), das mit einem prozentualen Hörverlust von HVP = 20 % und einem MdE = 10 % verbunden ist, entspricht etwa dem höchsten Wert des o.g. Vorschlages (LHVT0.5-4= 25 dB: HVP = 20 %). Aber auch bei niedrigeren Tonhörverlusten treten deutliche Hörminderungen vor allem unter Störbedingungen auf, so dass auch unterhalb einer versicherungsrechtlichen Bedeutung einer Hörminderung die Entwicklung eines Kriteriums, wie oben vorgeschlagen, für die Erkennung und Beurteilung einer Schwerhörigkeit anhand des Tonhörverlustes notwendig ist. Festzuhalten ist: zur Abschätzung eines Grenzwertes für die Beschränkung der Geräuschimmission ist der mittlere Tonhörverlust über die Frequenzen f = 0.5/1/2/4 oder auch f = 1/2/3 kHz heranzuziehen. Begrenzt man den Beurteilungspegel (LAr) über 8 Stunden auf LAr ŭ 80–85 dB, so kann man davon ausgehen, dass die betroffenen Personen keinen wesentlichen durch Lärm verursachten Gehörschaden erhalten, der das Verstehen von Sprache erkennbar beeinträchtigt.
344
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.1.6.5 Minderung der Erwerbstätigkeit
MdE; geringgradige, mittelgradige, hochgradige Schwerhörigkeit Ein Hörverlust hat gravierende Folgen für den einzelnen Betroffenen, nicht nur in seinem Wohlbefinden, seiner räumlichen und sozialen Orientierung in der Umwelt, sondern auch für seine Erwerbstätigkeit. Damit verbunden sind auch versicherungstechnische Aspekte, wie die Ermittlung der Minderung der Erwerbstätigkeit bzw. die Anerkennung als Berufskrankheit. Die in der Bundesrepublik etablierten Verfahren zur Ermittlung der Minderung der Sprachverständlichkeit durch Schwerhörigkeit sind das Sprachaudiogramm (LHVZ, GW) und u.U. das Tonaudiogramm (LHVT). Das Ausmaß des Verlustes an Sprachverständlichkeit wird als prozentualer Hörverlust (HVP) angegeben. Er wird in der Bundesrepublik aus dem Hörverlust für Zahlwörter (LHVZ) und dem Gesamtwortverstehen (GW) gewonnen (Boenninghaus u. Röser 1973; Feldmann 2001; s.a. Abschn. 8.1.6.2). In Tabelle 8.1.6.5-1 (Spalten 1 und 2) ist die Einteilung des prozentualen Hörverlustes (Feldmann 2001) angegeben. Der prozentuale Hörverlust wird für jedes Ohr einzeln bestimmt und unter Berücksichtigung des prozentualen Hörverlustes beider Ohren die Minderung der Erwerbstätigkeit (MdE) von Lärmschwerhörigen aus einer Tabelle (Feldmann 2001) bestimmt. Haben beide Ohren – wie es bei der Lärmschwerhörigkeit in der Regel der Fall ist – den gleichen prozentualen Hörverlust (symmetrischer Hörverlust), so kann aus diesen die Minderung der Erwerbstätigkeit auf einfachere Weise bestimmt werden (Spalte 3). Problematisch sind vor allem die Übergangsbereiche normalhörend/geringgradig und geringgradig/mittelgradig (annähernd normal HVP = 10 %, annähernd geringgradig 20 %, mittelgradig 30 %, gering– bis mittelgradig 40 %). Inzwischen ist eine allgemein akzeptierte Formulierung bei symmetrischem Hörverlust für den Grad der Schwerhörigkeit und dem HVP entwickelt worden (Brusis u. Mehrtens 1981, s. Tab. 8.1.6.5-3). Um die Verbindung zum Tonhörverlust und der Sprachverständlichkeit zu verdeutlichen, sei hier ein Vorschlag von Lehnhardt (1978, 1996) und Plath (1981) aufgeführt (Tab. 8.1.6.5-2). Dort werden etwas differenziertere Angaben zur geringgradigen Schwerhörigkeit gemacht. Nach Lehnhardt kann der HVP auch direkt aus den Tonhörverlusten bei 1, 2 und 3 kHz (Spalte 3) und der Sprachverständlichkeit für Einsilber (Spalte 4) bestimmt werden. Den Kriterien für den Tonhörverlust liegt zugrunde, dass der Tonhörverlust
x durch eine hohe Geräuschexposition (hoher Geräuschpegel, Dauer der Geräuscheinwirkung) bedingt ist,
8.1 Schwerhörigkeit: Entwicklung, Bewertung
345
x sich von den höheren Frequenzen (4–6 kHz) zu den mittleren und tieferen Frequenzen hin ausbreitet und x in seinem Wert zunimmt. Tabelle 8.1.6.5-1. Schwerhörigkeitsgrade und der entsprechende prozentuale Hörverlust (HVP) nach dem Grad der Schwerhörigkeit für jeweils ein Ohr sowie die Minderung der Erwerbstätigkeit (MdE), wenn beidseitig der gleiche Schwerhörigkeitsgrad bzw. der gleiche prozentuale Hörverlust vorliegt (Feldmann 2001) 1 Grad der Schwerhörigkeit für jeweils ein Ohr Normalhörigkeit geringgradige Schwerhörigkeit mittelgradige Schwerhörigkeit hochgradige Schwerhörigkeit an Taubheit grenzende Schwerhörigkeit Taubheit
2 HVP in % 0–20 20–40 40–60 60–80 80–95 100
3 beidseitige Schwerhörigkeit MdE in % 10–20 20–40 40–60 60–80 80
Tabelle 8.1.6.5-2. Prozentualer Hörverlust (HVP) und Grad der Schwerhörigkeit (Spalte 1, 2) und die Bestimmung des HVP direkt aus dem Tonhörverlust und der Sprachverständlichkeit (SV, Spalte 2, 3, 4) (Lehnhardt 1978, 1996). Für die HVP– Bereiche bis 60 % muss der Tonhörverlust (LHVT) bei den Frequenzen 3/2/1 kHz 40 dB übersteigen und die SV für Einsilber (SVE) bei einem Sprachpegel am Ohr von LS/LSA = 65/62 dB bei SVE = 100–70 / 70–30 / 30–10 % liegen 1 Grad der Schwerhörigkeit Normalhörigkeit geringgradige Schwerhörigkeit mittelgradige Schwerhörigkeit hochgradige Schwerhörigkeit an Taubheit grenzende Schwerhörigkeit Taubheit
2 3 4 HVP in % LHVT >40 dB SVE in % 0–15 100 15–30 3 kHz > 70 30–45 2 kHz 30–70 45–60 1 kHz < 30 60–80 80–95 100
Auf die individuelle Beurteilung des Sprachverständlichkeitsverlustes von schwerhörigen Personen sowie auf die Begutachtung der Schwerhörigkeit und die Festlegung der Minderung der Erwerbstätigkeit von Lärmarbeitern, die auch eine Reihe versicherungstechnischer und sehr differenzierter medizinischer Fragestellungen einschließt, wird in diesen Ausführungen nicht eingegangen; Brusis (1978), Lehnhardt u. Plath (1981), Dieroff (1994), Brusis (1996) und Feldmann (2001) diskutierten diesen Problembereich ausführlich.
346
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Tabelle 8.1.6.5-3. Schwerhörigkeitsgrad bei symmetrischer Schwerhörigkeit und dazugehörigem HVP und MdE 1 Grad der Schwerhörigkeit Normalhörigkeit beginnende Schwerhörigkeit knapp geringgradige Schwerhörigkeit geringgradige Schwerhörigkeit gering– bis mittelgradige Schwerhörigkeit knapp mittelgradige Schwerhörigkeit mittelgradige Schwerhörigkeit mittel– bis hochgradige Schwerhörigkeit etc.
2 HVP in % 0 < 20 20 30 40 45 50 60 etc.
3 MdE in % 0 < 10 10 15 20 25 30 40 etc.
In der Bundesrepublik wird eine Lärmschwerhörigkeit dann als Berufskrankheit anerkannt, wenn eine Minderung der Erwerbstätigkeit von MdE Ů 10 % vorliegt. Entschädigungspflichtig ist eine Lärmschwerhörigkeit ab einer MdE von 20 %, d.h. wenn die Schwerhörigkeit gering bis mittelgradig (HVP = 40 %) ausgeprägt ist. Eine Minderung der Erwerbstätigkeit von 10 %, d.h. eine eben geringgradige, lärmbedingte Schwerhörigkeit (HVP = 20 %), ist nur dann entschädigungspflichtig, wenn die Person zusätzlich noch einen anderen Körperschaden aufweist, der ebenfalls eine Minderung der Erwerbstätigkeit auslöst. Diese Ausführungen machen deutlich, dass schon ein recht erheblicher Tonhörverlust (ein Tonhörverlust von mindestens LHVT2 > 40 dB oder auch von LHVT3 > 40 dB) festgestellt werden muss, damit eine lärmbedingte Berufskrankheit anerkannt werden kann. Unabhängig von der Anerkennung als Berufskrankheit bleibt festzuhalten, dass Beeinträchtigungen der Kommunikation aufgrund eines Hörverlustes schon weit vor einer MdE auftreten. 8.1.7 Vergleich Schwerhörigkeit – Fehlsichtigkeit Schon eine gering– oder mittelgradige Schwerhörigkeit hat erhebliche Auswirkungen auf die soziale Interaktion und wird so für alle Beteiligten zu einer komplexen Herausforderung. Anders als bei einer auch schwach ausgeprägten Fehlsichtigkeit, die vergleichsweise einfach mit Kontaktlinsen oder einer Brille ausgeglichen werden kann, sind die Folgen für Betroffene und Beteiligte erheblich problematischer. Dies wird offenkundig, wenn man die Analogie zwischen Fehlsichtigkeit und Schwerhörigkeit weiter zieht:
8.1 Schwerhörigkeit: Entwicklung, Bewertung
347
x In das Auge fällt auf die Netzhaut ausreichend Lichtenergie, das Bild ist aber unscharf, die Fehlsichtigkeit (Weit–, Nah–, Alterssichtigkeit) kann mit einer Brille ausgeglichen werden: das Bild ist wieder scharf. x Beim schwerhörigen Ohr (Schallempfindungsschwerhörige: Alters– und Lärmschwerhörige) kommt vor allem zu wenig und (in Amplitude und Frequenz) verzerrte Schallenergie zum Hörnerv. Um richtig wahrnehmen zu können, muss einerseits je nach Frequenz 20–60 dB mehr Schallenergie (d.h. 102 bis 106 mehr Energie) vorhanden sein, andererseits muss das natürliche Eingangssignal je nach Frequenzlage der Hörschwelle und Unbehaglichkeitsschwelle so entzerrt werden, dass der Schwerhörige es als natürlich empfindet und wahrnehmen sowie verstehen kann. Dafür müsste dem Schwerhörigen bei jedem Pegel (Amplitude) eine andere frequenzabhängige Verstärkung angeboten werden. Die reine Verstärkung kann ein Hörgerät übernehmen, aber die Transformation des akustischen Eingangssignals an ein geschädigtes individuelles Gehör ist nur begrenzt möglich, denn es müssen Frequenz– und Intensitätsmuster (gesprochene Sprache) mit einer großen Dynamik im Pegel (30–40 dB) und in der Frequenz (4–8 kHz) im Bereich von Millisekunden transformiert und dem Gehör angeboten werden. So kann die „Schwerhörigkeit“ zwar in Maßen reduziert werden, es bleibt aber die eingeschlossene „Fehlhörigkeit“. x Eine Brille ist heutzutage ein modisches Accessoire, ein Hörgerät macht seinen Träger – in seiner und/oder der Wahrnehmung anderer – zu einer Person mit einer Behinderung. x Eine Brille ist ein Produkt, das präzise und relativ einfach hergestellt und angepasst werden kann. Ein Hörgerät ist ein komplexes elektronisches Gerät (mit Mikroprozessor) zur Optimierung defizitärer Hörvorgänge. x Das Aufsetzen einer Brille lässt den Träger spontan die Verbesserung erkennen, das Tragen eines Hörgerätes erfordert, Hören neu zu lernen, nachdem man sich an ein „gedämpftes“ akustisches Umfeld gewöhnt hat, in dem die meisten Leute anscheinend immer „nuscheln“ oder „zu leise“ reden. x Ein Fehlsichtiger ist als solcher erkennbar und seine Reaktion durch andere einschätzbar; ein Schwerhöriger ist nicht als ein solcher erkennbar (auch nicht, wenn die Hörgeräte sichtbar sind), im Gegenteil: er erscheint den anderen ggf. als asozial und debil, denn er antwortet nicht, falsch oder sinnentstellend auf Anreden und Fragen, die man ihm stellt. x „Verschwommenes Sehen“ – durch Absetzen der Brille – beeinträchtigt in aller Regel die Kommunikation wenig oder gar nicht.
348
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Wie dargestellt wurde, sind die Folgen einer eingeschränkten Hörfähigkeit erheblich, weil vor allem die Kommunikation mit anderen beeinträchtigt wird. Dies hat Konsequenzen für die sozialen Beziehungen in der Familie und am Arbeitsplatz. Die Tatsache, dass es Schwerhörigen unter erheblichen Anstrengungen zeitweise gelingt, mindestens partiell ihr Defizit auszugleichen, kann zu der fälschlichen Annahme verleiten, dass Schwerhörigkeit „volitiv“ sei („wenn man will, kann man hören“). Auch dies macht die sozialen Beziehungen nicht einfacher. Ebenso verleitet die Tabuisierung der Störung dazu, in ungeeigneter Weise mit den Problemen umzugehen. In Zeiten, in denen gerade auch an lärmigen Arbeitsplätzen in der Produktion die Notwendigkeit zur Kommunikation zunimmt, ist ein offener Umgang mit der Schwerhörigkeit erforderlich, also
x Schwerhörigkeit als Problem anerkennen; x mit allen Beteiligten Strategien zur Optimierung der Kommunikation entwickeln; x Schwerhörige an der Kommunikation beteiligen durch klares, deutliches, lautes, nacheinander Reden; x Räume und Umgebung so gestalten, das Schwerhörige integriert werden und an der Kommunikation teilnehmen können (s. Abschn. 8.2); x Medien können durch hohe Störabstände (Sprache – Geräusch, Sprache – Musik) und deutliche Artikulation einen Beitrag leisten; x Toleranz bei Nicht–Verstehen und sozialen Rückzug verhindern (s. Abschn. 8.3). 8.1.8 Alters– und Lärmschwerhörigkeit im Überblick
x Schwerhörigkeit kann u.a. durch biologische Faktoren, Schädelverletzungen und Entzündungen bedingt sein, im Alter auftreten und vor allem aber durch hohe Geräuschintensitäten verursacht werden. x Im allgemeinen kann man drei typische Formen der Schwerhörigkeit unterscheiden: die Schwerhörigkeit aufgrund von Schädigungen der Haarzellen im Innenohr (Schallempfindungsschwerhörigkeit, wie Lärmschwerhörigkeit und altersbegleitende Schwerhörigkeit), die Schallleitungsschwerhörigkeit, die durch Übertragungsdefizite im Mittelohr zustande kommt, und die zentralen Hörschäden aufgrund von Schäden des Hörnervs und/oder beteiligter Hirnareale. x Der Hörverlust kann mit einem Ton– oder einem Sprachaudiogramm erhoben werden. Bei einem Tonaudiogramm wird der Hörverlust für bestimmte Frequenzen ermittelt. Im Sprachaudiogramm wird das Ausmaß der Schwerhörigkeit bezüglich des Sprachgehörs dargestellt. Es ist eine
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen
x x
x
x
x
x
x
349
Reihe unterschiedlicher Verfahren für verschiedene Zwecke entwickelt worden, dabei bedient man sich verschiedener Sprachmaterialien (Einsilber, Sätze, sinnlose/–volle Silben, Reime etc.) und Aufgabenvorgaben (korrekte Wiedergabe ganzer Sätze, kritischer Wörter o.ä.). Problematisch ist, dass die sprachliche Kompetenz des Untersuchten (z.B. Zweitsprache) die Ergebnisse beeinflussen kann. Man geht davon aus, dass in der Bundesrepublik 5–10 % der Arbeitnehmer bei Geräuschimmissionen über 85 dB beschäftigt sind. Als Kriterium für die Geräuschimmission wird der Beurteilungspegel (LAr) für eine Arbeitsschicht, das heißt, der äquivalente Dauerschallpegel (LAeq,8h), angegeben, bei impulshaltigen Geräuschen kann eine Impulskorrektur (KI) hinzugefügt werden (DIN 45645–2). Es wird ein Grenzwert (Beurteilungspegel) von LAr = 85 dB angegeben, ab dem ein Schutz des Gehörs u.a. durch Lärmminderung, bzw. entsprechende Programme, Geräuschmessungen, Vorsorgeuntersuchungen und Tragen von Gehörschutz vorgeschrieben ist. Die Erschwernis (Handicap), die durch Schwerhörigkeit entsteht, wird durch den prozentualen Hörverlust (HVP) gegeben. Er ergibt sich in Deutschland aus dem Gesamtwortverstehen (SV für Einsilber) und dem Hörverlust für Zahlworte. Die Sprachverständlichkeit in Ruhe lässt sich durch den Tonhörverlust bei den Frequenzen 0.5/1/2 kHz vorhersagen; die Sprachverständlichkeit unter Störbedingungen (Geräusche) lässt sich durch den Tonhörverlust bei den Frequenzen 2/4 kHz prognostizieren. Als Kriterium zur Bewertung des Sprachverstehens mit Hilfe des Tonhörverlustes ist der Mittelwert der Tonhörverluste bei 1, 2, 3 kHz oder 0.5, 1, 2, 4 kHz zweckmäßig. Ein relevanter Hörverlust liegt vor, wenn der Tonhörverlust LHVT bei den Frequenzen 1/2/3 kHz die Werte 15/30/40 dB übersteigt. In der Regel wird auch nur der Wert bei 3 kHz herangezogen.
350
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen 8.2.1 Vorbemerkung, Einführung Eingeschränktes Hörvermögen in Gesprächssituationen, Art der Störungen, Gestaltungsziele, Grundsätze zur Analyse der Untersuchungen Zur Teilnahme am sozialen Leben (Familie, Arbeit, Freizeit, Öffentlichkeit) gehört auch die Fähigkeit und Möglichkeit zur sprachlichen Kommunikation mit seinen Mitmenschen. Für Personen mit einem eingeschränkten Hörvermögen (Schwerhörigkeit) kann – je nach Ausmaß der Schwerhörigkeit – auch die sprachliche Kommunikation und insofern auch die Teilnahme an der psychosozialen Interaktion beträchtlich eingeschränkt sein. Man weiß heute recht gut, wie viele Personen mit Defiziten beim Hören es gibt – auch für die entsprechenden Altersklassen (Abschn. 8.1.4, 8.1.5). Personen mit Körperschäden und reduzierten geistigen und körperlichen Fähigkeiten werden als Personen mit körperlichen Behinderungen oder Leistungseinschränkungen eingestuft (MdE, GdB) und erhalten technische Geräte und Ausstattungen, um ihnen eine Teilnahme am sozialen Leben zu ermöglichen. Für Personen mit Hördefiziten gilt das in entsprechender Weise (Abschn. 8.1.6.5; Feldmann 2001). In bestimmten Fällen gibt es auch Entschädigungen für die zu ertragenden Defizite (Feldmann 2001). Bei einem entsprechenden Ausmaß der Hörverluste sollen ein oder zwei Hörgerät(e) getragen werden. In dieser Betrachtungsweise werden einerseits die Defizite von Personen analysiert, bewertet, sowie beurteilt, und andererseits mit Hilfe technischer Geräte soweit möglich kompensiert. Auf dem Weg, leistungseingeschränkte Personen zu integrieren, bleibt aber die Umgebung, in der die Personen agieren, und insofern auch deren Gestaltung unberücksichtigt. Wenn der Personenkreis mit Defiziten am sozialen Leben gleichberechtigt teilnehmen soll, was auch verfassungsrechtlicher Anspruch ist, muss nicht nur für die individuelle Ausstattung mit Geräten gesorgt werden, sondern es muss auch versucht werden, die Umgebung, in der sprachlich kommuniziert wird, entsprechend zu gestalten. Das Streben nach "barrierefreien" Gebäuden und Produkten entspricht diesem Gedanken. Es gibt im Bereich des Arbeits– und Umweltschutzes eine Reihe von Richtwerten, die den Stand der Technik repräsentieren und auf diese Weise auch die Sprachkommunikation im Büro und im Betrieb, in Wohnungen und öffentlichen Gebäuden, wie auch in der Freizeit sicherstellen sollen. In der Regel sind diese Richtwerte aber für Normalhörende, das sind junge
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen
351
gesunde Personen (bis 40 Jahre), konzipiert worden. Es soll hier untersucht werden, inwieweit es möglich ist, Sprachkommunikation in allen Lebensbereichen auch für Schwerhörige zu ermöglichen. Dabei werden vor allem schwerhörige Personen mit leichten bis mittleren, aber auch schweren Hörverlusten einbezogen, das Tragen von Hörgeräten wird jedoch außen vor gelassen. Das „barrierefreie“ Gestalten der Umgebung für Personen mit schweren Hörverlusten und für Personen, die Hörgeräte tragen müssen, ist eine spezifische Aufgabe, die hier nur am Rande gestreift werden kann. Hierfür sind Signalübertragungsanlagen erforderlich (s. Anhang C von DIN 18041). Inwieweit Störgeräusche und Nachhall die Sprachverständlichkeit von Schwerhörigen beeinflussen, die Hörgeräte tragen im Vergleich zu den Personen, die keine tragen, kann nicht eindeutig beantwortet werden (Welzl–Müller u. Stephan 1988; Klein 1989; Killion 1993; Wesselkamp et al. 1997; Gabriel et al. 2000). Berichtet wird über deutlich höhere Signal–Geräuschabstände, die gegenüber den Normalhörenden erforderlich sind. In allen Untersuchungen konnte aufgezeigt werden, dass der Schallpegel der Sprache einen entscheidenden Einfluss auf die Sprachverständlichkeit hat. Weiterhin sollten Systeme zur Rauschunterdrückung sowie die Möglichkeit des binauralen Hörens zur Verbesserung der Kommunikation herangezogen werden. Besondere Probleme ergeben sich, wenn Hörgeräte in lauten Betriebsbereichen (> 85 dB) eingesetzt werden (Dolan u. Wonderlick 2000). Hier geht es darum, Kriterien für eine einwandfreie Sprachkommunikation in der Umgebung abzuleiten und Hinweise zu geben, wie für Normal– und Schwerhörige eine Sprachkommunikation sichergestellt werden kann (Bormann et al. 2005; Sust u. Lazarus 2005). Personen mit einem eingeschränkten Hörvermögen fallen vor allem in zwei Gesprächssituationen auf. Zum einen versteht der Schwerhörige im Gespräch mit mehreren Personen nicht mehr die Sprache seines direkten Gesprächspartners, zum anderen hat er Schwierigkeiten im Zweiergespräch, wenn der Gesprächspartner zu leise oder undeutlich spricht. Dies gilt auch für Situationen wie Fernsehen, Radio hören und telefonieren, in denen die Sprache für den Hörgeschädigten häufig zu leise oder verzerrt ist. Obwohl junge, normalhörende Erwachsene moderate Ausmaße von Geräuschen und Nachhall tolerieren können und dabei nur eine minimale Störung der Sprachverarbeitungsfähigkeiten erfahren, zeigen viele Studien, dass Personen mit einer Schallempfindungsschwerhörigkeit viel anfälliger für diese Störungen sind. Das wird besonders offensichtlich bei älteren Personen mit einer Altersschwerhörigkeit (Presbyakusis) und Personen mit einem lärmbedingten Gehörschaden. Wenn gleichzeitig Störgeräusche und Nachhall vorhanden sind, wie es in realen Gesprächssituationen häufig
352
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
vorkommt, haben auch schon Personen mit leichten Hörverlusten Schwierigkeiten mit der Sprachverständlichkeit. Nun entstehen die meisten Störungen der Sprachverständlichkeit in lärmerfüllter Umgebung und durch schlechte Raumgestaltung. Das gilt für den Arbeitsbereich (Maschinenlärm, Bürogeräusche, Klimageräte, PC– Drucker, Sprechgeräusche), für den Wohnbereich (Verkehrslärm, Sportgeräusche, Freizeitgeräte) und den öffentlichen Bereich wie z.B. Schule, Ausbildung und Konferenzräume (Verkehrsgeräusche, Geräusche der Hausanlage, Nachbargespräche, zu hohe Nachhallzeit). Bei der Analyse und Diskussion der Daten steht immer die Frage im Hintergrund, ob die Ergebnisse für die Gestaltung der Kommunikation nutzbar sein könnten: x welche Wahrnehmungsmöglichkeiten sind bei Schwerhörigen eingeschränkt, x auf welche Weise lassen sich schwerhörige Personen, mit leichten und mittelschweren Defiziten, von denen ein großer Teil noch kein Hörgerät benutzt bzw. benötigt, am besten in das normale soziale Leben integrieren, x nach welchen Prinzipien sind Räume (Arbeitsplätze, Wohnungen, Freizeit, öffentlicher Bereich, Ausbildung) zu gestalten, um eine ausreichende Sprachkommunikation zu gewährleisten und x wie muss sich der Normalhörende in seinem Verhalten darauf einstellen? Im Weiteren werden Ergebnisse aus Untersuchungen über Sprachverständlichkeit von Schwerhörigen zusammengetragen (s. Tab. 8.2.3-1) und Schlussfolgerungen für die Gestaltung der Kommunikation gezogen. Dabei werden verschiedene Aspekte der Sprachkommunikation behandelt:
x Der Sprecher hat durch seine Sprechweise und Artikulation Einfluss auf die Sprachkommunikation. Auch die Höhe des Sprachpegels am Ohr des Hörers, selbst wenn sie über seiner Hörschwelle liegt, übt einen Einfluss auf die Verständlichkeit aus. Die Höhe des Sprachpegels bestimmt zudem, ob der auditive Prozess an der Hörschwelle oder über der Hörschwelle stattfindet. x Der Einfluss des Geräuschpegels auf die Sprachverständlichkeit wird als zentraler Schwerpunkt behandelt. Dabei ist der absolute Pegel eher von geringerer Bedeutung. Die Sprachverständlichkeit wird beim Normalhörenden und auch beim Schwerhörigen wesentlich durch das Verhältnis des Pegels der Sprache zu dem des Geräusches, dem Signal–Geräuschabstand (LSN), bestimmt. Eine der Hauptfragen ist, ob sich im Verhältnis zum Normalhörenden die Sprachverständlichkeit des Schwerhörigen
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen
x
x
x
x
353
beim gleichen Signal–Geräuschabstand verändert, oder ob durch eine Veränderung des Signal–Geräuschabstandes wieder die gleiche Verständigung wie bei Normalhörenden zu erreichen ist (immer ausreichende Sprachpegel über der Ruhehörschwelle vorausgesetzt). Vorwiegend werden die Untersuchungen mit stationären Geräuschen durchgeführt, die in der Regel ein Spektrum haben, das dem der Sprache gleich oder ähnlich ist. Das Richtungshören bringt in der Regel einen Gewinn an Sprachverständlichkeit, z.B. wenn Sprache und Geräusch nicht aus der gleichen, sondern aus verschiedenen Richtungen auf den Hörer eintreffen. Wie sieht dieser Gewinn für Schwerhörige in vergleichbaren Situationen aus? Dabei ergibt sich der Bezugswert aus der Situation, in der Sprache und Geräusch aus der gleichen Richtung frontal auf den Hörer treffen. In Räumen wird die Sprachkommunikation durch Nachhall und Reflexionen beeinflusst. Ein kurzer Nachhall (T < 0.2 s) und die ersten Reflexionen werden häufig benutzt, um den direkten Sprachschall zu verstärken, und damit die Verständlichkeit zu verbessern. Wie sehen die Ergebnisse für die Schwerhörigen aus? Wie muss der Signal– Geräuschabstand verändert werden, wenn zusätzlich zum Geräusch noch Nachhall vorhanden ist? Das Verstehen von Sprache besteht aus dem Erkennen von (zeitlich) schnellen Intensitäts–Frequenzmustern. Beispielsweise bedeutet die Silbe ‚at‘ akustisch ein Muster mit hoher Intensität bei eher mittleren Frequenzen (Formant–Frequenzmuster /a/: Grundfrequenz mit Oberwellen) und niedrige Intensität mit hohen Frequenzen (Muster /t/: Rauschen), bei dem die einzelnen Elemente 10–50 ms dauern. Dieses Muster muss vom auditiven System im Bereich von Millisekunden gehört, identifiziert und verstanden werden. Es ist einerseits verständlich, dass zeitlich schnell veränderliche Geräusche, wie Verkehrslärm oder störende Sprechgeräusche diesen Erkennungsprozess stören können. Andererseits muss man beachten, dass Störgeräusche, die sich eher langsam verändern, wie z.B. intermittierende Geräusche, einen Gewinn für die Sprachverständlichkeit bringen, z.B. durch die längeren Phasen niedrigen Geräuschpegels. Die Auswirkung dieser zeitvariablen Prozesse werden – soweit Untersuchungen vorhanden sind – für die Schwerhörigen analysiert und dargestellt. Ein häufig untersuchter Einfluss ist der des Alters. Zum Vergleich wird die Sprachverständlichkeit bei vorgegebenen S/N–Pegeln für vier Gruppen (junge Personen mit und ohne Hörverluste und ältere Personen mit und ohne Hörverluste) untersucht.
354
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.2.2 Übersicht über die Sprachverständlichkeit bei Schwerhörigen Übersicht über die Untersuchungen und deren Ergebnisse, Darbietungsbedingungen, Hörbedingungen, Sprachverständlichkeit bei Geräuschen Die Parameter, die das Gespräch beeinflussen, sind in den Kapiteln 3 (Grundlagen), 5 (Sprecher), 6 (Störungen: Übertragungswege, Hörer) und 7 (Messverfahren, Sprachindices) ausführlich behandelt worden, wobei Wahrnehmungsdefizite, die die Schwerhörigen besitzen, so weit möglich integriert wurden. Die Analyse der Untersuchungen bildeten dabei die Grundlagen, um die Hörveränderungen der Schwerhörigen einzubeziehen. Aus den Ergebnissen von Untersuchungen der letzten 50 Jahre (s. Tab. 8.2.3-1) soll versucht werden das Ausmaß der Sprachverständlichkeit von Schwerhörigen im Vergleich zu Normalhörenden bei vorgegebenen Hörsituationen, einschließlich der Störbedingungen, vergleichbar darzustellen (s. Sust u. Lazarus 2005). Die Untersuchungen weisen im Wesentlichen folgende Vorgehensweisen auf:
x Vorgegebenes Sprachmaterial wird über Lautsprecher/Kopfhörer, bei Störungen durch Geräusche, bei bestimmten Signal–Geräuschabständen den Versuchspersonen (Normalhörende, Schwerhörige) dargeboten; dabei sind die Störbedingungen: - konstanter Geräuschpegel mit Variation des Sprachpegels - konstanter Sprachpegel mit Variation des Geräuschpegels - Anpassung des Sprachpegels (10–50 dB) an die individuelle Hörschwelle (gleicher Abstand zwischen Sprach– und Geräuschpegel bei unterschiedlicher Hörschwelle) x Die Hörbedingungen sind gekennzeichnet durch: - vorgegebenen Signal–Geräuschabstand - Nachhallzeiten (meistens T = 0; aber auch T = 0.2–3 s) - Anordnung der Quellen: Signal (Sprache) und Störgeräusch (meistens beide frontal (0°); aber auch: die Störgeräuschquelle seitlich (90°) oder verteilt um den Sprecher; Richtungshören) x Die Ergebnisse werden wie folgt ermittelt : - Meistens wird der Signal–Geräuschabstand vorgegeben, als Ergebnis die Sprachverständlichkeit (SV in %) erfasst. - In wenigen Fällen wird der Signal–Geräuschabstand für die gerade wahrnehmbare Sprachverständlichkeit (50 %) ermittelt.
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen -
355
Aus diesen Daten wird der Signal–Geräuschabstand für eine Sprachverständlichkeit von 50 % (40–60 %) abgeschätzt oder direkt abgeleitet und damit die Mithörschwelle bei 50 %, 75 % bestimmt.
Das Sprachmaterial bestand in diesen Arbeiten zumeist aus phonetisch ausbalancierten Wörtern oder Sätzen, die in audiometrischen Tests benutzt werden. Die untersuchten Schwerhörigen waren Lärmschwerhörige mit Hörverlusten vor allem im Hochtonbereich, ältere Personen mit Presbyakusis, aber auch Leitungsschwerhörige und schwerhörige Kinder. Die Kriterien, nach denen die Schwerhörigen klassifiziert wurden, sind der mittlere Hörverlust bei bestimmten Frequenzen (z.B. 0.5–4 kHz), der Frequenzbereich, von dem aus der Hörverlust stark zunimmt, das Ausmaß des Sprachhörverlustes und das Alter der Personen (in Jahren). Um die Vergleichbarkeit der Ergebnisse der einzelnen Untersuchungen zu erhöhen, wurden die Sprach– und Geräuschpegel in A–bewertete Schallpegel umgerechnet. Trotzdem macht die große Variabilität der Studien in Bezug auf Material, Auswahl der Testpersonen, Eigenschaften des Störgeräusches etc. eine Vergleichbarkeit und Generalisierung der Ergebnisse weiterhin schwierig. Da das Sprachmaterial und die Versuchsbedingungen der einzelnen Untersuchungen verschieden gehalten sind, zeigen sich selbst schon bei Normalhörenden sehr divergente Daten: so ergibt sich bei dieser Personengruppe z.B. bei einem Signal–Geräuschabstand von LSNA = 0 dB eine Sprachverständlichkeit von SV = 27–99 %, deshalb können absolute Daten nur innerhalb einer Untersuchung miteinander verglichen werden. Einige grundlegende Tendenzen der Analyse der Daten (Sust u. Lazarus 2005) seien hier aufgeführt. Mit abnehmendem Signal–Geräuschabstand, d.h. mit steigendem Geräuschpegel bei konstantem Sprachpegel, nimmt die Sprachverständlichkeit schwerhöriger Personen stärker ab als bei Normalhörenden. Die Sprachverständlichkeit ist bei einem niedrigen Signal– Geräuschabstand, wie es bei einem lauten Hintergrundgeräusch in der Praxis häufig vorliegt, umso geringer, je stärker die Schwerhörigkeit ausgeprägt ist. Das ist so, obwohl in den meisten Fällen der Sprachpegel ausreichend hoch (über der Ruhehörschwelle) ist. Geräusche vermindern die Sprachverständlichkeit besonders stark bei Personen mit Schäden der Innenohrhaarzellen, bei denen der Hörverlust besonders hohe Werte aufweist oder schon relativ weit zu den mittleren Frequenzen (0.5–2 kHz) hin fortgeschritten ist. Personen mit Leitungsverlusten, die in der Regel ein flaches Audiogramm haben, zeigen eine schwächere Verminderung der Sprachverständlichkeit. Ist der Signal–Geräuschabstand z.B. größer als LSNA = 10 dB, so kann zwar für Normalhörende eine gute Sprachverständ-
356
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
lichkeit erwartet werden (SV = 80–100 %), was jedoch für Schwerhörige nicht zutrifft. Diese verstehen unter diesen akustischen Bedingungen je nach Art und Schwere des Hörverlustes und Art des Sprachmaterials zwischen 0 und 90 %. Bedingt durch die Tonhörverluste hören Schwerhörige bei einem konstanten Sprachpegel nur die Sprachlaute, die die individuelle Hörschwelle in ihrer Intensität übersteigen. So nimmt bei einem vorgegebenen festen Sprachpegel LSA = 57–70 dB die Sprachverständlichkeit mit steigendem Ausmaß des Tonhörverlustes der Innenohr– oder altersbegleitenden Schwerhörigkeit mit zunehmendem Geräuschpegel ab. Bei einem Signal– Geräuschabstand, z.B. von LSNA = 10 dB, bei dem normalhörende Personen eine Verständlichkeit von SV = 77–100 % aufweisen, erreichen Personen mit stark ausgeprägtem Tonhörverlust eine Sprachverständlichkeit von SV = 10–85 %. Bei einem Signal–Geräuschabstand von LSNA = 0 dB liegt die Verständlichkeit von Normalhörenden noch bei SV = 60–99 %, von Schwerhörigen mit ausgeprägten Tonhörverlusten aber nur bei SV = 0– 45 %. Ähnliche Ergebnisse erhält man auch, wenn der Sprachpegel besonders hoch oder deutlich über der Hörschwelle liegt (LSA = 60–90 dB). 8.2.3 Mithörschwellen für Schwerhörige im Vergleich zu Normalhörenden Klassifizierung der Untersuchungen nach dem Ausmaß des Hörverlustes, der Höhe des Geräuschpegels und des Sprachpegels, der Schwankung des Geräuschpegels, dem Richtungshören, dem Prozess an und über der Hörschwelle Zur Klassifikation (Tab. 8.3.2-1) der Sprachverständlichkeit von Schwerhörigen (s.a. Abschn. 8.2-2) wurde aus den Daten die Differenz der Mithörschwellen zwischen den Schwerhörigen und Normalhörenden gebildet und dargestellt (Tab. 8.2.3-1, Spalte 4). Soweit es die Daten zuließen, wurden in jeder Untersuchung die vergleichbaren Bedingungen (Sprachmaterial, Hörbedingungen etc.) definiert und bei gleicher Sprachverständlichkeit, die zwischen 40–80 % lag, die Mithörschwelle für Normalhörende (SNRN) und Schwerhörige (SNRS) gebildet und die Differenz dargestellt. Dabei wurde die Differenz zwischen diesen beiden Mithörschwellen (ǻSNR = SNRS - SNRN) in der Regel bei vorgegebenem Sprachpegel (Spalte 2) und veränderbarem Geräuschpegel (Spalte 3: x), aber auch bei vorgegebenem Geräuschpegel und veränderbarem Sprachpegel gebildet. Diese Differenz (Spalte 4) sagt aus, um wie viel die Mithörschwelle erhöht werden muss, damit die Schwerhörigen die gleiche Sprachverständlichkeit haben wie die Normalhörenden. Die Differenz ist für drei ver-
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen
357
schiedene Ausmaße des Hörverlustes (leicht, mittel, schwer) angegeben. Für diesen Vergleich wurden nur Erwachsene aller Altersgruppen mit einer Schallempfindungsschwerhörigkeit (Presbyakusis, Lärm–, sonstige Innenohrschwerhörigkeit) herangezogen. Zusätzlich ist angegeben, ob der Sprachpegel niedrig bis normal (LSA = 50 bis 80 dB), hoch (LSA > 80 dB) oder variabel (angepasst an die Hörschwelle) ist (Spalte 2: n, h, v). Verzeichnet ist auch, ob das Geräusch zeitlich veränderlich war, das Richtungshören beachtet und der Nachhall mit involviert war (Spalte 6, 7, 8). Der Vorteil beim Verstehen der Sprache, der durch zeitlich fluktuierende Geräusche und durch das Richtungshören bedingt ist, wird in Mithörschwellen für Normalhörende und Schwerhörige ausgedrückt (Spalte 5, 6, 7). Die notwendige Erhöhung der Mithörschwelle liegt für leichte, mittlere und starke Schwerhörigkeit bei 5 (3–5) dB, 10 (3–25) dB und bei 20 (5– 35) dB (Mittelwert (Spanne)). Obwohl versucht wurde, für den Vergleich der Normal– und Schwerhörigen immer nur einen Parameter (in der Regel das Geräusch) zu verändern, gibt es eine Reihe von Unsicherheiten bei dem Vergleich und der Abschätzung der Differenz der Mithörschwellen. Das sind vor allem:
x die unterschiedlichen Sprachmaterialien: bei schwierigen Wörtern oder Sätzen muss der Geräuschpegel stärker gesenkt werden als bei leichten; x die vorgenommene Klassifizierung der Schwerhörigkeit der Probanden (l, m, s) anhand der Angaben: entsprechend der oben genannten unterschiedlichen Kriterien in den Studien (s. Abschn. 8.2.2), werden die Tonhörverluste von etwa 30 und 65 dB als Orientierung herangezogen. Die Qualität der Untersuchungen ist relativ gut im Hinblick auf die Angaben und die Untersuchungsmethodik. In den Untersuchungen, die mit hoher Qualität (Spalte 10) bezeichnet wurden, sind die Mithörschwellen (50 %, 75%) ermittelt und angegeben. Da die Mithörschwellen in der Regel bei einer Sprachverständlichkeit von 50 % festgelegt wurden, dient dieser Wert als Orientierung, obwohl eine Reihe von Autoren den Wert von 75% bevorzugen (z.B. Aniansson u. Peterson 1983; Abb. 6.3.2-4). Diese höheren Sprachverständlichkeitswerte sind als Ziel für praktische Kommunikationssituationen, die sich in der Regel an Werten von 60 bis 95 % orientieren, realistischer. Die Differenz der Mithörschwellen liegt bei einer SV von 75% höher als bei dem üblichen Wert von SV = 50 %. Das wird deutlich, wenn man die Differenz der Mithörschwellen entsprechend Abbildung 8.2.4-1 bestimmt; die Differenz der Mithörschwellen ist bei 75 % etwa doppelt so hoch: ţSNRS-N(50 %) = 3–5 dB und ţSNRS-N (75 %) = 8– 10 dB. Der wesentliche Teil der Unsicherheit liegt, wie in den Untersuchungen immer wieder hervorgehoben wird, in der begrenzten Aussagekraft der Tonhörschwelle: bei gleicher oder ähnlicher Tonhörschwelle
358
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
kann die individuelle Fähigkeit und Qualität des Hörens sehr unterschiedlich sein. Bei den Versuchsbedingungen ist vor allem die Höhe des Sprachpegels (im Verhältnis zur Hörschwelle) zu beachten. In den meisten Versuchen ist der Sprachpegel konstant vorgegeben; um im Versuch die Sprachverständlichkeit variabel zu gestalten, wird der Geräuschpegel variiert (ggf. durch die Versuchsperson) (Spalte 3; Gv: x). Bei den Sprachpegeln unterscheidet man drei Fälle (Spalte 2): niedrig, hoch und variabel angepasst an die Hörschwelle, d.h. ausreichend hoch über der Hörschwelle in Ruhe. Fragt man nach dem Einfluss des Sprachpegels (immer bei gleichem Signal–Geräuschabstand), erhält man zwei Tendenzen. Zum einen ist kaum ein Unterschied der Differenzen der Mithörschwellen (Spalte 4) zwischen den niedrigen, einschließlich mittleren und den hohen Sprachpegeln (Spalte 2: n und h) festzustellen, teilweise ist sie bei hohen Pegeln etwas niedriger. Zum anderen sind die Differenzen (Spalte 4) ermittelt bei einem individuell angepassten Sprachpegel (Spalte 2: v), niedriger. Das könnte bedeuten, dass ein an die Hörschwelle angepasster Sprachpegel die Sprachverständlichkeit erhöht. Dieses letztere Ergebnis ist bekannt und vor allem für die Anpassung von Hörgeräten interessant (Kießling et al. 1996). Für die Gestaltung der Umgebung lässt sich dieses Ergebnis nicht nutzen. Um den Einfluss des Sprechers zu verdeutlichen seien zwei typische Untersuchungen und deren Ergebnisse kurz vorgestellt. Wird der Sprachpegel beispielsweise 30 dB oberhalb der individuellen Hörschwelle für Sprache (LSA = LHVS + 30 dB) festgesetzt (Jokinen 1973) (Tab.2, Zeile 10), so erhält man eine Sprachverständlichkeit, die für Personen aller Altersklassen (20–80 Jahre, ohne berufliche Lärmexposition) in Ruhe zwischen SV = 98–86% liegt. Wird zusätzlich zur Sprache ein Störgeräusch dargeboten, erhält man eine mit dem Alter stark absinkende Sprachverständlichkeit. Bei einem Signal–Geräuschabstand von LSNA = 20 dB wird noch 94– 80 % der Sprache verstanden, bei einem LSNA = 10 dB fällt die Sprachverständlichkeit mit steigendem Alter von SV = 79% auf SV = 54% ab. Aniansson (1980) und Aniansson u. Peterson (1983) (Zeile 17) bestimmten in ihrer Untersuchung zum einen den Geräuschpegel, der eine Wortverständlichkeit für Einsilber von SVE = 75% zulässt und zum anderen die Verständlichkeit, die sich bei verschiedenen Signal–Geräuschabständen ergab. Dafür war ein Verkehrsgeräusch so aufgenommen worden, dass es zum einen ein Geräusch von LNA = 40 dB bei einem Abstand zwischen Sprecher und Hörer von r = 1 und 4 m im Innenraum (Nachhallzeit 0.5 s) und zum anderen ein Geräusch von LNA = 55 dB bei einen Abstand von r = 1m im Freien wiedergibt. Der Sprachpegel (LSA,1m = 63 dB) wurde konstant gehalten und mit dem Verkehrsgeräusch gemischt per Kopfhörer den Probanden dargeboten.
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen
359
Das Ergebnis zeigt (Abb. 6.2.3-4), dass der Pegel des Geräusches für Personen mit einer altersbedingten Schwerhörigkeit selbst bei geringen bis mittleren Hörverlusten um 5–25 dB, für Altersschwerhörige mit mittleren und hohen Hörverlusten sogar um 15–40 dB gesenkt werden muss, um eine den Normalhörenden entsprechende Sprachverständlichkeit zu erreichen. Für Lärmschwerhörige mit mittleren Hörverlusten muss der Geräuschpegel um 5–25 dB vermindert werden, um eine Wortverständlichkeit von SV = 75% zu erhalten. Weisen Personen noch höhere Hörverluste auf, so ist der Geräuschpegel um bis zu 40 dB zu reduzieren (s.a. Abschn. 6.2.3). Bei beiden Untersuchungen ergibt sich je nach dem Ausmaß der Schwerhörigkeit und der Art der Hörbedingung eine Differenz der Mithörschwellen ( SNRS-N) von 3 bis 8 dB und 5 bis 35 dB.
Tabelle 8.2.3-1. Verständlichkeit von Sprache für Schwerhörige im Vergleich zu Normalhörenden; angegeben wird der Wert des A–bewerteten Signal– Geräuschabstandes (Mithörschwelle: ţSNRA,S-N = SNRA(SH) - SNRA(NH) in dB; Spalte 4), mit dem er erhöht werden muss, damit die Schwerhörigen die gleiche Sprachverständlichkeit (50, 75 %) haben wie die Normalhörenden. Das gilt für gleiche Hörbedingungen (Sprachmaterial, Geräusch, Nachhall, Hörsituation) und für drei Grade der Schwerhörigkeit von Schallempfindungsschwerhörigen (leicht (l), mittel (m), schwer (s)); Sp. 1: die herangezogenen Untersuchungen (von 1962 bis 1998); Sp. 2: die Höhe des Sprachpegels (niedrig (n), LS = LSA < 80 dB, hoch (h) LSA > 80 dB; variabel (v) angepasst an die Hörschwelle LSA = LHVS / LHVT + (20 bis 50) dB); Sp. 3: die Veränderung des Signal–Geräuschabstandes durch den Pegel des Geräusches (Gv: x) bei einem konstanten Pegel der Sprache (in Zeile 20 wurde ein breitbandiges und tieffrequentes Geräusch benutzt); Sp. 5: der Vorteil (Erniedrigung der Mithörschwelle in dB) für Normalhörende (NH) und Schwerhörige (SH); Sp. 6: fluktuierende Geräusche (G fl: x); Sp. 7: Richtungshören (R: x); Sp. 8: Nachhallzeit (T > 0.2 s) bei der Hörsituation (T: x); Sp. 9: Berücksichtigung des Alters (A: x); Sp. 10: Untersuchung hat eine für das Ziel hohe (h) Qualität (Q);
360
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
1 Untersuchungen
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
2 3 4 5 6 7 LSA G ǻSNRA,S-N in dB Vorteil in dB G R v l m s NH SH fl Kryter et al. 1962 n x 5 15 20 - Kryter et al. 1962 h x 0 5 10 - Niemeyer 1967b n 5 15 25 - Groen 1969 n x 15 - Carhart u. Tillmann 1970 v x 5 - x Acton 1970 n 3 8 - Cooper u. Cutts 1971 v x 5 - Lindeman 1971 n x 5 10 20 - Schultz–Coulon 1973 n x 5 10 15 - Jokinen 1973 v x 3 8 - Kuzniarz 1973 n x 5 10 15 - Aniansson 1974 n x 5 10 - Cohen u. Keith 1976 v x 10 - Chung u. Mack 1979 n,h x 5 - Suter 1980 n x 5 10 - h - 5-15 - Dirks et al. 1982 n - 15-20 - Aniansson 1980, Aniansn x 5 10-25 35 - son u. Peterson 1983 Duquesnoy 1983 n - 5-15 3-7 0-1 x Duquesnoy 1983 n - 5-15 5-9 3-4 - x Stelmachowicz et al. 1985 n x - 3-15 - Gordon–Salant 1987 h x - 5-15 - Gelfand et al. 1988 n x 3 5-10 5-6 3 - x Bronkhorst u. Plomp h 5 10 7 - x 1988, 1989 Abel et al. 1990 n 5 10 15 - Festen u. Plomp 1990 n - 5-10 5-7 0 x Prosser et al. 1991 v x 2-5 4-5 -1-2.5 x Bronkhorst u. Plomp 1992h 4-9 8 6 - x Hygge et al. 1992 v x - 7-16 9-10 0-0.5 x Ter–Horst et al 1993 v 3-4 3 2.5 - x Stemplinger et al. 1994 v x 1-7 5-10 7-13 6-7 2-4 x Bosman u. Smoorenburg v x 4 8 - - 1995 Eisenberg et al. 1995 n 3 4 2 x Gordon–Salant u. h x 5 - Fitzgibbons 1995 Pichora–Fuller et al. 1995 v x 3 8 - Peters et al. 1998 v - 2-4 3-12 4-8 1-4 x Bacon et al. 1998 n x 0-7 5-10 4-15 1-5 x -
8 9 10 T AQ -
x - h - h
x x h -
x x x x
h h h h h
- - h x -
x x x x x -
h h h h h h
- - h - x h - x h - x - x h - x h
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen
361
8.2.4 Alter, Schwerhörigkeit, Geräusch, Nachhall Beispielhafte Darstellung von Ergebnissen aus den Untersuchungen Der Einfluss des Alters und der Nachhallzeit auf die Sprachverständlichkeit wurde in dieser Übersichtsanalyse nur als zusätzliche Einflussgröße behandelt. Einige Untersuchungen seien beispielhaft aufgeführt. Jokinen (1973) erhielt in einer Untersuchung, bei der der Sprachpegel immer ausreichend (30 dB) über dem Hörverlust für Sprache in Ruhe lag, folgende Ergebnisse: bereits in Ruhe ist das Sprachverstehen für Einsilber bei den beiden ältesten Probandengruppen mit Hörverlust (60–69, > 70 Jahre) signifikant schlechter als das der jüngsten ohne Hörverlust (20– 29 Jahre). Während die Jüngsten noch 98 % Sprache verstanden, wiesen die beiden älteren Gruppen ein auf 92 % bzw. 86 % abgesunkenes Sprachverstehen auf. Mit zunehmendem Alter und Hörverlust (20–80 Jahre) nahm das Verständnis bei Störgeräuschen drastisch ab. Die Werte, die bei einem LSNA = 22 dB erreicht wurden, liegen insgesamt zwischen SV = 94– 80 %, bereits bei einem LSNA = 12 dB sinkt das Sprachverstehen auf Werte zwischen 79 % und 54 % ab, obwohl der Sprachpegel ausreichend hoch über der Hörschwelle lag. Anders betrachtet bedeutet dies, dass selbst wenn im Gespräch mit älteren Personen (Alter > 65 Jahre) um ca. 15–20 dB lauter gesprochen wird, das Störgeräusch um 5–10 dB gesenkt werden muss, um die gleiche Wortverständlichkeit wie bei jüngeren Personen (20–40 Jahre) zu erhalten. Die Ergebnisse einer Studie (Gordon–Salant u. Fitzgibbons 1995) zeigen, dass die Hörverluste den entscheidenden Einfluss auf den Diskriminationsverlust haben (s. Abb. 8.2.4-1). Die Ergebnisse einer anderen Arbeit der Autoren (Gordon–Salant u. Fitzgibbons 1993) weisen darauf hin, dass altersbedingte Faktoren zusätzlich zum Hörverlust für die verringerte Sprachverständlichkeit bei älteren Personen verantwortlich sind. Der Hörverlust und das Alter beeinflussen unabhängig voneinander die Defizite in der Sprachverständlichkeit. Diese Schlussfolgerung ist vor allem daraus zu ziehen, dass ohne Nachhall das Verstehen der verschiedenen Gruppen zwischen 87 und 98 % lag. In der Bedingung mit Nachhall (T = 0.2 und 0.6 s) verstehen die jungen Normalhörenden noch 97 und 66% aber die älteren Normalhörenden nur noch 93 und 52 %. Die jungen Hörgeschädigten verstehen bei der langen Nachhallzeit (T = 0.6 s) genauso viel wie die älteren Normalhörenden (52 %). Die älteren Hörgeschädigten zeigen unter diesen Bedingungen (T = 0.2 und 0.6 s) die schlechteste Leistung mit 79 und 28 %. Diese Ergebnisse machen vor allem deutlich, dass geringe Nachhallzeiten, die bei Normalhörenden nur einen geringen Einfluss haben, bei Älteren und Schwerhörigen die Sprachverständlichkeit gravierend mindern.
362
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Abb. 8.2.4-1. Sprachverständlichkeit (SV in %) für unterschiedliche Signal– Geräuschabstände (LSNA) für Sätze mit niedriger Vorhersagewahrscheinlichkeit (nVW) für normalhörende und schwerhörige, jüngere und ältere Personen (JN, AN, JS, AS); bei einem Sprachgeräusch (12 Sprecher) und einem Pegel von LSA ū 87 dB (nach Gordon–Salant u. Fitzgibbons 1995)
Eine weitere Einflussgröße ist der Schwierigkeitsgrad des Sprachmaterials (Pichora–Fuller et al. 1995). Aus den vorliegenden Daten kann abgeleitet werden, dass für leichte Sätze (hohe VW) durch eine Erhöhung des Signal–Geräuschabstandes um 5 dB die Sprachverständlichkeit der schwerhörigen älteren Personen an die der jungen Normalhörenden angeglichen werden kann. Bei schwierigen Sätzen (niedrige VW) ist dabei eine Erhöhung des Signal–Geräuschabstandes um ca. 10 dB erforderlich. Die Verbindung von überschwelligen Maskierungsschwellen für Töne und der Mithörschwelle für Sprache versuchten Halling u. Humes (2000) zu erklären. Sie haben für junge und ältere Personen die Schwelle für moduliertes (entsprechend der Sprache) und unmoduliertes Rauschen mit zwei Sprachtests in drei Raumsituationen (Nachhall 0, 1, 3 s) gemessen (Tab. 8.2.4-1). Die Ergebnisse für die normalhörenden jungen und älteren Personen (JN, AN) sind relativ ähnlich. Hervorzuheben ist sich, dass die mittleren Differenzen zwischen den Schwellen für moduliertes und unmoduliertes Rauschen bei Schwerhörigen (3–11 dB) gegenüber den der Normalhörenden (18–24 dB) in der Raumsituation mit T = 0 s recht gering sind. Obwohl die Differenz der unmodulierten und modulierten Hörschwellen sowohl bei den Schwerhörigen (2–11 dB), wie auch in der halligen Situation mit T = 3 s (2–8 dB) gering ist, nimmt die Sprachverständlichkeit be-
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen
363
vorzugt nur bei Schwerhörigen, teilweise auch bei den älteren Normalhörenden (5 %) in der halligen Situation mit T = 3 s ab (2 % und 24 %). Tabelle 8.2.4-1. Hörschwelle von Tönen (oben), Differenz der Hörschwellen für Töne (mittig), Sprachverständlichkeit (unten): Hörschwellen für Sinustöne (0.5, 4 kHz) in Ruhe und bei Geräuschen (WR unmoduliert, WR/4 moduliert (m = 100 %, 4Hz)); mittlere Differenz der Hörschwellen für unmoduliertes und moduliertes Rauschen (fmod = 0.4–32 Hz); Sprachverständlichkeit in drei Raumsituationen (T = 0, 1, 3 s) für die Gruppen junge (22–24 Jahre) und ältere (67–81 Jahre) Normalhörende (JN, AN) und ältere Schwerhörige (68–81 Jahre, AS) Gruppe Töne Ruhe WR WR/4 Töne T=0s T=1s T=3s Sprache T=0s T=1s T=3s
Hörschwelle für Töne in dB JN AN AS JN AN AS 0.5 kHz 4 kHz 13 21 41 18 22 66 53 54 58 58 61 69 32 34 45 32 37 66 mittlere Diff. der Hörschwelle für unmod. und mod. Rauschen in dB 0.5 kHz 4 kHz 20 18 11 24 22 3 8 7 7 13 14 3 4 4 4 8 5 2 Sprachverständlichkeit in % sinnlose Silben Sätze 95 92 73 98 98 90 83 78 45 67 45 11 58 48 24 15 5 2
Die Analyse der Ergebnisse zeigt, dass die Ruhehörschwelle weitgehend die Qualität der Sprachverständigung bestimmt. Die Korrelation liegt in allen drei Raumsituationen für beide Sprachmaterialien bei r = 0.5–0.95. Defizite im überschwelligen Bereich, obwohl sie mit dem Alter verbunden sind, tragen in einem geringeren Ausmaß zur Veränderung der Sprachverständlichkeit bei. Das Alter spielt nur eine kleine Rolle. Für ältere Personen sind drei Aspekte maßgebend (Halling u. Humes 2000) die beeinträchtigt sein können: das periphere Hörsystem, gegeben durch Defizite an der Ruhehörschwelle und im überschwelligen Bereich (d.h. bei der Frequenz– und Zeitauflösung), das zentrale Hörsystem und die kognitiven Möglichkeiten. Diese drei Aspekte wurden in einer größeren Studie an 50 Personen (63–83 Jahre) untersucht. Die Ergebnisse zeigen, dass die Ruhehörschwelle die wesentliche Einflussgröße war. Sie klärte 70 bis 75 % der totalen Varianz bei der Spracherkennung auf. Tests, die dem zentralen Hörsystem und der kognitiven Funktion zuzurechnen sind, haben kaum einen Einfluss
364
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
(Humes et al. 1994). Die meisten anderen älteren Untersuchungen unterstützen dieses Ergebnis (Rooij et al. 1989; Helfer u. Wilber 1990; Humes u. Roberts 1990; Rooij u. Plomp 1990; Humes u. Christopherson 1991; Jerger et al. 1991; Rooij u. Plomp 1992; Souza u. Turner 1994; Divenyi u. Haupt 1997a, b, c). Häufig wurde gezeigt, dass die Defizite bei der Frequenz– und Zeitauflösung im überschwelligen Bereich sich negativ auf die Wahrnehmung auswirken (Wightman et al. 1977; Fitzgibbons u. Wightman 1982; Tyler et al. 1982a, b), andere betonen eher den Einfluss der Hörschwelle (Humes et al. 1988; Dubno u. Schäfer 1992). Sicher ist, dass für die Verarbeitung von Sprachsignalen die Information, die in der Hüllkurve des Sprachsignals steckt, erkannt und dekodiert werden muss (Horii et al. 1971; Houtgast u. Steeneken 1972; Tasell et al. 1987; Shannon et al. 1995; Turner et al. 1995; Tasell u. Trine 1996). In einer Reihe von Untersuchungen wurde bei älteren und schwerhörigen Personen vorwiegend temporale Prozesse wie zeitliche Integration, Vor– und Nachverdeckung und Erkennung von zeitlichen Löchern untersucht (Formby 1982; Bacon u. Viermeister 1985; Florentine et al. 1988; Grose et al. 1989; Nelson u. Pavlov 1989; Moore et al. 1992; Cobb et al. 1993; Halling u. Humes 2000). Diese Untersuchungen zeigen, dass ältere Personen im Vergleich zu jüngeren und schwerhörigen Personen und im Vergleich zu Normalhörenden deutliche Verluste bei der temporalen Verarbeitung von Schallsignalen und Sprache aufweisen. Zusammenfassend kann man festhalten, dass die Einflüsse des Alters und der Schwerhörigkeit auf die Sprachwahrnehmung nicht klar zu trennen sind. Durch einen hohen Signal–Geräuschabstand und eine geringe Nachhallzeit kann der Einfluss von Alter und Ruhehörschwelle weitgehend kompensiert werden. Eine Erhöhung des Signal–Geräuschabstandes um 0– 4 dB ist für den Ausgleich des Alters und 3–10 dB für die Kompensation der Schwerhörigkeit (je nach Ausmaß des Hörverlustes) erforderlich: ältere schwerhörige Personen benötigen – insbesondere bei schwierigen Wörtern und Texten – einen um 10 dB höheren Signal–Geräuschabstand, um die gleiche Sprachverständlichkeit wie die junger Normalhörender zu erreichen. Besonders deutlich zeigt sich der Einfluss des Alters und der Hörschäden bei zeitlich veränderlichen Geräuschen. Bei jungen Normalhörenden kann der Signal–Geräuschabstand für zeitlich veränderliche Geräusche um bis zu 4–7 dB geringer sein, damit die gleiche Sprachverständlichkeit (SV = 50 %) wie bei einem zeitlich konstanten Geräusch erzielt wird. Bei älteren Schwerhörigen beläuft sich dieser Gewinn nur auf maximal 1.5 dB (Peters et al. 1998).
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen
365
8.2.5 Intensitäts–, Frequenz– und Zeitauflösung bei Schwerhörigen Für das Verstehen von Sprache ist die Art und Weise, wie die Intensitäts–, Frequenz– und Zeitmuster des Schalls beim Hörprozess des Schwerhörigen abgebildet werden, maßgebend. Die frequenzabhängige Ruhehörschwelle beschreibt die geringere Sensitivität des Hörorgans gegenüber dem Schall und ist einer der wesentlichen Faktoren, die das Sprachverstehen von Schwerhörigen bestimmen. Aber im überschwelligen Bereich, in dem Sprachverstehen vor allem stattfinden soll, ergeben sich weitere Defizite. Die erhöhte Ruhehörschwelle ist in der Regel stark frequenzabhängig (mit einem Anstieg zu den hohen Frequenzen), das heißt, sie besitzt bei den hohen Frequenzen (2–8 kHz) die stärksten Verluste. Die überschwelligen Defizite dagegen sind verbunden mit der Erkennung eines Intensitäts– Frequenzzeitmusters. Sie treten auf, obwohl der zu erkennende Schallverlauf durch die Ruhehörschwelle kaum direkt beeinflusst wird, weil er zumeist ausreichend über ihr liegt. Ein häufiges Kennzeichen der Schallempfindungsschwerhörigkeit ist die Beschädigung der inneren und äußeren Haarzellen. Man geht heute davon aus (Kießling et al. 1996; Kollmeier 2004), dass ein Defekt an den inneren Haarzellen eher eine Reduzierung der Empfindlichkeit bedeutet und dass diese durch eine Verstärkung des Schalls weitgehend behoben werden kann. Bei zusätzlicher Schädigung der äußeren Haarzellen werden vor allem die aktiven Prozesse gestört, wie die Erkennung von Intensitäts– und Frequenzmustern sowie die Frequenzselektivität, die vor allem bei niedrigen Pegeln relevant sind. Aus diesen verschiedenen Schädigungsbefunden und den dadurch bedingten gestörten auditiven Prozessen ergibt sich zum einen die Reduzierung des am Ohr eintreffenden Schalls, zum anderen eine Verzerrung des Schallsignals, insbesondere durch die ausfallenden aktiven Prozesse, die sich in einer Fehlhörigkeit äußert. Phänomene wie die Ruhehörschwelle, das Recruitment (das heißt, die pathologische Lautheitsbildung) und die verminderte Sprachverständlichkeit stehen hiermit in Verbindung. Eine Schallempfindungsschwerhörigkeit kann insbesondere wegen des Ausfalls der aktiven Prozesse durch ein Hörgerät nicht voll kompensiert werden. Für eine Erkennung von Sprache ist es entscheidend, wie gut bestimmte Schallmuster (Phoneme) im Rauschen fehlerfrei dekodiert werden können. Um die Abbildung der Intensitäts–Frequenzzeitmuster im überschwelligen Bereich verstehen zu können, wurden die psychoakustischen Parameter, die man für Normalhörende gut kennt, auch für Schwerhörige untersucht. Mit psychoakustischen Tests wurden bei 10–50 dB über der Hörschwelle
366
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
und bis ca. 100 dB eine Reihe von Parametern untersucht: wie die Kategoriallautheit zur Skalierung der Hörfläche, die Dynamik für Töne (Hörschwelle bis zum höchsten Pegel, der noch gerade angenehm ist (HCL)), der gerade wahrnehmbare Intensitätsunterschied (JND) für Töne und gepulste Töne, die Erkennungsschwelle für die Amplituden– und Frequenzmodulation, die Erkennung von temporalen Löchern im Rauschen und in Tönen, Frequenzunterscheidungsschwellen von gepulsten und komplexen Tönen und Klängen, die Frequenzgruppenbreite, die Maskierung von Tönen durch Geräusche (Bandpass, Töne, simultane Auf– und Abwärtsverdeckung, nichtsimultane Vor– und Nachverdeckung), psychophysische Abstimmungskurve (PTC) und bestimmte Mithörschwellen für Sprachreize (Tyler et al. 1980; Lyregaard 1982; Tyler et al. 1982a, b; Dubno u. Dirks 1989; Glasberg u. Moore 1989; Lutman et al. 1991; Dubno u. Schaefer 1992; Kollmeier u. Holube 1992; Baer u. Moore 1993; Holube u. Kollmeier 1996; Launer et al. 1996). Teilweise wurde auch versucht, Sprachvorhersagemaße (AI, STI) für schwerhörige Personen zu erweitern (Pavlovic et al. 1986; Dubno et al. 1989; Humes u. Roberts 1990; Welzl– Müller et al. 1990; Holube u. Kollmeier 1996). Die Ergebnisse zeigen kein klares einheitliches Bild, dafür scheint die Art und Weise der Schwerhörigkeit und ihre individuelle Ausprägung zu unterschiedlich. Zwei Aspekte zeigen sich aber doch durchgängig. Zum einen bestimmt die Ruhehörschwelle für Töne wesentlich die Sprachverständigung in Ruhe, zum anderen ist die Mithörschwelle, die Sprachverständigung unter Geräuscheinfluss, mit psychoakustischen Parametern im überschwelligen Bereich verbunden. Es gibt aber keinen Parameter, der konsistent eine deutlich hohe Korrelation mit der Mithörschwelle für Sprache aufweist, viel mehr zeigt sich, je nach Untersuchung und Auswahl der Kriterien, bei den meisten genannten psychoakustischen Parametern eine mittlere Korrelation zueinander und mit der Mithörschwelle für Sprache. Offenbar gibt es zusätzlich zum Hörverlust noch eine weitere Komponente, die das Sprachverstehen bestimmt und zwar den Kompressionsverlust des Hörorgans und die damit verbundene Verschlechterung der Frequenz– und Zeitauflösung. 8.2.6 Schlussfolgerungen Zusammenfassung der Ergebnisse aus den Untersuchungen: Reduzierung von Hördefiziten durch Gestaltungsmaßnahmen Aus ca. 30 Untersuchungen zur Sprachverständigung von Schwerhörigen wurden die Defizite beim Verstehen von Sprache dargestellt und mit denen von Normalhörenden verglichen. Dabei wurden nur die Untersuchungser-
8.2 Sprachverständlichkeit Schwerhöriger unter Alltagsbedingungen
367
gebnisse herausgesucht, die vergleichbare Hörbedingungen haben und in denen nahezu eine gleiche Sprachverständlichkeit für Schwerhörige und Normalhörende erreicht wurde. So konnte gezeigt werden (Lazarus et al. 2005), dass für leichte, mittlere und starke Schwerhörigkeit im Mittel der Signal–Geräuschabstand um 5, 10 und 20 dB erhöht werden muss. D.h. um gleiche Sprachverständlichkeit wie Normalhörende zu erreichen, muss der Geräuschpegel in Räumen um 5 bis 20 dB reduziert werden. Dabei wird eine normale bis angehobene Sprechweise (LSA,1m = 60–70 dB) der Sprecher, wie sie für normal– und schwerhörige Hörer erforderlich ist, vorausgesetzt. Höhere Nachhallzeiten (T > 0.2 s) verschlechtern die Sprachverständlichkeit für Schwerhörige. Modelle von Sprachindices wie der STI, mit denen es möglich ist, Geräuschpegel und Nachhallzeit zu optimieren, sind für Schwerhörige noch nicht existent. Es wird an Modellen und Verfahren gearbeitet, die Sprachverständlichkeit von Normal– und Schwerhörigen bei Störungen durch Geräusche behandeln (Plomp et al. 1983; Plomp 1986; Lazarus 1990a; Bormann et al. 2005), die aber noch widersprüchliche Ergebnisse liefern. Ergänzend zum Modell nach Plomp werden die Differenzen der Mithörschwellen von Sprache zwischen Schwerhörigen und Normalhörenden für den oberschwelligen Bereich angegeben (s. Abschn. 6.3.2, 6.3.4, 7.3.1). Auch für ältere Personen wird ein höherer Signal–Geräuschabstand für die gleiche Sprachverständlichkeit wie bei jungen Personen benötigt. Es gibt eine Reihe von Gegebenheiten, die vom Gesprächspartner genutzt werden können, um die Sprachverständlichkeit unter Störbedingungen zu verbessern. So liegt der Gewinn für die Sprachverständlichkeit, den ein Normalhörender bei fluktuierenden Geräuschen gegenüber einem Geräusch mit konstantem Pegel (gleicher äquivalenter Dauerschallpegel vorausgesetzt) hat, bei bis zu 8 dB, bei Schwerhörigen nur bei bis zu 2 dB (s. Abschn. 6.3.4). Auch beim Richtungshören ist der Gewinn, den ein Schwerhöriger hat, um 2–5 dB geringer (Abschn. 6.5.1). Ein unterstützender Schritt zur Verbesserung der Sprachverständlichkeit ist deutliches und lauteren Sprechen. Mit Hilfe dieser Ergebnisse lassen sich Grundsätze und Kriterien für die Gestaltung der Umgebung und von Räumen zur Verbesserung der Sprachkommunikation für Schwerhörige formulieren. So soll, je nach Qualität und Anforderung an die Sprachkommunikation und je nach dem Grad der Schwerhörigkeit und dem Alter der Personen, die man integrieren will, x der Störgeräuschpegel um 5–20 dB unter den Wert, der für Normalhörende festgelegt ist, gesenkt werden,
368
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
x die Nachhallzeit um den Faktor 2–4 reduziert werden. Diese Gestaltungsziele sind deswegen so wichtig, da die Schwerhörigen im Gegensatz zu den Normalhörenden nur sehr begrenzt die Möglichkeit haben, durch ihr eigenes Verhalten die Sprachkommunikation zu verbessern. Wie erwähnt ist der Gewinn, den Normalhörende für eine Erhöhung der Sprachverständlichkeit aus x zeitlich veränderlichen Geräuschen (Abschn. 6.3.4), x dem Richtungshören (Abschn. 6.5.1) und x den ersten Reflexionen des Sprachschalls im Raum (bei geringer Nachhallzeit) (Abschn. 6.4) ziehen können, für Schwerhörige und Ältere deutlich geringer. Die genannten Ziele können hier nur grob skizziert werden, da sie jeweils an die Aufgaben der Sprachkommunikation und an die technischen Gegebenheiten angepasst werden müssen. Kommunikationsbereiche müssen einer Reihe von Aufgaben genügen, die sich von kurzen Mitteilungen in lauten Betriebsbereichen bis zu Ausbildungs– und Vortragsräumen erstrecken. In ihnen müssen häufig auch komplexe Sachverhalte ggf. in einer Fremdsprache vorgetragen werden. Um diesen Aufgaben und Anforderungen gerecht zu werden, müssen diese Bereiche gezielt mit raum– und bauakustischen Maßnahmen gestaltet werden (s.a. DIN 15906; DIN 18041). Träger und Anbieter von Fortbildungs– und Vortragsveranstaltungen können durch eine entsprechende Gestaltung ihre Ausbildungs– und Tagungsräume auch für Schwerhörige und Ältere attraktiv machen (s.a. Abschn. 12.5).
8.3 Verhalten und soziale Interaktion von Schwerhörigen 8.3.1 Begleiterscheinungen der Schwerhörigkeit Schwerhörigkeit kann nicht als isolierte Sinnesstörung betrachtet werden. Die Einschränkungen überschreiten den akustisch–sensorischen Bereich und betreffen ebenso emotionale, vegetative und vitale Befindlichkeiten wie personale, soziale und kommunikative Kompetenzen (Richtberg 1989; Hinchcliffe 1998). Schwerhörigkeit ist also als körperliche Beeinträchtigung oder sogar Behinderung zu betrachten, nämlich als – im Sinne der WHO–Definition – „der Nachteil für ein Individuum, der aus der Verschlechterung oder der Unfähigkeit resultiert, die die Erfüllung einer normalen (abhängig von Alter, Geschlecht, sozialen und kulturellen Faktoren)
8.3 Verhalten und soziale Interaktion von Schwerhörigen
369
Rolle einschränkt oder verhindert.“ Lärmschwerhörigkeit ist zudem eine anerkannte Berufskrankheit (Abschn. 8.1.5). Die Tabelle 8.3.1-1 zeigt einen Querschnitt aus möglichen Begleiterscheinungen, die durch eine Schwerhörigkeit entstehen können und die entsprechende Literatur, in der diese diskutiert werden. Tabelle 8.3.1-1. Querschnitt aus den möglichen Begleiterscheinungen einer Schwerhörigkeit und Literatur, in der diese diskutiert werden Mögliche Begleiterscheinungen der Schwerhörigkeit Verleugnen der Störung Vortäuschen von Verständnis im Gespräch Unsicherheit in Gruppensituationen
Misstrauen, Empfindlichkeit, Ungeduld, Verletzbarkeit, Minderwertigkeitsgefühle Defensive, passive und kontaktarme Züge Vermeidung sozial orientierter Verhaltensweisen Abgeschnittenheit von der Umgebung Gefahr der Vereinsamung Isolation Isolationsstrategien Psychosoziale Beeinträchtigung, besonders in Familienbeziehungen
Referenzliteratur Vesterager et al. (1988) Meyerson (1948), Tesch–Römer (2001) Meyerson (1948), Richtberg (1989), Florin et al. (1990), Hallberg u. Carlsson (1991a, b) Richtberg (1989), Guski et al. (1996) Meyerson (1948) Meyerson (1948), Tesch–Römer (2001) Weinstein u. Ventry (1982) Richtberg (1989), Guski et al. (1996), Weinstein u. Ventry (1982), Florin et al. (1990), Hull (1978), Hallberg u. Carlsson (1991a, b) Hull (1978), Hétu (1981), Beck (1986), Hétu et al. (1987), Lalande et al. (1988), Peterson u. French (1988), Richtberg (1989), Florin et al. (1990), Guski et al. (1996) Beck (1986) Hull (1978) Vesterager et al. (1988) Richtberg (1980), Florin et al. (1990), Guski et al. (1996) Richtberg (1980)
Gestörte Persönlichkeitsentwicklung Frustration Depression Schreckhaftigkeit als überdauernde Anpassungshaltung Psychosomatische Dekompensation (Kopfschmerzen, Schlafstörungen, Wetterfühligkeit, Konzentrationsschwäche) Subjektives Erleben von verschlechterter Salomon et al. (1988) Gesundheit Objektiv verschlechterte Gesundheit Florin et al. (1990)
370
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Die Studien zeigen, dass die sekundären Beeinträchtigungen eines Hörverlustes sehr vielfältig sind (emotional, vegetativ, personal, sozial) und oftmals von außenstehenden Personen nicht richtig eingeschätzt und verstanden werden. Sie werden selten mit der Hörschädigung in Verbindung gebracht. Verhaltensweisen, die sich typischerweise bei einer Schwerhörigkeit ausbilden, beinhalten die Vermeidung von sozial orientierten Verhaltensweisen, Unsicherheiten in Gruppensituationen, Misstrauen und aggressive Selbstbehauptung und schließlich defensive, passive und kontaktarme Züge. Damit ist klar, warum soziale Beziehungen, besonders Familienbeziehungen, durch die Schwerhörigkeit beeinträchtigt werden. Oftmals wirken spontane Reaktionen auf die durch die Schwerhörigkeit bedingten Defizite als Katalysatoren für psychosoziale Beeinträchtigungen und dieser Mechanismus kann ohne fremde Hilfe häufig nicht unterbrochen werden. Bei früher Entstehung der Schwerhörigkeit können Defizite in der Persönlichkeitsentwicklung und der Entwicklung kommunikativer Kompetenzen beobachtet werden. Psychosomatische Dekompensationen der Belastung durch das Defizit können sich in Konzentrations– und Schlafstörungen, Kopfschmerzen und Wetterfühligkeit bemerkbar machen. Schließlich kann die Schwerhörigkeit, besonders im Alter, zu einer sozialen Isolation bzw. Vereinsamung führen, mit der dann auch emotionale Störungen wie Depressionen einhergehen können. Problematisch ist das häufige Verleugnen und Verstecken der Störung, da dies die Entwicklung von adäquaten Copingstrategien, den Ausgleich durch audiologische Maßnahmen sowie die Teilnahme an hilfreichen Rehabilitationsmaßnahmen verhindert. Für Rehabilitationsmaßnahmen ist es wichtig, dass die Familie mit einbezogen wird und dass die Kommunikationskompetenzen und bereits ausgebildete (in)adäquate Bewältigungsmechanismen bekannt sind. 8.3.2 Die Tabuisierung der Störung Der schleichende Prozess der Entstehung einer Lärmschwerhörigkeit prädestiniert die Störung dazu, nicht wahr– oder ernst genommen zu werden. Insbesondere bei männlichen Lärmschwerhörigen scheint die Tendenz zu bestehen, den Hörverlust zu ignorieren und Situationen zu vermeiden, in denen dies offenkundig werden könnte (Barrenäs 1998). Auf der einen Seite bleibt der Hörverlust ein Tabu, auf der anderen Seite zeigt aber eine Studie mit Arbeitern (Lalonde u. Hétu 1986) klar, dass sie den Wunsch verspürten, dass ihre Frau ihre Erfahrungen mit dem Hörverlust verstehen möge. Da versucht wird, die Störung zu verstecken (Vesterager et al. 1988) und der Dialog darüber oftmals ein Tabu ist (Lalonde u. Hétu 1986), wer-
8.3 Verhalten und soziale Interaktion von Schwerhörigen
371
den die Nachteile, die durch die Störung entstehen, von Außenstehenden oft nicht wahrgenommen. Verleugnung als evasive Kommunikationsstrategie (Tesch–Römer 2001) muss daher als misslungener Versuch gewertet werden, mit der Störung umzugehen. Für den Laien bleibt die Schwerhörigkeit häufig ein Problem unzureichender Lautstärke, das durch „einfaches“ lauteres Reden behebbar ist. In der Regel ist weder bekannt, wie ein Schwerhöriger hört, noch bestehen realistische Vorstellungen darüber, dass sehr viele Lebensbereiche tief greifend verändert werden können (Guski et al. 1996). Sicherlich mitbedingt durch die Tabuisierung besteht eine deutliche Diskrepanz zwischen erlebter Beeinträchtigung des Gehörs und dem, was man sich als Normalhörender darunter vorstellt. Im Gegensatz zur Blindheit, die man sich durch Schließen der Augen ohne weiteres veranschaulichen kann, ist die Schwerhörigkeit weit weniger konkret. So wird Schwerhörigen auch nicht annähernd der Status von Behinderten zugestanden (wie es bei Sehbehinderten ohne weiteres der Fall ist), sie treffen dementsprechend weit seltener auf Hilfeverhalten und Verständnis in ihrer Umwelt, sondern werden im Gegenteil häufig eher belächelt (Guski et al. 1996). Die vielfachen Versuche, als „vollwertig“ zu gelten, wie Mitlachen bzw. Verstehen vortäuschen, können zu dem Vorurteil führen, dass das Problem des Schwerhörigen vielleicht doch nicht nur ein akustisches ist (Guski et al. 1996). Die Natur der Hörschädigung, besonders der Verlust von Frequenzauflösung, der schlechte Sprachdiskrimination unter Lärm verursacht, wird von anderen oftmals genauso wenig verstanden wie vom Betroffenen selbst. Wegen seiner vieldeutigen und diskreten Natur erscheint der Hörverlust eher als Ergebnis mangelnder Konzentration und Unwillen zur Kommunikation anstatt als Konsequenz eines Hörproblems (Hétu 1981). Daher kommt es vor, dass Schwerhörige als unbeholfen und unsensibel oder sogar als beschränkt angesehen werden (Guski et al. 1996). Die Entwicklungen innerhalb der Hörgeräteindustrie verhindern ebenfalls eine größere Akzeptanz und ein besseres Verständnis der psychosozialen Probleme von Hörgeschädigten, da auch hier die klare Tendenz besteht, die Schwerhörigkeit zu verstecken, wann immer das möglich ist (Vesterager et al. 1988). Die Folgen der Tabuisierung der Störung lassen sich wie folgt zusammenfassen
x Falsche Einschätzung des Handicaps durch Außenstehende x Falsche Vorstellungen anderer über die Behebbarkeit des Handicaps („einfach“ lauter sprechen; Hörgerät)
372
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
x Falsche Bewertung der Person durch andere (Unwillen, mangelnde Intelligenz) x Kein Hilfeverhalten von Außenstehenden x Keine Suche nach audiologischer Hilfe. 8.3.3 Subjektives Erleben der Schwerhörigkeit Auch wenn seitens der Betroffenen lange Zeit versucht wird, den Verlust des Hörens zu ignorieren, bzw. dieses Thema tabuisiert wird, sind irgendwann die Hinweise auf die Störung so massiv, dass sie nicht mehr geleugnet werden können. Hétu et al. (1987) untersuchten deshalb die Dimension der psychosozialen Beeinträchtigungen, die in Verbindung mit den Reaktionen der Familie auf einen lärmbedingten Hörverlust stehen. Speziell drei Fragestellungen wurden verfolgt:
x Festzustellen, wie die Hörschädigung die Familienbeziehungen beeinflusst. x Zu identifizieren, welche Strategien der Betroffene entwickelt, um innerhalb der Familie seine Schädigung auszugleichen. x Zu evaluieren, ob die spontane Reaktion der Familie die Beeinträchtigungen mildert oder verstärkt, die aus dem Hörverlust entstehen. Das „Sich–bewusst–sein“ ein Hörproblem zu haben, wird überraschender Weise nicht durch die Reaktion der Familie auf die Hörschädigung determiniert. Die Variablen, die höhere Korrelationen mit der Selbstwahrnehmung der Hörschädigung zeigen, beziehen sich auf das Erleben der Einschränkung der Kommunikationsfähigkeit, insbesondere wenn es um Kommunikation in der Gruppe geht. Ebenso unerwartet scheint es, dass die Hörsensitivität allein genommen ein schlechter Prädiktor für psychosoziale Nachteile ist, die aus lärminduzierter Schwerhörigkeit resultieren. Dieses Ergebnis fanden auch Lalande et al. (1988). Dies zeigt, wie wichtig es ist, zusätzlich zum objektiven Hörverlust auch die subjektive Beeinträchtigung zu erheben (z.B. mit dem Communication Profile for the Hearing Impaired (CPHI), Demorest u. Erdman 1986). Vor allem eine Variable scheint ein hochspezifischer Prädiktor für eine wahrgenommene schwere Hörschädigung zu sein: „Während normaler Unterhaltungen sehr oft um Wiederholung bitten“ wurde von 90 % derjenigen berichtet, die sich selbst als ernsthaft durch das Hörproblem beeinträchtigt fühlen. Die Probleme, die während normaler Unterhaltungen mit akustischen Warnsignalen und Telefonnachrichten erlebt werden, stehen in signifikantem
8.3 Verhalten und soziale Interaktion von Schwerhörigen
373
Zusammenhang mit dem Hörlevel und dem wahrgenommenen Hörstatus (Hétu et al. 1987). Die vielfältigen Beeinträchtigungen und die unterschiedlichen Ergebnisse für den Umgang, bzw. die Auswirkungen der Hörschädigung verdeutlichen, wie entscheidend die Erhebung der subjektiven Beeinträchtigung ist. Dabei muss vor allem die selbst wahrgenommene Kommunikationsleistung eine wichtige Rolle spielen. Als Möglichkeit hierfür stellen Demorest u. Erdman (1986) das Communication Profile for the Hearing Impaired (CPHI) vor. Es ist ein Selbstbeurteilungs–Inventar, das 25 Werte ergibt, die die Kommunikationsleistung, die Kommunikationsumgebung, die Kommunikationsstrategien und die persönliche Anpassung von hörgeschädigten Erwachsenen beschreibt. Das Inventar wurde für amerikanisches Militärpersonal entwickelt und besteht aus den folgenden Skalen:
x Communication Performance: Diese Skalen wurden entwickelt, um die kommunikative Effektivität zu erfassen, definiert als „fähig sein, Information zu geben oder zu erhalten oder eine Konversation zu führen ohne große Anstrengung oder psychische Belastung“. Die Skalen basieren auf 18 Items, die verschiedene Typen von Situationen und Hörbedingungen beschreiben: soziale Situationen, bei der Arbeit, zu Hause, durchschnittliche Situationen, ungünstige Situationen; x Communication Importance: Ein gegebener Grad an Kommunikationsschwierigkeit ist nicht gleich problematisch für alle Individuen. Wenn Kommunikationsprobleme auf die Situationen beschränkt sind, wo Kommunikation nicht als wichtig erlebt wird, können die beeinträchtigenden Effekte des Hörverlustes als weniger schwerwiegend eingestuft werden als in wichtigen Situationen. Bei dieser Skala werden die gleichen 18 Items der ersten Skala nach ihrer Wichtigkeit eingestuft; x Communication Environment: Erfasst werden Kommunikationsbedürfnis, physische Charakteristika, Einstellungen und Verhalten anderer; x Communication Strategies: Die Verhaltensstrategien, die von den Hörgeschädigten entwickelt werden, können als unangepasst oder angepasst beurteilt werden, abhängig von ihrem Effekt auf den Kommunikationsprozess. Unangepasste Strategien unterbrechen oder hemmen den Kommunikationsprozess, wohingegen angepasste die Kommunikation verbessern oder zumindest die Effekte des Hörverlustes minimieren. Gemessen werden unangepasste Strategien, verbale Strategien, nonverbale Strategien; x Personal Adjustment: Ein weiterer bedeutsamer Aspekt des CPHI ist die Betonung von affektiven Komponenten der individuellen Akzeptanz einer Anpassung an einen Hörverlust und von Reaktionen auf die resultie-
374
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
renden Kommunikationsprobleme. Dieser Bereich enthält acht Skalen, die verschiedene Aspekte der persönlichen Anpassung untersuchen: Selbstakzeptanz, Akzeptanz des Verlustes, Ärger, Verantwortungsabgabe, Entmutigung, Stress und Rückzug. x Problem Awareness and Denial: Das Problembewusstsein konzentriert sich auf Kommunikationsprobleme. Die Items ähneln denen für Communication Performance, aber sie beschreiben Situationen, in denen Hörer erwarten, Schwierigkeiten zu haben. Verleugnung ist analog zur Bewusstseinsskala, bezieht sich aber auf die affektive Komponente und nicht auf die Kommunikation per se. Ihr Ziel ist es, Individuen zu identifizieren, deren Antworten auf der Skala persönliche Anpassung unter Berücksichtigung des gegebenen Hörverlusts unglaubhaft positiv sind. Hallberg et al. (1992b), die dieses Instrument ins Schwedische übertrugen, verweisen darauf, dass insbesondere für ältere Personen, bei denen der Hörverlust eher auf das Alter zurückzuführen, bzw. genetisch beeinflusst war, häufiger ungünstige Kommunikationsstrategien als jüngere mit Lärmschwerhörigkeit verwendeten. Darüber hinaus fanden auch sie einen höheren Anteil von Personen mit schlecht angepassten Kommunikationsstrategien, deren Ausbildung kürzer war (Hallberg et al. 1992a). Personen mit höherer Ausbildung können sich anscheinend aufgrund ihrer Tätigkeit eher weniger aus Kommunikationssituationen heraus ziehen. Tritt die Schwerhörigkeit früh auf, kann sie die Persönlichkeitsentwicklung beeinflussen. Beck (1986) fand bei ca. 200 schwerhörigen oder gehörlosen Schülern der Klassen 8 bis 10, dass der Realitätsgrad des sozialen Selbstkonzepts (ermittelt aus der Differenz zwischen Selbst– und Fremdeinschätzungen) mit steigendem Hörverlust signifikant sinkt. Wo sich normalhörende Jugendliche durch ein reales Selbstkonzept auszeichnen, was bedingt wird durch die erhöhte Fähigkeit zur Selbstkritik und das verstärkte Bestreben nach Selbsterkenntnis und Selbsteinschätzung, zeigt sich das Absinken des Realitätsgrades des Selbstkonzeptes bei hörgeschädigten Jugendlichen vor allem in Dimensionen wie Kommunikations– und Kooperationsbereitschaft, kommunikatives Selbstvertrauen und Selbstakzeptierung. Dieser Realitätsverlust zeigte sich bei schwerhörigen Jugendlichen in beide Richtungen, bei Gehörlosen war er aber vor allem durch Überschätzung charakterisierbar. Vesterager et al. (1988) fanden keinen Zusammenhang zwischen lärminduzierter Schwerhörigkeit und dem Aktivitätsmaß bei älteren Personen. In ihrer Studie stand eine Verringerung des Aktivitätsmaßes vielmehr im Zusammenhang mit physischen Einschränkungen, Müdigkeit und Angst alleine auszugehen oder weit weg zu gehen oder mit einer verringerten Anzahl von Interessen. Die Verschlechterungen der Gesundheit und Ver-
8.3 Verhalten und soziale Interaktion von Schwerhörigen
375
ringerungen der Mobilität scheinen einen negativen Einfluss auf die Lebensqualität zu haben und viel mehr Bereiche des Lebens zu beeinflussen als die Schwerhörigkeit. Ein hoch aktives Leben stand in Verbindung mit einem erhaltenen Intellekt und mit höherer sozialer Schicht. Diese Ergebnisse zeigen, dass Personen höherer Schicht offensichtlich trotz verschlechtertem Hören ein aktives Leben führen können, obwohl dies beanspruchende Hörsituationen impliziert. Auch gab es in dieser Studie keine statistisch signifikanten Korrelationen zwischen dem Hörhandicap und dem Selbstwahrnehmungsindex. Die Interviews ergaben, dass bei einer positiven Selbstwahrnehmung das eigene Leben ebenfalls positiv erlebt wird. Enge soziale Beziehungen scheinen dies ebenfalls zu unterstützen. 8.3.4 Die Auswirkungen auf Verhalten, Kommunikation und soziale Beziehungen Die Ausführungen über das Verleugnen der Schwerhörigkeit und die Zögerlichkeit, mit der der zunehmende Hörverlust ins eigene Bewusstsein rückt, legen schon nahe, dass die Schwerhörigkeit einen starken Einfluss auf das Verhalten der betroffenen Personen ausübt. Verhaltensweisen, die sich typischerweise bei einer Schwerhörigkeit ausbilden, beinhalten die Vermeidung von sozial orientierten Verhaltensweisen, Unsicherheiten in Gruppensituationen, Misstrauen und aggressive Selbstbehauptung und schließlich defensive, passive und kontaktarme Züge. Zunächst wird versucht, die Störung zu verstecken. Der Betroffene tut so, als verstünde er alles. Häufig kommt es stattdessen zu Missverständnissen. Die können wiederum zu Fehleinschätzungen der Intelligenz oder des guten Willens des Betroffenen durch andere Personen führen. Durch die ständige Belastung, die Anpassungsreaktionen des Körpers auf unerwartete Ereignisse und Misstrauen, kann die Person gereizt oder unsicher sein und sich in der Folge aus kommunikativen Situationen zurückziehen. Die Verleugnung, das Verstecken hat auch zur Folge, dass häufig kein entsprechendes präventives Verhalten gezeigt wird, das die Störung im frühen Stadium vermindern oder gar verhindern könnte. Guski et al. (1996) diskutieren als Gründe für mangelndes präventives Verhalten den Mangel an der direkten Wahrnehmbarkeit kurz– und langfristiger Schäden, die Fehleinschätzung des persönlichen Risikos und das Fehlen der Motivation zur Änderung. In der Folge besteht auch kein Interesse an einem Hörgerät. Dabei besteht der Personenkreis, der nicht an der Anpassung eines Hörgeräts interessiert ist, aus Menschen mit ähnlichen Persönlichkeits– und Verhaltensfaktoren (Vesterager et al. 1988):
x Hörprobleme werden nie oder selten wahrgenommen;
376
x x x x
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
niedrige soziale Schicht; keine oder wenige Freunde und soziale Kontakte; hauptsächlich häusliche Interessen und die Tendenz, emotionale und persönliche Probleme nicht zu zeigen.
Eine frühe Studie von Meyerson (1948) zur Auswirkung akustischer Deprivation illustriert anschaulich, welche Folgen Schwerhörigkeit haben kann. Er reduzierte bei einer Gruppe gesunder Testpersonen für die Dauer von 24 Stunden das Sprachhörvermögen um 30 dB. Die Beobachtungen zeigten, dass das Verhalten der Versuchspersonen schnell schwerhörigkeitstypische Besonderheiten annahm:
x sozial orientierte Verhaltensweisen wurden zunehmend vermieden, x Gruppensituationen riefen sichtbare Zeichen von Unsicherheit hervor, x vermehrt traten misstrauische und von aggressiver Selbstbehauptung geprägte Reaktionen auf, x im Gespräch täuschten Testpersonen oft ein nicht vorhandenes Verständnis vor, was Fehlreaktionen und konflikthaften Auseinandersetzungen Vorschub leistete. Mit wachsender Versuchsdauer nahm das beobachtbare Verhalten defensive und passive Züge an und Kontakt wurde zunehmend vermieden. Besonders beeindruckend an dieser Studie ist, wie schnell (innerhalb von 24 Stunden) sich die Verhaltensweisen als Folge der Beeinträchtigung eines wichtigen Sinnesorgans verändern. Dies berücksichtigend sollte es nicht verwundern, dass diese Verhaltensweisen bei Lärmschwerhörigen, deren Störung seit einigen Jahren vorliegt, stark verfestigt ist: „Das Bewusstsein der eigenen Insuffizienz versetzt sie in eine ständig erhöhte Empfindlichkeit, so dass selbst belanglosen, zufälligen Erlebnissen nicht mehr mit einer natürlichen Verarbeitung begegnet werden kann. „Ihre Selbstunsicherheit bringt sie bei vielen alltäglichen Anlässen dazu, ihre Stellung unter den Mitmenschen selbst in Frage zu stellen. Sie sehen Geringschätzung, Herabsetzung, Bevormundung oder Verspottung, wo die Situation einen viel harmloseren Charakter hat“ (Richtberg 1988, nach Guski et al. 1996, 28). Kommunikation ist mehr als nur der Austausch von Informationen über Sachverhalte, sie dient vielmehr auch der Herstellung und Festigung sozialer Beziehungen, der individuellen Selbstdarstellung der Kommunikationsteilnehmer (Selbstoffenbarung) sowie der Möglichkeit, andere in ihrem Verhalten zu beeinflussen (Appell, nach Schulz von Thun 2003). Dabei wird Kommunikation durch implizite Konversationsmaximen (Grice 1975; Tesch–Römer 2001) beeinflusst, das heißt, die Kommunikation sollte we-
8.3 Verhalten und soziale Interaktion von Schwerhörigen
377
sentlich (Qualität), hinreichend informativ (Quantität), kontextbezogen (Relation) und verständlich (Art und Weise) sein. Für einen Schwerhörigen wird es zunehmend problematischer, unter schwierigen Bedingungen, wie Hintergrundgeräusch oder Gesprächen in der Gruppe, zu kommunizieren, da er Sprache nur noch im einfachen Dialog mit einem direkten und deutlich sprechenden Gegenüber verstehen kann. Mehrere gleichzeitig auftretende Stimmen können nicht mehr auseinander gehalten werden (Guski et al. 1996). Aus der Perspektive des Schwerhörigen als dem Hörer sind also unter Umständen mehrere Konversationsmaxime nicht erfüllt (Quantität, Art und Weise). Aber auch unter günstigen Bedingungen ist die Kommunikation erschwert. Die schwerhörige Person muss sich stark konzentrieren, um einer Konversation folgen zu können. Auch für den oder die Kommunikationspartner sind die Anforderungen hoch. Er muss sich anstrengen, besonders laut und deutlich zu sprechen, den Blickkontakt zu halten, die eigene Sprache ständig zu kontrollieren und sehr geduldig bei ggf. notwendigen Wiederholungen bleiben (Guski et al. 1996). Unabhängig von den akustischen Einschränkungen sind es vermutlich auch die bewussten Verstöße gegen die Konversationsmaxime, die die Kommunikation zwischen normal– und schwerhörigen Personen zusätzlich erschweren. Der Schwerhörige überhört wesentliche Signale in der Sprachmelodie (z.B. werden Fragen als Mitteilungen missverstanden). Stimmungen und Gefühle, die mit der Sprache subtil ausgedrückt werden, bleiben ihm verborgen und damit ein großer Anteil der Bedeutung der Kommunikation (Guski et al. 1996). Der übliche Austausch von Emotionen ist eingeschränkt und Missverständnisse treten auf. Als langfristige Folgen der durch die Schwerhörigkeit verursachten Kommunikationsbeschränkungen nennen Guski et al. (1996) soziale Isolation, Vereinsamung, Vorurteile, Missverständnisse sowie eine eingeschränkte Einbindung in die akustische Umwelt und somit eine Einbuße der Lebensqualität. Durch eine frühe Schwerhörigkeit kann die Entwicklung von kommunikativen Fähigkeiten vermindert werden. Peterson u. French (1988) fanden beispielsweise Defizite in der Fähigkeit, Texte zusammenzufassen, die offensichtlich aus dem Hörverlust resultierten. Sie verglichen die Leistung von 30 hörgeschädigten und 30 normalhörenden Studenten. Die Ergebnisse zeigten, dass hörgeschädigte Studenten zwar Basisfertigkeiten für Zusammenfassungen haben, die Zusammenfassungsstrategien aber nicht so effektiv einsetzen wie normalhörende Studenten. Hörgeschädigte Studenten waren nicht so sensibel wie normalhörende für die Wichtigkeit der Ideen und verwendeten die folgenden Zusammenfassungsstrategien signifikant seltener:
378
x x x x
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Einbeziehen wichtiger Ideen, Auswahl der Hauptaussagen, Entwicklung von Hauptaussagen und Integration von Ideen innerhalb und zwischen Absätzen.
Das heißt, selbst die schriftliche Kommunikation kann langfristig unter der Schwerhörigkeit leiden. Florin et al. (1990) fanden, dass schwerhörige Personen im Vergleich zu normalhörenden signifikant seltener telefonieren, aber auch signifikant seltener Briefe schreiben. „Der zunehmende Verlust der akustischen Welt bremst nicht nur die eigene akustische Mitteilungslust, er bremst offenbar Kommunikationsbedürfnis und Kommunikationskraft insgesamt“ (Frank 1993). Obwohl das Altern die wahrgenommenen Nachteile bezogen auf die „Qualität des Lebens zu Hause und bei der Arbeit“ leicht verringert (Lalande et al. 1988), behindert altersbegleitende Schwerhörigkeit (die u.a. auch durch Lärmbelastung entstehen kann) die kommunikative Effektivität und verringert die Fähigkeit eines Individuums, interpersonale Beziehungen aufzubauen und zu erhalten. Selbstberichte von schwerhörigen Personen haben ergeben, dass die Hörschädigung sie von ihrer Umgebung abschneidet, in die sie einst aktiv involviert waren (vgl. Weinstein u. Ventry 1982). Außerdem legen klinische Eindrücke nahe, dass Schwerhörigkeit bei älteren Individuen eine Kette von psychologischen Reaktionen auslöst. Nach Hull (1978) beginnt der Kreislauf mit Frustration, die aus der verringerten Kapazität für Interaktionen und kommunikativer Effektivität erwächst. Er schloss, dass der psychologische Stress, der mit der Unfähigkeit mit anderen zu kommunizieren assoziiert ist, die Isolierungsstrategie bedingen könnte, die von vielen älteren hörgeschädigten Individuen verwendet wird. Zur Beziehung zwischen sozialer Isolation und der Leistung in verschiedenen audiologischen Tests fanden Weinstein u. Ventry (1982) einen klaren Zusammenhang: je schlechter die Werte in den audiologischen Messungen waren, desto isolierter war das Individuum. Dabei spielt das Hörhandicap sowohl für die objektiv erhobene Isolation als auch für die subjektiv empfundene Isolation eine Rolle. Personen, die auf beiden Skalen als isoliert bewertet wurden, zeigten die größten Hörschädigungen (s. Tab. 8.3.4-1). „Die in der Folge von Schwerhörigkeit feststellbare soziale Isolation ist keine übertrieben dargestellt seltene Konsequenz, sondern oft zunächst sehr subtil Realität“ (Guski et al. 1996, S.19). Veranschaulicht man sich die Folgen von Verleugnung, Unsicherheiten, Kommunikationsproblemen und körperlichen Anpassungsreaktionen, so kann man den Rückzug aus sozialen Situationen, besonders den kommunikativ anspruchsvollen Grup-
8.3 Verhalten und soziale Interaktion von Schwerhörigen
379
pensituationen, durchaus nachvollziehen. Ohne aktive Suche nach sozialen Situationen schlafen Kontakte leicht ein und das soziale Umfeld einer Person vermindert sich, anfangs vielleicht kaum merkbar. Schwerhörige haben im Vergleich zu Normalhörenden ihrer Altersgruppe signifikant weniger Kontakte mit anderen Menschen und treffen weniger feste Verabredungen. Außerdem nehmen sie seltener an Gruppen– oder Vereinsaktivitäten teil (Florin et al. 1990). Tabelle 8.3.4-1. Korrelationen zwischen subjektiven und objektiven sozialen Isolationswerten, standardisierter Einsilbertest (SVE, W–22), Rush–Hughes–Werte, Hearing Measurement Scale (HMS) und Hörverluste (HVT) (N=80) (Weinstein & Ventry 1982, 595) HVT
HMS
HVT 1.00 HMS Rush–Hughes SVE subjektive Isolation objektive Isolation *p < .05, alle anderen, p < .01
.67 1.00
Rush– Hughes .76 .63 1.00
SVE .69 .49 .77 1.00
Subjekt. Object. Isolation Isolation .39 .24* .52 .26 .42 .22* .25 .18* 1.00 .50 1.00
Hallberg u. Carlsson (1991a, b) fanden in einer Explorationsstudie mit Hörgeschädigten sowohl Verhaltensweisen zur Vermeidung sozialer Situationen als auch zur Kontrolle der sozialen Situation (überprüfen der akustischen Situation, Nachfrage nach Hörhilfen im Kino/Theater, überprüfen erhaltener Informationen). Alle hörgeschädigten Personen berichten über die erhebliche Konzentration, die aufgebracht werden muss, um Kommunikationen insbesondere auch am Arbeitsplatz folgen zu können, woraus ein hoher Erholungsbedarf resultiert. Klinische Erfahrung hat jedoch gezeigt, dass durch das Handicap besonders die Familienbeziehungen beeinträchtigt werden (Hétu 1981). Dies ist insofern verständlich, da hier der Rückzug aus der Gesprächssituation nicht so einfach ist. Beschwerden und Beschuldigungen der Familien lösen das Gefühl aus, belastend zu sein und in verschiedenen Situationen inadäquat zu reagieren. Daraus ergeben sich psychosoziale Beeinträchtigungen sowohl für die betroffene Person als auch für die Familien. Selbst unter günstigen Verhältnissen (Blickkontakt zu einem Gesprächspartner, wenig Hintergrundgeräusch) ist die Verständigung erschwert und anstrengend. Dabei kann es zu Einschränkungen des Gesprächsstoffs durch bewusste Vermeidung komplexer Themen kommen und schließlich zu einem Verzicht auf die Übermittlung von Stimmungen und Emotionen (Guski et al. 1996). Frank
380
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
(1993, 21), beschreibt dies drastisch aber auch anschaulich: „Jede Herzlichkeit, jede Wärme entweicht aus einer zärtlichen Floskel, hat man sie zum fünften Mal mit ungeduldig anschwellender Stimme ins schwerhörige Ohr gebrüllt.“ Trotz relativ ernster Behinderungen sind einige Personen jedoch nicht eingeschränkt, das heißt, sie erleben sich nicht als beeinträchtigt (Hétu et al. 1987). Dies zeigte sich (s.o.) in einer Stichprobe von Schwerhörigen mit mittlerem und hohem sozioökonomischen Status, in der sich die Schwerhörigen von ihren Freunden und Bekannten ähnlich unterstützt fühlten wie die Kontrollpersonen (Florin et al. 1990). Jedoch bestand hier die Gruppe wiederum aus Hörgeräteträgern. Zusätzlich zu den direkten sozialen Kontakten entsteht eine Einbuße der Lebensqualität auch durch die Einschränkungen der Hobbys. Hier muss je nach Grad der Störung auf Freizeitaktivitäten mit akustischem Anspruch wie Singen, Tanzen, Theater, Kino oder Konzerte ganz verzichtet werden. Musikhören ist selbst bei höherer Lautstärke kein Genuss mehr, weil die Darbietungsqualität nicht annährend wahrgenommen werden kann und zudem können häufig zu laut eingeschaltete Radios oder Fernseher zu Zerwürfnissen mit Familie und Nachbarn führen (Guski et al. 1996). Ein wesentlicher Punkt ist auch die Einschränkung in der Arbeitswelt. Erschwerte Kommunikation mit den Kollegen, das Überhören von Gefahrensignalen oder von Geräuschen, die auf unterschiedliche Betriebszustände von Maschinen hinweisen, können leicht zu Arbeitsfehlern führen. Diese können dann wiederum ein Gefühl des Kontrollverlusts, Minderwertigkeitsgefühle und eine Minderung der Arbeitszufriedenheit mit sich bringen (Guski et al. 1996). Interessant für die Bewertung der Belastung durch laute Arbeitsplätze auf die Kommunikation ist es zu wissen, dass der Hörstatus in der Bewertung der Schwerhörigen durch Außenstehende keine hochspezifische Messung der wahrgenommenen Einschränkung zu sein scheint. In einer Studie von Hétu et al. (1987) wurden 40 % der normalhörenden Arbeiter von ihren Frauen als hörgeschädigt eingestuft. Das zeigt, dass auch schon die auditive Ermüdung und daraus resultierende Hörschwächen (temporäre Vertäubung) mit alltäglicher Kommunikation interferieren. Dieses Warnsignal wird allerdings zu häufig ignoriert. 8.3.5 Die Auswirkungen der Störung auf die physische und psychische Gesundheit Wenn im Folgenden von der Gesundheit Schwerhöriger die Rede ist, dann bezieht sich der Begriff auf alle weiteren körperlichen und geistigen Funk-
8.3 Verhalten und soziale Interaktion von Schwerhörigen
381
tionen. Da die Schwerhörigkeit als körperliche Beeinträchtigung psychische und physische Prozesse weitreichend beeinflussen kann, ist es wichtig, gesundheitliche Folgeerscheinungen einer Schwerhörigkeit gesondert zu diskutieren. Wo das Auge für die räumliche Auflösung zuständig ist, ist das Gehör für die zeitliche Auflösung zuständig und normalerweise in der Lage, schnell aufeinander folgende Ereignisse zu erfassen. Das heißt für den Schwerhörigen, dass bestimmte Ereignissequenzen gar nicht oder unzureichend wahrgenommen werden und sich schnell entwickelnde Ereignisse nicht verfolgt werden können (Guski et al. 1996). Dadurch fehlt Schwerhörigen die Warnfunktion des Gehörs für unerwartete Ereignisse. Wenn die Durchlässigkeit für Schreckerlebnisse groß wird, kann Schreckhaftigkeit als überdauernde Anpassungshaltung eintreten. Treten dann noch zusätzliche Belastungen auf, kann es zu einer psychosomatischen Dekompensation kommen, die sich in Kopfschmerzen, Schlafstörungen, Wetterfühligkeit, Konzentrationsschwäche und ähnlichem ausdrückt (Richtberg 1980). Salomon et al. (1988) fanden in ihrer Studie, dass die Hälfte der untersuchten hörgeschädigten älteren Personen berichtete, eine Verschlechterung der Gesundheit erlebt zu haben, obwohl zwei Drittel aller Personen nach der medizinischen Untersuchung (außer der Hörschädigung) als gesund klassifiziert wurden. Das zeigt, dass die Schwerhörigkeit auch ein subjektives Gefühl der Gesundheitsverschlechterung auslösen kann. Das Nicht–Hören führt zusätzlich zu einem Unsicherheitsgefühl, welches die Freiheitsgrade des Verhaltens einengt und normale Spontaneität erschwert. Gleichzeitig damit wachsen Misstrauen, Empfindlichkeit, Ungeduld und Verletzbarkeit. Angst, Skrupel, Zweifel und Minderwertigkeitsgefühle belasten zunehmend die tägliche Lebensführung (Richtberg 1989). Schwerhörige sind deshalb in besonderem Maße vom Leiden der Vereinsamung bedroht (zur Übersicht s.a. Guski et al. 1996). Herbst u. Humphrey (1980) fanden eine signifikante Korrelation zwischen Depression und Taubheit. Diese Befunde konnten von Florin et al. (1990) nicht bestätigt werden. In ihrer Untersuchung unterschieden sich die Schwerhörigen von den (im Alter ähnlichen) Kontrollpersonen nicht bedeutsam in der globalen Selbsteinschätzung des Gesundheitszustandes. Sie fanden weder mehr Depressivität noch mehr kognitive Beeinträchtigungen oder psychotische Erlebnisse als in der Kontrollgruppe. Dies kann aber daran liegen, dass ihre Stichprobe aus Personen eines hohen sozioökonomischen Status bestand, die mit der Kompensation der Störung besser zu recht kamen, als Personen aus bildungsfernen Schichten (s.u.). Außerdem bestand die Stichprobe nur aus Personen, die ein Hörgerät trugen. Trotz dieser „Positivauswahl“ fan-
382
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
den Florin et al. (1990) jedoch eine signifikant höhere Ängstlichkeit bei den Personen aus der schwerhörigen Gruppe. Allerdings fanden Florin et al. (1990) auch nach der Ausklammerung von Krankheiten, die vor Beginn der Schwerhörigkeit schon bestanden haben, signifikant mehr Krankheiten in der Gruppe der Schwerhörigen als in der Kontrollgruppe und einen signifikant höheren Medikamentengebrauch (s. Abb. 8.3.5-1). Zusammenfassend kann gesagt werden, dass die Schwerhörigkeit offensichtlich sowohl physische wie psychosomatische und psychische Beeinträchtigungen als „Nebenwirkung“ mit sich bringen kann. In welcher Form sich die Störung des Sinnes „Hören“ zusätzlich auswirkt, scheint aber von einem komplexen Beziehungsgeflecht verschiedener Faktoren (sozioökonomischer Status, Copingstrategien, Hörgeräteversorgung, bestehende soziale Beziehungen, etc.) abzuhängen, was eine Vorhersage erheblich erschwert. Schwerhörige
Kontrollgruppe
25 20,7
20,7
19,3
20 15 11,4
11,4 9,3
10 5 0 Probleme der Gelenke / Wirbelsäule
Grippe, Erkältung, Infektion
Herz- und Kreislauferkrankungen
Abb. 8.3.5-1. Vergleich der Krankheitshäufigkeit von Schwerhörigen und einer Kontrollgruppe (nach Florin et al. 1990)
8.3.6 Der Umgang mit der Störung Kompensation und Rehabilitation Erfolgreicher Umgang mit der Störung ist vor allem abhängig von der Information über die Behinderung, ebenso wie über Wege damit umzugehen. Das ist insbesondere von entscheidender Bedeutung für Personen an Lärmarbeitsplätzen und deren Angehörige (Lalande et al. 1988). Ohne entsprechende Information und Hilfe kommt es leicht zu unangemessenen Copingstrategien, die die Störung eher verdecken, als sie zu kompensieren (vgl. Tab. 8.3.6-1).
8.3 Verhalten und soziale Interaktion von Schwerhörigen
383
Selbst in sozioökonomisch besser gestellten Schichten ist kompetentes Verhalten, das dem Schwerhörigen Erleichterung in Gesprächssituationen bringen könnte (z.B. Bitte des Gesprächspartners um Anschauen beim Sprechen; Bitte, die Hand nicht vor den Mund zu halten; Information der anderen über beeinträchtigende Nebengeräusche) sehr gering ausgeprägt (Florin et al. 1990). Dies könnte wie erwähnt damit zusammenhängen, dass Konversationsmaxime nicht oder nur unvollständig eingehalten werden können. Tabelle 8.3.6-1. Copingstrategien, die von 60 befragten Arbeitern verwendet wurden, die bei Familiengesprächen Probleme hatten, der Konversation zu folgen (Hétu et al. 1987, 148) Verwendete Strategie Vorgeben zu verstehen, während man ruhig bleibt Um Wiederholung bitten Nach einer ruhigeren Umgebung zum Reden suchen Versuch, zu erraten, was gesagt wird Akzeptieren, den Gesprächsfaden zu verlieren Versuch, die Konversation zu beherrschen Versuch, diese Unterhaltungen zu vermeiden, indem man abseits steht
Anzahl der Antworten in % 67.3 61.7 50.0 40.0 36.7 16.7 8.3
Die Wahrscheinlichkeit, dass mit der Ehefrau über das Hörproblem gesprochen wird, erhöht sich zwar mit der Schwere der Störung, jedoch erhöht die spontane Reaktion der Familie auf die Hörschädigung und auf Nacheffekte der Lärmbelastung die psychosozialen Nachteile, die vom Arbeiter empfunden werden. Das bedeutet, dass die Qualität der Familienbeziehungen durch die Hörschädigung des Familienmitglieds beeinträchtigt wird (Hétu et al. 1987). Um eine gute Anpassung gewährleisten zu können, besteht zunächst die Notwendigkeit einer Analyse der Hauptnachteile für Arbeiter und Familie in gewöhnlichen Situationen zu Hause, bei der Arbeit und während Freizeitaktivitäten. Diese kann man durch eine Quantifizierung mittels Fragebogen erreichen (Lalande et al. 1988). Lalonde u. Hétu (1986) entwickelten einen Fragebogen, der die Exploration der gemeinsamen Anpassungen in der Familie an die Beeinträchtigungen erlaubt, die durch Lärmschwerhörigkeit entstehen, und die psychosozialen Beeinträchtigungen evaluiert, die in diesem Kontext erlebt werden. Zusätzlich zur Frage bezüglich der Unfähigkeit, Sprache bei Hintergrundgeräuschen zu verstehen, enthält der Fragebogen vier Kategorien von Fragen, die sich auf die folgenden Bereiche beziehen:
x das Eingestehen der Hörschädigung;
384
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
x die Art, mit der das beeinträchtigte Individuum mit den Einschränkungen und Unfähigkeiten durch Lärmschwerhörigkeit umgeht und der Stress, der durch Lärmbelastung entsteht; x die Anmerkungen und Artikulation von Ärger durch die Familie auf die Einschränkungen durch den Hörverlust und x die Zahl der Diskussionen bezogen auf die Lärmschwerhörigkeit. Dabei ergab sich die Notwendigkeit, die Familie in Rehabilitationsprogramme einzubeziehen. Wenn die Familie allein gelassen wird, wirkt sie als Katalysator für psychosoziale Beeinträchtigungen. Auf der einen Seite reflektieren die Anmerkungen der Teilnehmer die Tatsache, dass der Hörverlust zu Hause ein Tabu bleibt; auf der anderen Seite haben die Arbeiter klar gezeigt, dass sie den Wunsch verspürten, dass ihre Frau ihre Erfahrungen mit dem Hörverlust versteht. Der Hörverlust ist die Ursache wichtiger Zwänge. Jedoch scheinen die Ehefrauen nicht explizit nach akzeptablen gemeinsamen Lösungen für die Konsequenzen des Hörverlusts zu suchen. Insgesamt kommen die Autoren zu dem Schluss, dass die Familie eine entscheidende Rolle für die Anpassung an die Lärmschwerhörigkeit darzustellen scheint. Lalande et al. (1988) haben in ihrer Studie, mittels Fragebogen, Fragen zu den folgenden Bereichen gestellt:
x x x x x
generelle Information auditive Störungen Beeinträchtigungen Copingstrategien und externe Hilfe. Bei der Datenanalyse ergaben sich drei Faktoren:
x Qualität des Lebens zu Hause und bei der Arbeit x Isolation und Selbstvertrauen x Telefon und Freizeitaktivitäten. Je mehr jemand sein Hörproblem eingesteht, umso mehr nimmt er die Nachteile wahr, die durch die Störung entstehen und umso mehr Nachteile hat er bezogen auf Isolation und Selbstbewusstsein. Daher ist es nur plausibel, dass das Eingeständnis, ein Hörproblem zu haben, die wichtigste Determinante für die Suche nach externer Hilfe ist. Es scheint entscheidend zu sein, dass Informationen zur Lärmschwerhörigkeit und Wege damit umzugehen, allen Arbeitern von Lärmbetrieben und deren Angehörigen gegeben werden muss. Der zweite Faktor zeigt, dass bei Rehabilitationsprogrammen professionelle Hilfe nicht nur gegeben werden sollte, um Kommunikationsprobleme zu minimieren, sondern
8.3 Verhalten und soziale Interaktion von Schwerhörigen
385
auch, um Selbstakzeptanz und Selbstbewusstsein zu erhöhen. Da mangelnde Selbstakzeptanz und fehlendes Selbstbewusstsein den Leidensdruck stark erhöhen können, sollte der Schwerpunkt zunächst auf der Reduzierung der psychosozialen Nachteile liegen, die zu Hause und bei der Arbeit entstehen. Das Problem der Verleugnung der Störung ist insofern problematisch, da Personen, wie oben gezeigt, dann auch nicht nach audiologischer Hilfe suchen. Personen, die nicht interessiert an der Anpassung eines Hörgeräts waren, waren in einer Studie von Vesterager et al. (1988) Menschen mit ähnlichen Persönlichkeits– und Verhaltensfaktoren:
x x x x x
Hörprobleme wurden nie oder selten wahrgenommen; niedrige soziale Klasse; keine oder wenige Freunde und soziale Kontakte; hauptsächlich häusliche Interessen und die Tendenz emotionale und persönliche Probleme nicht zu zeigen.
Die Ergebnisse legen die Schlussfolgerung nahe, dass Screeningprozeduren und Informationen über Rehabilitationsprogramme in erster Linie direkt an bildungsferne Schichten gerichtet werden sollten, die sich eher scheuen, Hilfe zu suchen und in Anspruch zu nehmen. Es wurde bereits mehrmals angesprochen, dass Rehabilitierungsmaßnahmen sowohl kommunikative als auch emotionale Probleme bearbeiten sollten. Trychin (1995) entwickelte ein Programm zum Umgang mit Hörverlusten. Dabei wird davon ausgegangen, dass es sinnvoll und effizient ist, den Beteiligten Strategien zu vermitteln, mittels derer sie ihre psychologischen und sozialen Probleme lösen, die aufgrund der schwerhörigkeitsbedingten Kommunikationsschwierigkeit auftreten. Das Programm "Coping with Hearing Loss" hat Trychin bereits mit mehr als 1000 Teilnehmern durchgeführt, die meist über 60 Jahre alt waren. Das Programm ist eher pädagogisch als therapeutisch, da es ein Problemlösungsansatz ist, der sich auf Strategien zur Prävention und Reduktion von Kommunikationsproblemen konzentriert. Ziele des Programms sind
x die Teilnehmer für Situationen zu sensibilisieren, die häufig Kommunikationsschwierigkeiten auslösen; x die Gründe für die Kommunikationsschwierigkeiten zu identifizieren; x die häufigsten Reaktionen auf die Kommunikationsschwierigkeiten zu identifizieren; x Reaktionen zu identifizieren, die die Wahrscheinlichkeit für Kommunikationsschwierigkeiten erhöhen und zu spezifizieren, wie dies passiert; x eine Möglichkeit zu geben, alternative Reaktionen zu üben, die helfen, Kommunikationsschwierigkeiten zu lösen, wenn sie auftauchen;
386
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
x die Möglichkeit zu bieten, Verhalten zu üben, das die Kommunikationsschwierigkeiten vermeiden oder verringern kann und x Informationen über lokale und nationale Ressourcen zu geben. Die Teilnehmer sollen dann fähig sein
x andere über ihre Hörschwäche zu informieren, x Sprecher darüber zu informieren, was sie tun müssen, um verstanden zu werden, x andere höflich erinnern, wenn sie es vergessen und x das Kommunikationsverhalten vorzumachen, das sie sich bei anderen wünschen. Trychin (1995) berichtet, dass das Programm vielen Menschen bei der besseren Handhabung von Kommunikationssituationen geholfen hat. In Rehabilitationsmaßnahmen sollten sowohl Hilfestellungen zur Verbesserung der kommunikativen Fähigkeiten als auch Maßnahmen zur Verbesserung der Selbstakzeptanz enthalten sein. Jede Person, die mit hörgeschädigten Personen umgeht, sollte sich der Vielzahl von sekundären Beeinträchtigungen, die mit dieser Störung einhergehen können, bewusst sein. So kann sie Verhaltensweisen dieser Person richtig einschätzen und ihrerseits dazu beitragen, eine für beide Seiten befriedigende Kommunikation zu ermöglichen. 8.3.7 Der Umgang mit Schwerhörigen im Überblick Der Umgang mit Schwerhörigen lässt sich wie folgt festhalten: x Konsequenzen, das heißt, individuelle und soziale Beeinträchtigungen, die sich durch eine Hörschädigung ergeben, sind sehr vielfältig und erstrecken sich auf emotionale, vegetative und vitale Befindlichkeiten sowie auf personale, soziale und kommunikative Kompetenzen. Schwerhörigkeitstypische Verhaltensweisen nehmen defensive, passive und kontaktarme Züge an. x Das häufige Leugnen und Verstecken der Störung ist problematisch, weil es die Entwicklung von adäquaten Bewältigungsstrategien, den Ausgleich durch audiologische Maßnahmen (insbesondere Hinweise zum unbedingten Benutzen von Hörgeräten) sowie die Teilnahme an hilfreichen Rehabilitationsprogrammen verhindert. x Soziale, besonders Familienbeziehungen werden durch die Schwerhörigkeit beeinträchtigt und spontane Reaktionen auf die durch die Schwerhörigkeit verursachten Defizite wirken oftmals als Katalysatoren für psychosoziale Beeinträchtigungen.
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
387
x Beim Umgang mit hörgeschädigten Personen sollten einem immer auch die Vielzahl möglicher individueller und sozialer Beeinträchtigungen bewusst sein, damit man das Verhalten der Person richtig deuten und zu einer für beide Seiten befriedigenden Kommunikation beitragen kann. x Rehabilitationsmaßnahmen sollten immer auch den sozialen Kontext (Familie) mit einbeziehen und sowohl Kommunikationsschwierigkeiten als auch Selbstwertprobleme bearbeiten, die mit der Störung einhergehen.
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung 8.4.1 Gehörschutz in Lärmbereichen Durch Arbeitsschutz– und Umweltschutzmaßnahmen soll das Entstehen von unerwünscht hohen Schallintensitäten, die durch technische Produkte (Maschinen, Anlagen, Geräte, Verkehrsmittel) entstehen, vermieden werden. Das verlangen EG–Richtlinien zur Begrenzung des Schalls von Maschinen und am Arbeitsplatz (89/392; 2003/10). Wenn alle Maßnahmen, insbesondere technische, zur Lärmminderung angewendet werden, und trotzdem Lärmbereiche (Schallpegel LAeq,8 Ů 85 dB) entstehen, müssen die dort tätigen Personen Gehörschutz tragen. Das gilt für große Teile der Industrie und des Handwerks. Man kann davon ausgehen, dass ca. 10 % der Arbeitnehmer gehörschädigendem Lärm von LAeq,8h = 85 dB und mehr ausgesetzt sind und somit, zumindest zeitweise, wenn sie einen Lärmbereich (LAeq, 8h > 85 dB) betreten, Gehörschutz tragen müssen. Ab 80 dB soll Gehörschutz zur Verfügung gestellt werden. Schlechter Tragekomfort und nicht ausreichende Kommunikation sind zwei wesentliche Kritikpunkte der Gehörschutznutzer (Weiß 2003). Die akustische Verständigung der Mitarbeiter im Betrieb wird durch Gehörschutz – für jedermann sichtbar, das Ohr wird bedeckt – beeinflusst, ob auch akustisch für die Sprache wirksam, soll hier analysiert und dargestellt werden. Dazu wird der Stand des Wissens der sprachlichen Kommunikation beim Tragen von Gehörschutz (s.a. Lazarus 1992; Suter 1992) zusammengefasst und eine zweckmäßige Auswahl von Gehörschützern diskutiert (Liedtke 2005).
388
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.4.2 Sprachverständlichkeit und Gehörschutz Hören mit und ohne Gehörschutz, Ruhe und Geräusche Der Gehörschutz ist durch zwei Aspekte gekennzeichnet (Abb. 8.4.2-1):
x die Schalldämmung (R) des Gehörschutzes reduziert den Schalldruckpegel der Sprache und des Geräusches am Ohr; x die Pegelreduzierung ist in der Regel frequenzabhängig, das heißt, der Pegel wird für bestimmte Frequenzbereiche unterschiedlich stark reduziert. Der Gehörschutz vermindert die Schallpegel von Geräusch und Sprache direkt am Ohr des Trägers um den Betrag seiner Dämmung. Die Schalldämmung (R) verschiedener Gehörschützer variiert zwischen 5 und 35 dB. Durch Kombination von Stöpseln und Kapseln kann sogar eine Dämmung von über 50 dB erreicht werden (Abel u. Spencer 1999).
Abb. 8.4.2-1. Schalldämmung (R) über Frequenz (f) von Gehörschützern: Gehörschutzkapsel mit Universalbügel, vor Gebrauch zu formende Gehörschutzstöpsel aus Watte, fertig geformte und vor Gebrauch zu formende Gehörschutzstöpsel
Wenn der Schallpegel der Sprache beim Hörer bei ca. LSA = 50 dB und niedriger liegt, besteht die Möglichkeit reduzierter Sprachverständlichkeit (Kryter 1946), weil Teile der Sprache unter der Hörschwelle liegen können. So wird die Sprachverständlichkeit bei niedrigen Sprachpegeln (LSA = 65dB; in Ruhe) im Gegensatz zu hohen Sprachpegeln (LSA = 85dB) deutlich reduziert (um 10–30 %) (Hashimoto et al. 1996, s. Abb. 8.4.2-2). Das
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
389
gilt nicht nur in Ruhe, sondern in geringerem Umfang auch bei mäßigen Geräuschpegeln (LNA = 65dB). Eine negative Korrelation (-0.75) zwischen Schalldämmung und Sprachverständlichkeit zeigt sich allerdings deutlich nur in Ruhe. Eine geringe Sprachverständlichkeit in Ruhe ergibt sich vor allem für schwerhörige Personen, da ihre Hörschwelle bedingt durch den Hörschaden schon höher liegt. Für die Praxis ist die Ruhesituation nicht unwichtig, da man gewohnt ist, sich in Lärmpausen unterhalten zu können. LSA: Ruhe LNA: 65 dB
Ruhe 85 dB
65 dB 65 dB
65 dB 85 dB
ǻSV 20 % 10 0 -10
S1 S2 K
-20 -30 -40
Abb. 8.4.2-2. Differenz der Sprachverständlichkeit (ţSV = SV(GS) - SV(o.GS) in %) für Stöpsel (S1, R(0.25–2 kHz) = 9–22 dB; S2, R(0.25–2 kHz) = 17–29 dB) und Kapsel (K, R(0.25–2 kHz) = 13–35 dB) mit niedrigen/hohen Sprachpegeln am Ohr des Hörers (LSA) bei Ruhe und einem Signal–Geräuschabstand von LSNA = LSA - LNA = 0 dB
Bereits Kryter (1946) gibt Verbesserungen der Sprachverständlichkeit an, wenn Gehörschutzstöpsel getragen werden. Für Geräuschpegel und Sprachpegel von LNA | LSA | 90 bis 110 dB steigt die Sprachverständlichkeit beim Tragen von Gehörschutz um SV = 5 bis 10 % an. Bei Geräuschpegeln von LN = 70 bis 110 dB und einem Signal– Geräuschabstand von LSN = 0 und 12 dB verbesserte sich ab Geräuschpegeln von LN t 100 dB die Sprachverständlichkeit durch Stöpsel um SV = 0 bis 15 % (Pollack 1957). Williams et al. (1971b) beschallte Personen mit Innengeräuschen eines Flugzeuges (tieffrequentes Geräusch LN = 95–105 dB bei fi d 500 Hz) und ließ dabei einen Sprecher Wörter vorlesen; die Hörer trugen Gehörschutzstöpsel oder keinen Gehörschutz. Mit Gehörschutz lag die Sprachverständlichkeit SV = 7 % höher als ohne Gehörschutz. Nur unter der Voraussetzung, dass Geräusch und Signal (Sprache) sich in ihrem Frequenzgang stark unterscheiden – wie z.B. bei Sprache und
390
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
tief– oder hochfrequentem Maschinenlärm – kann eine frequenzabhängige Dämmung dazu führen, dass sich der Signal–Geräuschabstand durch den Gehörschutz verändert. Sind Geräusch und Sprache im Frequenzbereich ähnlich gelagert, was in der Regel der Fall ist (0.5–4 kHz), werden auch bei der frequenzabhängigen Dämmung beide gleichermaßen reduziert, der Signal–Geräuschabstand verändert sich nicht oder nur geringfügig. Ein offensichtlicher Nachteil der frequenzabhängigen Dämmung liegt darin, dass der Höreindruck verändert wird und dadurch unnatürlich erscheint (tiefenbetont), was die Akzeptanz und Tragebereitschaft beim Hörer vermindert (Berger 1991). Durch nahezu frequenzunabhängige Dämmung, wie sie bei Gehörschützern für Musiker angeboten wird, reduziert man nur die Lautstärke, der natürliche Höreindruck bleibt weitgehend erhalten. Die frequenzabhängige Dämmung wirkt sich außerdem recht deutlich auf die Sprachverständlichkeit aus; die meisten Ergebnisse dazu stammen aus Experimenten, die Stöpsel und Kapseln vergleichen. Die meisten Stöpsel reduzieren den Pegel annähernd gleichmäßig, während die Dämmung der Kapsel mit der Frequenz deutlich zunimmt. In den Experimenten mit Kapseln (LNA > 80 dB) wird über leichte Zunahmen (Howell u. Martin 1975; Lindeman 1976; Fröhlich 1978; Chung u. Gannon 1979; Pekkarinen et al. 1990; Wilde u. Humes 1990) und Abnahmen (Chung u. Gannon 1979; Abel et al. 1980; Baumann u. Marston 1986; Wilde u. Humes 1990; Nakladal u. Listner 1997) der Verständlichkeit berichtet. Werden bei diesen Schallpegeln Stöpsel benutzt, wird die Sprachverständlichkeit um bis zu 10 % verbessert (Kryter 1946; Howell u. Martin 1975; Wilde u. Humes 1990). Diese Ergebnisse zeigen sich (zusammenfassend in Abb. 8.4.2-3) bei Pegeln über 80 dB: eine Zunahme der Sprachverständlichkeit bei Stöpseln und eine Ab– bzw. Zunahme bei Kapseln. In einem Experiment (Howell u. Martin 1975; Martin et al. 1976) wurden Personen mit einem eher tieffrequenten (Limax bei fi = 250 Hz) und einem eher höherfrequenten (Limax bei fi = 2 kHz) Geräusch mit Pegeln von LN = 65, 80, 95 dB beschallt, und es wurden einsilbige Wörter bei vier Signal–Geräuschabständen LSN = -5, 0, +5, +10 dB eingespielt.
Unter den Geräuschpegeln LN = 80, 95 dB ergeben sich für die Kapsel im Mittel keine Veränderungen der Sprachverständlichkeit SV = -5 bis +5 %, die Verbesserungen durch den Stöpsel lagen bei SV = 2 bis 20 %. Für Geräuschpegel von LN = 95 dB (s. Abb. 8.4.2-4) war die Verständlichkeit beim Stöpsel, wenn auch z.T. nur sehr geringfügig, immer besser als ohne Gehörschutz und ca. 5 % besser als mit der Kapsel. Die Verständlichkeit bei der Kapsel lag immer – bis auf LSA = 105 dB – niedriger als ohne Gehörschutz.
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
15,0 %
LNA
HM1
WH3
WH2
CH2
WH3
HM2
LNA
WH2
F
HK2
A3
A2
KA
P4
BM
L
CH1
AS1
Kapsel
HM2
P3
P2
P1
AS3
HK1
A1
Stöpsel
HM1
ٛSV
391
100,0
dB
5,0 80,0 -5,0 -15,0
60,0
-25,0 40,0 -35,0 -45,0
20,0
Abb. 8.4.2-3. Zunahme/Abnahme der Sprachverständlichkeit (ţSV) beim Tragen von Gehörschutz (GS: Stöpsel, Kapsel, KA: Kapsel aktiv) gegenüber der Situation ohne Gehörschutz (o.GS) (ţSV = SV(GS) - SV(o.GS) in %) bei unterschiedlichen Geräuschpegeln (LNA) gemessen beim Hörer; (Abkürzungen und Daten s. Tab. 8.4.4-1)
Bei Sprache und Geräuschen mit hohen Schallpegeln (LA > 85 dB) hat die Minderung des Schallpegels einen positiven Effekt auf das Sprachverstehen. Als Grund wird dafür die Reduzierung des Pegels durch den Gehörschutz angegeben. Ein reduzierter Pegel verringert die Weitabverdeckungen, eine Übersteuerung des Ohres, die eine nichtlineare Verzerrungen im Ohr (Klirrfaktor) zur Folge hat und die Ermüdungen des Hörorgans bedingt, d.h. die Bildung einer zeitweiligen Hörschwellenverschiebung (Kryter 1946; Pickett 1956; Pickett u. Pollack 1958; Martin et al. 1976; Studebaker et al. 1999).
392
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz 55 K S o.GS
45 SV/% 35
25
15 90
95
100
105
L SA /dB
Abb. 8.4.2-4. Sprachverständlichkeit (SV in %) für Kapsel (K), Stöpsel (S), ohne Gehörschutz (o.GS) mit einem breitbandigem, eher höherfrequenten Geräusch (LNA = 95 dB) und 4 Sprachpegeln (LSA))
Die durch die Reduzierung des Pegels bedingte Verbesserung der Sprachverständlichkeit wird vor allem für Stöpsel beobachtet, da bei diesen der Schallpegel von Geräusch und Sprache bei Frequenzen bis 2 kHz nahezu gleichmäßig um 15 bis 30 dB vermindert wird. Bei Kapseln hingegen steigt die Dämmung deutlich mit der Frequenz. Kapseln reduzieren den Schallpegel in den Frequenzen zwischen 1 und 4 kHz, die für die Sprachverständlichkeit besonders wichtig sind (Konsonanten liegen in diesem Bereich), um 30 bis 40 dB, während der Schallpegel tieferer Frequenzen (f < 500 Hz) kaum beeinflusst wird. Damit ist der Schallpegel im tieffrequenten Frequenzbereich beim geschützten und ungeschützten Ohr etwa gleich. Die Pegel der wichtigen Sprachfrequenzen werden somit stärker gedämmt als die tieffrequenteren Anteile der Geräusche und der Sprache. Beim Benutzen der Kapsel wird ein Teil der Sprachfrequenzen (Konsonanten) so stark vermindert, dass sie nur noch wenig zur Verständlichkeit beitragen: die Sprachverständlichkeit mit Kapsel sinkt gegenüber der ohne Kapsel. Weiterhin nimmt beim Tragen einer Kapsel die verdeckende Wirkung (die Weitabverdeckung) der tieffrequenten Geräusche auf die höheren Sprachfrequenzen gegenüber dem ungeschützten Ohr zu. Auch eine eventuell aufgetretene Übersteuerung des Ohres durch tieffrequente Geräuschanteile bleibt weitgehend erhalten (Boer u. Poissenot 1992). In dem besonderen Fall des Helikoptergeräusches (LNA = 97 / LN = 106 dB) und des Benutzens eines Headsets reduziert das zusätzliche Tragen einer Brille die Sprachverständlichkeit (ţSV = 20 bis 40 %). Wird zu-
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
393
sätzlich zum Headset noch ein Stöpsel benutzt, sinkt die Sprachverständlichkeit von 70 bis 90 % je nach Dämmung des Stöpsels um 10, 40, 60 % (Wagstaff et al. 1996; Wagstaff u. Woxen 2001). Offenbar sinken durch die hohe Schalldämmung bei hohen Frequenzen die Konsonanten schon unter die Hörschwelle. Auch ist vermutlich die Grenze der Schalldämmung, die durch den Gehörschutz bedingt ist, erreicht. Die Maskierung durch die Knochenleitung bleibt trotz Stöpsel erhalten. Die pegelreduzierenden und die frequenzabhängigen Effekte wirken natürlich zusammen und deren Einfluss lässt sich nur in Zusammenhang der Spektren von Sprache, Geräusch und Schalldämmung diskutieren. Als Trend lässt sich festhalten, dass die Sprachverständlichkeit verringert wird, wenn Gehörschutz mit frequenzabhängiger Dämmung (Kapseln) getragen wird, insbesondere bei Geräuschen mit mittleren oder tiefen Frequenzen. Nur bei Gehörschutz mit einer Dämmung, die weitgehend frequenzunabhängig ist (Stöpsel), bleibt die Sprachverständlichkeit gleich oder wird leicht verbessert. Inzwischen ist eine Reihe von Gehörschützern auf dem Markt, die einen ziemlich frequenzunabhängigen Frequenzgang aufweisen (Killion et al. 1988; Berger 1990). Hilfreich sind vor allem auch Stöpsel mit einem gleichmäßigen Frequenzgang und einer niedrigen Schalldämmung (R = 10–20 dB). Solche Gehörschützer können in der Regel in einem Pegelbereich von LNA = 85 bis 95 dB benutzt werden, soweit die einzelnen Gehörschützer die Prüfung gemäß DIN EN 458 bestehen (Werkmeister–Stephan u. Liedtke 1998). Mit solchen Stöpseln kann so die akustische Umweltorientierung, die Erkennung von Warnsignalen und die Sprachkommunikation weitgehend erhalten bleiben. Da auch der Klangcharakter der Musik erhalten bleibt, werden diese gerne von Orchestermusikern benutzt (Berger 1991). Seit Jahren sind auch Kapseln mit einer möglichst frequenzunabhängigen Schalldämmung entwickelt worden: sowohl konventionelle Kapseln als auch Kapseln mit pegelabhängiger Schalldämmung (Delfs u. Liedtke 2003). Der Einsatz dieser Kapseln zeigt widersprüchliche, teilweise positive Ergebnisse für die Sprachverständlichkeit (Arlinger 1992; Abel u. Spencer 1997; Nakladal u. Listner 1997; Hiselius 2000). Bei einer konventionellen (passiven) Kapsel mit einer weitgehend abgeflachten Schalldämmung für hohe Frequenzen zeigt sich ein positiver Effekt auch für leicht Schwerhörige wie beim entsprechenden Stöpsel (Hiselius 2000). Bei Kapseln mit pegelabhängiger Dämmung ergeben nur die aktiven Kapseln eine verbesserte Sprachverständlichkeit (Arlinger 1992).
394
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.4.3 Sprachverständlichkeit bei Gehörschutz mit spezifischer (pegelabhängiger) Schalldämmung Gehörschutz: passiv, aktiv, pegelabhängig, nichtlinear, ANR; Kapsel, Headset Es gibt einige Untersuchungen, in denen Gehörschützer mit speziellen Filtern benutzt werden, durch die die Sprachverständlichkeit verbessert werden soll. Ein Gehörschutzstöpsel mit einem Filter für Sprachfrequenzen ist meistens ein Stöpsel mit verminderter Schalldämmung bei Frequenzen unterhalb von f = 1 kHz, das heißt, ein Stöpsel mit einem Tiefpassfilter. Die Wirkung dieser Filter muss in Kombination mit der Höhe des Schallpegels gesehen werden. Michael (1965) misst geringe Verbesserungen der Sprachverständlichkeit gegenüber dem ungeschützten Ohr, wenn Stöpsel mit oder ohne Tiefpassfilter getragen werden. Liegt der Schallpegel über LN | LS | 85 dB, so zeigt sich jedoch beim Stöpsel ohne Filter eine stärkere Verbesserung (SV = 8 %) im Vergleich zur Verständlichkeit beim Tragen von Stöpseln mit Filter (SV = 4 %). Generell lässt sich sagen, dass Stöpsel mit einem Tiefpassfilter für Sprache, wenn überhaupt, dann nur im Bereich geringerer Geräuschpegel (LNA < 85 dB) benutzt werden sollten. Deshalb empfiehlt es sich, diese Stöpsel vorwiegend bei intermittierenden Geräuschen zu tragen. Da intermittierende Geräusche durch Phasen höherer und niedriger Geräuschpegel zu beschreiben sind, könnte erwartet werden, dass beim Benutzen dieser Stöpsel in den Phasen geringerer Geräuschpegel die Sprachverständlichkeit erhöht wird. Die Dämmung der Gehörschützer ändert sich üblicherweise nicht mit der Höhe des Pegels, die Dämmung ist bei Pegeln von 30 bis 130 dB etwa gleich. Daneben ist auch eine pegelabhängige Dämmung möglich, bei der Geräusche niedrigen Pegels unreduziert das Ohr erreichen und erst bei hohen Pegeln reduziert werden. Diese Technik hat zum Ziel, den Träger vor schädlichen Schallpegeln, wie zum Beispiel hohen „Impulsen“ beim Schießen, zu schützen, ohne seine Wahrnehmung für geringere Pegel (Sprache) zu stark einzuschränken. Das bietet sich vor allem für ruhige Umgebungen mit vereinzelten Pegelspitzen an. Ein Beispiel für eine solche Situation sind die Arbeitsbedingungen eines Lotsen auf einem Flugzeugträger. Er muss vor dem Lärm der landenden Flugzeuge geschützt werden, sollte aber in den ruhigen Phasen in der Lage sein, die Geräusche von entfernten Flugzeugen wahrzunehmen (Maxwell et al. 1987). Eine solche pegelabhängige, nicht lineare Schalldämmung lässt sich durch passive Systeme oder aktive, elektronische Systeme erreichen. Passive nichtlineare Systeme sind auf besondere Weise konstruiert. Die ansteigende Dämmung wird durch ein nichtlineares Element verursacht,
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
395
meist ein kleines, dünnes Röhrchen mit scharfkantiger Öffnung. Bei höheren Pegeln werden Turbulenzen an der Öffnung des Röhrchens ausgelöst, die dann den Schalldurchgang verhindern. Der Schall gelangt jetzt nur noch durch den dämmenden Teil des Gehörschutzes ins Ohr. So steigt bei einem solchen Gehörschutz die Dämmung von Impulsen mit Schallpegeln von 130 dB bis 180 dB von 14 auf 25 dB (Forrest 1971). Zum Schutz gegen Schießgeräusche wurden Stöpsel entwickelt, die mit einer kleinen Öffnung versehen sind, deren Schalldämmung mit dem Pegel ansteigt. Die Schalldämmung dieser Stöpsel entspricht in den unteren Pegelbereichen der eines Tiefpasses, d.h. bei 0.5 und 1 kHz ist die Schalldämmung etwa 7 dB geringer als die üblicher Stöpsel; bei Schallpegeln über 110 dB steigt die Schalldämmung jedoch an. Mosko u. Fletcher (1971) haben die Sprachverständlichkeit beim Tragen von Stöpseln mit Filter und unter Beschallung von Flugzeuggeräuschen geprüft. Sie erhielten bei einem Pegel von LN = 70 dB eine geringe Verbesserung, bei LN = 100 dB eine geringe Verschlechterung der Sprachverständlichkeit im Vergleich zu der, die mit einem üblichen Stöpsel erhoben wird. Intermittierende Schießgeräusche führen nach Coles u. Rice (1966) generell zu einer Verschlechterung der Sprachverständlichkeit, wenn Stöpsel getragen werden; wobei der übliche Stöpsel die Sprachverständlichkeit stärker reduziert als der Stöpsel mit Filter. Dieser Stöpsel hat aber den Nachteil, dass er eine geringere Schutzwirkung aufweist, die Coles u. Rice durch Messungen der zeitweiligen Hörschwellenverschiebung nachweisen konnten. Vor dieser Art von Gehörschutz wird in der Regel gewarnt, da ihre Schalldämmung bei Dauergeräuschen und bei mittleren und niedrigen Frequenzen sehr gering ist und somit keinen Schutz darstellt. Insbesondere wird ihre Wirkung nicht geprüft und in den Darstellungen der Hersteller oft dramatisch und irreführend übertrieben (Berger 1991). Inzwischen sind aber Kapseln mit einer nichtlinearen Kennlinie und relativ linearem Frequenzgang entwickelt worden (Allen u. Berger 1990). Diese haben eine gleichmäßige Schalldämmung von 25 dB im Sprachbereich (0.5 bis 4 kHz). Der Gebrauch durch Polizisten ergab positive Ergebnisse (Stokes et al. 1991). In einer Laboruntersuchung (Abel et al. 1991) mit impulshaltigem Geräusch (LNA | 75 dB) wurde die Sprachverständlichkeit gegenüber dem unbedeckten Ohr getestet. Die nichtlineare und die konventionelle Kapsel brachten unter diesen Bedingungen Verbesserungen bis SV = 2 bis 5%. Dagegen zeigte eine Untersuchung mit kontinuierlichem Geräusch negative Ergebnisse, d.h. eine schlechtere Sprachverständlichkeit. Bei aktiven nichtlinearen Systemen nehmen Mikrofone außerhalb der Kapseln den Schall auf und übertragen ihn über einen Verstärker an kleine Lautsprecher im Innern der Kapseln. Die Dämmung kann vom Benutzer
396
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
eingestellt werden. Jenseits eines eingegebenen Grenzwertes wirkt das System wie ein Begrenzer, so dass kein Schall über dem angegebenen Schwellenpegel ans Ohr gelangt. Da die meisten heutigen Systeme bei hohen Schallpegeln verzerren, eignet sich diese Art von Gehörschutz nicht für Bedingungen mit ständig hohen Pegeln (Berger 1991). Abel et al. (1991) verglichen zwei nichtlineare (eine davon aktiv) und zwei konventionelle Kapseln im Hinblick auf Signalentdeckung, Wortverständlichkeit und Konsonantenunterscheidung. Während sich die eine nichtlineare Kapsel kaum von den konventionellen Gegenstücken unterschied, wies die andere nichtlineare (aktive) Kapsel Verbesserungen der Verständlichkeit unter Ruhebedingungen, aber Verschlechterung unter Lärm auf, allerdings nur für impulshaltige Geräusche bei einem relativ niedrigen Pegel (LNA = 75 dB). Die Ergebnisse von Nakladal u. Listner (1997) zeigten eine signifikante Verbesserung der Sprachverständlichkeit durch ein aktives nichtlineares System gegenüber den anderen Hörschützern und sogar gegenüber dem ungeschützten Ohr (s.a. Abschn. 8.4.5 und Abb. 8.4.5-1)), wobei Sprecher und Hörer den gleichen Gehörschutz trugen. Leider wurde der Tragekomfort des aktiven Systems am schlechtesten bewertet, was vermutlich auf das erhöhte Gewicht durch die eingebaute Technik und die notwendigen Batterien zurückgeht. Der geringe Tragekomfort führte jedoch nicht dazu, dass die Sprachverständlichkeit von den Hörern schlechter bewertet wurde; die subjektive Bewertung der Sprachverständlichkeit stimmte weitgehend mit den Verständlichkeitswerten überein. Der entscheidende Vorteil des aktiven Systems liegt natürlich darin, dass die “Dämmung“ erst dann einsetzt, wenn sie tatsächlich nötig ist und Überprotektion dadurch vermieden wird. So können bis zu einem Schwellenwert (80–85 dB) der Signal–Geräuschabstand und damit die Sprachverständlichkeit erhalten bleiben wie beim ungeschützten Ohr, dagegen wird ab einem Schwellenwert der Schallpegel reduziert. Natürlich liegt die Schwierigkeit darin, den Übergang vom Bereich unterhalb des Schwellenwertes bis zu dem Bereich starker Reduzierung zweckmäßig zu gestalten. Einerseits muss die Schutzwirkung (LcA < 85 dB) gewährleistet sein, andererseits müssen die beim Übergang in den Bereich über dem Schwellenwert zwangsläufig auftretenden nichtlinearen Verzerrungen so gering bleiben, dass der natürliche Klang der Geräusche und der Sprache, insbesondere die Schwankungen der Sprache (30 dB), weitgehend erhalten bleiben. Dieses Ergebnis wurde bisher nur teilweise erreicht (Maxwell et al. 1987). Soweit gute Sprachverständlichkeit, natürlicher Klang und hoher Komfort vereinbar sind – und die Untersuchungen lassen das vermuten – wird dieses Gehörschutzsystem für die Zukunft interessant, zumindest für ausgewählte Anwendungsbereiche. Bisher sind solche Kapseln vor allem
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
397
für Situationen mit impulshaltigem Geräusch (Impuls über dem Schwellenwert) und für die notwendige Sprachverständlichkeit in den Lärmpausen geeignet. Es gibt zwei Arten von aktiver Schalldämmung eines Gehörschutzes. Die eine versucht die niedrigen und mittleren Pegel durch Verstärkung im Ohr auf einem konstanten Wert zu halten (L’ | 85 dB); bei höherem Pegel wird die Verstärkung (ab einem Schwellenwert) gegen Null geregelt und der Gehörschutz wirkt dann nur noch wie ein üblicher passiver. Diese wurden in den obigen Absätzen behandelt. Bei der anderen Art wird die Schalldämmung aktiv durch eine Rückkopplung des Schalls (Anti–Schall) beeinflusst, sie ist besonders bei tiefen Frequenzen wirksam. Aktive Schalldämmung bzw. Active–Noise–Reduction (ANR) bezeichnet eine Technologie, die schon lange bekannt ist: Geräusche werden von einem Mikrofon aufgenommen und an eine Recheneinheit geschickt, die sie umkehrt (mit negativen Vorzeichen versieht) und an einen Lautsprecher sendet. Die Schallwellen des Geräuschs und die vom Lautsprecher abgegebenen, umgekehrten Schallvorgänge treffen aufeinander und sollen sich so gegenseitig aufheben. Bereits 1950 wurde ein solches System in ein Gehörschutz–Headset integriert, doch erst 1989 gelangte das erste Active–Noise–Reduction–Headset auf den Markt (McKinley u. Nixon 1993). McKinley u. Nixon untersuchten 1993 ein solches System auf seine Dämmungseigenschaften und Auswirkungen auf die Sprachverständlichkeit. Die Dämmung wurde durch Messungen mit einem Miniaturmikrofon im Gehörgang der Probanden vorgenommen. Sie wurden mit Testtönen mit dem Umfang einer Terz beschallt, während sie das ANR–System mit ein– bzw. ausgeschalteter Technologie bzw. ein vergleichbares passives System aus einem gebräuchlichen Fliegerhelm trugen. Um den Einfluss auf die Sprachverständlichkeit zu untersuchen, wurde der Modified–Rhyme–Test in den drei verschiedenen Gehörschutzbedingungen durchgeführt, während die Personen mit rosa Rauschen von LNA = 95, 105 und 115 dB beschallt wurden.
Die Ergebnisse zeigen eine signifikante Verbesserung der Sprachverständlichkeit durch das ANR–System gegenüber dem passiven, sogar in abgeschaltetem, aber insbesondere im aktiven Zustand (s. Tab. 8.4.3-1). Der Vorteil der ANR–Technologie liegt vor allem in der stärkeren Dämmung tiefer Frequenzbereiche. Oberhalb von 1000 Hz ist eine aktive Dämmung technisch noch nicht möglich, hier greift also allein die passive Dämmung des Systems (s.a. Geng et al. 2000). In einer Übersichtsuntersuchung über Headsets und Kopfhörer (Biermann u. Janowitz 1995) wird über eine aktive Schalldämmung (zwischen 50 Hz und 1 kHz) von 10 bis 20 dB (bei 0.15–2.5 kHz) berichtet. Abel u. Spencer (1999) berichten von einer Erhöhung der Dämmung um 10 dB bei 250 Hz durch aktive ANR–Technologie. Diese Verbesserung
398
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
der Dämmung im tieffrequenten Bereich kann die Verständlichkeit verbessern, da der Signal–Geräuschabstand erhöht und die Weitabverdeckung durch die tieffrequenten Geräuschanteile reduziert wird (s. Tab. 8.4.3-1). Gower u. Casali (1994) verglichen ebenfalls ein ANR–System bei an– und bei ausgeschalteter Technologie mit einem passiven System hinsichtlich Dämmungseigenschaften und Auswirkungen auf die Sprachverständlichkeit unter Lärmbedingungen. An dem Experiment nahmen neun Hörer und fünf Sprecher teil. Die Dämmung der Gehörschützer wurde durch Messungen mit Miniaturmikrofonen im Gehörgang der Probanden ermittelt. Dazu wurden Testtöne von 50 Hz bis 10 kHz präsentiert, während die Versuchspersonen mit LN = 105 dB lautem rosa Rauschen bzw. mit dem aufgezeichneten Geräusch aus dem Mannschaftsraum eines Panzers beschallt wurden. Während der Testdurchgänge wurden von einem Sprecher Items des Modified–Rhyme–Tests vorgelesen, den Hörern wurden auf einem Bildschirm pro Durchgang sechs Wörter angezeigt, von denen sie innerhalb von vier Sekunden das Wort wählen konnten, das sie gehört zu haben glaubten. Dem Sprecher wurde seine gesprochene Sprache angezeigt, um sie im Pegel konstant zu halten.
Hinsichtlich der Sprachverständlichkeit wurde ermittelt, wie laut die Sprache in den verschiedenen Bedingungen sein muss, um 70 % Verständlichkeit zu gewährleisten. Hier zeigte sich, dass der Signal–Geräuschabstand für das ANR–Headset um 12 dB höher sein muss, als beim passiven Gehörschützer, um 70 % Sprachverständlichkeit zu erreichen. Die Autoren führen diese Ergebnisse auf eine stärkere Dämmung der für Sprachverständlichkeit relevanten Frequenzbereiche durch das ANR– System zurück. Insgesamt zeigte sich also eine überlegene Schutzfunktion durch das ANR–System bei tieffrequentem Schall hohen Pegels. Tabelle 8.4.3-1. Sprachverständlichkeit (SV) bei konventionellen und pegelabhängigen Gehörschützern; angegeben sind: (Sp 1): Autoren; (Sp 2): das Sprachmaterial (Einsilber in Sätzen (E in S; SPIN) bei hoher/niedriger Auftretenswahrscheinlichkeit (h/n AW), Konsonantenverständlichkeit (K)), Reimtest (MRT) (S–H: Sprecher–Hörer, KS: Kommandosprache), Sprachpegel LSA; (Sp 3): Versuchspersonen (normal (N), schwerhörig (S)); (Sp 4) die benutzten Gehörschützer: ohne Gehörschutz (o. GS), Kapsel (konventionell: passiv (p); passiv und pegelabhängig: nichtlinear (p, nl); aktiv und pegelabhängig: nichtlinear (ak, nl), teilweise ist der Schwellenwert (SW in dB), ab dem das nichtlineare System beginnt, angegeben); Kapsel oder Headset mit Active Noise Reduction (ANR, - aus, + an); die in jedem Versuch (Autor, Zeile 1 bis 9) einbezogenen Gehörschützer (auch o. GS) (x), Headset (xH) sind in jeder 1. Zeile gekennzeichnet (x, xH); in den weiteren Zeilen: die Zunahme (+, ++) oder Abnahme (-) der Sprachverständlichkeit gegenüber einer Bezugssituation (B) (B ist häuig o. GS, ist aber auch: passive Kapsel etc.); (Sp 5): die Geräuschsituation (Geräuschpegel LNA)
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
1 Autor
2 Sprachmaterial LSA = (SV in %)
1 Maxwell et al. (1987) S/N 0 dB MRT S/N 4 dB MRT 2 Abel et al. 80 dB K (1991) 80 dB E in S 80 dB K 80 dB E in S 3 Arlinger (1992) 60 dB (50 %) 4 McKinley u. Nixon MRT (1993) MRT 5 Gower u. Casali S-H (MCL) E (1994) S-H (70 %) MRT 6 Nakladal u. Listner (1997) S-H, KS 7 Abel u. E in S AW Spencer 80 dB h (1997) n 90 dB h n 80 dB h n 90 dB h n 8 Abel u. Spencer 85 dB K (1999) 85 dB K 9 Hiselius MRT (2000)
3 VP
N x x
x x
N S
399
4 5 ohne Headset Headset Geräusch GS Kapsel Kapsel LNA = p ak ANR ANR Be- p nl nl + zugs. x x 85 SW in dB B 60–90 dB B ± 60–90 dB x x x x B = = = Ruhe B = B + + 75 dB B + + x x 82 SW in dB B + 70dB xH xH B + + Ruhe B ++ ++ 95–115dB xH xH xH B = - 115 dB B = - 105–115dB x x x 85 SW in dB B + 85–96 dB x x S x = Ruhe B = B x B x B B + + 75, 85 dB B + + + x B + = x B x xH xH B + + Ruhe B = = 80–95 dB x x B + 96 dB B +
Eine weitere Anwendungsmöglichkeit des ANR–Systems wird in der Synchronisierung der Dämmung zyklisch auftretender Geräusche gesehen (Jones u. Smith 1983).
400
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Wie die Übersicht (Tab. 8.4.3-1) zeigt, sind die Untersuchungsergebnisse mit Gehörschützern mit pegelabhängiger oder elektronisch unterstützter Schalldämmung teilweise widersprüchlich. Zu jeder Art von Gehörschutz gibt es sowohl negative als auch positive Ergebnisse hinsichtlich der Sprachverständlichkeit. Allen Untersuchungen mangelt es an systematischer Variation. Das ist verständlich, denn nichtlineare Systeme sind eben auch vom Pegel (der Sprache und des Geräusches und dessen Zeitverlauf) abhängig. So erhöht und verringert sich die Sprachverständlichkeit für nichtlineare aktive und passive Kapseln (Zeile 2, 3, 6). Auch für die elektroakustischen Systeme (Kapseln, Headsets) mit aktiver Pegelminderung (ANR) überwiegen zwar die positiven Ergebnisse (Zeile 4, 5, 7 (Lärm), 8), es gibt aber auch Untersuchungen, die Defizite aufzeigen (Zeile 5, 7 (Ruhe)). Hier zeigt sich auch die Grenze der Vergleichbarkeit: obwohl das Headset (Zeile 5, mit ANR+) ein um 10 dB höheres Signal–Geräuschverhältnis (für 70 % Sprachverständlichkeit) als die übliche Kapsel (deswegen ein Minus) aufweist, spielt das für ein System mit elektronischer Verstärkung keine wesentliche Rolle. Die widersprüchlichen Ergebnisse machen vor allem deutlich, dass die zweckmäßigen, dem angestrebten Gebrauch entsprechenden Prüfverfahren fehlen. Das gilt vor allem für die nichtlinearen Kapseln. Man muss sich vor Augen führen, dass Sprache einen Dynamikumfang von 30 dB hat und damit sie halbwegs verstanden wird, dieser dem Ohr weitgehend linear dargeboten werden muss. Insofern sind Aussagen zur Sprachverständlichkeit ohne genauere Kenntnis der Anwendung, wie vermuteter Sprachpegel, (Ziel: SV in Ruhe oder in Lärm), Pegel und Zeitverlauf des Geräusches in Ruhe– und Lärmphasen, erforderlich. Ähnlich sieht es mit der aktiven Lärmminderung aus. Kapseln und Headsets, die diese enthalten (ANR), können sicher auch bei niedrigen Frequenzen eine hohe Schalldämmung erreichen. Allein für die Sprachverständigung ist der Aufwand jedoch nicht gerechtfertigt, meinen Gower u. Casali (1994). Die Sprachverständlichkeit ist bei der Konstruktion und der Auswahl von Gehörschutz in der Regel immer erst in zweiter Linie wichtig, da der Schutz des Gehörs im Vordergrund steht. Doch bei Piloten oder auch Panzerfahrern ist die Kommunikation, das sichere Verstehen von Sprache ggf. wichtiger als ein nachhaltiger Schutz des Gehörs. Eine Optimierung des Gehörschutzes für definierte Arbeitsplätze ist deshalb erforderlich. Um außerhalb spezieller Anwendungsfelder (Piloten, Panzerfahrer u. ä.) einsatzfähig zu werden, müssten ANR–Systeme komfortabler und stabiler werden. Sinnvolle Einsatzgebiete sind vor allem Bereiche mit sehr hohen tieffrequenten Geräuschen (90–130 dB).
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
401
8.4.4 Sprachverständlichkeit, Gehörschäden und Gehörschutz Schwerhörigkeit: leicht, mittel, schwer; Stöpsel, Kapsel Gerade in Bereichen mit hohen Lärmpegeln muss davon ausgegangen werden, dass ein Teil der zu schützenden Personen durch Lärmexposition in der Vergangenheit bereits einen Gehörschaden erlitten hat, der durch eine vorherige Lärmexposition, Alter oder ototoxische Stoffe hervorgerufen sein kann. Zahlreiche Untersuchungen zeigen, dass sich Gehörschutz bei Schwerhörigen anders auswirkt als bei Normalhörenden (Lindeman 1976; Fröhlich 1978; Chung u. Gannon 1979; Abel et al. 1980; Abel et al. 1982a, b; Baumann u. Marston 1986; Wilde u. Humes 1990). Fröhlich konnte 1978 in einer Untersuchung das oben beschriebene Verdecken des verbliebenen Hörbereichs durch tieffrequenten Lärm verdeutlichen, indem er Normalhörende und zwei Gruppen von Gehörgeschädigten mit unterschiedlicher Ausprägung des Gehörschadens in ihrem Sprachverständnis verglich. In der einen Gruppe lag der mittlere Hörverlust im Frequenzbereich von 0.5 bis 2 kHz bei über LHVT t 30 dB, in der anderen traten Hörverluste nur bei Frequenzen oberhalb von 2 kHz auf. Die Versuchspersonen wurden mit einem tieffrequenten Geräusch und einem Sprachpegel von LNA | LSA | 86 dB beschallt.
Für die Normalhörenden lag die Sprachverständlichkeit mit und ohne Gehörschutz bei nahezu SV = 100 %. Der Gehörschutz wirkte sich also kaum aus. Bei den Schwerhörigen lag die Sprachverständlichkeit ohne Gehörschutz noch bei SV = 90/88 % (Hörverlust bei 0.5 bis 2 kHz/ > 2 kHz), das Tragen eines Stöpsels senkte die Verständlichkeit auf SVS = 72/75%, und beim Tragen einer Kapsel verminderte sich das Verständnis auf SVS = 52/83 %. Hier waren also vor allem die Personen, deren Hörschwelle auch im Frequenzbereich um 500 Hz erhöht war, betroffen, was darauf hinweist, dass gerade diese Frequenzen von gehörgeschädigten Personen noch zum Sprachverstehen herangezogen werden. Nach einer Untersuchung von Lindeman (1976) bei Sprach– und Geräuschpegeln (weißes Rauschen) von LNA, LSA = 80 bis 90 dB verminderte sich die Sprachverständlichkeit beim geschützten Ohr (Kapsel) gegenüber dem ungeschützten Ohr, wenn der mittlere Hörverlust bei 2.5 bis 4 kHz LHVT = 35 dB überstieg. Es zeigt sich, dass die Anzahl der Personen, bei denen sich die SV verschlechterte, umso höher ist, je stärker die Gehörschäden waren (Abb. 8.4.4-1). Die Untersuchungen von Abel et al. (1980, 1982a, b) stellen eine vergleichsweise typische Vorgehensweise dar. Für Schwerhörige mit einem flach verlaufenden und mit einem nach hohen Frequenzen hin steil abfallenden Hörverlust haben Abel et al. (1980, 1982a, b) die Wortverständlichkeit (Einsilber) bei Pegeln der Sprache von LSA = 80/90 dB und 2 Geräuschen (weißes Rauschen, sprachähnliches Rauschen) gemessen (Abb. 8.4.4-
402
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
2). Die Hörverluste der Personen liegen bei LHVT = 25–80 dB, wobei die Hörschwelle im Freifeld als Mittelwert der Frequenzen 0.5/1/2 kHz bestimmt wurde. 70,0 W/% 60,0 50,0 DSV0 DSVDSV+
40,0 30,0 20,0 10,0 0,0 70
LHVT/dB
Abb. 8.4.4-1. Prozentsatz der Personen (W in %), bei dem sich die Sprachverständlichkeit verbessert (DSV+), verschlechtert (DSV-) oder gleich bleibt (DSV0) in Abhängigkeit von dem Hörverlust (LHVT in dB)
Für Normalhörende hatte das Tragen einer Kapsel auf die Verständlichkeit kaum einen Einfluss, für die Schwerhörigen dagegen nahm die Sprachverständlichkeit beim Benutzen der Kapsel um SVE = 15 bis 30 % gegenüber dem ungeschützten Ohr ab (Abb. 8.4.4-2). Es ist interessant zu erwähnen, dass schon in Ruhe der Einfluss der Kapsel für die Schwerhörigen eine erhebliche Verminderung der Verständlichkeit von SVE = 15 bis 50 % bewirkt. Generell zeigt sich, dass für schwerhörige Personen die Verminderung der Sprachverständlichkeit umso größer ist, je höher die Schalldämmung der Gehörschützer ist (Abel et al. 1982a, b). Wie erwähnt, ist ein Teil der Verständnisprobleme darauf zurückzuführen, dass vor allem die hochfrequenten Konsonanten die Sprachverständlichkeit bestimmen und gerade die hohen Frequenzbereiche von Hörschaden und Gehörschutz betroffen sind. Zur Untersuchung dieses Sachverhalts wurde mit dem California Consonant Test (CCT) ein eigenes Instrument entwickelt. Der CCT ist ein Multiple–Choice–Test mit 100 Konsonant–Vokal–Konsonant–Wörtern, bei denen in Viererpaaren jeweils Anfangs– oder Endkonsonant variiert werden.
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
403
Abb. 8.4.4-2. Verständlichkeit (SV in %) von Einsilbern dargeboten über einen Lautsprecher (LSA = 90 dB) bei weißem Rauschen (WR) und sprachähnlichem Rauschen (SR) mit einem Geräuschpegel von LNA = 85 dB für 4 Personengruppen: Normalhörende (N, Alter: 35–50 Jahre), Personen mit einem Hochtonverlust (SH1, SH2, Alter: 35–50 Jahre, 51–65 Jahre) und Personen mit einem flach verlaufendem Hörverlust (SF, Alter: 35–65 Jahre). Die Personen trugen keinen Gehörschutz (- - -) oder eine Kapsel () (nach Abel et al. 1980, 1982a, b) Bauman u. Marston (1986) wandten diesen Test auf Normalhörende und Gehörgeschädigte mit sensorineuralem Gehörschaden für hohe Frequenzen mit und ohne Gehörschutz an. Als normalhörend wurde eine Hörschwelle von LHVT 25 dB für 500 Hz bis 8 kHz definiert, außerdem 80 bis 100 % Worterkennung in Ruhe für die Testliste (CID W–22, s. Abschn. 2.6). Der Hörschaden wurde definiert als leichter bis mittlerer, ansteigender Hörverlust auf beiden Ohren, mit 80 bis 100 % Wortverständnis in Ruhe. Die Versuchspersonen saßen zwischen zwei Lautsprechern, die sich vor und hinter ihnen jeweils im Abstand von einem Meter auf Ohrhöhe befanden. Durch den vorderen Lautsprecher wurden die Wörter dargeboten, durch den hinteren Lautsprecher sprachähnliches Rauschen. Sprache und Geräusch wurden beide mit LSA = LNA = 85 dB abgestrahlt, somit betrug der S/N– Abstand LSNA = 0 dB. Auf einem Antwortbogen wählten die Probanden durch Einkreisen aus jeweils vier Antwortalternativen das Wort, das sie gehört zu haben glaubten. Als Gehörschutz wurden Kapseln benutzt, deren Dämmung von ca. 25 dB bei 0.5 kHz auf ca. 45 dB bei 4 kHz ansteigt.
Die Ergebnisse des Experiments zeigen hochsignifikante Unterschiede zwischen den beiden Gruppen und den Gehörschutzbedingungen (s. Abb.
404
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
8.4.4-3). Die Normalhörenden zeigten bessere Ergebnisse als die Gruppe der Gehörgeschädigten, und für beide Gruppen verschlechterte der Gehörschutz die Leistung signifikant. 90 % 80
SV 70
60
50 ohne
mit
Gehörschutz
Abb. 8.4.4-3. Sprachverständlichkeit (SV in %) für Normalhörende (N, - - -) und Gehörgeschädigte (S,——) mit und ohne Gehörschutz
Die Untersuchungen zur Veränderung der Sprachverständlichkeit durch den Hörverlust und Gehörschutz sind in einer kurzen Übersicht (Tab. 8.4.4-1) aufgeführt und spezifiziert; die Ergebnisse sind zusammenfassend für leicht, mittel und stark schwerhörige Personen in drei Abbildungen dargestellt (Abb. 8.4.4-4a, b, c). Eine Übersichtstabelle enthält die wichtigsten Ergebnisse (Tab. 8.4.4-2). Zusammenfassend kann man festhalten, dass Personen mit geringen Hörverlusten (LHVT < 20 dB bei 0.5, 1, 2 kHz oder LHVT < 35 dB im Mittel bei 2.5 und 4 kHz), im Vergleich mit ungeschütztem Ohr, bis zu 5% besser verstehen, wenn Stöpsel benutzt werden (Wilde u. Humes 1990). Bei hochfrequenten Geräuschen gilt dieses Ergebnis auch für Kapseln (Lindeman 1976). Wenn Kapseln benutzt (Wilde u. Humes 1990) oder bei tieffrequentem Lärm Kapsel oder Stöpsel getragen werden (Fröhlich 1978), nimmt die Sprachverständlichkeit bis zu 15 % ab. Bei Personen mit mittleren oder starken Hörverlusten die einen Gehörschutz benutzen nimmt die Sprachverständlichkeit deutlich um 10 % bis 40 % ab (Lindeman 1976; Fröhlich 1978; Chung u. Gannon 1979; Abel et al. 1980; Baumann u. Marston 1986; Wilde u. Humes 1990).
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
405
Tabelle 8.4.4-1. Untersuchungen zur Sprachverständlichkeit beim Tragen von Gehörschutz (GS: ohne (o), Stöpsel (S), Kapsel (K), aktiver Gehörschutz (ak K) bei einem Schalldruckpegel beim Hörer (Geräusch LNA, Sprache LSA), Geräuschart (sprachähnliches Rauschen (SR), rosa Rauschen (RR), tieffrequent (tf), hochfrequent (hf), breitbandiges Geräusch (bb), Impulsgeräusch (im)) und gegebenem Sprachmaterial (SM) (Einsilber (E), Sätze (S) mit hoher und niedriger Vorhersagewahrscheinlichkeit (hV, nV), sinnlose Silben (SiSi)) und vier Gruppen von Gehörschäden (normal (n), leicht (l), mittel (m), schwer (s)) Autoren
Howell u. Martin 1975 Lindeman 1976 Fröhlich 1978 Chung u. Gannon 1979 Abel et al. 1980 Abel et al. 1982 Baumann u. Marston 1986 Pekkarinen et al. 1990 Wilde u. Humes 1990 Hashimoto 1996 Abel u. Spencer 1997
Ab- Geräusch kürLNA zung Art in dB HM1 hf 80/95 HM2 tf 75/90 L hf 79 F tf 86 CH1 bb 77 CH2 bb 92 A1 Ruhe A2 SR 85 A3 hf 85 A1 Ruhe A2 SR 85 A3 hf 85 BM SR 85
Sprache
P1 P2 P3 P4 WH1 WH2 WH3 HK1 HK2 AS1 AS2 AS3
bb bb bb bb Ruhe SR hf Ruhe RR im im Ruhe
55 55 55 85 93/88 95/90 85 75–85 75–85 -
Gehörschaden n l ms
LSA SM in dB 73-103 E x 73-103 E x 88 E x x x x 86 S x 87 E x x 87 E x x 90 E x x x 90 E x x x 90 E x x x 90 E x 90 E x 90 E x 85 Wörter x x
Gehörschutz o S K ak K x x x x x x x x x x x x x x x x x x x x x x x x x x x x x
60 60 60 85 88 88 88 65 85 80–90 80–90 -
x x x x x x x x x x x x
x x x x x x x x x x x x
E S SiSi S S S S E E S, hV S, nV S, nV
x x x x x x
x x x x x x x x
x x x x x x x x x x x x x x x
Die Ergebnisse zeigen, dass die Sprachverständlichkeit von normalhörenden Personen durch den Gehörschutz nur gering beeinflusst wird (Abb. 8.4.2-3). Der Effekt des Gehörschutzes hängt vom Spektrum des Geräusches und dem Frequenzgang der Schalldämmung des Geräuschschutzes
406
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
WH3
WH2
WH3
WH2
AS2
AS1
L
AS3
'SV 15,0
WH1
ab. Die Sprachverständlichkeit von schwerhörigen Personen nimmt dagegen deutlich ab, wenn sie einen Gehörschutz tragen (s. Abb. 8.4.4-4a, b, c).
%
100,0 LNA
dB
5,0 80,0 -5,0 -15,0
60,0
-25,0 40,0 -35,0 -45,0
20,0
Abb. 8.4.4-4a. Zunahme/Abnahme der Sprachverständlichkeit (ţSV) beim Tragen von Gehörschutz (GS: Stöpsel, Kapsel, Kapsel aktiv) gegenüber der Situation ohne Gehörschutz (o.GS) (ţSV = SV(GS) - SV(o.GS) in %) bei unterschiedlichen Geräuschpegeln (LNA) gemessen beim Hörer; für Personen mit leichten Gehörschäden; (Abkürzungen und Daten s. Tab. 8.4.4-1) LNA
F
BM
A3
Kapsel
A3
A2
A2
L
'SV 15,0 % 5,0
A1
Stöpsel
100,0 LNA dB
80,0 -5,0 -15,0
60,0
-25,0 40,0 -35,0 -45,0
20,0
Abb. 8.4.4-4b. Sprachverständlichkeit beim Tragen von Gehörschutz für Personen mit mittleren Gehörschäden, (s. Abb. 8.4.4-4a, Tab. 8.4.4-1)
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
Stöpsel
'SV
A1
CH1
15,0
L
A3
Kapsel
A2
F
LNA
CH2
100,0
%
407
LNA
dB
5,0 80,0 -5,0 -15,0
60,0
-25,0 40,0 -35,0 -45,0
20,0
Abb. 8.4.4-4c. Sprachverständlichkeit beim Tragen von Gehörschutz für Personen mit schweren Gehörschäden, (s. Abb. 8.4.4-4a, Tab. 8.4.4-1)
Tabelle 8.4.4-2. Veränderung der Sprachverständlichkeit gegenüber der ohne Gehörschutz in Abhängigkeit von der Schwere des Gehörschadens und benutztem Gehörschutz, bei Geräuschpegeln über LNA = 80 dB (Sprache erfolgt über Lautsprecher) Gehörschaden
Gehörschutz
normal bis leicht
Kapseln Stöpsel Kapseln Stöpsel
mittel bis schwer
Veränderung der Sprachverständlichkeit durch Gehörschutz -10 bis 5 % 0 bis 10 % -40 bis -10 % -25 bis -5 %
Um die vorliegenden Ergebnisse zu systematisieren, wurden sie nach der Art der Gehörschützer und dem Grad der Schwerhörigkeit (leicht, mittel, schwer) aufgeteilt (s. Tab. 8.4.4-1). Auch wenn die Zuordnung der Schwerhörigkeit, bedingt durch die unterschiedlichen Aufgaben relativ grob und ungenau ist, wird doch die Abnahme der Sprachverständlichkeit beim Tragen von Gehörschutz mit zunehmendem Hörverlust deutlich. Für diese Abnahme sind mehrere Aspekte maßgebend:
x Durch die erhöhte Hörschwelle kann die Dämmung des Gehörschutzes dazu führen, dass Teile der Sprache, eher als beim Normalhörenden, unter die Verstehens– bzw. Wahrnehmungsschwelle sinken. Dies gilt ins-
408
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
besondere für die hochfrequenten Konsonanten, die die Verständlichkeit der Sprache wesentlich bestimmen. Denn sowohl Hörverlust (Alters– und Lärmschwerhörigkeit) als auch Gehörschutz reduzieren vor allem den Anteil der für die Sprachverständlichkeit wichtigen Frequenzen (1 bis 4 kHz). x Geräusche mit einem hohen Anteil an tieferen und mittleren Frequenzen vermindern die Sprachverständlichkeit bei dem Schwerhörigen besonders stark, da sie vor allem den Teil des Hörbereiches verdecken, der den Schwerhörigen noch zum Hören der Sprache verblieben ist (s. Abb.8.1.2-1). Durch den Gehörschutz wird dieser Effekt noch verstärkt. x Außerdem ist bei Schwerhörigen die Verdeckung/Maskierung deutlicher ausgeprägt als bei Normalhörenden. Das gilt insbesondere für die Verdeckung der Pegel der Sprache durch tieffrequente Geräusche (Weitabverdeckung). Beides, der Gehörschutz und die Schwerhörigkeit, erhöhen die Hörschwelle bei hohen Frequenzen relativ zu der bei tiefen Frequenzen, was insbesondere bei tieferfrequenten Geräuschen wirksam wird (Rittmanic 1962; Leshowitz 1977; Tyler et al. 1980; Lyregaard 1982; Hannley u. Dorman 1983; Klein et al. 1990; Dubno u. Ahlstrom 1995; s. Abschn. 6.3.2). x Letztendlich nimmt die Frequenzauflösung im überschwelligen Bereich bei Schwerhörigen ab (Tyler et al. 1980; Tyler et al. 1982a, b; Plomp 1986; Baer u. Moore 1993). Aus diesem Tatbestand ergibt sich folgendes Problem: will man Personen in Lärmbereichen, in denen die Geräuschpegel über LNA = 85 dB liegen, mit Gehörschutz vor einer entstehenden Schwerhörigkeit schützen, so werden die Personen, die bereits einen geringen Hörverlust haben, Schwierigkeiten beim Verstehen sprachlicher Information bekommen. Um die Verminderung der Sprachverständlichkeit durch den Gehörschutz möglichst gering zu halten, muss der Gehörschutz so ausgewählt werden, dass bei einer möglichst minimalen Schalldämmung ein maximaler Schutz vor zu hohen Geräuschintensitäten gewährleistet ist. 8.4.5 Sprachproduktion, Sprachkommunikation und Gehörschutz Sprecher und Hörer tragen Gehörschutz, Sprechpegel Das Tragen von Gehörschutz beeinflusst nicht nur das Wahrnehmen von Sprache, sondern auch die Sprachproduktion. In einer Kommunikationssituation, in der Sprecher und Hörer Gehörschutz tragen, wirkt sich das Tragen von Gehörschutz somit in gewisser Weise doppelt aus.
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
409
Kryter entdeckte bereits 1946 in einem Experiment, dass ein Sprecher mit Gehörschutz bei einem Geräuschpegel von LNA = 95 dB um 2–3 dB leiser redete als ohne Gehörschutz und die Sprachverständlichkeit um 10 % sank, schenkte diesem Ergebnis jedoch wenig Beachtung. Acton (1977) beobachtete ebenso, dass Sprecher mit Gehörschutz leiser reden. Er vertrat jedoch die Meinung, dass durch die Gewöhnung an die neue Sprechbedingung allmählich wieder lauter gesprochen wird. Auch Asch et al. (1977) erhielten in einer Fragebogenuntersuchung Hinweise darauf, dass die Sprachverständlichkeit in irgendeiner Weise durch das Tragen von Gehörschutz beeinträchtigt wird. Die Autoren gehen in der Interpretation der Ergebnisse jedoch nicht den Aussagen der Befragten nach, sondern führen ihre Befunde auf subjektive Faktoren (etwa Ablehnung des Gehörschutzes) zurück. Howell u. Martin führten 1975 ein Experiment durch, in dem die verschiedenen Bedingungen für Gehörschutz bei Sprecher und Hörer systematisch variiert wurden. Ein Sprecher wurde mit drei Hörern in definiertem Abstand zueinander und zum Lautsprecher, aus dem das Geräusch abgestrahlt wurde, platziert. Sprecher und Hörer trugen je nach experimenteller Bedingung Stöpsel, Kapseln oder keinen Gehörschutz. Der Sprecher hatte die Wortlisten vorzulesen, der Hörer hatte aufzuschreiben, was er verstanden hatte. Der Schallpegel des Geräusches betrug LNA = 54 oder 93 dB. Das Pegelmaximum lag bei etwa 2 kHz. Die Nachhallzeit betrug T = 0.7 s.
Erstaunlicherweise zeigte sich, dass die Sprachverständlichkeit dann abnahm, wenn der Sprecher bei hohen Pegeln (LNA = 93 dB) Kapsel oder Stöpsel trug: die Personen sprachen dann leiser. Eine weitere Untersuchung (Hörmann et al. 1981, 1982) sollte die Frage klären, warum sich Arbeitnehmer so häufig über das schlechte Sprachverstehen beim Tragen von Gehörschutz beschweren. Dazu wurde ein Experiment zur sprachlichen Interaktion von Sprecher und Hörer, mit und ohne Gehörschutz, durchgeführt. Sprecher und Hörer wurden mit verschieden lauten Geräuschpegeln (LNA = 76, 84, 92 dB) beschallt und das Gehörschutztragen beim Hörer und Sprecher wurde systematisch variiert. Der Sprecher las dem Hörer einen Text, Einsilber und Sätze vor und beschrieb ihm Bildgeschichten. Die Aufgabe des Hörers war, die vorgesprochenen Einsilber und Sätze nachzusprechen und zu unterstreichen, was er vom vorgelesenen Text verstanden hatte. Bei den Bildgeschichten hatte der Hörer die Aufgabe, nach jedem der jeweils fünf Bilder sinngemäß wiederzugeben, was er verstanden hatte. In einer anderen Bedingung sollte er den Sprecher auffordern, das zu wiederholen, was er nicht verstanden hatte.
Die Ergebnisse dieser Untersuchung (Abb. 8.4.5-1) konnten die der Untersuchung von Howell u. Martin (1975) bestätigen.
410
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Abb. 8.4.5-1. Sprachverständlichkeit (SV in %) in einer Gesprächssituation in der Sprecher und Hörer (Sprecher/Hörer) Gehörschutz (Stöpsel) tragen (mit/mit: gestrichelt) oder keinen (ohne/ohne: ausgezogen) Gehörschutz (GS) benutzen. Die dargestellte Verständlichkeit ist der Mittelwert von vier Gesprächssituationen (Vorlesen von Einsilbern, Sätzen, Text; Erzählen einer Bildgeschichte)
Der Sprecher mit Gehörschutz sprach im Vergleich zum Sprecher ohne Gehörschutz beim Geräuschpegel von über LNA = 90 dB um 3–4 dB leiser (Abb. 8.4.5-4); die Sprachverständlichkeit war erheblich reduziert. Sie sank im Vergleich (s. Abb. 8.4.5-1) zur Situation, in der beide Gesprächspartner keinen Gehörschutz trugen, je nach Sprachmaterial um 20 % (Einsilber) bis 80 % (Text), im Durchschnitt etwa um 40 % ab (Hörmann et al. 1981, 1982). Aber auch in den Situationen, in denen nur der Hörer oder auch nur der Sprecher Gehörschutz trug, zeigte sich eine Verschlechterung der Sprachverständlichkeit an. Neben der schlechten Sprachverständlichkeit ist durch den Gehörschutz bedingt eine Verzögerung des Austausches der sprachlichen Information zu beobachten. Nakladal u. Listner (1997) versuchten die Sprachverständlichkeit unter möglichst realistischen Bedingungen beim Tragen von Gehörschutz zu untersuchen. Bei 11 Betriebsgeräuschen mit Pegeln von LNA = 85 bis 96 dB mussten sich zwei Gesprächspartner (22 Sprecher–Hörer–Paare) in 2 m Abstand verständigen. Bei wechselnden Rollen las der jeweilige Sprecher seinem Gegenüber Sätze vor, die auf einem Monitor angezeigt wurden. Lippenlesen wurde durch einen halbdurchsichtigen Vorhang zwischen den Partnern verhindert, der Hörer konnte dem Sprecher allerdings durch Gesten zu verstehen geben, lauter zu sprechen. Als Sprachmaterial wurde einfache Kommandosprache benutzt. Vier Gehörschützer (2 Stöpsel, Kapsel, Kapsel mit pegelabhängiger Schalldämmung) wurden eingesetzt.
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
411
Die Ergebnisse zeigen (Abb. 8.4.5-2), dass die Sprachverständlichkeit für die drei passiven Gehörschützer (S1, S2, K) gegenüber der Situation ohne Gehörschutz deutlich geringer ist. Der pegelabhängige Gehörschutz verbessert die Sprachverständlichkeit erheblich (s. Tab. 8.4.5-1).
n GS
60 % 40
20
0 o.GS
S1
S2
K
KP
Abb. 8.4.5-2. Häufigkeit (n GS in %) der Nennungen von Gehörschützern, die von Hörern hinsichtlich der Sprachverständlichkeit am besten beurteilt wurden (ohne Gehörschutz o.GS; Stöpsel S1, S2; Kapsel K; pegelabhängige Kapsel KP)
Obwohl in diesem Versuch elf unterschiedliche Störgeräusche benutzt wurden, ist die Schwankung der Sprachverständlichkeit zwischen den Geräuschen (20 %) wesentlich kleiner als zwischen den Hörern (40 %). Es gibt Sprecher–Hörer–Paare die eine hohe Sprachverständlichkeit (> 80 %) und kaum Differenzen zwischen den Gehörschutzsituationen aufweisen, andere dagegen haben eine Sprachverständlichkeit von unter 60 % und mit Kapseln sogar unter 40 %. In Tabelle 8.4.5-1 sind die Ergebnisse von vier Untersuchungen bei Geräuschpegeln über LNA = 85 dB zusammengefasst. Die Ergebnisse stimmen recht gut überein. Die Verstehensleistung nimmt, wenn der Sprecher oder beide Gesprächspartner Gehörschutz tragen, um SVE = 5 bis 30 % gegenüber dem ungeschützten Ohr ab. Bedeutsame Unterschiede zwischen den Untersuchungen zeigen sich nur, wenn allein der Hörer Gehörschutz trägt. Diese Differenzen gehen vermutlich auf Unterschiede im Spektrum der Geräusche und bei der Schalldämmung auf die verwendeten Gehörschützer zurück. Von den beiden Untersuchungen, in denen Gesprächsituationen unter verschiedenen Geräuschsbedingungen stattfanden (Hörmann et al. 1981, 1982; Nakladal u. Listner 1997), wurden die Ergebnisse der Sprachverständlichkeit zusammenfassend über dem Geräuschpegel dargestellt (Abb. 8.4.5-3).
412
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Tabelle 8.4.5-1. Veränderung der Sprachverständlichkeit in einer Gesprächsituation (Sprecher–Hörer) (- Abnahme, + Zunahme) durch Gehörschutz gegenüber der Situation ohne Gehörschutz bei Geräuschpegeln LNA Ů 85 dB; in den drei Situationen: im Gespräch trägt nur der Hörer, nur der Sprecher (Spr.), sowie Sprecher und Hörer Gehörschutz (p.abh.K: Kapsel mit pegelabhängiger Dämmung) Sätze KommandoGe- Gehör- Einsilber sprache hör- schutzHowell u. Martin et al. Hörmann et al. 1981 Nakladal u. schutz art Martin 1975 1976 Listner 1997 tragen: nur Stöpsel 2 bis 4% 1% -20 bis -6% -22 bis -5% Hörer Kapsel 5 bis 15% 5% -20 bis -6% -18 bis -2% nur Stöpsel -32 bis -22% -10 % Spr. Kapsel -22 bis -12% -10 % Spr. Stöpsel -20 % - 9% -26 bis -21%-37 bis -13% -23 bis -13% und Kapsel - 7% -11% -17% 21% Hörer p.abh.K 100 %
o.GS / KS
SV 80
60
S1
/ KS
S2
/ KS
K
/ KS
KP 40
/ KS
o.GS / E S3 / E
20
o.GS / S S3
0 50
60
70
80
90
dB
/S
100
LNA
Abb. 8.4.5-3. Sprachverständlichkeit (SV in %) in Abhängigkeit vom Geräuschpegel (LNA): zwei Gesprächspartner, beide mit Gehörschutz (Kapsel: K, Stöpsel: S1, S2, S3, Kapsel mit pegelabhängiger Schalldämmung KP) oder beide ohne Gehörschutz (o.GS) unterhalten sich mit Kommandosprache (KS), Einsilbern (E) oder Sätzen (S)
Die Ergebnisse haben eine ähnliche Tendenz: die Sprachverständlichkeit nimmt mit zunehmendem Geräuschpegel ab, mit Gehörschutz deutlich stärker als ohne Gehörschutz. Nur die Kapsel mit pegelabhängiger Schall-
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
413
dämmung wirkt verbessernd auf die Sprachverständlichkeit (Tab. 8.4.5-1). Dieser Prozess ist, wie die Abbildung zeigt, in seiner Tendenz relativ unabhängig vom Sprachmaterial, Geräusch und Gehörschutz. Das Tragen von Gehörschutz in Gesprächsituationen wird durch Sprecher– und Hörereinfluss bestimmt. Zum einen – abhängig von der akustischen Situation – ergibt sich eine Veränderung (Abnahme oder Zunahme) der Sprachverständlichkeit, wenn der Hörer Gehörschutz trägt und der Sprecher ohne Gehörschutz redet oder die Sprache über Lautsprecher abgestrahlt wird. Zum anderen ergibt sich eine Reduktion der Sprachverständlichkeit, weil der Sprecher leiser spricht, wenn er Gehörschutz trägt. Zu erklären ist dieses Absenken der Sprechlautstärke durch die Veränderung der Wahrnehmung der eigenen Stimme beim Sprechen mit Gehörschutz. In der ungeschützten Situation nimmt der Sprecher die eigene Stimme als Luftschall wahr (aber kaum über Knochenleitung); Geräusche werden dabei ebenfalls als Luftschall wahrgenommen. Diese Wahrnehmung der eigenen Sprache wird vom Sprecher benutzt, um die eigene Artikulation zu kontrollieren und die Sprechlautstärke der Situation angemessen zu regulieren. Dieser Rückkopplungsprozess ist für einen einwandfreien Sprechprozess erforderlich. Bei störenden Geräuschen wird der Sprechpegel automatisch (eher unbewusst) erhöht, um die eigene gesprochene Sprache weiterhin zu verstehen und den bekannten Rückkopplungsprozess aufrechtzuerhalten. Das Erhöhen des Sprechpegels bei störenden Geräuschen wird als Lombardeffekt bezeichnet (s. Abschn. 5.3). Trägt der Sprecher Gehörschutz, wird in die gewohnte Rückkopplungsschleife eingegriffen: die über das Außenohr als Luftschall rückgekoppelte eigene Sprache sowie das Geräusch sind durch den Gehörschutz in der Lautstärke gemindert, die über den inneren Weg (Knochenleitung, eustachische Röhre) rückgekoppelte Sprache hingegen wird durch den Gehörschutz nicht oder nur gering beeinflusst. Für den Sprecher erscheint die eigene Sprache, da sie über den inneren Weg ungestört rückgekoppelt wird, im Vergleich zu Umweltgeräuschen lauter, als sie tatsächlich ist. Anstatt wegen des vorhandenen Geräusches (Lombardeffekt) weiterhin laut zu reden, tritt das Gegenteil ein: der Sprecher senkt seine Sprechlautstärke. Das sind etwa 1 bis 4 dB (Kryter 1946; Howell u. Martin 1975; Martin et al. 1976; Hörmann et al. 1981; Nakladal u. Listner 1997; Abb. 8.4.5-4). Dies gilt natürlich nur für lärmige Umgebungen. Bei Stille führt das Bedecken des Ohres zu einem Anheben der Sprechlautstärke um 3–4 dB, da der Vergleich zum reduzierten Störgeräusch entfällt und die eigene Stimme leiser wirkt (Casali 1989).
414
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
100
o.GS (H)
dB S (H)
90
LSA,1m
o.GS (M)
80
K (M) S (M)
70
o.GS (K)
60 S (K)
50 40 60
70
80
90
dB 100
LNA
Abb. 8.4.5-4. Sprechpegel (LSA,1m) beim Lesen von vorgegebenen Texten (Einsilber, Sätze, Wörter, Kommandosprache, Zeitungstexte) mit (Stöpsel, S; Kapsel, K) und ohne Gehörschutz bei einem Hintergrundgeräusch (LNA) nach Kryter (1946 (K)), Martin et al. (1976 (M)), Hörmann et al. (1982 (H))
In der bereits oben angeführten Studie von Nakladal u. Listner (1997) wurde allerdings nur eine geringe Absenkung des Sprechpegels (um ca. 1 dB) beobachtet. Die Autoren führen diese Ergebnisse auf die Instruktion zurück, in der ausdrücklich zu lautem Sprechen aufgefordert wurde. Auch Casali (1989) beschränkt das Absenken der Sprechlautstärke auf Situationen, in denen der Sprecher sich nicht bewusst anstrengt, um lauter zu sprechen. Um die Frage zu diskutieren, wie sich diese dargestellten Effekte bei längerer zeitlicher Benutzung des Gehörschutzes darstellen, könnten die Befunde von Martin et al. (1976) einen Hinweis geben. Wenn Personen, bevor sie Gehörschutz aufsetzen, unmittelbar vorher hohen Geräuschpegeln ausgesetzt wurden, sprachen sie mit Gehörschutz lauter, als wenn sie vorher diesen hohen Geräuschpegeln nicht ausgesetzt worden waren. Zusammenfassend lässt sich feststellen, dass das Tragen von Gehörschutz bei der Sprachproduktion in Lärm zum Absenken des Sprechpegels und der Sprechdeutlichkeit führt, solange der Sprecher sich nicht bewusst anstrengt, laut zu reden. Der Effekt von Gehörschutz auf die Gesprächspartner kann die Sprachverständlichkeit in der Kommunikationssituation um 10 % bis 30 % verschlechtern (s. Abb. 8.4.5-3, Tab. 8.4.5-1).
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
415
8.4.6 Bewertung der Sprachkommunikation mit Gehörschutz Sprachproduktion, Hörprozess, Sprechpegel, Geräuschpegel, Schwerhörigkeit Für die akustische Beurteilung der Signalerkennung mit Gehörschutz sind inzwischen einige Beurteilungskonzepte entwickelt worden, die im Wesentlichen auf dem psychoakustischen Wissen (Lautheit, Frequenzauflösung, Maskierung) aufbauen (Lazarus et al. 1983; Wittmann u. Meißner 1986; Liedtke 1997, 2002; Coleman 1998; Laroche et al. 1991, 1992; DIN EN ISO 7731; DIN EN 457). Sie berücksichtigen das am Ohr wirksame Spektrum des Geräusches und des Signals, teilweise einschließlich der Hörschwelle. Sie beurteilen aber nur die Erkennung von Signalen nicht die von Sprache. Die Beeinflussung der Sprachkommunikation durch das Tragen von Gehörschutz ist bisher nur ansatzweise bei den Sprachvorhersageverfahren (SIL, SII, MAI, s. Abschn. 7.2, 7.3) berücksichtigt worden. Um den Einfluss von Gehörschutz auf die Sprachkommunikation qualitativ (und eingeschränkt quantitativ) zu skizzieren, muss eine Reihe von Einflussfaktoren einbezogen werden. Diese sind zwar im Einzelnen häufig nicht sehr bedeutsam, können aber beim Zusammenwirken, d.h., wenn sich die Effekte summieren, sehr wirkungsvoll sein. Doch für diesen Prozess und für das Zusammenwirken der Einflussfaktoren gibt es bisher kein funktionierendes Modell. Hier sollen nur die Konsequenzen bei höheren Schallpegeln (LNA > 80 dB) erläutert werden. Der Sprecher hat durch die Variation seiner Sprechweise und Sprache einige Möglichkeiten zu reagieren (lauteres Sprechen, zusätzliches Reagieren auf das, was der Hörer zurückmeldet). Der Hörer hat wenig Möglichkeit (gegebenenfalls den Kopf bewegen), er muss mit dem auskommen, was sein Ohr dargeboten bekommt. In Abbildung 8.4.6-1a, b sind die Konsequenzen für die Sprachverständlichkeit skizziert, einbezogen sind Gehörschutz und auch Schwerhörigkeit (Abb. 8.4.4-4a, b, c), die den diskutierten Prozess der Sprachkommunikation verändern. Die Untersuchung von Nakladal u. Listner (1997), bei der erstmalig eine betriebsnahe Sprachkommunikation bei verschiedenen Geräuschpegeln nachgebildet wurde, und die Untersuchung von Hörmann et al. 1982 (Tab. 8.4.5-1, Abb. 8.4.5-3 und -4) bilden die Grundlage für die qualitativ–quantitative Darstellung in der Abbildung 8.4.6-1a, b.
416
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz Sprecher
90 L SA,1m
ohne GS
dB 80 70
mit GS
60 0,5 dB / 1 dB
50 40 50
60
70
LNA
80
90
100
dB
Abb. 8.4.6-1a. Wirkung von Gehörschutz (mit und ohne GS) in Gesprächsituationen (Sprecher – Hörer) in Abhängigkeit vom Geräuschpegel (LNA). Sprecher (a): Der Sprechpegel des Sprechers in 1 m Abstand vom Sprechermund (LSA,1m in dB) Hörer
60 %
ohne GS
50 normalhörend
40
ohne GS
mit GS
mit GS
SV 30 schwerhörig
20 Verbesserung Verschlechterung
10
0 50
60
70
80
90
100
dB 110
LNA
Abb. 8.4.6-1b. Wirkung von Gehörschutz (mit und ohne GS) in Gesprächsituationen (Sprecher – Hörer) in Abhängigkeit vom Geräuschpegel (LNA). Hörer (b): Die Sprachverständlichkeit (SV in %) beim Hörer (normalhörend oder schwerhörig)
Die Ergebnisse der verschiedenen Untersuchungen (Tab. 8.4.5-1, Abb. 8.4.4-3, -4), die trotz der Unterschiede in den Geräuschspektren, der Art
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
417
der Gehörschützer, des Abstandes von Sprecher und Hörer und des sprachlichen Materials gut übereinstimmen, sprechen dafür, dass die genannten akustischen Parameter unabhängig von ihren spezifischen, für das Experiment ausgewählten Eigenschaften eine übereinstimmende Auswirkung auf die sprachliche Kommunikation mit Gehörschutz haben. Die Übereinstimmung dieser Ergebnisse der o.g. Experimente weist darauf hin, dass in der betrieblichen Praxis unter entsprechenden akustischen Bedingungen ähnliche Ergebnisse zu erwarten sind. Außerdem entsprechen die dargestellten Untersuchungen (Tab. 8.4.5-1, Abb. 8.4.5-3 und -4), in denen beide Interaktionspartner Gehörschutz tragen, dem betrieblichen Alltag eher als Experimente, in denen Sprachinformation durch Lautsprecher abgestrahlt wird. Die von Industriearbeitern beobachtete Beeinträchtigung der sprachlichen Kommunikation beim Tragen von Gehörschutz konnte mit diesen Untersuchungen empirisch nachgewiesen werden. 8.4.7 Gehörschutz und akustische Verständigung im betrieblichen Alltag – Konsequenzen und Perspektiven Signalerkennung, Sprachverständigung, Sprachproduktion, Überprotektion, Optimierung des Hörvorgangs Abschließend sind noch einige grundsätzliche Aspekte zur akustischen Verständigung im Betrieb zu diskutieren. Das Auftreten hoher Geräuschpegel im Betrieb stört oder behindert die sprachliche Kommunikation wie auch das Erkennen von akustischen Gefahrensignalen. Der Gehörschutz soll durch die Verminderung des für das Gehör wirksamen Geräuschpegels im Ohr die Entwicklung einer Schwerhörigkeit vermeiden und damit die Funktionsfähigkeit des Gehörs erhalten. Aber dieser Schutz des Gehörs durch Stöpsel oder Kapseln beeinflusst gleichzeitig auch die akustische Informationsaufnahme und –vermittlung. Ein funktionsfähiges Gehör, das akustische Information einwandfrei aufnehmen und verarbeiten kann, ist eine wesentliche Voraussetzung für das soziale Zusammenleben der Menschen und den sicheren Ablauf des Arbeitsprozesses und des Verkehrs. Dabei sind vor allem das Erkennen von Gefahren, die akustische Erfahrung der Umwelt, die Orientierung in der Umgebung und nicht zuletzt die Interaktion zwischen Personen durch sprachliche Mitteilungen zu nennen. Die hohe Anzahl der Betroffenen macht die Klärung des Einflusses von hohen Geräuschpegeln und des Tragens von Gehörschutz auf die sprachliche Kommunikation und die Signalerkennung notwendig. Es muss die Frage gestellt werden, welche Konsequenzen die generelle Pflicht, bei Pe-
418
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
geln über 85 dB Gehörschutz zu tragen, für die akustische Verständigung im Betrieb, und damit auf den Produktionsablauf und auf das Niveau der allgemeinen Unfallgefährdung, hat. Man kann davon ausgehen, dass, wenn der Gehörschutz richtig und konsequent benutzt und getragen wird, dieses einen ausreichenden und sicheren Schutz vor Gehörschäden bedeutet. Doch einerseits ist die Tragequote im Betrieb gering (zwischen 30 % und 80 %), andererseits zeigen Untersuchungen, dass selbst das Tragen von Gehörschutz noch keinen ausreichenden Schutz bringt (Körpert 1980; Bauer et al. 1991; Weiß 2003). Offenbar wird der Gehörschutz nicht richtig, konsequent und ausdauernd getragen. Es bleibt die Frage, warum der Gehörschutz nicht oder nicht ausreichend benutzt wird, obwohl die Schutzwirkung beim konsequenten Tragen plausibel und eindeutig gegeben ist? Gibt es Gründe, den Gehörschutz nicht konsequent zu tragen? Ist in diesem Zusammenhang eine generelle Verpflichtung zum Tragen von Gehörschutz vereinbar mit dem Ziel, einen sicheren Arbeitsablauf und einen effektiven Arbeitsprozess zu gewährleisten, oder sind der Schutz vor Gehörschäden auf der einen Seite und die Gewährleistung von Sicherheit und Produktivität auf der anderen gegensätzliche Ziele, die man zwar optimieren muss, aber nicht voll erreichen kann? Diese Diskussion ist vor dem Hintergrund zu sehen, dass einerseits die Pflicht zum Tragen von Gehörschutz sehr ernst genommen werden muss (EG–Lärm–Richtlinie 2003/10). Andererseits erhöht sich aufgrund geänderter Organisationsstrukturen im Betrieb der kommunikative Anteil im industriellen Produktionsbereich. Vielfältige Planungsprozesse über Arbeitseinteilung– und Arbeitszeit, personelle und Materialressourcen, Einhaltung bestimmter Qualitätsniveaus sowie individuelle Qualifizierungsnotwendigkeiten erfordern ein hohes Maß an verbalen Abstimmungsprozessen. Diese Kommunikationssituationen sind häufig direkt in den Arbeitsablauf integriert und können nicht in „Ruhebereiche“ verlegt werden. Das heißt, die Kommunikation wird durch Geräusche verschiedenartigster Quellen mit unterschiedlichsten Intensitäten und Frequenzverteilungen gestört und gegebenenfalls durch das Tragen von Gehörschutz beeinflusst. Umso wichtiger ist es, unter den veränderten Organisationsbedingungen den Aspekt der Aufrechterhaltung und Herstellung einer guten Sprachverständlichkeit als Voraussetzung gelungener Kommunikation zunehmend stärker in den Fokus der Aufmerksamkeit zu rücken. Insofern wird ein wachsender Teil der arbeitsprozessbezogenen Sprachkommunikation weiterhin in Betriebsbereichen mit hohen Geräuschpegeln stattfinden. Dabei sind die Auswirkungen sowohl hörerseitig – unter Berücksichtigung der Personen mit Hörschädigungen – als auch sprecherseitig zu betrachten.
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
419
Bekanntlich setzt sich der für die Verständigung relevante Schall im Betrieb aus akustischen Signalen (Gefahrensignale, Hinweissignale, akustische Muster, die über den Betriebzustand Auskunft geben) und Sprache (direkt gesprochene und über Lautsprecher gesendete) zusammen. Für die Diskussion seien die Ergebnisse für die Sprachkommunikation (Abschn. 8.4.2 bis 8.4.6) und für die Erkennung von akustischen Mustern (Zusammenstellung: Lazarus 2005; Sust u. Lazarus 2005) hier kurz zusammengefasst. Könnte sichergestellt werden, dass der Schallpegel, der für Erkennung von notwendigen Signalen und Sprache (über Lautsprecher) 15 dB über dem Schallpegel des Störgeräusches liegt (DIN EN ISO 7731; Wilkins u. Martin 1982), würde eine Behinderung der Erkennung von Signalen und Sprache durch das Tragen von Gehörschutz kaum auftreten. In Lärmbereichen muss jedoch damit gerechnet werden, dass selbst Signale noch relevant sind, deren Schallpegel um einige Dezibel unter dem des Geräusches liegen. Das heißt für die Sicherheit und die Durchführung des Arbeitsprozesses ist die Erkennung von Signalen und Sprache (über Lautsprecher) bei Signal–Geräuschabständen von -5 bis +15 dB erforderlich. Für die Wahrnehmung und Erkennung von Signalen und Sprache lassen sich jedoch keine einfachen Grundregeln angeben, die unter den komplexen Bedingungen der Praxis problemlos anzuwenden sind. Die Veränderungen durch das Tragen von Gehörschutz können jedoch in der Tendenz knapp zusammengefasst werden: Es gibt unter bestimmten Bedingungen (sehr hohe Geräuschpegel, normalhörend, frequenzunabhängige Schalldämmung der Gehörschützer) Verbesserungen, aber in allen anderen Fällen mäßige bis deutliche Verschlechterungen der Hörleistung. Diese lassen sich wie folgt resümieren. Das Tragen von Gehörschutz beeinflusst die Hörbarkeit von Signalen und die Verständlichkeit von Sprache (Sprache aus Lautsprechern) dann am geringsten, wenn die Personen ein normales Gehör haben und das Geräusch breitbandig ist, da durch den Gehörschutz die Signale, Sprache und Geräusche in ihrem Pegel gleichermaßen gesenkt werden. Die genauere Vorhersage der Mithörschwelle von Signalen oder Sprache für unterschiedliche Gehörschützer und Geräuschspektren setzt die Kenntnis der Schallpegel der Signale, des Geräusches sowie der Schalldämmung der Gehörschützer in den einzelnen Oktaven voraus, evtl. auch die Hörschwelle der Personen. Bei tieffrequenteren Geräuschen (f < 500 Hz) kann durch das Tragen einer Kapsel die Hörbarkeit um bis zu 30 % abnehmen, was eine Erhöhung der Mithörschwelle um bis zu 6 dB bedeutet. Die Ortung von Schallquellen ist beim Tragen von Gehörschutz deutlich gestört. Bei Schwerhörigen hingegen führt Gehörschutz generell
420
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
zu einer deutlichen Verschlechterung der Sprachverständlichkeit um 15– 50 %. Die sprachliche Kommunikation ist, wenn beide Gesprächspartner Gehörschutz tragen, beträchtlich eingeschränkt: Die Verständlichkeit nimmt um 10–40 % ab, der sprachliche Informationsaustausch ist verzögert. Die Defizite bei der Ortung, bedingt durch den Gehörschutz, werden bisher kaum berücksichtigt. Das gleiche gilt für die Zunahme der Unsicherheit bei der Bewältigung von Wahrnehmungsaufgaben durch das Tragen von Gehörschutz. Diese Unsicherheit wird besonders deutlich bei der Beurteilung der Schalleinfallsrichtung, bei der Identifikation und bei der Unterscheidung mehrerer Signale sowie bei der Erkennung unerwarteter und selten auftretender Signale (Wilkins u. Martin 1982; Wilkins 1984). Zusätzlich treten durch den Gehörschutz eine Verlängerung der Reaktionszeiten bei der Identifizierung eines Signals und eine Verzögerung des Informationsaustausches bei der sprachlichen Interaktion auf. Der kritische Einfluss des Gehörschutzes (Wilkins u. Martin 1982) wird besonders in solchen Situationen deutlich, in denen die Erkennung akustischer Signale schon stark erschwert ist. Die Veränderung beim Wahrnehmen, Identifizieren und Orten von akustischen Signalen und Kommunizieren von Sprache führt zwar zu mehr oder weniger starken Beeinträchtigungen und sicher in einzelnen Fällen auch zu einem erhöhten Risiko. Ob sie jedoch in jedem Fall zu einer Erhöhung der Unfallgefahr beiträgt, lässt sich so ohne weiteres nicht sagen. Hierbei spielen dann sowohl die akustisch–physikalischen Gegebenheiten (Intensität und Art des Signals, des Geräusches und der Art der Schalldämmung des Gehörschutzes etc.) als auch die psychophysiologischen Bedingungen der Betroffenen (Hörschwelle, Aufmerksamkeit etc.) während der Tätigkeit sowie die Arbeitsituation selbst eine entscheidende Rolle. Aus der Beschreibung und Analyse dieser Daten kann die Hörsituation optimiert und Überprotektion vermieden werden (Suter 1992; Coleman 1998; Liedtke 2002; DIN–EN 458). Eine Lärmeinwirkung am Ohr, die das Gehör gefährden kann, muss unter allen Umständen verhindert werden, letztendlich, wenn andere Maßnahmen versagen, durch konsequentes Tragen von Gehörschutz. Dabei sollten die Hinweise, dass Gehörschutz die akustische Verständigung behindern kann, in keiner Weise dazu führen, ihn nicht zu benutzen. Im Gegenteil, die Hinweise sollten für eine Erhöhung der Tragequoten genutzt werden. Gehörschutz wirkt einerseits positiv auf das Ohr des Benutzers, denn die wahrgenommene Lautstärke ist reduziert. Andererseits sind gewisse Nachteile, wie Behinderung bei der Arbeit, Belästigung durch das Tragen sowie die dargestellten Defizite bei der akustischen Verständigung nicht
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
421
ganz zu vermeiden. Das Wissen über die Vorteile (geringes Risiko schwerhörig zu werden) und die erlebten Vorteile (geringe Lautstärke am Ohr) wiegen offenbar die erlebten oder vermuteten Nachteile (Lästigkeit, Behinderung, schlechte Sprachverständigung) nicht auf und können so möglicherweise zu einer geringen Tragequote führen. Somit ist es fraglich, ob das Tragen von Gehörschutz zu einer strikten Einhaltung von Lärmgrenzwerten überhaupt genutzt werden kann. Gehörschutz scheint viel mehr eine zweckmäßige und auch erforderliche, aber nur bedingt wirkungsvolle Maßnahme zu sein. Denn das Tragen und die Wirksamkeit von persönlichen Schutzausrüstungen sind nur bedingt kontrollierbar. Da man aber trotz dieser bekannten Nachteile den Schutz des Gehörs durch Gehörschutz gewährleisten will
x müssen die Betroffenen motiviert und am Tragen interessiert werden, x muss der Gehörschutz an die Situation und Person optimal angepasst werden. Bei der Optimierung von Gehörschutz sind mehrere Aspekte zu beachten:
x die Erkennung von Signalen und Sprache ist durch den Gehörschutz gegenüber dem ungeschützten Ohr umso stärker behindert, je höher die Schalldämmung der Gehörschützer und je höher dabei der Hörverlust der Personen ist (Abel et al. 1982b; Lazarus et al. 1983). Auch muss die Schalldämmung bei der Sprachkommunikation möglichst gering sein, damit weiterhin unter Lärm möglichst laut geredet wird. Aus diesem Grunde ist es erforderlich, die Schalldämmung so gering wie notwendig zu halten, das heißt, eine Überprotektion durch Gehörschutz muss vermieden werden. Überprotektion kann am besten dadurch vermieden werden, dass die für den Schutz notwendige Schalldämmung durch einen solchen Gehörschutz realisiert wird, der beim täglichen Benutzen immer die gleiche und geprüfte Schalldämmung ergibt. Die in der Praxis im Betrieb am Ohr wirksame Schalldämmung hängt nicht allein von seiner Bauart und seinen Materialeigenschaften ab, sondern auch davon, inwieweit der Benutzer diesen in sein Ohr zweckmäßig einpassen kann und inwieweit diese Schalldämmung beim mehrfachen Einsetzen und Einpassen variiert. Um eine definierte Schalldämmung beim mehrfachen schnellen Einsetzen pro Tag zu erreichen, muss diese entsprechende Ungenauigkeit möglichst gering sein. So deutet die geringe Zunahme der Hörverluste (pro Jahr bei 4 kHz) bei Otoplastikträgern gegenüber Trägern anderer Gehörschutzarten – von 0.3 gegenüber 1.5 dB/Jahr – auf die geringere Unsicherheit beim wiederholten Einsetzen von
422
8 Kommunikation bei Schwerhörigkeit und mit Gehörschutz
Otoplastiken (kaum manipulierbar) gegenüber anderen Gehörschutzarten hin (Weiß 2003). Allerdings kann man die Schalldämmung der Otoplastiken nur am Träger nachprüfen (Liedtke 2000). Bei hoher Unsicherheit muss zur Sicherstellung einer Mindestschalldämmung ein Sicherheitszuschlag erhoben werden, der aber die Überprotektion begünstigt (DIN–EN 458). Leider liegt die Standardabweichung beim betrieblichen Einsatz bei den üblichen Gehörschützern bei s = 5 bis 12 dB (Berger et al. 1996). x Es ist für den Hörer vorteilhaft, wenn die Schalldämmung weitgehend frequenzunabhängig ist. Entsprechend einer vergleichenden, internationalen Studie über Felduntersuchungen (Berger et al. 1996) ergeben sich für die verschiedenen Gehörschützer im Bereich bis 1 kHz recht unterschiedliche Differenzen zwischen der Schalldämmung von Oktave (i-1) zur Oktave (i) (DR = Ri - Ri-1). Bei Kapseln sind das etwa 5 bis 10 dB, bei Stöpseln 1 bis 5 dB, das heißt, bei vorgeformten, formbaren und individuell angepassten Stöpseln 1 bis 3 dB, bei Gehörschutzwatte 3 bis 5 dB. Ähnliche Werte veröffentlichten die Berufsgenossenschaften: die Differenz der Schalldämmung zwischen den benachbarten Oktaven (0.25 bis 2 kHz) liegt bei den Otoplastiken bei 2 bis 3 dB, bei speziellen Gehörschutzstöpseln bei 1 bis 4 dB, bei einem speziellen Stöpsel kann die Abweichung der Schalldämmung von einem konstanten Wert in diesem Frequenzbereich (0.25 bis 2 kHz) schon bei ± 2 dB liegen (Sickert 2004). Stöpsel, einschließlich Otoplastiken, sind also für die Erkennung von Signalen und die Sprachkommunikation besser geeignet als Kapseln. Die inzwischen angebotenen speziellen Kapseln oder Headsets mit einer Schalldämmung, die Filter, pegelabhängige Verstärkung (Pegelbegrenzung) oder aktive Pegelreduzierung (ANR) einbezieht, sind aus Sicht der Sprachverständigung nicht ohne weiteres zu empfehlen, obwohl es einzelne, recht positive Ergebnisse gibt. Hier muss die spezielle Kapsel für den ausgewählten Einsatz geprüft werden. Um die Verminderung der akustischen Informationsaufnahme und –vermittlung gering zu halten, sind somit folgende Gesichtspunkte zu beachten:
x Gehörschutz soll bei einer minimalen Schalldämmung einen maximalen Schutz vor zu hohen Schallintensitäten gewährleisten. x Gehörschutz mit einer weitgehend frequenzunabhängigen Schalldämmung ist zu bevorzugen.
8.4 Gehörschutz, Schwerhörigkeit und sprachliche Verständigung
423
x Gehörschutz, dessen Schalldämmung beim täglichen Einsatz bekannt und gut reproduzierbar ist (geringe Unsicherheit), soll bevorzugt werden. x Überprotektion ist zu vermeiden (s. DIN EN 458). x Schwerhörige mit Gehörschutz sind nur begrenzt im Betrieb einsetzbar. 8.4.8 Gehörschutz und Sprachkommunikation im Überblick
x Gehörschutz kann die Sprachkommunikation und die Signalerkennung beeinträchtigen: - weil die Mithörschwelle (Hörschwelle im Lärm) für Sprache und Signale erhöht (verschlechtert) werden kann, - weil Sprache und Signale unter die Hörschwelle (bei Schwerhörigen) sinken können, - weil man mit Gehörschutz im Lärm leiser spricht, - weil die Fähigkeit, Schallquellen zu lokalisieren/orten reduziert ist, - weil diese Beeinträchtigungen vor allem bei Personen mit (auch schon leichten) Hörverlusten auftreten. x Die Beeinträchtigungen können gering gehalten werden bei einem Gehörschutz - mit möglichst geringer (aber doch ausreichender) Schalldämmung (maximaler Schutz, aber keine Überprotektion), - mit einer möglichst frequenzunabhängigen Schalldämmung, - bei dem sich die Dämmeigenschaften während des Tragens nicht verändern.
9 Einfluss psycholinguistischer Faktoren auf die Sprachverständlichkeit
9.1 Vorbemerkung Die referierten Untersuchungen zum Verstehen verrauschter Sprache sind mit sinnlosen Silben oder auch mit einsilbigen Wörtern, die z.T. in Wortgruppen zusammengefasst sind, durchgeführt worden. Das Sprachmaterial wurde pro Wortgruppe jeweils nach einer Reihe von Kriterien vergleichbar gemacht, um den Schwierigkeitsgrad der Sprachwahrnehmung, der durch die psycholinguistischen und phonetischen Merkmale der Sprachreize bedingt sein kann, möglichst ähnlich zu halten. Dagegen wurden die Störvariablen wie z.B. die Intensität des Geräusches (Abschn. 6.3) oder die Unterbrechungsfrequenz des Sprachreizes selbst (Abschn. 6.2.4) systematisch variiert. Eine andere Möglichkeit zur Erfassung der Faktoren, von denen die Sprachverständlichkeit abhängig ist, besteht darin, den Signal– Geräuschabstand konstant zu halten und das Sprachmaterial in seinem Inhalt oder auch in seiner Strukturiertheit zu verändern. Dieser Problembereich wird in den folgenden Ausführungen angesprochen. Miller et al. (1951) haben in ihrer Untersuchung darauf hingewiesen, dass die Wahrnehmungsleistung von Wörtern signifikant verbessert werden kann, wenn sie in einem Satzkontext eingebettet sind. Die Sprachverständlichkeitsschwelle von maskiertem Sprachmaterial (Mithörschwelle) verändert sich also abhängig von der Art des dargebotenen Sprachmaterials. Mit den Experimenten zur Wahrnehmungsleistung verschiedenen Sprachmaterials bei gleich bleibendem Signal–Geräuschabstand wird der Schwerpunkt der Untersuchung von der akustischen Beschaffenheit des Übertragungsweges auf die Leistungsfähigkeit des Hörers selbst verlagert. Während man sich in den Untersuchungen mit sprachlichem Material bis Miller et al. (1951) vor allem dafür interessierte, wie die Wahrnehmungsleistung durch bestimmte Räumlichkeiten, oder allgemeiner gesagt, durch bestimmte Charakteristika des Übertragungsweges verändert werden kann, untersucht man in späteren Arbeiten verstärkt, wie gut der Zuhörer unterschiedliches Sprachmaterial wahrnehmen kann.
426
9 Einfluss psycholinguistischer Faktoren auf die Sprachverständlichkeit
In der Psycholinguistik werden bei der Beschreibung der Sprachwahrnehmung und Produktion mehrere Analyseebenen unterschieden. Es wird angenommen, dass beim Hören und Produzieren von Sprache phonetische, lexikalische, grammatikalische und inhaltliche Entscheidungen innerhalb des Sprachsystems getroffen werden. Diese werden aber auch davon beeinflusst, in welchem kommunikativen Kontext sich Sprecher und Hörer bewegen. Dabei geht man von der Vorstellung aus, dass diese Analyseebenen hierarchisch geordnet sind, wobei die phonetische die unterste und die grammatikalisch–inhaltliche (syntaktisch–semantische) Ebene die oberste Ebene darstellt, in die situative Aspekte mit einfließen. In welcher Weise jedoch die individuellen Prozesse ablaufen, die bei der Wahrnehmung verrauschter Sprache aktiviert werden, ist noch nicht umfassend geklärt. Aufgrund des technischen Fortschritts, der die Beobachtung von Prozessen auch auf neuronaler Ebene erlaubt, lässt sich vermuten, dass die sprachliche Verarbeitung in parallel arbeitenden kognitiven Strukturen erfolgt, wobei davon ausgegangen wird, dass immer alle Strukturen beteiligt sind. Dabei spielt sowohl das mental repräsentierte Wissen (in Bezug auf Sprache und „Weltwissen“) ebenso eine Rolle wie der kommunikative Kontext, Emotionen oder der kulturelle Hintergrund (vgl. dazu ausführlicher Rickheit et al. 2004). Die Bedeutung einer jeden Analyseebene des Sprachsystems für die Verstehensleistung konnte jedoch jeweils experimentell nachgewiesen werden.
9.2 Der Einfluss phonetischer und phonemischer Faktoren Miller u. Nicely (1955), Fairbanks (1958) und House et al. (1965) konnten zeigen, dass die phonetischen Faktoren, die für die bedeutungsunterscheidende Funktion der Elemente auf der untersten Ebene des Sprachsystems ausschlaggebend sind, eine wesentliche Rolle für die Verständlichkeit spielen, wenn die Übertragung der sprachlichen Mitteilung durch Geräusche gestört ist. Fairbanks benutzte in seiner Untersuchung den Reimtest, dessen Wörter nur in ihrem Anfangsphonem verschieden waren. Die Auftretenswahrscheinlichkeit der Wörter in der Umgangssprache war für die Reimwörter einer Gruppe etwa die gleiche. Die Wörter wurden unter fünf verschiedenen Signal–Geräuschabständen der Person zur Wahrnehmung dargeboten. Der Reimtest war als Ergänzungsaufgabe konstruiert, bei der die verwendeten Wörter in der Reihenfolge der Darbietung vorgelegt wurden. An der Stelle des ersten Konsonanten im Wort war eine Leerstelle, die nach der Darbietung des entsprechenden Reizes ausgefüllt werden
9.2 Der Einfluss phonetischer und phonemischer Faktoren
427
musste. In Tabelle 9.2-1 ist der Prozentsatz der richtigen Antworten für verschiedene Konsonanten bei einem festen Signal–Geräuschabstand zusammengestellt. Tabelle 9.2-1. Mittlerer Prozentwert der richtigen Antworten (SV in %) bei verschiedenen Konsonanten (K), Signal–Geräuschabstand LSN = -2 dB, in absteigender Ordnung (nach Fairbanks 1958) K [m] [n] [j] [g] [f] [l] [b] [w] [r] [k] [d] [dz] [s] [p] [h] [t] [v] [z] SV,% 76 62 62 61 59 56 52 52 49 46 43 41 40 40 40 39 25 23
Die Ergebnisse der Untersuchung weisen eine gewisse Gesetzmäßigkeit auf, wobei nasale Konsonanten am besten, stimmlose und stimmhafte Konsonanten am schlechtesten verständlich sind. Daraus ist zu schließen, dass die phonetischen Unterschiede zwischen den Wörtern für die Verstehensleistung wesentlich sind (Kap. 4). Aber auch das Verhältnis der Konsonanten zu den Vokalen ist von großer Bedeutung für die Sprachverständlichkeit (s.a. Abschn. 5.5, 5.6). So ist das Verhältnis der Konsonanten zu Vokalen für die deutsche Sprache mit 39 zu 61 angegeben (Meier 1964). Für die europäischen Sprachen wird es recht unterschiedlich angegeben (Tarnoczy 1971): Italienisch Ungarisch Russisch Schwedisch Englisch Deutsch
48.0 41.5 40.0 38.5 37.5 36.0
: : : : : :
52.0 58.5 60.0 61.5 62.5 64.0
In einer Arbeit von Miller u. Nicely (1955) wird die Verwechselung der einzelnen Konsonanten bei zunehmend geringerem Signal–Geräuschabstand in Abhängigkeit von artikulatorischen Merkmalen (Abschn. 4.1) untersucht. Die Beschreibung der Konsonanten wurde anschaulich dargestellt (Abb. 9.2-1). Auf der Senkrechten ist der Signal–Geräuschabstand aufgezeichnet und auf der Waagerechten sind die getesteten Konsonanten angegeben. Während bei einem Signal–Geräuschabstand von -18 dB alle Konsonanten miteinander verwechselt werden, zeigt sich im Mittelbereich (LSN = 0 dB) eine Ausdifferenzierung. Hier können etwa 7 Konsonantengruppen bereits unterschieden werden. Erst bei einem LSN = 18 dB können alle Konsonanten richtig erkannt werden. Diese Ergebnisse konnten in der Untersuchung von House et al. (1965), den Autoren des Reimtests, nicht repliziert werden. House et al. erhielten
428
9 Einfluss psycholinguistischer Faktoren auf die Sprachverständlichkeit
eine Rangreihe der richtig erkannten Konsonanten, die nicht mit denen der anderen beiden Untersuchungen übereinstimmt.
Abb. 9.2-1. Die Verschmelzung von Konsonanten abhängig von den artikulatorischen Merkmalen bei abnehmendem Signal–Geräuschabstand (nach Kryter 1970 mit Daten von Miller u. Nicely 1955)
Die stimmlosen Sprachlaute p, t und k wurden hier besser verstanden als die stimmhaften b, d und g. Die Nasale m und n rangierten an unterster Stelle. Die unterschiedlichen Ergebnisse der Arbeit können auf die Art der Geräusche, mit denen die Konsonanten maskiert wurden, zurückgeführt werden. Das Geräusch, das Fairbanks in seiner Arbeit verwendete, war hochfrequenter als das in der Untersuchung von House et al. und verdeckte so die stimmlosen Konsonanten effektiver.
9.3 Der Einfluss lexikalischer Faktoren auf die Sprachverständlichkeit Die Bedeutung der lexikalischen Ebene für die Sprachwahrnehmung wurde in der bereits erwähnten Arbeit von Miller et al. (1951) aufgezeigt. Die Autoren konnten feststellen, dass sinnlose Silben wesentlich schlechter wahrgenommen werden als einsilbige Wörter in Sätzen und diese wiederum schlechter als Zahlen von 1–9. Aus diesen Ergebnissen kann man schließen, dass sprachliche Reize, die im Kontext einer bedeutungsvollen Mitteilung stehen, eine größere Chance haben, sich gegen ein Hintergrundgeräusch abzuheben als sprachliche Reize ohne kontextuelle Einbindung, wie z.B. sinnlose Silben. Bei der Wahrnehmung der Zahlenwörter
9.3 Der Einfluss lexikalischer Faktoren auf die Sprachverständlichkeit
429
von 1–9 braucht der Hörer nur wenig akustische Merkmale, um den Sprachreiz zu entdecken und zu entscheiden, welches Zahlwort es sein könnte, weil die Stichprobe der möglichen Stimuli hier sehr gering ist.
Abb. 9.3-1. Sprachverständlichkeit (SV in %) von einsilbigen Wörtern, abhängig vom Vokabularumfang (2–256 Wörter) mit Wörtern, die dem Hörer bekannt sind. E: Einsilber aus einer unbegrenzten Stichprobe (nach Miller et al. 1951)
Die Autoren konnten in der erwähnten Arbeit ebenfalls nachweisen, dass der Stichprobenumfang des Vokabulars, aus dem das Reizwort stammt, die Wahrnehmungsleistung mitbestimmt. In einem Experiment boten die Autoren den Versuchspersonen einsilbige Wörter bei einem bestimmten Signal–Geräuschabstand dar. Die Liste der Wörter, aus der jeweils ein einsilbiges Wort stammte, lag der Person im Versuch vor. Die Person wusste also genau, welche Wörter sie zu hören bekommt. Die Listen bestanden aus unterschiedlich großen Mengen von Einsilbern; es lagen Wortmengen von 2, 4, 8, 16, 32, 256 Einsilbern vor. Die Autoren konnten aufzeigen (Abb. 9.3-1), dass die Sprachverständlichkeit mit zunehmender Anzahl der Einsilber in einer Liste abnimmt. Stowe et al. (1963) versuchten, die Variablen, die die Sprachwahrnehmung signifikant beeinflussen, den Kontext und den Signal–Geräuschabstand, im Einzelnen zu erfassen. Hierbei mussten sie jedoch eine experimentelle Variation einführen, die es gestattete, die Variablen zu trennen, denn der Kontext und das Störgeräusch waren in den zuvor referierten Untersuchungen immer miteinander gekoppelt, d.h. es wurde nicht nur das Testwort, sondern auch der Kontext durch das Geräusch verdeckt. Deswegen wurde der Kontext visuell präsentiert und nur das Testwort selbst unter verschiedenen Geräuschbedingungen dargeboten. Das Testwort stand immer an letzter Stelle des aus 11 Wörtern bestehenden Kontextsatzes. Der
430
9 Einfluss psycholinguistischer Faktoren auf die Sprachverständlichkeit
Signal–Geräuschabstand wurde variiert, ferner wurde die Anzahl der Wörter des Kontextsatzes, die jeweils vor dem letzten Wort dargeboten wurden, variiert. Als Ergebnis fanden Stowe et al., dass die durchschnittliche Verständlichkeit des Testwortes sowohl mit der Anzahl der präsentierten Kontextwörter als auch mit steigendem Signal–Geräuschabstand anwächst. Neben der Anzahl der Kontextwörter hatte auch die Auftretenshäufigkeit der Testwörter in der Umgangssprache einen signifikanten Einfluss auf den Prozentsatz der richtig wahrgenommenen Wörter, wenn diese verrauscht dargeboten wurden. Je gebräuchlicher die Wörter in der Umgangssprache sind, umso besser werden sie bei gleichem Signal–Geräuschverhältnis verstanden. Dieses Ergebnis entspricht denen von Howes (1957), Pollack et al. (1959) sowie Savin (1963). Die Schwelle der Verständlichkeit kann als abnehmende Funktion der Worthäufigkeit (Auftretenshäufigkeit eines Wortes) dargestellt werden, das Abnehmen der Schwelle beträgt nach Howes 4.5 dB bei einer Zunahme der Worthäufigkeit um das Zehnfache. Dabei ist die Worthäufigkeit die Häufigkeit, mit der ein Wort in einem vorgegebenen Text oder in der Umgangssprache auftritt. Weiterhin kann festgehalten werden, dass Wörter, die aus zwei oder mehr Buchstaben bestehen, besser wahrgenommen werden als einsilbige Wörter gleicher Häufigkeit. In Abbildung 9.3-2 sind die Mithörschwellen auch in Abhängigkeit von der Anzahl der Buchstaben bei gegebener Worthäufigkeit aufgezeichnet.
Abb. 9.3-2. Signal–Geräuschabstand (LSN) für 50 % korrekt verstandener Wörter (Mithörschwelle) in Abhängigkeit von der Wortlänge (N, Anzahl der Buchstaben) bei drei unterschiedlichen Auftretenshäufigkeiten der Wörter in der Umgangssprache (W1 = selten, W2 = mittel, W3 = häufig) (nach Howes 1957)
Auch diese Ergebnisse konnten in der Untersuchung von House et al. (1965), den Autoren des Reimtests, nicht repliziert werden. House et al.
9.4 Der Einfluss von Satzbau und Satzinhalt auf die Sprachverständlichkeit
431
erhielten eine Rangreihe der richtig erkannten Konsonanten, die nicht mit denen der anderen beiden Untersuchungen übereinstimmt. Vergleicht man die Mithörschwellen (50 % korrekt erkannt) der Wörter mit gleicher Worthäufigkeit aber unterschiedlicher Buchstabenzahl miteinander, so stellt man einen Unterschied bis zu 10 dB fest. Je größer die Anzahl der Buchstaben eines Wortes ist, umso besser wird dieses in der Regel auch erkannt. Howes versucht dieses Ergebnis im Kontext sprachlicher Hinweise zu interpretieren: die verschiedenen akustischen und linguistischen Merkmale eines Reizwortes, z.B. die Anzahl der Buchstaben und die damit verbundene Zeitstruktur des Wortes, können bereits schon unterhalb der Sprachverständlichkeitsschwelle erahnt werden. Die Versuchsperson kann jeweils ungefähr erkennen, wie lang das Wort, das sie noch nicht identifizieren kann, ist. Das Erfassen der Wortlänge schränkt dabei die in Frage kommenden Alternativen ein und erleichtert das Identifizieren.
9.4 Der Einfluss von Satzbau und Satzinhalt auf die Sprachverständlichkeit Wie schon aus den Ergebnissen der Untersuchung von Miller et al. (1951) hervorgegangen ist, haben grammatikalische Strukturen auf die Verständlichkeit sprachlichen Materials, das unter verschiedenen Bedingungen dargeboten wurde, einen fördernden Einfluss. So konnten die Autoren nachweisen, dass einsilbige Wörter im Satzkontext besser wahrgenommen werden als dieselben Wörter ohne Satzkontext (Abb. 9.4-1). Miller et al. interpretieren dieses Ergebnis im Sinne der Theorie der Übergangswahrscheinlichkeiten von Wörtern in einem Satz. Bei diesem Erklärungsansatz geht man von der Vorstellung aus, dass ein Hörer bei der Wahrnehmung von Sprachreizen sein Wissen über die Abfolge von Sprachereignissen zur Orientierung einsetzt. Solches Wissen wird über die Häufigkeit von Assoziationsverbindungen gemeinsam vorkommender Wörter gebildet. Der Hörer hat bei der Wahrnehmung von Sprachreizen als Hilfsmittel die Kenntnis über die schon gehörten, identifizierten Reize zur Verfügung. Von dem, was er schon gehört hat, versucht er auf das zu extrapolieren, was er noch zu hören bekommen wird, d.h. er baut Folgen von Sprachereignissen auf, wie bei den europäischen Schriftsprachen von links nach rechts, vom existierenden zu dem zeitlich nächstfolgenden Sprachereignis.
432
9 Einfluss psycholinguistischer Faktoren auf die Sprachverständlichkeit
Abb. 9.4.1. Sprachverständlichkeit (SV in %) von einsilbigen Wörtern abhängig vom sprachlichen Kontext, in dem sie dargeboten werden (nach Miller et al. 1951)
Wie Miller et al. (1960) später ausführen, kann ein Modell, nach dem Sprachverarbeitung aufgrund assoziativer Verknüpfungen vom Existierenden zum Nächstfolgenden vorgenommen wird, als nicht zutreffend betrachtet werden. Hiernach müsste ein Sprecher nur Sätze produzieren, die er schon vorher einmal gehört hat. Was nicht zusammen gehört worden ist, ist nicht durch Assoziationen miteinander verbunden und hat auch keine Wahrscheinlichkeit verbunden zu werden. Stattdessen ist anzunehmen, dass Sprecher und Hörer gelernt haben, welche Regeln der Abfolge bestimmter sprachlicher Ereignisse zugrunde liegen könnten und dieses Regelwissen (Grammatik) die Anzahl möglicher Alternativen in der Abfolge der Sprachelemente einschränkt. Dass das Wissen über Regeln, die der Konstruktion von Sätzen zugrunde liegen, die Sprachwahrnehmung signifikant beeinflusst, konnte Miller (1962a, b) in einem Experiment demonstrieren. Als Testmaterial benutzte er eine Liste von 25 einsilbigen Wörtern, die in Teillisten mit jeweils 5 Wörtern untergliedert wurden. Bei der Kombination von Wörtern aus den Teillisten in der Reihenfolge 1, 2, 3, 4, 5 ergab sich ein grammatischer englischer Satz. Die Wortlisten waren den Versuchspersonen bekannt. Die Wörter wurden in Gruppen von jeweils 5 bei unterschiedlichen Signal– Geräuschabständen dargeboten. Einmal ergab die Fünfergruppe einen grammatikalischen englischen Satz wie: „Don Has No Wet Things“ und einmal waren sie so angeordnet, dass keine Satzstruktur erkennbar war: „Things Wet No Has Don.“ Da diese Wortketten auf der gleichen Teilliste von Alternativen beruhten wie die Sätze, wurden sie Pseudosätze genannt.
9.4 Der Einfluss von Satzbau und Satzinhalt auf die Sprachverständlichkeit
433
Wenn zwischen der Darbietung der Fünferkette eine längere Pause gemacht wurde, so dass die Hörer über das nachdenken konnten, was sie gerade gehört hatten, unterschied sich die Wahrnehmungsleistung von Sätzen und Pseudosätzen nicht. Als die Zeit zwischen den Darbietungen allerdings gekürzt wurde, verschlechterte sich die Leistung für die Wörter, die keiner gewohnten grammatischen Struktur folgten. Ä hnliche Ergebnisse erhielten Mille r u. Isard in einem 1963 durchgeführten Experiment. In dieser Arbeit wurden jeweils die gleichen Wörter (Inhalts– und Funktionswörter) in ihrer Aufeinanderfolge unterschiedlich zusammengestellt und unter verschiedenen Signal–Geräuschabständen der Versuchsperson zur Wahrnehmung dargeboten. Drei Bedingungsvariationen wurden eingeführt: in der ersten Bedingung wurden die Wörter ohne jegliche ordnende Struktur aneinander gereiht, in der zweiten Bedingung bildeten die Wörter einen grammatikalisch und semantisch richtigen Satz, in der dritten Bedingung wurde aus den Wörtern ein Satz zusammengestellt, der grammatikalisch korrekt, semantisch jedoch anomal war. In Abbildung 9.4-2 ist die Anzahl richtig erkannter Wortfolgen bzw. richtig erkannter Sätze in Abhängigkeit vom Signal–Geräuschverhältnis dargestellt. Für die drei Satztypen (Bezeichnung siehe Abb. 9.4-2) sind einige Beispiele genannt: Ein Haus steht an der Straße (1); Ein Auto schwebt im Berg (2); Ein steht an Haus Wiese der (3).
Abb. 9.4-2. Sprachverständlichkeit von Sätzen, die grammatikalisch und inhaltlich korrekt (1), die nur grammatikalisch korrekt (2) und die weder grammatikalisch noch inhaltlich korrekt (3) sind (nach Miller u. Isard 1963)
434
9 Einfluss psycholinguistischer Faktoren auf die Sprachverständlichkeit
Hauptsätze, die aus sieben bis acht Wörtern bestehen, sind wesentlich schwerer wahrzunehmen als Satzgefüge, die aus einem Haupt– und einem Nebensatz zusammengesetzt sind. Auch die Satzteile unterscheiden sich signifikant im Grad ihrer Wahrnehmbarkeit. Das Prädikat wird am schlechtesten erkannt, das Objekt am besten. In Abbildung 9.4-3 sind die Verständlichkeiten der einzelnen Satzteile abhängig vom Signal– Geräuschabstand dargestellt.
Abb. 9.4-3. Sprachverständlichkeit (SV in %) für verschiedene Satzteile eines Hauptsatzes, als Vergleich zu der von einsilbigen Wörtern (E) über dem Signal– Geräuschabstand (LSNA) (Lazarus u. Lazarus–Mainka 1979)
Der Einfluss des Satzinhaltes auf die Sprachverständlichkeit wurde bereits durch die Ergebnisse des Experiments von Miller u. Isard (1963) deutlich. Sie erhielten Unterschiede bei der Wahrnehmungsleistung verrauschter Sprache in Abhängigkeit davon, ob die Wörter, die in grammatisch korrekter Anordnung standen, semantisch richtige oder semantisch anomale Sätze bildeten. Einen anderen Weg zur Demonstration des Einflusses semantischer Faktoren auf die Sprachverständlichkeit wählten Rosenberg u. Jarvella (1970). Die Autoren prüften die Unterschiede in der Verständlichkeit von semantisch gut integrierten Sätzen und semantisch schlecht integrierten Sätzen bei Ruhe und unter Lärm (Signal–Geräuschabstand LSN = -5 dB). Ihrer Untersuchung lag die Hypothese zugrunde, dass die Bedeutung eines Wortes unter anderem auch durch den linguistischen Kontext repräsentiert wird, und dass dieser linguistische Kontext mit den linguistischen und nichtlinguistischen Erfahrungen zusammenhängt, die allgemein mit dem Wort verbunden sind.
9.4 Der Einfluss von Satzbau und Satzinhalt auf die Sprachverständlichkeit
435
Das Material wurde wie folgt zusammengestellt: zu den Wörtern, die das Subjekt eines einfachen Aussagesatzes bilden sollten, wurden Assoziationen erhoben. Die Wörter, die häufig assoziiert wurden, waren die Grundlage zur Konstruktion der semantisch gut integrierten Sätze, die mit geringer Häufigkeit wurden zu semantisch schlecht integrierten Sätzen zusammengestellt. Man ging von der Hypothese aus, dass die Wahrnehmungsleistung für semantisch gut und semantisch schlecht integrierte Sätze unterschiedlich ausfallen müsste. Ein geringer Signal–Geräuschabstand reduzierte die Verständlichkeit für beide Satztypen. Die Wahrnehmungsleistung bei semantisch schlecht integrierten Sätzen war jedoch wesentlich schlechter als die Wahrnehmungsleistung bei den gut integrierten Sätzen. Boothroyd u. Nittrouer (1988) untersuchten die Verständlichkeit von Phonemen, Silben, Wörtern und Sätzen, wobei die ersteren in unterschiedlicher Weise in Wörter und Sätze integriert waren (Tab. 9.4-1). Wie erwartet zeigt sich, dass die Sprachverständlichkeit umso höher ist, je mehr Kontextinformation der Hörer durch den Satz erhält, d.h. je höher die Vorhersagewahrscheinlichkeit der einzelnen Wörter ist. Anzumerken ist vor allem die hohe Differenz der Verständlichkeit von ganzen Sätzen (alle Wörter des Satzes sind richtig erkannt) mit niedriger und hoher Vorhersagewahrscheinlichkeit (n/h VW) mit SV = 46 und 85 %, deren Wortverständlichkeit jedoch eher gleich ist (80 und 94 %). Tabelle 9.4-1. Verständlichkeit als Anteil der richtig verstandenen Phoneme (insgesamt 360) und der gesamten Silben (insgesamt 120) bei der Darbietung von phonetisch ausbalancierten CVC–Silben: sinnlose Silben (SiSi) (1) und sinnvollen Wörtern (2); und als Anteil der richtig erkannten Wörter im Satz und der richtig erkannten ganzen Sätze bei der Darbietung von Sätzen mit sinnvollen Wörtern aber keiner syntaktischen Struktur (kVW) (3), einer normalen syntaktischen Struktur (4, 5) und einer niedrigen (4) und hohen (5) Vorhersagewahrscheinlichkeit (n/h VW) zwischen den Wörtern; bei vier S/N Abständen (Geräusch: SG, hier S/N = 0 dB). 1 2 3 4 5
Sprachmaterial Phoneme Silben Wörter Phoneme Silben Satz kVW Wörter Satz Satz nVW Wörter Satz Satz hVW Wörter Satz
SiSi
Sprachverständlichkeit in % 69 31 79 58 69 23 80 46 94 46
436
9 Einfluss psycholinguistischer Faktoren auf die Sprachverständlichkeit
Leider sind bei den Experimenten zur Verständlichkeit von Satzteilen und Wörtern in Sätzen selten die Pegel, bzw. die Signal–Geräuschabstände der einzelnen Wörter bestimmt worden. In einer Untersuchung zur Sprachverständlichkeit (Sust et al. 2007), in der erstmals auch die Pegel der einzelnen Wörter bestimmt wurden, ergab sich keine deutliche Abhängigkeit von der grammatikalischen Stellung der Wörter, sondern eher eine von der Reihenfolge der Wörter im Satz. Immerhin beträgt bei gleichmäßig gesprochenen Sätzen die durchschnittliche Pegelvariation ± 5 dB. Zusammenfassung: Es konnte aufgezeigt werden, dass das sprachliche Wissen des Hörers eine wichtige Rolle bei der Sprachwahrnehmung spielt. Dieses Wissen kann durch die Sprache direkt vermittelt werden, kann aber auch schon beim Hörer vorhanden sein. Kontextinformation, in der die gestört dargebotenen Wörter stehen, kann die Erkennung dieser verbessern. Phonetische, semantische und syntaktische Strukturen, Auftretenshäufigkeit der Wörter wie auch der Pegelverlauf im Satz tragen zur Sprachverständlichkeit bei, wobei zunehmend kommunikative Aspekte mit berücksichtigt werden (Rickheit et al. 2004) In diesem Zusammenhang ist auch die Art der Konstruktion des Sprachsatztestes von Kalikow (vgl. Kalikow et al. 1977) zu sehen, der bereits ausführlich in Abschnitt 2.6 und 6.5.4 referiert worden ist.
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
10.1 Die subjektive Bewertung der Sprachqualität Merkmale der Sprachqualität, Sprachverständlichkeit und Sprachqualität Unter dem Begriff Sprachqualität werden häufig Merkmale des Sprachsignals wie Verständlichkeit, Lautheit, Angenehmheit des Klangs, Verzerrungen, Natürlichkeit und Klarheit zusammengefasst (IEEE 1969; Nakatani u. Dukes 1973; Lazarus–Mainka et al. 1985; Pavlovic et al. 1990; Sotscheck 1992; Jekosch 1994; Preminger u. Tasell 1995a, b; Boike u. Souza 2000; Möller 2000, 2002, 2003). Auch Merkmale, die sich eher indirekt auf die Sprachqualität auswirken, wie die notwendige Höreranstrengung, die Hörerzufriedenheit oder die Lästigkeit von Störungen, werden einbezogen (Nakatani u. Dukes 1973; Lazarus–Mainka u. Leushacke 1985; Lazarus– Mainka et al. 1985; Sotscheck 1992; Preminger u. Tasell 1995a, b; Boike u. Souza 2000; Volberg et al. 2004, 2006). Da die Zusammensetzung der für die Sprachqualität als relevant erachteten Merkmale je nach Art und Ziel des Experiments stark variiert, wird versucht, die Sprachqualität zu systematisieren und in einen größeren Zusammenhang zu stellen, so z.B. unter Beachtung der Semiotik (Jekosch 2001a) oder der Qualität von Geräuschen (Jekosch u. Blauert 2005) oder der Anwendung (Jekosch 2000b, 2001b). Das zentrale Merkmal der Sprachqualität ist die Sprachverständlichkeit. Hierüber besteht Einigkeit. Beispielsweise bezeichnet Jekosch (1994) die Verständlichkeit als wesentliches Qualitätsmerkmal gesprochener Sprache. Auch Nakatani u. Dukes (1973) sehen die Sprachverständlichkeit als notwendiges, jedoch nicht hinreichendes Merkmal einer hohen Sprachqualität an. Dagegen sieht Sotscheck (1992) im Kontext der Nachrichtentechnik die Sprachverständlichkeit nicht mehr als ein brauchbares Maß für die Sprachqualität an, da eine Steigerung aufgrund des technischen Fortschrittes kaum noch möglich ist. Es geraten also zunehmend andere Merkmale der Sprachqualität in den Fokus des Interesses (s. Abschn. 10.2), so z. B. für den Gebrauch von Hörgeräten und von synthetischer Sprache. Die Beurteilung der Sprachqualität wird bei synthetischer Sprache notwendigerweise einen höheren Stellenwert einnehmen (Pavlo-
438
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
vic et al. 1990; Jekosch 2000a, 2001a). Aber auch zur Bewertung und Verbesserung von Kommunikationsbedingungen wird ergänzend zur Messung der Sprachverständlichkeit, vor allem in dem Bereich, in dem sich das Sprache verstehen nicht mehr wesentlich verbessern kann, die Verwendung von subjektiven Merkmalen vorgeschlagen, z.B. die Erfassung der Höreranstrengung (listening difficulty) (Sato et al. 2005), der Bewältigung (Coping) und der Konzentration (Volberg et al. 2004, 2006; Sust et al. 2007; s.a. Abschn. 10.4). Häufig wird die Sprachqualität auch als globaler Gesamteindruck vom Hörer bewertet. In einigen Studien wird dieser Gesamteindruck zusätzlich zu konkreteren Merkmalen des Sprachsignals untersucht (z.B. Preminger u. Tasell 1995a, b; Boike u. Souza 2000), in anderen wird die Sprachqualität ausschließlich global anhand des Gesamteindrucks beurteilt (bspw. Kates u. Kozma–Spytek 1994). Preminger u. Tasell (1995a) weisen darauf hin, dass in den Studien, in denen die Sprachqualität lediglich auf einer globalen Ebene untersucht wird, die Sprachqualität und die Sprachverständlichkeit in der Regel als separate Merkmale definiert werden (z.B. Studebaker u. Sherbecoe 1988; s. Abschn. 10.2). Die Befundlage zum Verhältnis von Sprachqualität und Sprachverständlichkeit ist jedoch uneinheitlich. Preminger u. Tasell schlagen vor, die Ergebnisse vor dem Hintergrund einer multidimensionalen Sichtweise von Sprachqualität neu zu interpretieren. Wenn Sprachqualität als multidimensionales Konstrukt konzipiert wird, stellt die Sprachverständlichkeit einen Aspekt der Sprachqualität dar. Es bleibt abzuklären, inwiefern sich die bislang untersuchten Merkmale der Sprachqualität zu voneinander im statistischen Sinne unabhängigen Dimensionen zuordnen lassen und inwiefern die Sprachverständlichkeit in einer solchen Analyse eine unabhängige Dimension darstellt. Preminger u. Tasell (1995a) untersuchten zusätzlich zum Gesamteindruck und zum Merkmal Sprachverständlichkeit die Merkmale Angenehmheit des Klangs, Lautheit und Höreranstrengung als weitere mögliche Dimensionen des Konstruktes Sprachqualität. In zwei Experimenten sollten normalhörende Probanden Sprachproben hinsichtlich des Gesamteindrucks und der vier Merkmale auf einer Bewertungsskala einstufen. Bei den Sprachproben handelte es sich um kurze Textpassagen, die mit Hoch– und Tiefpassfiltern verändert wurden. Die Sprachverständlichkeit wurde im ersten Experiment in einem Bereich von sehr gut bis relativ schlecht variiert, im zweiten Experiment hingegen nahezu konstant auf einem sehr hohen Niveau gehalten. Hierzu wurden für jede Versuchsperson individuell während einer Eingewöhnungsphase vor Versuchsbeginn diejenigen Versuchsbedingungen bestimmt, die die gewünschten Bewertungen der Sprachverständlichkeit enthielten (für das erste Experiment weit gestreut, für das zweite Experiment nur Bewertungen im oberen Bereich).
10.1 Die subjektive Bewertung der Sprachqualität
439
Bei variierender Sprachverständlichkeit wiesen die subjektiven Bewertungen zu den einzelnen Merkmalen hohe Interkorrelationen auf und die Bewertung der Sprachverständlichkeit war ein guter Prädiktor für die Bewertung der restlichen Merkmale. Dieses Ergebnis spricht nicht dafür, dass die untersuchten Merkmale voneinander unabhängige Dimensionen der Sprachqualität darstellen. Differenzierungen zwischen den Merkmalen wurden erst im zweiten Experiment vorgenommen, in dem die Sprachverständlichkeit konstant hoch gehalten wurde. Hier wurden letztlich nur diejenigen Versuchsbedingungen in die Auswertung einbezogen, in denen die subjektiven Bewertungen der Sprachverständlichkeit ein Plateau erreicht hatten. Innerhalb dieser Versuchsbedingungen variierten die Bewertungen der restlichen Merkmale unabhängig voneinander. In einer weiteren Untersuchung mit der gleichen methodischen Vorgehensweise ließen Preminger u. Tasell (1995b) schwerhörige Probanden Sprachproben bzgl. der o.g. Merkmale sowie zusätzlich Lärmigkeit bewerten. Die Sprachverständlichkeit wurde wieder auf einem hohen Niveau nahezu konstant gehalten. Es zeigte sich, dass die Probanden die Merkmale unter diesen Bedingungen wieder unabhängig voneinander bewerteten, so dass sie auf der Basis der beiden Untersuchungen mit der gebotenen Vorsicht als unabhängige Dimensionen bezeichnet werden können. Die Versuchspersonen interpretierten diese Dimensionen allerdings auf individuell verschiedene Weise. Insgesamt wies die Dimension „Angenehmheit des Klangs“ die höchste Korrelation mit dem Gesamteindruck auf. Boike u. Souza (2000) untersuchten neben dem Gesamteindruck der Sprachqualität die Merkmale Verständlichkeit, Klarheit, Angenehmheit und Höreranstrengung. Das Merkmal Verständlichkeit wurde über einen Sprachverständlichkeitstest erfasst. Zur Messung der restlichen Merkmale und des Gesamteindrucks wurden subjektive Bewertungen der Versuchspersonen erhoben. Schwerhörigen und normalhörenden Probanden wurden unterschiedlich stark komprimierte Sprachproben mit und ohne Hintergrundgeräusch dargeboten. In der Bedingung ohne Hintergrundgeräusch wirkten sich die unterschiedlichen Kompressionsraten nicht signifikant auf die Sprachverständlichkeit aus, während die subjektiven Bewertungen für die restlichen Merkmale und für den Gesamteindruck mit steigender Kompression negativer ausfielen. In der Versuchsbedingung mit Hintergrundgeräusch nahm bei den schwerhörigen Probanden – jedoch nicht bei den normalhörenden – die Sprachverständlichkeit mit zunehmender Kompression des Sprachsignals ab. Die subjektiven Bewertungen fielen wieder für beide Gruppen in den Bedingungen mit stärker komprimierten Sprachproben negativer aus. Obwohl sich also die Kompression in den meisten Versuchsbedingungen nicht signifikant auf die Sprachverständlichkeit auswirkte, ging eine Erhöhung der Kompressionsraten durchweg mit negati-
440
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
veren subjektiven Bewertungen der Merkmale Klarheit, Angenehmheit, Höreranstrengung und des Gesamteindrucks einher. Dies kann als Hinweis auf eine mögliche unabhängige Dimension „Sprachverständlichkeit“ innerhalb des multidimensionalen Konstruktes Sprachqualität gewertet werden. Pavlovic et al. (1990; s. Abschnitt 10.2) fanden hohe Korrelationen zwischen den subjektiven Bewertungen der Merkmale Hörerzufriedenheit, Natürlichkeit und Verständlichkeit (0.61–0.96) und schließen daraus, dass auf eine gesonderte Erhebung der subjektiven Bewertungen zum Merkmal Hörerzufriedenheit verzichtet werden kann, da die beiden anderen Merkmale sich als gute Prädiktoren für das Merkmal Hörerzufriedenheit erwiesen. Den Autoren zufolge wäre unter Umständen eine Erhebung der subjektiven Bewertungen zur Verständlichkeit alleine ausreichend. Dieses Ergebnis widerspricht der von Preminger u. Tasell (1995a) vorgeschlagenen, multidimensionalen Sichtweise von Sprachqualität. Allerdings deckte die Versuchsreihe – ähnlich wie im ersten Experiment von Preminger u. Tasell (1995a) – einen weiten Bereich von Sprachverständlichkeitsbedingungen ab, was zur mangelnden Differenzierung zwischen den drei Merkmalen geführt haben könnte. Zu den bislang aufgeführten (möglichen) Merkmalen der Sprachqualität bleibt anzumerken, dass der Begriff Sprachqualität eine Bewertung impliziert. Wenn in diesem Kapitel also Qualitätsmerkmale des Sprachsignals bzw. der sprachlichen Kommunikation diskutiert werden, ist zu beachten, dass der Beschreibung dieser Merkmale immer Bewertungsprozesse zugrunde liegen. Die meisten der o.g. Merkmale der Sprachqualität können lediglich über die subjektive Bewertung des Hörers erhoben werden (so z.B. Angenehmheit und Gesamteindruck bei Preminger u. Tasell 1995a und Boike u. Souza 2000 oder Hörerzufriedenheit bei Pavlovic et al. 1990). Auf die Möglichkeiten zur Durchführung solcher Messungen wird in Abschnitt 10.2 näher eingegangen. Das Ausmaß der Sprachverständlichkeit (SV in %) in einer Kommunikationssituation wird erst dann ein Qualitätsmerkmal, wenn dieses durch den Experten auf der Basis seines Fachwissens bewertet wird, oder wenn der Hörer selbst dieses subjektiv bewertet. So wird das Ergebnis eines Wortverständlichkeitstests, in dem 10 % der Wörter richtig erkannt und nachgesprochen wurden, in der Regel von Experten nachträglich als schlechte Sprachverständlichkeit bewertet. Dieses Ausmaß der Sprachverständlichkeit kann aber auch vom Hörer auf einer Skala „wie gut habe ich Sprache verstanden“ bewertet werden (Preminger u. Tasell 1995a; Sato et al. 2005; Volberg et al. 2004, 2006; Sust et al. 2007). Das Ergebnis der Sprachverständlichkeit, das auf der Basis von Fachwissen bewertet wird, und die subjektive Bewertung dieses durch den Hörer selbst müssen nicht notwendigerweise übereinstimmen. Deshalb ist
10.2 Die Messung der Sprachqualität
441
zwischen der in Sprachverständlichkeitstests gemessenen Sprachverständlichkeit und der durch den Hörer subjektiv bewerteten Sprachverständlichkeit zu unterscheiden. So wird darauf hingewiesen, dass die subjektive Bewertung der Sprachverständlichkeit häufig von der mittels analytischer Sprachverständlichkeitstests (z.B. Reimtests) erhobenen Sprachverständlichkeit abweicht. In einer mit synthetischer Sprache durchgeführten Untersuchung (Jekosch 1994) fielen die subjektiven Bewertungen der Sprachverständlichkeit durch die Hörer deutlich schlechter aus als die mit analytischen Sprachverständlichkeitstests gewonnenen Ergebnisse. Dagegen zeigen Daten aus Sprachverständlichkeitstests mit Sätzen und Einsilbern eine hohe Übereinstimmung zwischen dem Ausmaß der Verständlichkeit und der subjektiven Bewertung (Volberg et al. 2004). Pavlovic et al. (1990; Abschn. 10.2) fanden im direkten Vergleich von Messwerten aus Sprachverständlichkeitstests (sowohl inhaltlich sinnvolles als auch sinnloses Satzmaterial) und der subjektiven Bewertung dieser Sprachverständlichkeit ebenso hohe Korrelationen (0.89–0.94). Zusammenfassend kann festgehalten werden, dass die Sprachqualität eine Vielzahl von Komponenten umfasst, wie z. B. die Sprachverständlichkeit, die Parameter der Klangqualität der Sprache und die Befindlichkeit beim Verstehensprozess. Diese Komponenten korrelieren mehr oder weniger hoch miteinander. Im Detail lassen sich diese aber separieren, insbesondere dann, wenn die Sprachverständlichkeit konstant gehalten wird.
10.2 Die Messung der Sprachqualität Bewertungsskalen, Paarvergleiche, Größenschätzung In diesem Abschnitt wird besonderes Gewicht auf die methodischen Möglichkeiten zur Erfassung der subjektiven Bewertungen der Versuchspersonen zu Sprachqualitätsmerkmalen gelegt. Die Möglichkeiten zur Messung von Merkmalen der Sprachqualität im beobachtbaren Verhalten, bspw. den Sprachverständlichkeitstests, werden an anderer Stelle behandelt. In der Literatur werden für die Erhebung subjektiver Bewertungen zu Sprachqualitätsmerkmalen drei Verfahren empfohlen (IEEE 1969; Sotscheck 1992; Jekosch 1993; Preminger u. Tasell 1995b): x Einstufung auf Bewertungsskalen x Paarvergleiche x direkte Größenschätzung.
442
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Mit allen drei Verfahren können Bewertungen zu dem jeweils interessierenden Merkmal der Sprachqualität erhoben werden. Bei der Methode der Einstufung auf Bewertungsskalen beurteilt der Hörer Sprachproben (Einsilber, mehrsilbige Wörter oder ganze Sätze), die für die jeweilige Untersuchung relevanten Versuchsbedingungen aufbereitet wurden (bspw. Variationen des Signal–Geräuschabstandes, der Filterung, des Hintergrundgeräusches o.ä.). Die einzelnen Sprachproben werden hinsichtlich des interessierenden Merkmals der Sprachqualität (z.B. Angenehmheit des Klangs, Verständlichkeit) bewertet, indem der Hörer eine Einstufung auf einer vorgegebenen Skala vornimmt. Diese Skalen können eine unterschiedliche Anzahl von Abstufungen umfassen. Die Verwendung einer fünfstufigen Skala hat den Vorteil der einfachen Handhabbarkeit auch für Versuchspersonen, die im Umgang mit solchen Skalen ungeübt sind (s.a. Rohrmann 1978). Sotscheck (1992) verweist zur Beurteilung des Gesamteindrucks der Sprachqualität auf die vom CCITT (1988) vorgeschlagene fünfstufige Skala: 5 ausgezeichnet/sehr gut 4 gut 3 ordentlich/angemessen 2 dürftig/schwach 1 schlecht. Wie in diesem Beispiel können den einzelnen Skalenstufen verbale Labels zugeordnet werden. Diese erleichtern den Versuchspersonen den Umgang mit der Skala. Es sollte allerdings darauf geachtet werden, dass die verwendeten Skalen mindestens Intervallskalenniveau aufweisen, da anderenfalls die Möglichkeiten zur Datenauswertung stark eingeschränkt sind. Bei einer willkürlichen Zuordnung von verbalen Labels zu den Skalenstufen ist das Vorliegen von Intervallskalenniveau äußerst fraglich. Damit die erhaltenen Daten tatsächlich intervallskaliert sind, sollten entweder nur die Pole der Skala mit verbalen Labels versehen werden oder es sollte, falls verfügbar, auf bereits standardisierte Skalen zurückgegriffen werden, bei denen die Äquidistanz zwischen den Labels der Skalenstufen überprüft wurde (s. Rohrmann 1978). Bei der Durchführung von Paarvergleichen werden dem Probanden jeweils zwei verschiedene Sprachreize (z.B. Sätze) dargeboten und er soll bewerten, bei welchem der Sprachreize das interessierende Merkmal stärker ausgeprägt war. Bei dem Verfahren der direkten Größenschätzung werden dem Probanden kurze Sequenzen von Sprachmaterialien (z.B. einige Sätze) vorgespielt, die hinsichtlich der Versuchsbedingungen variiert wurden (s.o.). Der Proband nimmt die Bewertung zum interessierenden Merkmal vor, indem er jeder Sprachsequenz eine Zahl zuordnet, die die Ausprägung des
10.2 Die Messung der Sprachqualität
443
Merkmals wiedergibt. Hinsichtlich der zu verwendenden Zahlen werden bei diesem Verfahren in der Regel keine Vorgaben gemacht. Es steht den Versuchspersonen frei, die Bewertungen bspw. in Form von Brüchen oder sehr großen Zahlen zu machen. Sie werden auch nicht dazu aufgefordert, ihre Urteile innerhalb der Versuchsreihe in konsistenter Weise aufeinander abzustimmen. Bei der Erhebung von subjektiven Bewertungen zu Sprachqualitätsmerkmalen sollte – unabhängig von der angewendeten Methode – die Darbietung von Referenzbedingungen beachtet werden (Sotscheck 1992). Diese Referenzbedingungen sollten Sotscheck zufolge alle denkbaren Sprachqualitätsstufen von sehr guter bis sehr schlechter Qualität abdecken, damit der gesamte Sprachqualitätsmessbereich in die Beurteilung mit einbezogen wird und die Messergebnisse besser mit den Ergebnissen anderer Untersuchungen verglichen werden können. Jekosch (1993) merkt an, dass bei der Erhebung von subjektiven Bewertungen Einflüsse wie Persönlichkeitsvariablen des Hörers, sein Wissen, seine Motivation, seine Erwartungen sowie Umweltfaktoren und Situationseinflüsse berücksichtigt werden müssen, da sie sich auf die Ergebnisse auswirken können. Im weiteren Verlauf des Abschnittes werden Untersuchungen zu den Verfahren der Einstufung auf Bewertungsskalen, der Paarvergleiche und der direkten Größenschätzung dargestellt. Nakatani u. Dukes (1973) verwenden die Methode der Einstufung auf Bewertungsskalen, um zwischen Sprachproben hoher Qualität differenzieren zu können, da Sprachverständlichkeitstests in diesem Bereich nicht sensibel genug sind. Das im Versuch verwendete Testmaterial bestand aus semantisch sinnlosen Sätzen, die in den 9 verschiedenen Versuchsbedingungen dargeboten wurden:
1 2 3 4 5 6 7 8 9
Abb. Versuchsbedingung Frequenzband S/N– 10.2-1 Abstand RF Referenzbedingung 210–6720 Hz > 45 dB TP1 Tiefpassgefiltert 1 210–3360 Hz > 45 dB TP2 Tiefpassgefiltert 2 210–1680 Hz > 45 dB HP1 Hochpassgefiltert 1 420–6720 Hz > 45 dB HP2 Hochpassgefiltert 2 840–6720 Hz > 45 dB N1 mit Geräusch1 210–6720 Hz 25 dB N2 mit Geräusch 2 210–6720 Hz 15 dB TM1 Telefon–Mikrofon 1 TM2 Telefon–Mikrofon 2 30 dB
Die Sprachproben wurden von den Versuchspersonen bzgl. fünf Sprachqualitätsmerkmalen bewertet: Verzerrung, Hintergrundgeräusch, Mühelosigkeit des Sprachverstehens, Angenehmheit und der Klangeigenschaft rauh–weich. Die Be-
444
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
wertungen wurden auf einer neunstufigen Skala vorgenommen. Außerdem wurden Sprachverständlichkeitstests durchgeführt (s. Abb.10.2-1).
Da sich mit Ausnahme der Bewertungen zu den Merkmalen Hintergrundgeräusch und Verzerrung hohe Korrelationen (0.83–0.98) zwischen den Bewertungen der Sprachqualitätsmerkmale zeigten, wurden die subjektiven Bewertungen gemittelt und im Sinne eines Maßes zum Gesamteindruck der Sprachqualität (GSQ) interpretiert. 100
SV/% 98
96
94 1 TM1 TM2
3
5 7 N2 HP2 N1 LP2 HP1 LP1 RF GSQ
9
Abb. 10.2-1. Sprachverständlichkeit (SV in %) mit sinnlosen Sätzen über der Gesamt–Sprachqualität (GSQ: Skala 1 bis 9) für 9 Versuchsbedingungen (s.o. ebenso Erklärung für Abkürzungen)
Wie aus Abbildung 10.2-1 hervorgeht, zeigt sich eine mangelnde Diskriminierungsfähigkeit der Sprachverständlichkeitstests für Sprachproben mit hoher Qualität. Im Gegensatz dazu erweisen sich die Bewertungsskalen als sehr sensibles Messinstrument. Die durchschnittlichen Sprachverständlichkeitswerte in den unterschiedlichen Versuchsbedingungen zeigen abhängig von den subjektiven Bewertungen (Abb. 10.2-1) sehr hohe Sprachverständlichkeitswerte (> 95 %). Die Extremwerte der subjektiven Bewertungen (sehr schlechte Bewertung der Sprachqualität für die Bedingung „Telefon (TM2)“, sehr gute Bewertung der Sprachqualität für die Bedingung „tiefpassgefiltert (TP1)“) spiegeln sich kaum in unterschiedlichen Sprachverständlichkeitswerten wider. Durch die Einstufung auf den Bewertungsskalen werden also Unterschiede in der Sprachqualität erfasst, die mit den Sprachverständlichkeitstests nicht gemessen werden konnten. Die Reliabilität und Validität der Daten, die mit Hilfe der Bewertungsskalen erhobenen wurden, konnte in Untersuchungen bestätigt werden (Cox u. McDaniel 1984; Samar u. Metz 1988; Bentler et al. 1993; Kollmeier u. Wesselkamp 1997). Bentler et al. (1993) führten eine Längsschnittuntersuchung mit Trägern von Hörgeräten durch. Die Bewertungen der Probanden zum Gebrauch der
10.2 Die Messung der Sprachqualität
445
Hörgeräte wurden direkt nach der Anpassung sowie 6 und 12 Monate später erhoben. Hierzu wurden neben Fragebögen auch neun bipolare Bewertungsskalen (bspw. laut–leise, angenehm–unangenehm) verwendet. Auf diesen Skalen bewerteten die Probanden die Sprachqualität einer Textpassage, die ihnen mit einem konstanten Pegel vorgespielt wurde, während sie ihre Hörgeräte trugen. Innerhalb des Erhebungszeitraumes änderten sich nur die Bewertungen auf zwei der neun Skalen signifikant. Die Messungen erwiesen sich damit als relativ reliabel über einen längeren Zeitraum. Cox u. McDaniel (1984) überprüften die Validität der Einstufungen von Hörgeräten auf Bewertungsskalen, die Versuchspersonen für kurze Textpassagen zum Sprachqualitätsmerkmal „Verständlichkeit“ vornahmen. In einer Pilotstudie wurden die Schwierigkeitsgrade für die Versuchsbedingungen ermittelt, in denen die Sprachproben über Hörgeräte und in unterschiedlichen S/N–Abständen dargeboten wurden. Die Bewertungen der Versuchspersonen entsprachen den a priori erwarteten Schwierigkeitsgraden der Sprachproben, was für die Konstruktvalidität des verwendeten Bewertungsverfahrens spricht.
Basierend auf den Ergebnissen dieser Untersuchung entwickelten Cox u. McDaniel (1989) den Speech Intelligibility Rating Test (SIR), der im klinischen Gebrauch bei der Auswahl von Hörgeräten eingesetzt wird. Für den Test wurden die bereits in der früheren Untersuchung verwendeten Textpassagen noch weiter hinsichtlich ihrer Länge und inhaltlichen Schwierigkeit angeglichen. Es wurden 20 Textpassagen für den Test ausgewählt, die bei der Einstufung auf Bewertungsskalen durch 20 Versuchspersonen mit normalem Hörvermögen als annähernd gleich verständlich bewertet wurden. Der Test kann dazu verwendet werden, Sprachverständlichkeitsunterschiede zwischen Hörgeräten zu untersuchen. Die Bewertungen zur Verständlichkeit der unter den jeweiligen Versuchsbedingungen dargebotenen Textpassagen wurden vom Probanden auf einer zehnstufigen Skala vorgenommen.
Kollmeier u. Wesselkamp (1997) führten im Rahmen der Entwicklung eines Satztestes zusätzlich zu Sprachverständlichkeitstests auch ein Herstellungsverfahren (die Versuchsperson stellt den Pegel des Sprachmaterials nach einem vorgegebenen Verständlichkeitskriterium ein) und Einstufungen auf Bewertungsskalen zum Sprachqualitätsmerkmal „Höreranstrengung“ durch. Alle drei Verfahren wurden mit dem Sprachmaterial des Satztestes durchgeführt. Die mit den drei Verfahren gewonnenen Ergebnisse waren hoch miteinander korreliert, was für die Validität der mittels Bewertungsskalen erhobenen Daten spricht. Auch Samar u. Metz (1988) fanden für Bewertungsskalen, auf denen die Sprachverständlichkeit hörgeschädigter Sprecher von trainierten Hörern eingestuft wurde, hohe Reliabilitäts– und Validitätskoeffizienten. Allerdings weisen die Autoren darauf hin, dass die Einstufungen auf den Bewertungsskalen gerade im Bereich mittlerer Sprachverständlichkeiten relativ hohe Standardschätzfehler aufwiesen und dass die Messung beobacht-
446
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
baren Verhaltens (die Hörer schrieben nieder, was sie verstanden hatten) zu genaueren Sprachverständlichkeitsdaten führte. Anhand von Paarvergleichen und einer elfstufigen Bewertungsskala ließen Eisenberg et al. (1997) schwerhörige und normalhörende Probanden unterschiedlich gefiltertes Satzmaterial hinsichtlich des Sprachqualitätsmerkmales der Klarheit beurteilen. Beide Maße korrelierten hoch mit dem Artikulationsindex. Allerdings erwies sich die Methode des Paarvergleiches bei den schwerhörigen Probanden insgesamt als das sensiblere Verfahren. Bei der Differenzierung akustisch ähnlicher Versuchsbedingungen zeigte sich dieser Effekt auch für die normalhörenden Probanden, die bei weiter gestreuten Versuchsbedingungen mit beiden Methoden ähnliche Ergebnisse erzielten. Mit der Methode der Paarvergleiche ließen Studebaker et al. (1982) ihre normalhörenden und schwerhörigen Versuchspersonen das Merkmal der Sprachverständlichkeit für verschiedene Hörgeräte bewerten. Außerdem wurden Sprachverständlichkeitstests durchgeführt. Die mittels der Paarvergleiche zu beurteilenden Sprachproben bestanden aus einer Textpassage, die vor einem Hintergrundgeräusch (Cafeteriageräusch) bei Signal– Geräuschabständen von 0 und +7 dB abgespielt wurden. Diese Sprachproben wurden durch 16 verschiedene Hörgeräte übertragen und dann aufgezeichnet. Den Versuchspersonen wurden die durch die Hörgeräte übertragenen Sprachproben zur Beurteilung dargeboten. Für die Verständlichkeitstests wurde ein Wortverständlichkeitstest (NU–6) unter denselben akustischen Bedingungen durchgeführt. Die mittels der Methode der Paarvergleiche erhobene Rangfolge der Sprachverständlichkeit bei den verschiedenen Hörgeräten ergab eine höhere Retest–Reliabilität als die Einteilung anhand der Sprachverständlichkeitstests (Tab. 10.2-1). Tabelle 10.2-1. Einteilung von Hörgeräten für die Sprachverständlichkeit anhand von Paarvergleichen (PV) und Verständlichkeitstests (SV): Retest–Reliabilität: Korrelation der Wiederholungstests für Normal– und Schwerhörige (NH, SH) NH SH
PV 0.69 0.64
SV 0.31 0.37
Zur Validitätsprüfung wurden die Ergebnisse der Paarvergleiche daraufhin untersucht, ob die Probanden jeweils die Hörgeräte als besser klassifiziert hatten, die in den Sprachverständlichkeitstests auch die besseren Resultate erzielt hatten. Die normalhörenden Probanden – es handelte sich hierbei um eine in der Durchführung derartiger Untersuchungen trainierte Stichprobe – waren hierzu sehr gut in der Lage, wogegen die in solchen
10.2 Die Messung der Sprachqualität
447
Beurteilungsaufgaben weniger erfahrenen schwerhörigen Probanden etwas schlechtere Ergebnisse erzielten. Da Schwerhörige generell die Sprache anders und verzerrt wahrnehmen, ist es zweckmäßig, die Hörsituation von Schwerhörigen (mit und ohne Hörgeräte) nicht nur mit Hilfe von Verständlichkeitstests, sondern auch mit Merkmalen der Sprachqualität zu prüfen (Schiavetti et al. 1981; Studebaker u. Sherbecoe 1988; Pavlovic et al. 1990; Purdy u. Pavlovic 1992). Purdy u. Pavlovic (1992) stellten Vergleiche zwischen allen drei Verfahren an. Sie boten älteren, schwerhörigen Versuchspersonen acht unterschiedlich gefilterte Sprachproben (AI = 0.15 bis 0.40) dar und ließen sie das Merkmal der Sprachverständlichkeit mit den Methoden der direkten Größenschätzung, des Paarvergleiches und der Einstufung auf einer zwanzigstufigen Bewertungsskala beurteilen (Abb.10.2-2). Zusätzlich wurden zwei Sprachverständlichkeitstests mit Sätzen (CID) und Einsilbern (NU–6) durchgeführt. Korreliert mit den AI–Werten der Versuchsbedingungen erwiesen sich die drei Bewertungsmethoden und der Einsilbertest (NU–6) als ähnlich sensible Messverfahren, die Korrelationskoeffizienten unterschieden sich nicht signifikant voneinander. In der Retest–Reliabilität schnitt die Methode der Paarvergleiche etwas schlechter ab als die Methoden der direkten Größenschätzung, der Einstufung auf Bewertungsskalen und der Einsilbertest. 100 B
GS
80
BS PV
60
SV-S SV-E
40
20
0 F1
F2
F3
F4
F5
F6
F7
F8
Abb. 10.2-2. Beurteilung (B) der Verständlichkeit von Sprache, gefiltert mit acht Filtern (F1–F8: 0.51–0.92 bis 0.57–2.0 kHz, mit einer Bandbreite von 3, 3.5, 4, 5, 6, 6.5, 7, 7.5 kritischen Bandbreiten): Größenschätzung (GS), Bewertungsskala (BS), Paarvergleich (PV) und die Sprachverständlichkeit von Sätzen (SV–S in %) und Einsilbern (SV–E in %)
In der Retest–Reliabilität schnitt die Methode der Paarvergleiche etwas schlechter ab als die Methoden der direkten Größenschätzung, der Einstufung auf Bewertungsskalen und der Einsilbertest. Der Satztest erwies sich
448
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
in allen Analysen als das ungeeignetste Messverfahren. Da zudem Sprachverständlichkeitstests und die Methode des Paarvergleiches zeitaufwändiger sind als die der direkten Größenschätzung oder die der Einstufung auf Bewertungsskalen, werden die beiden letzteren Methoden zur Auswahl von Hörgeräten empfohlen, wobei die Anwendung von Bewertungsskalen auf mehr Akzeptanz und weniger Verständnisprobleme bei den Versuchspersonen stößt als die von direkter Größenschätzung. Zusammenfassend kann man feststellen, dass sich die Sprachqualität gut für den Vergleich von den Systemen eignet, mit denen es möglich ist, einen Verlust an Sprachverständlichkeit auszugleichen und ggf. zu optimieren, wie es z.B. mit Hörgeräten oder Teilen von elektroakustischen Kommunikationsgeräten der Fall ist.
10.3 Die subjektive Befindlichkeit bei der Sprecher– Hörer–Interaktion Sprechanstrengung, Belastung des Hörers, Bewertung der Kommunikation, Belästigung beim Verstehen von Sprache unter Lärm, Doppeltätigkeit In der Diskussion zur Belästigung durch Geräusche wird der Zusammenhang zwischen dem Geräuschpegel, der Intensität des Geräusches und dem Grad der subjektiv erlebten Belästigung hervorgehoben. Je lauter das Geräusch ist, das als unerwünschter Schall eingeschätzt wird, umso lästiger wird es empfunden (s. Abschn. 11.1). Eine weitere Modifikation erfährt die subjektive Belästigung durch die Art der Tätigkeit, welche die Personen, die sich in einer lärmigen (noisy) Umgebung aufhalten, verrichten. Sie fühlen sich je nachdem, ob sie schlafen, arbeiten, sich unterhalten oder entspannen wollen, durch Geräusche in unterschiedlichem Ausmaß gestört. Eine besonders starke Belästigung durch Schall tritt bei der sprachlichen Kommunikation auf, da Sprache und Geräusch gleichermaßen Schallereignisse sind und miteinander interferieren. Für die Gesprächspartner bedeutet ein hoher Geräuschpegel zweierlei. Einerseits betrifft es die Gesprächspartner. Der Sprecher muss laut sprechen; vom Hörer wird, da er nur einen Teil der ankommenden Sprachlaute wahrnehmen kann, eine höhere Anstrengung und eine größere Aufmerksamkeit gefordert, um die sprachliche Information aus dem Geräusch herauszuhören und zu verstehen. Andererseits können sich beide Gesprächspartner unabhängig von ihrem Ziel, sich zu unterhalten, belästigt fühlen. (Zur Sprecher–Hörer–Interaktion s.a. Abschn. 5.8.)
10.3 Die subjektive Befindlichkeit bei der Sprecher–Hörer–Interaktion
449
Man kann somit von der Vorstellung ausgehen, dass die Beurteilung der subjektiv erlebten Belästigung innerhalb der Sprecher–Hörer–Interaktion vom Geräuschpegel (LNA) und von der Sprachverständlichkeit (SV) abhängig ist, die bei dem jeweiligen Geräuschpegel noch möglich ist, d.h. vom Signal–Geräuschverhältnis (LSNA). In diesem Rahmen wurden umfangreiche Untersuchungen zur Einschätzung der Belästigung von Sprecher und Hörer während der sprachlichen Kommunikation unter Geräuscheinwirkung durchgeführt (Lazarus–Mainka 1993). Hörmann et al. (1981), Lazarus–Mainka et al. (1983) und Lazarus– Mainka (1984b) berücksichtigten in einer Untersuchung zur sprachlichen Kommunikation unter Geräuscheinwirkung neben der Art der Kommunikationsaufgabe auch die Rolle der Gesprächspartner, nämlich zu sprechen und zu hören. In einer Gesprächssituation hatte der Sprecher entweder Sprachmaterial (Einsilber, Sätze und Texte) vorzulesen oder eine Bildergeschichte zu erzählen. Der Hörer musste das gehörte Sprachmaterial nachsprechen bzw. die Bildergeschichte nacherzählen. In einer weiteren Bedingung hatte er die Möglichkeit, dem Sprecher beim Erzählen der Bildergeschichte ein Feedback bei Nichtverstehen zu geben und ihn dazu aufzufordern, die nicht verstandenen Inhalte zu wiederholen. Zusätzlich wurde das Tragen von Gehörschutz beim Sprecher und Hörer variiert. Sprecher und Hörer wurden wiederholte Male während der sprachlichen Kommunikation unter Geräuscheinwirkung nach ihrer subjektiven Befindlichkeit anhand einer Adjektivliste befragt. Die 18 enthaltenen Adjektive beschreiben negative Befindlichkeiten (z.B. unzufrieden, ärgerlich, abgelenkt), deren Ausprägung auf einer siebenstufigen Skala eingestuft werden konnte. Außerdem wurde nach Beendigung des Versuches ein Fragebogen mit 10 Fragen zur Geräusch–, Hörer– und Sprecherbelastung vorgelegt, wie z.B. "Sind Sie heiser geworden?", "War das Sprechen anstrengend?". Die Fragen konnten mit ja oder nein bzw. einer Schätzung des Zeitraumes, über den das laute Sprechen noch durchgehalten worden wäre, beantwortet werden.
Es zeigten sich Befindlichkeitsunterschiede zwischen Sprecher und Hörer in Abhängigkeit von der Situation. Die Auswertung des Fragebogens ergab, dass sich die Zeitangaben der Hörer zum Zeitraum, über den sie noch so laut hätten weiterreden können, in Abhängigkeit vom Geräuschpegel nicht unterschieden, die der Sprecher sich hingegen beim Vergleich der Geräuschpegel von 76 dB (1 Stunde) und 92 dB (17 Minuten) deutlich verkürzten. Versuchspersonen ohne Gehörschutz verspürten in Abhängigkeit vom Geräuschpegel häufiger ein Klingeln in den Ohren und Druck auf den Ohren. Sie gaben auch an, dass das Sprechen anstrengend war und dass sie nicht viel lauter hätten sprechen können. Die Befindlichkeitsunterschiede drückten sich auch bei der Auswertung der Adjektivliste aus. Hier zeigen sich Interaktionseffekte zwischen der Sprecher– und Hörertätigkeit und der Art der Situation. Mit steigendem Geräuschpegel fühlt sich der
450
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Sprecher besonders in der Feedbackbedingung (Hörer ermahnt den Sprecher lauter zu sprechen) stärker belästigt als der Hörer. Eine detaillierte Analyse der Antworten auf die einzelnen Adjektive ergab, dass sich der Sprecher besonders in der Situation, in der er ein Feedback vom Hörer erhält, stärker belästigt, behindert, beeinträchtigt, erschöpft und angestrengt fühlt als der Hörer. In den Bedingungen ohne Feedback bei Nichtverstehen fühlt sich hingegen der Hörer stärker verwirrt, abgelenkt und überfordert als der Sprecher. Die subjektive Belästigung steigt generell mit der Zunahme des Geräuschpegels an, wobei das Sprechen unter Lärm anstrengender ist als das Hören und Verstehen unter denselben Bedingungen. Die unterschiedlichen Befindlichkeiten von Sprecher und Hörer zeigen sich auch in der faktorenanalytischen Auswertung der anhand der Adjektivliste vorgenommenen Bewertungen (Lazarus–Mainka 1984b). Sie ergab für Sprecher und Hörer getrennt jeweils zwei Faktoren, die zusammen etwa 67 % der Varianz aufklären (F I ca. 59 %; F II ca. 8 %). Bei einem Geräuschpegel von nur 53 dB treffen beim Sprecher besonders solche Adjektive zu, die Erregung und Ungeduld zum Ausdruck bringen (Faktor I) und solche, die Belastung ausdrücken (Faktor II). Beim Hörer zeigt sich eine andere Faktorenstruktur: Die Belastungsadjektive entsprechen hier dem ersten Faktor, der zweite Faktor umfasst eher Adjektive, die Unaufmerksamkeit beschreiben. In der Lärmbedingung (76–92 dB), in der nur vorgelesen und nachgesprochen wurde, gleicht sich die Faktorenstruktur von Sprecher und Hörer an. In beiden Fällen steht der Faktor I für Verhinderung und Faktor II beinhaltet Adjektive, die Erregung und Ungeduld bedeuten. In den beiden Lärmbedingungen (76–92 dB), in denen eine Bildergeschichte erzählt und nacherzählt wurde (mit und ohne Feedback), zeigen Sprecher und Hörer gegensätzliche Faktorenstrukturen. In beiden Bedingungen treffen beim Sprecher Adjektive zu (Faktor I), die für Verhinderung stehen und beim zweiten Faktor stehen vor allem Adjektive zum Bereich Erregung, Ungeduld und Unaufmerksamkeit. Beim Hörer sehen die Faktorenstrukturen genau umgekehrt aus. Die subjektiven Befindlichkeiten von Sprecher und Hörer ändern sich also mit den situativen Bedingungen (Geräuschpegel, Art der sprachlichen Mitteilung, Feedbackmöglichkeit). Hierbei fällt die Art der Belastung, die von Sprecher und Hörer erlebt wird, in den meisten Bedingungen verschieden aus. Die Hypothese, dass die Belästigung nicht nur von der Intensität des Geräuschpegels, sondern auch entscheidend vom Signal–Geräuschabstand abhängt, der die Schwierigkeit der Tätigkeit in der Versuchssituation bestimmt und kennzeichnet, untersuchten Lazarus–Mainka et al. (1985). Den Versuchspersonen wurde bei unterschiedlichen Geräuschpegeln (LNA = 57, 71 und 85 dB) Sprachmaterial mit jeweils drei verschiedenen Signal–Geräusch-
10.3 Die subjektive Befindlichkeit bei der Sprecher–Hörer–Interaktion
451
abständen (LSNA = -14, -7 und 0 dB) dargeboten. Zusätzlich wurden die Geräuschpegel ohne Sprache dargeboten. Im ersten Versuchsteil wurden die Probanden dazu aufgefordert, das, was sie verstanden hatten, nachzusprechen und zusätzlich auf einer 10–stufigen Skala ihre Wahrnehmungsleistung sowie die Lästigkeit der Situation (Situationsbelästigung) zu bewerten. In einem zweiten Versuchsteil wurde jede Geräuschsituation (mit und ohne Sprache) nochmals dargeboten und die Versuchspersonen sollten sie anhand von 7 Fragen zur Sprache (wie laut, wie gut zu verstehen) und zum Geräusch auf einer zehnstufigen Skala bewerten, u.a. auch die Frage: Wie belästigend war das Geräusch? (Geräuschbelästigung). GB
GB
SB
SB
7
7
B
B 5
5
3
3 -20
-15
-10
-5
0 LSNA/dB
kSP 5
40
50
60
70
80 LNA/dB
90
Abb. 10.3-1a, b. Belästigung (B, Skala 0–9) für die Situationsbelästigung (SB) und Geräuschbelästigung (GB): (a) bei Geräuschpegel (LNA = 71 dB) und drei Signal–Geräuschabständen (LSNR = -14, -7, 0 dB; kSP: keine Sprache); (b) beim S/N–Abstand LSNR = -7 dB und drei Geräuschpegeln (LNA = 57, 71, 85 dB)
Die Beziehung, dass ein Geräusch als umso lästiger erlebt wird, je lauter es ist, konnte für alle drei Pegel bestätigt werden (s. Abb. 10.3-1b, GB). Wird jedoch nach der Belästigung der Situation gefragt, zeigt sich, dass beim gleichen Geräuschpegel die Belästigung mit dem sinkenden Signal– Geräuschabstand (d.h. mit steigender Schwierigkeit die Sprache zu erkennen) zunimmt (s. Abb. 10.3-1a, SB). Nur bei dem hohen Geräuschpegel von 85 dB wird die Situationsbelästigung kaum noch durch den Signal– Geräuschabstand gegeben. Ein relativ niedriger Geräuschpegel, der für sich genommen als wenig belästigend eingestuft wird, kann also als genauso belästigend wie ein wesentlich höherer wahrgenommen werden, wenn gleichzeitig Sprache verstanden werden soll. Der Signal–Geräuschabstand wirkt sich auf die Beurteilung der Belästigung aus. Es wurde aber auch überlegt, ob die direkte Frage nach der Belästigung gestellt werden muss. Selbst wenn man nur nach der Störung oder Bewältigung einer gestörten Gesprächssituation
452
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
fragt, müsste sich der unterschiedliche Einfluss von Geräusch und Signal– Geräuschabstand zeigen. In ähnlicher Weise wurde in einem Versuch (Sust et al. 2007) die Sprachverständigung von Sätzen bei einem konstanten, wie auch bei einem intermittierenden Geräusch, d.h. bei unterschiedlichen Geräuschpegeln ( aber gleichen Signal–Geräuschabständen) gemessen und zusätzlich nach der Befindlichkeit (Coping, Belästigung, Konzentration) in der jeweiligen Kommunikationssituation gefragt. Der Versuch war in Phasen aufgeteilt (ca. 20–25 min), in denen entweder ein konstantes (55 dB) oder intermittierendes (Wechsel zwischen 3 Sätzen jeweils bei 45, 55, 65 dB) Straßengeräuschen dargeboten wurde. Die Sätze mussten nachgesprochen werden. Nach jeweils drei Sätzen wurden vier Bewertungsfragen (Skala 1 bis 5) gestellt, z.B.: "Ich konnte meine Aufgabe, Sätze korrekt nachzusprechen, schlecht...sehr gut bewältigen" (Coping) und "Ich habe die Bedingungen als nicht... sehr störend empfunden, unter denen ich die Sätze verstehen musste" (Belästigung). Die Sätze wurden bei jedem Geräusch mit 6 Signal– Geräuschabständen von LSNR = -15 bis 20 dB dargeboten (s.a. Abschn. 10.4, Versuch 3). Stc Sti 55
Sti 45 Sti 65
Stc Sti 55
5
Sti 45 Sti 65
5
BWC
BWB
4
4
3
3
2
2
1
1
-15 -10
-5
0
5
10
SNR /dB
15
20
-15 -10
-5
0
5
10
15
20
SNR /dB
Abb. 10.3-2a, b. Bewertung der Hörsituation (Skala 1–5): Coping (BWC) und Belästigung (BWB) mit Straßenverkehrsgeräuschen (St) und 6 Signal–Geräuschabständen (LSNA = -15 bis 20 dB) bei konstantem (Stc, 55 dB) und intermittierendem Pegel (i) mit drei Pegeln LNA = 45, 55, 65 dB (Sti45, i55, i65)
Die Sprachverständlichkeit, wie auch die Mithörschwellen sind bei den drei Geräuschpegeln wegen der gleichen Signal–Geräuschabstände etwa gleich (Tab. 10.3-1, Zeile 1, 2). Das gilt auch für die Frage nach der Bewältigung (Coping, Zeile 3, 4). Bei der Frage nach der Belästigung aber spielt der Geräuschpegel eine zusätzliche Rolle (Zeile 5, 6): der Belästigungswert (BWB) steigt bei dem hohen Pegel (65 dB) um knapp 20 %. Der Unterschied der beiden Fragen nach der Bewältigung und der Belästi-
10.3 Die subjektive Befindlichkeit bei der Sprecher–Hörer–Interaktion
453
gung wird auch in der Abbildung 10.3-2a, b deutlich. Erst bei einer Reduzierung des Signal–Geräuschabstandes um 12 dB (18.2 dB – 7.0 dB) wäre die Belästigung (bei 65 dB) der Belästigung beim mittleren Pegel (55 dB) gleich. Der höhere Pegel könnte also durch einen höheren S/N–Level ausgeglichen werden. Dass die Situation mit dem hohen Geräuschpegel (65 dB) etwas positivere Werte (SV, BWC) hat, mag mit dem insgesamt höheren Sprachpegel (LSA = 50–85 dB) zu tun haben. Trotz gleicher Sprechleistung (nachgesprochen wie empfunden), ist die Störung bzw. Belästigung des Gesprächs bei höheren Geräuschpegeln höher, bei niedrigen geringer. D.h. die Bewältigung und die Belästigung einer Situation mit Sprachkommunikation orientieren sich am Signal–Geräuschabstand, die so erfragte Belästigung aber auch am Geräuschpegel. Tabelle 10.3-1. Sprachverständlichkeit (SV in %) und Bewertung der Kommunikationssituation Coping (BWC (Skala 1–5)), Belästigung (BWB (Skala 5–1)), für ein konstantes und drei intermittierende Geräusche (LNA in dB); angegeben ist: die Sprachverständlichkeit in %, der Skalenwert von BWC und BWB, gemittelt über alle 6 S/N–Level, und der Signal–Geräuschabstand (LSNA) für SV = 50 % und für BWC = BWB = 3.0
1 2 3 4 5 6
SV LSNA (50 %) BWC LSNA(3.0) BWB LSNA (3.0)
konstant 55 dB 56.7 % - 2.4 dB 3.1 0.0 dB 3.4 7.3 dB
Geräusch LNA intermittierend 45 dB 55 dB 52.2 % 51.5 % - 0.3 dB - 0.4 dB 3.0 3.0 1.1 dB 0.4 dB 3.2 3.4 4.6 dB 7.0 dB
65 dB 54.9 % - 1.1 dB 3.1 0.0 dB 4.0 18.2 dB
Lazarus–Mainka u. Raschdorf (1985a) untersuchten den Einfluss der Sprechweise auf die erlebte Belästigung des Hörers. Sie boten ihren Versuchspersonen Sprachproben, die in unterschiedlicher Sprechweise (normal: LSA,1m = 55 dB, angehoben: LSA,1m = 66 dB und sehr laut: LSA,1m = 77 dB) aufgezeichnet worden waren, in verschiedenen Pegeln dar (LSA = 55 dB, LSA = 66 dB, LSA = 77 dB). Hierbei wurde jeweils ein Drittel der Sprachproben im Originalpegel belassen (bspw. 55 dB), die restlichen wurden auf die beiden anderen Sprechpegel eingepegelt (bspw. 66 und 77 dB). Die Sprachproben wurden im Versuch durch ein Hintergrundgeräusch (rosa Rauschen) bei konstantem Signal–Geräuschabstand von LSNA = -4 dB maskiert. Die Versuchspersonen sollten jeweils wiederholen, was sie verstanden hatten. Die Beurteilung der gehörten Sprechweise erfolgte anhand von 17 siebenstufigen Skalen, an deren Endpunkten Adjektivpaare standen (z.B. angenehm–unangenehm). Diese Skalen wurden dem Fragebogen zur Kennzeichnung der Sprechstimme von Bortz (1971) entnommen, wo sie den Faktoren Dynamik, Valenz und Prägnanz zugeordnet wer-
454
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
den. Zur Beurteilung der Belästigung wurden den Probanden drei Fragen vorgelegt, die auf einer siebenstufigen Skala beantwortet wurden: (1)"Wie gut habe ich Sprache verstanden?", (2)"Wie belästigend war das Geräusch?", (3)"Wie belästigend war die Wahrnehmungsbedingung?". In der Datenauswertung wurden die Effekte der Sprechweise bei der Aufzeichnung der Sprachproben und des Geräuschpegels bei der Darbietung im Versuch analysiert.
Sowohl die Sprachverständlichkeit als auch deren subjektive Beurteilung (Frage 1) fielen bei Sprachproben, die in angehobener Sprechweise aufgezeichnet worden waren, besser aus als bei solchen mit normaler oder sehr lauter Sprechweise. Auch die Beurteilung der beiden anderen Fragen fiel bei angehobener Sprechweise positiver aus als bei normaler oder sehr lauter Sprechweise. Außerdem steigt die Geräuschbelästigung (Frage 2) mit dem Geräuschpegel an. Auf die Situationsbelästigung (Frage 3) hingegen wirkt sich ein Anstieg des Geräuschpegels nicht in signifikanter Weise aus, die unterschiedlich lauten Geräuschpegel werden unter diesen Umständen als ähnlich belästigend erlebt. Eine Faktorenanalyse über die Adjektivskalen zur Beurteilung der Sprechstimme ergab, dass die Faktoren Dynamik, Prägnanz und Valenz in Abhängigkeit von der Sprechweise unterschiedlich wichtig sind. Bei normaler Sprechweise klärt der Faktor Prägnanz die meiste Varianz auf (22 %), gefolgt von den Faktoren Valenz (18 %) und Dynamik (9 %). Bei angehobener Sprechweise ist der Faktor Dynamik am wichtigsten (31 %), gefolgt von Prägnanz (14 %) und Valenz (7 %). Wird sehr laut gesprochen, klärt wieder der Faktor Dynamik die meiste Varianz auf (20 %), am zweitwichtigsten ist hier die Valenz (12 %) und am wenigsten Gewicht hat der Faktor Prägnanz (9 %). Multiple Regressionen ergaben, dass sich die Situationsbelästigung (Frage 3) bei normaler und sehr lauter Sprechweise durch diese drei Faktoren und die Daten zur Geräuschbelästigung vorhersagen lässt. Bei normaler Sprechweise wirkt sich besonders der Faktor Valenz auf die Situationsbelästigung aus. Sprache, die melodisch, gelöst und angenehm klingt, wird unter Geräuscheinwirkung als belästigend beurteilt. Bei sehr lauter Sprechweise lässt sich die Situationsbelästigung vor allem durch den Faktor Prägnanz und die Beurteilung der Geräuschbelästigung vorhersagen. Wird Sprache als prägnant gesprochen erlebt, vermindert sich die Situationsbelästigung. Sie nimmt zu, wenn die Sprache undeutlich gesprochen wird und die Geräuschbelästigung zunimmt. In einer Untersuchung von Lazarus–Mainka u. Leushacke (1985) wurden wieder die subjektiven Befindlichkeiten von Sprecher und Hörer in einer Lärmsituation, in der Bildergeschichten erzählt und nacherzählt wurden, gemessen. Sprecher und Hörer saßen sich in einer Entfernung von 1.5 m gegenüber und waren nur durch einen leichten, schalldurchlässigen Vorhang voneinander ge-
10.3 Die subjektive Befindlichkeit bei der Sprecher–Hörer–Interaktion
455
trennt, der ein Ablesen von den Lippen verhindern sollte. Der Pegel des Hintergrundgeräusches, dem sowohl der Sprecher als auch der Hörer ausgesetzt waren, wurde zwischen 45, 67.5 und 90 dB variiert. Die Fragen zur Befindlichkeit bezogen sich auf die Anstrengung des Sprechens und des Verstehens von Sprache, sowie auf die Störung und Belästigung durch das Geräusch und während der sprachlichen Kommunikation.
Die erlebte Belästigung stieg generell mit dem Pegel des Hintergrundgeräusches an, der entscheidende Unterschied lag hier zwischen den Geräuschpegeln von 67.5 und 90 dB. Bei 90 dB wird die sprachliche Kommunikation als stark bis sehr stark beeinträchtigt eingestuft. Dies gilt für Sprecher und Hörer gleichermaßen (Abb. 10.3-3).
Abb. 10.3-3. Befindlichkeit (B, Skala 0 bis 9) für drei Fragen: Das Sprechen war anstrengend? (Spr.; nicht–sehr: 0–9); Die Sprache war zu verstehen? (SV; gut– schlecht: 9–0); Das Geräusch hat mich gestört? (Ger.; nicht–sehr: 0–9); bei drei Geräuschpegeln (RR) während einer Gesprächssituation (Sprecher (S), Hörer (H), Abstand S–H : 1.5 m) beim Erzählen einer Bildgeschichte
Bei der Frage nach der Anstrengung des Sprechens (Frage: Spr.) bewertet der Sprecher die Situation bei 90 dB negativer als der Hörer. Das gilt interessanterweise auch für das Verstehen von Sprache (Frage: SV): offenbar spricht der Hörer (Rückmeldung, was nicht verstanden wurde) zum Sprecher relativ leise (Frage: Spr.), der Sprecher aber relativ laut (Frage: Spr.), weil er verstanden werden will. Gestört sind beide (Frage: Ger.). Die Sprechanstrengung wurde in einem weiteren Experiment von Lazarus–Mainka u. Tkocz (1988) gesondert untersucht. Die Versuchspersonen wurden dazu aufgefordert, Sätze vorzulesen und dabei ihre Sprechstimme nach einem jeweils vorgegebenen Pegelwert auszurichten, der zwischen 51 und 91 dB lag. Die dabei erlebte Befindlichkeit sollte anhand von Fragen eingestuft werden.
456
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Die Frage nach der Anstrengung und Belästigung (Abb. 10.3-4a), wie auch die Frage wie angenehm und entspannt das Sprechen empfunden wurde, ergab ab einem Sprechpegel von LSA,1m = 66 dB signifikant ansteigende Werte. 7 belästigend anstrengend
B
5
3
1 50
60
70
80
90
100
LSA /dB
Abb. 10.3.4a. Subjektive Befindlichkeit (B, Skala 1–7) des Sprechers entsprechend der Frage: wie belästigend, wie anstrengend war das Sprechen; LSA: vorgegebene Pegel in 1 m Abstand vom Sprechermund 200 t/min
150
100
50
0 50
60
70
80
90
100
LSA/dB
Abb. 10.3-4b. Subjektiv eingeschätzte Sprechdauer (t in Minuten): Wie lange könntest Du noch sprechen?; LSA: vorgegebene Pegel in 1 m Abstand vom Sprechermund
Auch die Frage nach der Einschätzung der Sprechdauer ergab einen signifikanten Effekt. Die Versuchspersonen gaben bei den Pegeln von 51 bis 61 dB durchschnittlich eine Sprechdauer von 154 Minuten an, bei den Pe-
10.3 Die subjektive Befindlichkeit bei der Sprecher–Hörer–Interaktion
457
geln von 66 bis 91 dB hingegen wurden nur noch 19 Minuten geschätzt (Abb. 10.3-4b). Das Sprechen mit einem Sprechpegel bis zu 60 dB (LSA,1m) wird also vom Sprecher noch als angenehm bewertet. Darüber liegende Sprechpegel werden als zunehmend belästigender und anstrengender empfunden. In alltäglichen Situationen können zusätzlich zum Verstehen von Sprache visuelle oder handwerkliche Tätigkeiten verlangt werden (Parallel– oder Sekundäraufgabe). Das ist einerseits der Fall, wenn neben einer Tätigkeit ab und zu Aufgaben verbal vermittelt werden, die auf Gefahren aufmerksam machen oder die die Aufnahme von Zusatzinformationen beinhalten. Das ist andererseits der Fall, wenn während einer Gesprächssituation zusätzlich Aufgaben (z.B. visuelle) durchgeführt werden müssen. Solche Zusatzaufgaben können die auf die Verständlichkeit bezogene Aufmerksamkeit systematisch verändern. In einer Reihe von empirischen Untersuchungen wurden solche alltäglichen Arbeitsbedingungen simuliert. Bei einer Doppeltätigkeit (Verstehen von Sätzen (LSNA = -5 bis 15 dB) und einer einfachen und komplexen Sortieraufgabe) konnte gezeigt werde, dass nicht nur das Signal–Geräuschverhältnis, sondern auch die Art der Nebenaufgabe die Wahrnehmungsleistung bestimmt (Lazarus–Mainka u. Sasse 1981). In einer weiteren Untersuchung (Lazarus–Mainka et al. 1989) wurde der Einfluss des Ausführens einer Doppeltätigkeit auf die Bewertung der Sprachverständlichkeit untersucht. Die Versuchspersonen sollten in dieser Untersuchung Sprachreize (Einsilber, Sätze, Texte, LSA = 65 dB) nachsprechen, die ihnen bei fünf verschiedenen Geräuschpegeln (LNA = 55, 60 bis 75 dB) präsentiert wurden. Gleichzeitig wurden Sortieraufgaben unterschiedlicher Schwierigkeit durchgeführt. Im Anschluss an jeden Versuchsdurchgang wurden den Versuchspersonen 3 Fragen (1) nach der Schwierigkeit, die Sprache zu verstehen, (2) die Sortiertätigkeit auszuführen und (3) beide Aufgaben (Sprach– und Sortieraufgabe) gleichzeitig durchzuführen, gestellt. Die Beantwortung erfolgte auf einer siebenstufigen Skala (1 = sehr leicht ... 7 = sehr schwer).
Mit steigendem Geräuschpegel (sinkendem LSNA) wurde das Verstehen der Sprachreize als zunehmend schwieriger beurteilt, die Einschätzung der Schwierigkeit für die Sortieraufgabe stieg wesentlich moderater an. Auch die Schwierigkeit, beide Aufgaben gleichzeitig durchzuführen, wurde mit steigendem Geräuschpegel als zunehmend höher eingestuft. Die Sprache wurde während des Sortierens nur wenig schlechter verstanden. Die Präferenz der Aufmerksamkeitsverteilung fiel eindeutig zugunsten der Sprachwahrnehmung aus; die Sprech– und Pausenzeiten waren zwar abhängig vom Geräuschpegel, jedoch nicht von der Sortiertätigkeit. Erst wenn fast nichts mehr verstanden wurde (LSNA = -10 dB), konzentrierten sich die Personen auf die Sekundärtätigkeit. Die Leistung
458
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
der Sortiertätigkeit war abhängig von den Versuchsbedingungen, d.h. vom Signal–Geräuschabstand und vom Sprachmaterial (s. Tab. 10.3-2). Tabelle 10.3-2. Doppeltätigkeit (DT): Sprachverständlichkeit. (SV in %) und Sortiertätigkeit (ST) in Anzahl (A)/s bei 2 Signal–Geräuschabständen (LSNA = -10dB und + 10 dB) für Wörter (W) und Text (T), sowie die beurteilte Schwierigkeit der Tätigkeit Tätigkeit (DT) Angabe LSNA + 10 dB - 10 dB
SV SV in % W T 97 90 15 10
ST + SV ST in A/s W T 0.78 0.48 0.59 0.41
ST ST + SV Schwierigkeit (Skala 1–7) W T W T 1.6 2.6 1.8 3.7 3.0 3.0 4.5 5.4
Die Sekundärtätigkeit gibt, da sie nur soweit durchgeführt wird, wie es die Konzentration auf die Sprache zulässt (obwohl in der Instruktion beide Tätigkeiten SV und ST als gleich wichtig beschrieben wurden), den Arbeitsaufwand während der Tätigkeit wieder. Bei der leichteren Worterkennung nimmt die Sortierleistung bei steigendem Geräuschpegel von 0.78 auf 0.59 Anzahl pro Sekunde ab, während der Texterkennung bleibt sie auf niedrigerem Niveau (0.48 bis 0.41 A/s). Offenbar ist die Texterkennung im Vergleich zur Worterkennung mit einem erheblichen Aufwand verbunden, der die Leistung absinken und die Bewertung der Schwierigkeit der Tätigkeiten (ST, ST + SV) steigen lässt. In anderen Versuchen zur Sprachverständlichkeit (Volberg et al. 2004, Sust et al. 2007) wurde parallel zu einer Situation, in der durch Geräusche maskierte Sätze nachgesprochen und dieser Vorgang bewertet werden sollte (s.a. Abschn. 10.4), eine weitere Aufgabe über den PC eingespielt (Paralleltätigkeit). Auch hier zeigte sich, dass die Sprachverständlichkeit in der Kontroll– und Experimentalbedingung ähnlich war. Offenbar hat die gesprochene Sprache einen starken Aufforderungscharakter, so dass der Einfluss der Tätigkeit auf die Verständlichkeit gering bleibt. Das Ausmaß der Verständlichkeit variiert nur abhängig vom Signal–Geräuschabstand. Fragt man nach der subjektiv empfundenen Verständlichkeit (V) und der Bewältigung (C) (Tab. 10.3-3: V, C), zeigt sich in beiden Versuchen, dass die Bewertung der Sprachverständlichkeit bei der Ausführung der Paralleltätigkeit nur wenig negativer ausfällt (der Signal–Geräuschabstand ist bei BW = 3 um 0.5 bis 2 dB höher) als in der Kontrollbedingung. Der Einfluss der Paralleltätigkeit macht sich dagegen bei der Frage nach der Belästigung (Störung, B) und Konzentration (K) deutlich bemerkbar: der Signal– Geräuschabstand ist für diese beiden Fragen (bei BW = 3) um 4 bis 8 dB höher als in der Bedingung ohne Zusatztätigkeit.
10.3 Die subjektive Befindlichkeit bei der Sprecher–Hörer–Interaktion
459
Offenbar wird die objektiv erbrachte und subjektiv bewertete Sprachverständlichkeit (BW) kaum durch die Durchführung der Zusatztätigkeit beeinflusst. Diese verändert dagegen die Bewertung der Belästigung und Konzentration (BWB, BWK), d.h. die Konzentration die Sprache zu verstehen, nimmt deutlich zu. Tabelle 10.3.3. Bewertung einer Hörsituation zur Sprachverständlichkeit mit und ohne Paralleltätigkeit (dargeboten zusätzlich zur Sprache über einen Bildschirm): Signal–Geräuschabstand (LSNA in dB) bei einer mittleren Bewertung BW = 3 (Skala BW 1 bis 5); bei zwei Geräuschen (N) (rosa Rauschen: RR; Straßenverkehrsgeräusch: Stc), Sätze, Signal–Geräuschabstand (zwischen -15 und 20 dB) und 4 Fragen: nach der subjektiv wahrgenommenen Verständlichkeit (V), Bewältigung (Coping: C), Belästigung (B), Konzentration (K), Daten aus Versuchen (V1, V3) Versuch V1 V3
Parallel tätigkeit
N
ohne mit ohne mit
RR RR Stc Stc
LSNA in dB bei BW Bewertung BW V C B 4.2 4.2 9.3 5.3 6.2 13.1 0.3 0.0 7.3 1.0 1.9 12.4
=3 K 10.5 16.0 8.6 17.0
Während in den oben zitierten Arbeiten die Bewertung der Sprachverständlichkeit im Mittelpunkt stand, wird in den weiter zu diskutierenden Untersuchungen auf die Worterinnerung bei einer Paralleltätigkeit eingegangen. In einer solchen Untersuchung wird zu Beginn eines nachzusprechenden Satzes, der unterschiedlich schnell gesprochen werden kann, ein Bild dargeboten. Von der Versuchsperson soll angegeben werden, ob sie das Bild schon einmal gesehen hat (Bilderinnerungsaufgabe) (Tun et al. 1992). Als Ergebnis ist festzuhalten: mit zunehmender Sprechgeschwindigkeit und zusätzlichem Ausführen der Erinnerungsaufgabe sinkt die Anzahl der Wörter, die korrekt wiederholt werden. Der Versuch wurde mit älteren und jüngeren Personen durchgeführt. Der Anteil der richtig wiederholten Sätze und richtig erinnerten Bilder variierte abhängig vom Alter. Jüngere Personen erbrachten eine Leistung von 81 und 95 %, ältere Personen von 67 und 89 %. Beim Ausführen der Paralleltätigkeit verringerte sich die Leistung von beiden Altersgruppen um 4 bis 7 %. In einem weiteren Versuch zur Wiedergabe gehörter Texte (Tun et al. 1991) bei der Ausführung einer eingestreuten Paralleltätigkeit (Reaktionszeit– und Wahlreaktionszeitaufgabe) zeigten sich keine signifikanten Effekte. Nur die Reaktionszeit (350–600 ms) der Parallelaufgabe selbst nahm während der Sprachaufgabe um ca. 20 % zu.
460
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Um den Einfluss unterschiedlicher Sprachverständlichkeitsniveaus auf verschiedene visuelle Aufgabentypen zu untersuchen, führten Payne et al. (1994) mehrere Versuche durch. Dabei wurden Testwörter präsentiert, die anschließend in einem Set akustisch dargebotener Wörter wieder erkannt werden sollten. Die Sets wurden bei unterschiedlichen Sprachverständlichkeiten präsentiert. Parallel dazu wurden 4 verschiedene visuelle Aufgaben dargeboten, die unterschiedliche mentale Ressourcen, kognitive und motorische Fähigkeiten beanspruchten (Tracking, Beobachtung, Zielverfolgung, mathematische Aufgabe). Dabei nahm die Leistung bei der Wiedererkennungsaufgabe während der Paralleltätigkeiten kaum oder gering ab (bis 5 %). Die Tracking– und Beobachtungsaufgaben (Monitoring) wurden durch die Wort–Wiedererkennungsaufgabe kaum beeinflusst. Die Lösung der mathematischen Aufgaben, wie die der räumlichen Zielverfolgung (spatial processing) wurde durch die zusätzliche Bearbeitung der Wiedererkennungsaufgabe (bei unterschiedlichen Sprachverständlichkeitsniveaus) deutlich erschwert. In einer simulierten Flugsituation (Byblow 1990) musste auf sprachliche und visuelle Signale, parallel zur eigentlichen Flugaufgabe, reagiert werden. Die sprachlichen Signale variierten in Länge und Redundanz (Informationshaltigkeit). Die Parallelaufgabe verlangte von den Versuchspersonen manuelle Reaktionen auf sprachliche oder visuelle Warnsignale. Die Versuchspersonen reagierten auf visuelle wie auch auf akustische Warnsignale mit geringer Redundanz schneller als auf Sprachreize hoher Redundanz. Offenbar können kürzere Signale mit weniger Information schneller in die erforderte Reaktion umgesetzt werden. Die Fehler der Warnaufgabe nahmen während der Paralleltätigkeit zu. Auf Sprachsignale reagierten die Versuchspersonen schneller und besser als auf die visuellen Reize. Die sprachlichen (akustischen) Warnsignale lenkten von der Flugkontrolle in geringerem Maße ab. Offenbar können Tätigkeiten, die kognitive Fähigkeiten beanspruchen, durch das gleichzeitige Erkennen oder Wiedererkennen von Sprachreizen deutlich erschwert werden, wogegen der Prozentsatz der richtigen Antworten auf die Sprachaufgabe weniger störanfällig ist. Daraus kann aber nicht geschlossen werden, dass Sprachaufgaben weniger störanfällig sind. Die Bewertung der Tätigkeiten lässt eher vermuten, dass Sprachwahrnehmung einen höheren Aufforderungscharakter hat und bei einer Paralleltätigkeit eine stärkere Konzentration verlangt.
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
461
Es ist festzuhalten: die erfragten Befindlichkeiten hängen wesentlich von der Rolle des Gesprächspartners (Sprecher, Hörer), vom erforderlichen Aufwand zu sprechen und zu verstehen, sowie von der Höhe des Geräuschpegels und der auszuführenden Tätigkeit ab. Alle diese Aspekte – (lauter) sprechen zu müssen (Feedback vom Hörer), verstehen zu wollen (mit hoher Anstrengung), und den Geräuschpegel selbst zu verkraften – sollten in einer sprachlichen Kommunikationssituation unter Geräuscheinwirkung beachtet werden. Dies gilt gleichermaßen, wenn eine parallel auszuführende Tätigkeit zu berücksichtigen ist (s.a. Lazarus–Mainka 1993).
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation Befunde und Normen zur Bewertung der Sprechanstrengung und der Sprachverständlichkeit (Höreranstrengung), Qualitätsparameter des Verstehen – und Wahrnehmungsprozesses von Sprache (Bewältigung, Konzentration), Qualitätsniveaus, angegeben als STI, SIL, SNR, Qualitätsstufen als Signal–Geräuschabstand für das Verstehen von Sprache Im Weiteren soll untersucht werden, ob die experimentellen Befunde und die in den Normen (STI, SII, SIL, SNR) angegebenen Daten ausreichen, die Qualität der verschiedenen Gesprächsituationen zu bewerten. Dabei ist es notwendig, um den Prozess des Verstehens von Sprache und seine Qualität bewerten zu können, die Parameter festzulegen, die Ausgangspunkt dieser Beurteilung sind. Ist es z.B. ausreichend, nur das Ausmaß der Sprachverständlichkeit zu berücksichtigen oder müssen weitere Parameter herangezogen werden? Das gilt vor allem im Bereich hoher Signal– Geräuschabstände, bei denen sich die Sprachverständlichkeit, gemessen an den Werten des SII und STI, nicht mehr verbessern lässt, was durch den Sättigungseffekt anzeigt wird. Diese Analysen führen schließlich zu weiteren empirischen Arbeiten, deren Ergebnisse die Formulierung der Qualitätsniveaus (vorerst als SNRA) für die Sprachverständlichkeit sind. Die natürliche Sprachkommunikation wird durch eine Vielzahl von Bedingungen eingeschränkt oder gestört, so z.B. bauseitig und maschinentechnisch, durch Geräusche und Nachhall, aber auch durch Entfernungseinschränkungen etc. Insofern kann häufig eine ungestörte Kommunikation nicht oder nur unter großem Aufwand oder anderen Einschränkungen erreicht werden. Deswegen werden häufig für die Sprachkommunikation nur optimale, aber nicht bestmögliche Bedingungen erreicht. Seit etwa 20– 30 Jahren wird an Normen zur Sprachkommunikation gearbeitet, um ver-
462
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
bindliche Richtlinien zu formulieren. Wichtigste Parameter sind: Geräuschpegel, Entfernung der Gesprächspartner, Situation und Sprachmaterial, teilweise auch Nachhall. Soweit es um Gespräche im Nahbereich der Personen geht (0.1 bis 4 m), wird die Nachhallzeit nicht, bei aufwändigeren Verfahren aber doch einbezogen. In der Regel sind diese Normen mit Sprachindices (Abschn. 7) oder einem effektiven Signal–Geräuschabstand verbunden: DIN 33410 (1981), DIN EN ISO 9921–1 (1996), ANSI S3.5 SII (1997), DIN EN ISO 9921 (2004), DIN EN 60268–16 STI (2003). Durch die Festlegung von Standards zur Sprachqualität in Normen, wie in ISO 9921, soll das Mindestmaß an benötigter Sprachqualität in unterschiedlichen Kommunikationssituationen sichergestellt werden. Hierbei wird besonderes Gewicht auf die Sprachverständlichkeit gelegt. Die Verfahren zur subjektiven Bewertung der Sprachqualität werden dazu genutzt, einen Zusammenhang der subjektiven Bewertungsskalen nicht nur zu der „objektiv“ ermittelten Sprachverständlichkeit, sondern auch zu den generell objektiv bestimmbaren Werten für Geräusche und Nachhall herzustellen. Solche Befunde (s.u.) wurden zur Erstellung von Normen verwendet. In den sechziger und siebziger Jahren wurde eine Reihe von Abschätzverfahren entwickelt, um eine ausreichende Sprachkommunikation in Räumen sicherzustellen (s.a. Abschn. 7.2.3). Es ging darum, Bürobereiche, Schulen und öffentliche Räume so zu gestalten, dass eine gewisse Qualität der Verständlichkeit von Sprache möglich ist. Auf der Grundlage der Arbeiten von Beranek (1956) und Webster (1979) wurde die Norm DIN 33410 geschaffen. Sie sollte im Rahmen der ergonomischen Gestaltung von Arbeitsbereichen und öffentlichen Räumen, insbesondere auch in Bereichen mit hohen Geräuschpegeln, eine ausreichende Sprachverständigung gewährleisten. Dazu mussten Entfernung der Gesprächspartner, Geräuschpegel und Sprechanstrengung miteinander abgestimmt werden. Bei der internationalen Diskussion der Inhalte dieser und einer neu zu entwickelnden Norm wurde deutlich, dass einerseits das Verhalten der Gesprächspartner beim Tragen von Gehörschutz (s. Abschn. 8.4), andererseits aber auch die Bewertung der Anstrengung und der subjektiven Befindlichkeit der Gesprächspartner einbezogen werden musste. Denn das Sprachmaterial selbst ist zu vielseitig und zu unterschiedlich, um allein daran das Qualitätsniveau für die Sprachkommunikation festlegen zu können. Der Sprecher, seine gewählte Sprechweise (s. Abschn. 5.8, 10.3) und seine Bemühungen im Gespräch sind bisher nur in wenigen Arbeiten behandelt worden. In Abbildung 10.4-1 sind die Ergebnisse von drei Arbeiten zusammengefasst.
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
463
0 S1 1
S2 S3 CS1 CS2 CS4 CS3 KS1 KS2
B 2 3 4 5 6 50
60
70
80 L SA,1m /dB
90
Abb. 10.4-1. Befindlichkeit (B) des Sprechers über der gemessenen Sprechanstrengung (LSA,1m in dB) für den Sprechversuch (S) und die Frage nach dem Grad der Belästigung (S1), Anstrengung (S2), Unangenehmheit (S3) des Sprechens; Kommunikationsversuch (CS): Sprechen von Einsilbern (CS1), Sätzen (CS2), einem Text (CS3) und einer Bildgeschichte (CS4) bei 3 Geräuschpegeln, Frage nach der Sprechanstrengung; Kommunikationsversuch (KS): Erzählen einer Bildgeschichte bei drei Geräuschpegeln, Frage, wie anstrengend war das Sprechen (KS1) und wie belästigend die Kommunikationssituation (KS2) (s. Text)
In einem Sprechversuch (S) musste ein Sprecher (Lazarus–Mainka u. Tkocz 1988) seine Sprechlautstärke nach einer Marke am Schallpegelmesser ausrichten. Die Messergebnisse sind recht zuverlässig (14 Vpn), da die Versuchsanordnung direkt auf den Sprechpegel des Sprechers bezogen war. In dem Kommunikationsexperiment (CS) (Hörmann et al. 1981; Lazarus–Mainka et al. 1983; Lazarus–Mainka 1984b) mussten die Sprecher gegen drei verschiedene Geräuschpegel (LNA = 53, 77, 92 dB) ansprechen. Die benutzten Daten stammen aus einer nachträglichen Auswertung der Sprechdaten, so dass die Sprechpegelmaße mit gewissen Unsicherheiten behaftet sind. Recht interessant sind die Daten aus dem Kommunikationsexperiment (KS) (Lazarus–Mainka u. Leushacke 1985), in dem ein Sprecher einem Hörer eine Geschichte anhand vorgegebener Bilder erzählen sollte. Es wurden drei unterschiedliche Geräuschpegel (LNA = 45, 67.5, 90 dB) für die Gesprächssituation ausgewählt. Der Sprechpegel des Sprechers und des Hörers wurde ermittelt und die subjektive Befindlichkeit anhand von Fragen auf einer Skala von 0 bis 9 erfasst. Die Werte von zwei Fragen wurden auf eine Skala von 0 bis 6 umgerechnet und über dem Sprechpegel des Sprechers dargestellt. Es sind die einzigen zuverlässigen Ergebnisse aus einer realen Gesprächssituation (s.a. Abschn. 5.8, 10.3). Die Ergebnis-
464
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
se der Sprechpegel aus dem Sprechversuch (S) und aus der Kommunikationssituation (KS) sind vergleichbar. Während die Anzahl der Untersuchungen, in denen der Sprechpegel unter Geräuscheinwirkung erfasst wurde, gering ist (s.o.), kann eine Reihe von Arbeiten genannt werden, die sich auf den Verstehensprozess konzentrieren (s.a. Abschn. 5.8, 10.3), denn seit Jahrzehnten interessiert die Qualität der Sprachverständlichkeit, die von Experten bewertet wird (z.B. Beranek 1947a; sieben Untersuchungen zusammengefasst in Lazarus et al. 1985; Lazarus 1987). Die Daten aus diesen Untersuchungen wurden für die Abbildung 10.4-2 aufgearbeitet (EX). Die Ergebnisse, die aus der Transformation mehrerer, nicht äquidistanter Skalen unterschiedlichen Umfangs gewonnen wurden, sind jedoch mit gebotener Vorsicht zu interpretieren. Dennoch können beim inhaltlichen Vergleich ähnliche Kurvenverläufe festgestellt werden, die im Einklang mit den Kurven der Experten (EX) stehen (s. Abb. 10.4-2). Die Daten der Hörerbewertung über die Verständlichkeit von Sätzen in einer Kommunikationssituation (CH) (Hörmann et al. 1981; Lazarus–Mainka et al. 1983; Lazarus–Mainka 1984b), die bei drei Geräuschpegeln stattfand, wurden nachträglich aufbereitet, so dass sie mit Vorsicht zu interpretieren sind (Abb. 10.4-2). Aus den schon mehrfach erwähnten Kommunikationsexperimenten (KH) (Lazarus– Mainka u. Leushacke 1985) (s. Abschn. 5.8, 10.3) wurden drei Fragen, die sich auf die Befindlichkeit des Hörers beziehen, von einer 10–Punkte Skala (Skala 0 bis 9) auf eine Skala von 0 bis 6 transformiert und in Abb. 10.4-2 dargestellt. Houtgast u. Steeneken (1984) führten eine internationale Multicenterstudie zur Evaluation des RASTI–Index durch. Als Vergleichswerte für die RASTl–Messungen wurden in 11 Ländern unabhängig voneinander Sprachverständlichkeitstests durchgeführt. Zur konkreten Durchführung der Tests wurden den Laboratorien keine genauen Vorgaben gemacht. Die Laboratorien wurden aufgefordert, die von ihnen üblicherweise zur Messung der Sprachverständlichkeit herangezogenen Verfahren zu verwenden. In 16 skizzierten Versuchsbedingungen wurden sprachähnliches Rauschen und Nachhall variiert, die RASTI–Werte dieser Bedingungen liegen zwischen 0.31 und 0.79. In den Sprachverständlichkeitstests wurde der Anteil der vom Hörer richtig wiedergegebenen Sprachreize erfasst. Neun der elf Laboratorien fügten den Sprachverständlichkeitswerten jeweils eine Bewertung derselben auf einer fünfstufigen Skala von ‚excellent’ bis ‚bad’ bei. Eine genaue Dokumentation dieser Bewertungen wurde nicht vorgenommen; auch hatten hierbei die Laboratorien freie Hand. Außerdem erhoben vier der elf Laboratorien zusätzlich subjektive Bewertungen auf Bewertungsskalen zur Sprachqualität und zur Höreranstrengung.
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
465
0 1
CH1 CH2 EX
B 2
KH1 KH2 KH3 H1 H2 NH1 NH2,H
3 4 5 6 -20
-10
0
10
L SNA /dB
20
Abb. 10.4-2. Befindlichkeit (B) des Hörers (Skala 0 bis 6) über dem Signal– Geräuschabstand (LSNA in dB) für zusammengefasste Urteile von Experten (EX); für ein Kommunikationsexperiment (CH) bei drei Geräuschpegeln und der Frage, wie viel verstanden wurde (2 Versuche CH1, CH2); für einen Kommunikationsversuch (KH) bei drei Geräuschpegeln und den Fragen, wie die Sprache zu verstehen war (KH1), wie stark das Geräusch gestört hat (KH2) und wie belästigend die Kommunikation war (KH3); für einen Hörversuch bei 16 verschiedenen Hörsituationen und der Frage nach der Verständlichkeit des Sprachmaterials (H); für einen Hörversuch bei 6 S/N–Pegeln und der Frage nach der Bewältigung (Coping; H1) und der Störung/Belästigung (H2) des Verstehensprozesses; Bewertung der Sprachverständigung, wie sie in den beiden Normen angegeben wird (NH1, ISO 9921–1 1996; NH2, ISO 9921 2003; alle Daten wurden auf eine siebenstufige Skala umgerechnet) (s. Text)
Die Untersuchungsergebnisse wurden u.a. dazu verwendet, eine Neuzuordnung von RASTI–Werten zu einer fünfstufigen Skala von ‚excellent’ bis ‚bad’ vorzunehmen. In diese Zuordnung wurden neben den aus einer früheren Untersuchung stammenden Ausgangswerten die Ergebnisse der von den vier Laboratorien erhobenen subjektiven Bewertungen sowie die beigefügten Bewertungen der Sprachverständlichkeit der neun Laboratorien aufgenommen. Allerdings wurde hier nur auf die Ergebnisse von denjenigen sieben der neun Laboratorien zurückgegriffen, die bei der Durchführung der Sprachverständlichkeitstests mit Trägersätzen gearbeitet hatten. Die Grenzen der Skalenbereiche liegen nach dieser Neuzuordnung näher beieinander als in der ursprünglichen Fassung und sind stärker im mittleren Bereich der Skala konzentriert. Die Ergebnisse der Neuzuordnung sind in Tabelle 10.4-1 zusammengefasst.
466
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Tabelle 10.4-1. Neuzuordnung von RASTI– und STI–Werten sowie Signal– Geräuschabständen zu einer Skala von excellent bis bad (nach Houtgast u. Steeneken 1984) Bewertung excellent good fair poor bad
Alte RASTI > 0.8 0.60–0.8 0.40–0.6 0.25–0.4 < 0.25
Neuzuordnung RASTI > 0.75 0.60–0.75 0.45–0.60 0.32–0.45 < 0.32
STItheor > 0.75 0.60–0.75 0.45–0.60 0.30–0.45 < 0.3
LSNA in dB > 7.5 3.0…7.5 -1.5…3.0 -6.0…-1.5 < -6.0
Kritisch ist zu den in den elf Laboratorien durchgeführten Sprachverständlichkeitstests anzumerken, dass die Vergleichbarkeit der Werte der einzelnen Untersuchungen wegen wenig einheitlicher Vorgaben relativ gering ist. So wurden recht unterschiedliche Testmaterialien (sinnlose Silben wie auch ein– und mehrsilbige Wörter und Reimtests) verwendet. Zudem wurde mit relativ kleinen Stichproben gearbeitet. Ebenso wurden vor dem Versuchsbeginn weder der Versuchsaufbau noch die Verfahren zur Berechnung und Bewertung der Sprachverständlichkeit festgelegt. Insgesamt sechs der elf Laboratorien führten Untersuchungen mit nur einem, zumeist männlichen Sprecher durch, weitere vier Laboratorien arbeiteten mit nur zwei Sprechern. Lediglich in einer Studie wurde auf vier Sprecher zurückgegriffen. Angaben dazu, ob die Sprecher eine Sprechausbildung oder gezielte Trainingsmaßnahmen durchlaufen hatten, werden im Artikel nicht gemacht. Die Autoren weisen bereits in ihrer Diskussion darauf hin, dass die extremsten Ergebnisse in Untersuchungen erzielt wurden, in denen mit nur einem Sprecher gearbeitet wurde. So erbrachte die in den Niederlanden mit nur einem Sprecher und fünf Versuchspersonen durchgeführte Untersuchung die besten Ergebnisse (s. Abb. 10.4-3a), obwohl ein besonders schwieriges Testmaterial (sinnlose Silben) dargeboten wurde. Die ebenfalls nur mit einem Sprecher in Polen durchgeführte Studie erbrachte, obwohl einfacheres Sprachmaterial (ein– oder zweisilbige Wörter) verwendet wurde, die schlechtesten Ergebnisse (s. Abb. 10.4-3b). Es muss noch darauf verwiesen werden, dass die in vier Laboratorien bei Versuchsbedingungen mit RASTI–Werten von 0.31 bis 0.79 zusätzlich erhobenen subjektiven Bewertungen der Sprachqualität und Höreranstrengung keine direkten Aussagen zur Sprachverständlichkeit im Extrem– Bereich (sehr niedrig oder sehr hoch) zulassen. Die Ergebnisse dieser Untersuchung (H) sind in Abbildung 10.4-2 angegeben.
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
467
Abb. 10.4-3a, b. Sprachverständlichkeit (SV in %) für Sprachmaterial: (a) sinnlose Silben (Niederlande) und (b) ein– und zweisilbige Wörter (Polen) mit subjektiver Bewertung der Verständlichkeit (BWV; bad to excellent) für 14 Versuchsbedingungen (RASTI = 0.3 bis 0.8); Zeichen: Punkte: Versuchsbedingungen mit Nachhall; Dreiecke: Versuchsbedingungen mit Hintergrundgeräusch; Quadrate: Versuchsbedingungen mit Nachhall und Hintergrundgeräusch
Die erste internationale Norm zur Sprachkommunikation wurde Anfang der neunziger Jahre erstellt (ISO 9921–1 1996). Sie enthält erstmals einen Bewertungsmaßstab für den Hörer (Tab. 10.4-3). Der Maßstab dieser Norm (NH1) hat sich an den Untersuchungsergebnissen, die in Abbildung 10.4-2 (EX, KH) dargestellt sind, orientiert. Diese Norm benutzte eine 7–Punkte–Skala (0 bis 6). In der darauf folgenden Norm (ISO 9921 2003) wird als Bewertungsmaßstab für den Hörer eine fünfstufige Skala (1–5) verwendet (Tab. 10.4-3). Die in dieser Norm (NH2) angegebenen Werte und die aus den o.g. Untersuchungsergebnissen (H) sind weitgehend identisch, deswegen sind beide in Abbildung 10.4-2 in einer Kurve angegeben (NH2, H). In Abbildung 10.4-2 wurden auch Ergebnisse eines Versuchs (H1, H2) dargestellt, in dem die Hörer nach der subjektiven Befindlichkeit beim Verstehensprozess befragt wurden (Lazarus et al. 2002; Volberg et al. 2004, 2006: Versuch 1, s.u. Abschn. 10.4). Diese und die eben erwähnten Daten (H, NH1; H1, H2) wurden mit einer fünfstufigen Skala (1 bis 5) ermittelt. Um sie in Abbildung 10.4-2 darstellen zu können, wurden sie auf die siebenstufige Skala (0 bis 6) umgerechnet ((x - 1) 1.5). Soweit zur Entwicklung des hörerbezogenen Bewertungsmaßstabes. Die erste Norm ISO 9921–1 enthält auch einen Bewertungsmaßstab für den Sprecher (Tab. 10.4-2). Diese Daten zum Sprechvorgang wurden in der neuen Norm (ISO 9921) weitgehend übernommen, die Bewertung aber weggelassen (Tab. 10.4-2).
468
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Tabelle 10.4-2. Bewertung der Sprechanstrengung, gegeben als A–bewerteter Schalldruckpegel in 1 m Abstand vor dem Sprechermund (LSA,1m), wie sie in ISO 9921–1 (1996) (Spalte 1, 2, 3; Zeile 0 bis 6) und ISO 9921 (2003) (Spalte 1, 2; Zeile 0 bis 4) gegeben ist
0 1 2 3 4 5 6
1 Sprechanstrengung entspannt normal angehoben laut sehr laut schreien max. schreien
2 LSA,1m in dB 54 60 66 72 78 84 90
3 Bewertung ausgezeichnet sehr gut gut zufriedenstellend ausreichend unbefriedigend ungenügend
Tabelle 10.4-3. Bewertung der Sprachverständlichkeit (BW) und der entsprechende A–bewertete effektive Signal–Geräuschabstand (SNRAeff), Sprach–Übertragungsindex (STI) und Sprach–Verständlichkeitsindex (SII) beim Hörer, wie er in ISO 9921–1 (1996) (Spalte 1–3), ISO 9921 (2003) (Spalte 4–7) und ANSI S3.5 (1997) (Spalte 8, 9) angegeben ist 1 2 3 4a 4b 5 6 ISO 9921–1(1996) ISO 9921 (2003) SNRAeff SIL BW BW STI in dB in dB aus0 > 18 gezeichnet ausge> .75 > 21 1 sehr gut 12...18 1 zeichnet 2 gut
6...12 2 gut
zufriedenange0...6 3 stellend messen aus4 -3...0 4 schwach reichend unbe5 -6...-3 5 schlecht friedigend un6 < -6 genügend 3
7
8
SNRAeff in dB
9 ANSI (1997) SNRAeff SII in dB
> 7.5
.60–.75
15...21 3.0...7.5
> .75
> 7.5
.45–.60
10...15 -1.5...3.0
-
-
.30–.45
3...10 -6.0...-1.5 < .45
< .30
80 %) vorliegt. Sato et al. (2005) und Morimoto et al. (2004) entwickelten ein Verfahren, das zusätzlich zur Sprachverständlichkeit die Anstrengung des Hörers mit erfasst. Sie ließen anhand einer vierstufigen Skala die Schwierig-
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
471
keit bewerten, mit der die Sprachreize in der gegebenen Wahrnehmungssituation zu verstehen waren. Am Versuch nahmen 122 Personen teil. Die Sprachverständlichkeit (Prozentsatz der verstandenen Wörter) und die Bewertung der Anstrengung beim Wahrnehmungsprozess wurden in 8 unterschiedlichen Schallfeldbedingungen erhoben. Als Maß wurde der Anteil (W) der Versuchspersonen bestimmt, der eine bestimmte Leistung erbracht hat.
Als Ergebnis kann festgehalten werden: die Sprachverständlichkeit (SV) und die Wahrnehmungsschwierigkeit (WS) korrelierten hoch negativ miteinander (-0.95). Vergleicht man die Gradienten der beiden Variablen miteinander, stellt man fest, dass eine Änderung der Wahrnehmungsschwierigkeit einer halben Veränderung der Sprachverständlichkeit entspricht (DWS ū 0.5 DSV). Aus diesem Ergebnis folgern die Autoren, dass die Wahrnehmungsschwierigkeit ein empfindlicheres Verfahren darstellt als die Sprachverständlichkeit. Eine weitere Untersuchung der oben zitierten Autoren bestätigt dieses Ergebnis (Abb. 10.4-4). Bei einem mäßigen Hintergrundgeräusch von 40 dB, unterschied sich zwar die Sprachverständlichkeit bei einer Nachhallzeit von 2 s/0.5 s kaum (W(SV1) = 95 %/98 %), die Bewertung der Schwierigkeit der Wahrnehmung veränderte sich dagegen deutlich (W(WS1) = 65 %/42 %). Obwohl also die Sprachverständlichkeit bei einer Nachhallzeit von 0.5 und 2 s fast gleich ist, zeigte die Frage nach der Schwierigkeit (WS1) deutliche Unterschiede. In einem weiteren Versuch (Sato et al. 2005) konnte gezeigt werden (Abb. 10.4-4), dass innerhalb eines Anstiegs des Signal–Geräuschverhältnisses um ca. 20 dB eine Zunahme der Sprachverständlichkeit von 78 auf 98 % (SV2) einer Abnahme der Schwierigkeit von 99 auf 3 % (WS2) entsprach. In ähnlicher Weise deuten Ergebnisse zur Bewertung der Qualität von Sprachkommunikation auf eine höhere Sensibilität gegenüber den Sprachverständlichkeitsmaßen (SV) hin (Volberg et al. 2004, 2006).
472
10 Sprachliche Kommunikation: Bewertung und Sprachqualität 100 SV1
80
WS1
W/% 60
SV2 WS2
40 20 0 -10
0
10
20 SNR A /dB
30 KG
Abb. 10.4-4. Anteil der Personen (W in %) über dem Signal–Geräuschabstand (SNRA=LSA- LNA in dB) für die Sprachverständlichkeitsaufgabe (SV1, WS1) (25 von 300 Wörtern erkennen; LSA = 55 dB, LNA entsprechend, Nachhall T = 2 s) und (SV2, WS2) (Wort im Satz erkennen, LNA = 48 dB, LSA entsprechend, bestehend aus Direktschall und ersten Reflexionen): die den Verständlichkeitstest erfolgreich (zu 100 %) durchführten (SV1, SV2) und die Frage nach der Wahrnehmungsschwierigkeit (WS1, WS2: Skala 1 (keine) bis 4 (starke)) mit (WS = 2 bis 4) beantwortet haben
In weiterführenden Experimenten zur Störung der Sprachverständlichkeit durch Verkehrslärm (Sust et al. 2007, Versuch 2, 3, s.u.) wurde die Verständlichkeit ermittelt und eine Bewertung der Wahrnehmungssituation durchgeführt. Vergleicht man das Ausmaß der Sprachverständlichkeit (SV) und die Ergebnisse der Bewertungsfragen (BW) miteinander (Abb. 10.4-5), so werden zwei Aspekte deutlich. Einerseits zeigt sich eine hohe Korrelation zwischen Bewertung und Sprachverständlichkeit (BW und SV). Die Korrelationskoeffizienten liegen zwischen r = 0.6 und r = 0.8. Andererseits ist zu sehen, dass sich zwar die Sprachverständlichkeit ab SV = 75 % kaum noch verändert, die Bewertung der Wahrnehmungssituation dagegen jedoch deutlich, um einen knappen Skalenpunkt (ca. 20 %). Diese Ergebnisse gelten für alle in der Untersuchung herangezogenen Geräusche mit verschiedenen Frequenzverteilungen und Zeitstrukturen (Sust et al. 2007). Der aufgezeigte Zusammenhang zwischen Bewertung und Verständlichkeit gilt sowohl für die Verständlichkeit des ganzen Satzes (eher linear) als auch für die Verständlichkeit der Wörter im Satz (eher quadratisch).
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation BWC SV(S) BWC SV(WiS)
BWK SV(S) BWK SV(WiS)
BWC SV(S) BWC SV(WiS)
5
5
BW 4
BW 4
3
3
2
2
473
BWK SV(S) BWK SV(WiS)
1
1 0
20
40
60 SV/%
80
100
0
20
40
60 SV/%
80
100
Abb. 10.4-5. Bewertung (BW, Skala 1–5): BWC (Coping) und BWK (Konzentration) des Prozesses der Sprachverständlichkeit (SV): SV(S) (ganze Sätze) und SV(WiS) (Wörter in Sätzen) über der SV in %, für Versuch 2 (24 Vpn, links) und Versuch 3 (30 Vpn, rechts) für ein stationäres Straßenverkehrsgeräusch (St, Stc) (die Punkte bedeuten jeweils einen S/N–Abstand von -15, -8, -1, 6, 14, 20 dB)
Stellt man die Ergebnisse diese Verkehrslärmexperiments (Versuch 2, 3, Sust et al. 2007) als Anteil der Personen dar, die die Verständlichkeitsaufgabe lösen, zeigen sich interessante Unterschiede (Abb. 10.4-6). Man erkennt, dass auch dort, wo die Sprachverständlichkeit sich kaum noch ändert (die Sättigung beginnt bei ca. 5 dB), der Anteil der Personen, der diese Wahrnehmungsaufgabe in irgendeiner Weise negativ beurteilt, stetig abnimmt, bzw. der Anteil, der diese Aufgabe positiv beurteilt (es ist keine Konzentration erforderlich; eine Bewältigung ist sehr gut möglich) immer noch zunimmt (Abb. 10.4-6). Bemerkenswert ist, dass diese Veränderung der Bewertung nahezu linear von 5 dB über 10 und 15 dB bis zu einem Signal–Geräuschabstand von 20 dB stattfindet. Diese Ergebnisse treten in sehr ähnlicher Weise bei einer Reihe von unterschiedlichen Geräuschen auf. In den in der Abbildung 10.4-6 dargestellten Verläufen der vier Bewertungen kann kein Sättigungseffekt beobachtet werden. D.h. bei steigenden SNR–Werten kann kein SNR–Wert angegeben werden, von dem an eine deutliche Verstetigung der Bewertungen auftritt. Allenfalls zeigen die Kurvenverläufe bei dem Geräusch (Stg, s.u.) mit der geringsten Störwirkung (Abb. 10.4-6, rechts unten) eine solche Sättigung ab etwa 13 dB an. Obwohl ein Zuwachs an Sprachverständlichkeit von 13 auf 20 dB unter den gegebenen Versuchsbedingungen kaum messbar ist, zeigte die Bewertung der Frage nach der subjektiv wahrgenommenen Verständlichkeit, dass der Anteil der Personen, die diese Situation nicht als „sehr gut“ bezeichne-
474
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
ten, stetig abnimmt. So scheint es, dass das gezielte Fragen nach der Bewertung der Hörsituation bzw. Wahrnehmungssituation (Sato et al. 2005; Morimoto et al. 2004; Sust et al. 2007) doch eine differenzierte Analyse ermöglicht, insbesondere in dem Bereich, in dem sich die Sprachverständlichkeit kaum noch verändert. BW B4 BW K4 SV S
BW C4 BW V4
RR BW B4 RR BW K4 RR SV S
RR BW C4 RR BW V4
100.0
100.0
80.0
80.0
W/%
W/%
60.0
60.0
40.0
40.0
20.0
20.0
0.0
0.0
-15 -10
-5
0
5
10
15
-15 -10
20
-5
0
5
SNRA /dB BW B4 BW V4 SV E
BW C4 SV WiS
BW K4 SV S
100.0
10 15 SNRA /dB
20
BW B4
BW C4
BW K4
BW V4
SV WiS
SV S
100.0
80.0
80.0
W/%
W/%
60.0
60.0
40.0
40.0
20.0
20.0
0.0
0.0 -15 -10
-5
0
5
10 15 SNRA /dB
20
-15 -10
-5
0
5
10 15 SNRA /dB
20
Abb. 10.4-6. Anteil der Versuchspersonen (W in %) (V2: 24 Vpn, V3: 30 Vpn), die im Hörversuch Sprache erkennen (Sätze SV S, Wort im Satz SV WiS, Einsilber SV E) und auf der fünfstufigen Skala (1 bis 5) die subjektive Verständlichkeit (BWV4), die Bewältigung (Coping BWC4), die Konzentration (BWK4) und die Belästigung (BWB4) negativ bewerten (V, C: Skala 5–2; B, K: Skala 1–4), für 4 Geräusche (links: Straßenverkehrsgeräusch (St, Stc): oben: V2, St; unten: V3, Stc (Wiederholung); rechts oben: V2, RR; rechts unten: V3, Stg (Verkehrsger. mit schwankenden Pegeln)
Die dargestellten Differenzen zwischen den drei Normen (Tab. 10.4-3) und die Diskussionen zeigen, dass der Verstehensprozesses von Sprache
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
475
nicht auf einfache Weise zu bewerten und festzulegen ist. Auch konnte in den Diskussionen in den Abschnitten zur Bewertung und zum Verstehen der Sprache unter Störbedingungen (Abschn. 10.2, 10.3, s.o.) gezeigt werden, dass die Verständlichkeit zwar ein notwendiges und sicher auch das wichtigste Maß, aber für den Prozess der Sprachkommunikation nicht hinreichend aussagefähig ist. Zum einen ist es die Funktion des Sprechers, die gesondert beachtet werden muss. Hier scheinen aber keine gravierenden Differenzen zwischen den dargestellten Untersuchungsergebnissen zu existieren. Zum anderen hat die Qualität der Kommunikation auf der Hörerseite eine Reihe von Facetten, die beachtet werden müssen. Es stellen sich folgende Fragen: 1. Es interessiert die Qualität der Sprache selbst. Ist sie natürlich, angenehm, verzerrungsfrei, störungsfrei? Die Störung wird hier nur indirekt erfasst, und zwar insofern sie den Eindruck und den Klang verändert. 2. Kann die gehörte Sprache ihre Funktion, Informationen zu vermitteln, übernehmen? Hier steht die Überprüfung der eigentlichen Leistung – das Verstehen von Sprache – im Vordergrund. Das vermutlich objektivste Maß ist die Sprachverständlichkeit. Dieses kann durch die Frage nach dem Umfang und der Bewältigung der Aufgabe erweitert werden. 3. Wie hoch ist die Anstrengung bei dem Prozess des Verstehens von Sprache? Welcher mentale Aufwand ist dabei erforderlich? Hier wird nach der Befindlichkeit, der Belastung, der Konzentration und der Belästigung gefragt. 4. Da Geräusche häufig Störfaktoren der Kommunikation sind und auch – unabhängig von ihrem Störpotenzial für Sprache – als belästigend empfunden werden, ist die Fragestellung nach der Belästigung durch Geräusche zu berücksichtigen. Sie erfasst dann beide Aspekte der Belästigung (s. Abb. 10.3-1). Ein effektives Bewertungssystem, das die Sprachqualität und deren Parameter untersuchen soll, muss diese Fragestellungen berücksichtigen. Gemessen werden soll: x die Sprachverständlichkeit (SV) x die subjektiv wahrgenommene Verständlichkeit (BWV; sie wurde gewählt, um an die Sprachverständlichkeit anzuknüpfen) x die Frage nach der Bewältigung (BWC (Coping); sie orientiert sich am 2., ggf. 3. Aspekt) x die Frage nach der Störung und Belästigung (BWB; sie orientiert sich am 4. ggf. auch am 3. Aspekt)
476
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
x die Frage nach der Konzentration (BWK; sie entspricht dem 3. Aspekt). Diese Fragen werden in mehreren Experimenten (3 Versuche, je 24–32 Versuchspersonen) zur Sprachverständigung gestellt (Volberg et al. 2004, 2006; Sust et al. 2007), deren Versuchsanordnung und die wichtigsten Ergebnisse in den folgenden Ausführungen zusammengefasst werden. Um eine möglichst reale Situation nachzubilden, wurde das Geräusch über eine Versuchsphase (20–25 Minuten) mit einem Pegel von 55–60 dB gleich gehalten. Es wurden vier Sprecher (männlich, weiblich, Mutter– und Zweitsprachler) ausgewählt. Das Sprachmaterial bestand aus phonetisch ausbalancierten Einsilbern (im Trägersatz) und ca. 220 Sätzen (4 Typen: 2 x passiv, 2 x aktiv, z.B. "Der Techniker macht den langersehnten Flugschein."), bei denen sich kein Inhaltswort (jeder Satz hat vier solcher Wörter) wiederholte. Um eine möglichst gleich bleibende Schwierigkeit der Sätze zu garantieren, sollte die inhaltliche Vorhersagewahrscheinlichkeit gering sein, d.h. die Übergangswahrscheinlichkeiten zwischen den einzelnen Satzelementen bzw. assoziativen Verknüpfungen der Inhaltswörter sollten gering ausfallen. Es wurden somit 4 x 220 unterschiedliche Inhaltswörter benutzt. Die Sprachqualität wurde durch das Nachsprechen von Sätzen und durch vier Fragen nach der subjektiven Befindlichkeit ermittelt. Der Versuch hatte folgende Struktur: Die Phasen der Störsituation (Geräusch) hatten eine Länge von ca. 25 Minuten. Bei einem Teil dieser hatten die Versuchspersonen eine Parallelaufgabe am Bildschirm durchzuführen. Innerhalb einer solchen Phase wurden Sprachitems (Sätze, Einsilber im Trägersatz) bei 6 Signal–Geräuschabständen (LSNA = (1. Versuch): -10 bis 15 dB; (2., 3. Versuch): -15 bis 20 dB) von vier Sprechern gesprochen, in zufälliger Reihenfolge dargeboten (4 x 6) = 24 Sprachitems). Jedes Sprachitem war ca. fünf Sekunden lang zu hören. Die Versuchspersonen hatten die Aufgabe, das gehörte Sprachitem nachzusprechen (Messung der SV). Dabei wurde jedes Item (z.B. LSNA = 0 dB, Sprecher 1, Satztyp A) drei bis vier Mal unter den gleichen Bedingungen (wie in der Klammer angegeben, nur mit unterschiedlichen Sätzen) dargeboten. Anschließend wurden die vier Fragen zur Bewertung vorgelegt. Der Hörer gab also sein Urteil über 3–4 Sprachitems integriert ab. Die Versuche 1, 2, 3 wurden mit 32, 24, 30 Vpn durchgeführt. Als Geräusche wurden benutzt: Frequenzverlauf Pegel LAeq Zeitverlauf Rosa Rauschen RR 60 dB konstant Rosa Rauschen RR 55 dB konstant Straßenverkehr St 55 dB konstant Güterzug Gz 55 dB konstant 3. Versuch: Straßenverkehr Stc 55 dB konstant (1 dB) Straßenverkehr Sti 45, 55, 65 dB intermittierend Straßenverkehr Stv 55 dB variabel (1–16 dB) Straßenverkehr Stm 55 dB variabel (8 dB) Straßenverkehr Stg 55 dB variabel (16 dB) Der Pegel des intermittierenden Geräusches wurde jeweils nach 3 Sätzen verändert (der Sprachpegel wurde dem gewählten S/N–Abstand entsprechend ange1. Versuch: 2. Versuch:
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
477
passt), das variable Geräusch wies Schwankungen (An– und Abfahrgeräusche an einer Kreuzung) von maximal (Spanne) 1, 8 und 16 dB innerhalb eines Satzes auf.
Für die Sprachverständlichkeit wurden x Sätze: SV(S) 0...100 %, Wörter in Sätzen: SV(WiS) 0…100 % und x Einsilber im Trägersatz: SV(E) 0...100 % verwendet. Die Fragen erfassten folgende Befindlichkeiten, die x x x x
subjektiv empfundene Verständlichkeit (V): BWV = 1...5 (sehr gut 5), Bewältigung der Situation (Coping, C): BWC = 1...5 (sehr gut 5), Konzentration in der Situation (K): BWK = 1...5 (stark 5), Störung der Situation (Belästigung, B): BWB = 1...5 (stark 5).
Damit sind 4 bzw. 5 Parameter der Sprachqualität festgelegt, anhand derer man die Sprachqualität bewerten kann. Bei der Auswertung wurde aus den Daten für jeweils eine Situation eine psychometrische Funktion gebildet (Abb. 10.4-8). Die Ergebnisse (Abb. 10.4-7) zeigen eine klare Abhängigkeit der 5 Parameter der Sprachqualität (SV, BWV, BWC, BWK, BWB) vom Signal–Geräuschabstand. Die Sprachverständlichkeit (SV) variiert von 0 bis 100 %, die Bewertung der Sprachverständlichkeit (BWV) und die Bewertung des Coping (BWC) erfasst einen Skalenbereich von 1 bis 4.5; und die Bewertung der Konzentration (BWK) und Belästigung (BWB) variiert im Bereich von 5 bis 1.5. Damit decken die Befunde den gesamten Bereich der Sprachkommunikation ab, der in der Untersuchung vorgegebenen wurde (weitere Ergebnisse s. Tab. 6.3.3-2, 10.3-1, 10.3-3; Abb. 6.3.3-5, 10.3-2, 10.4-5, -6, -7, -8, -9). SV(E)
SV(S)
C
SV(WiS)
100 SV %
B
K
V
5
80
BW
4
60 3
40
2
20 0
1 -15
-10
-5
0
5
10
SNR /dB
15
20
-15
-10
-5
0
5
10
15
20
SNR /dB
Abb. 10.4-7. Sprachverständlichkeit (links: SV) für Sätze (S), Wörter im Satz (WiS) und Einsilber im Trägersatz (E), und Bewertung (rechts: BW) der Hörsituation mit den 4 Bewertungsfragen nach der subjektiv empfundenen Verständlichkeit (V), Bewältigung (C), Belästigung (B) und Konzentration (K) für Sätze, für das Geräusch (Stc, 3. Versuch), gemittelt über 4 Sprecher
478
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Da die Sprachverständlichkeit – wie oben aufgezeigt werden konnte – sich kaum allein zur Beschreibung und Festlegung von Qualitätsbereichen eignet, werden in dieser Untersuchung zu den Sprachverständlichkeitsangaben (SV) die vier Skalenwerte der Bewertung (BW) herangezogen. Um aus diesen Daten Qualitätsbereiche für eine Kommunikation im Alltag ableiten zu können, müssen Kriterien definiert werden, unter denen diese gelten sollen. Als Bezugsmaßstab wird der Signal–Geräuschabstand benutzt. Die einzelnen Qualitätsbereiche werden auf einer Bewertungsskala definiert und durch Übergangswerte (Richtwerte, Orientierungswerte) voneinander abgegrenzt. Die Qualitätsbereiche beschreiben die Bereiche, die durch das Ausmaß an Sprachverständlichkeit von Sätzen, Fließtext und ggf. auch einzelnen Wörtern gekennzeichnet sind. Zudem geben sie die Anstrengung an, die mit der Wahrnehmung der Sprache in diesem Bereich verbunden ist. Mit Hilfe von Qualitätsniveaus kann der gesamte Bereich, in dem Sprachkommunikation mehr oder weniger gut möglich ist, strukturiert beschrieben werden (hier mit einer fünfstufigen Skala (1 bis 5) in 5 Bereichen). Mit dem Anstieg des Qualitätsniveaus nimmt die Sprachverständlichkeit zu und die Anstrengung zur Bewältigung dieser Situation ab. Die definierten Qualitätsniveaus oder –stufen können auch herangezogen werden, um den technische Aufwand abzuschätzen, der mit einer bestimmten Sprachverständlichkeit verbunden ist. Man sollte abschätzen können, ob der Aufwand zur Reduzierung des Geräuschpegels und der Nachhallzeit zur nächst höheren Qualitätsstufe vertretbar ist. Die Qualitätsbereiche entsprechen den Bereichen, die in anderen Untersuchungen und Normen benutzt wurden (Tab. 10.4-3, Spalte 4). Sie werden durch vier Bewertungen (C, V, K, B) mit je einer fünfstufigen Skala beschrieben. Dabei soll der höchste Qualitätsbereich (ausgezeichnet, sehr gut) den Ansprüchen genügen, die an eine Sprachkommunikation gestellt wird, die über eine längere Zeit ohne zusätzliche Anstrengung geführt werden kann. Weitere Erhöhungen des Signal–Geräuschabstandes bringen dann keine zusätzlich merkbaren Erleichterungen oder Verbesserungen der Sprachkommunikation. Der qualitativ niedrigste Bereich sollte möglichst nicht benutzt werden, es sei denn der Nutzungsbereich wird genau definiert und abgegrenzt. Für die Praxis sind vor allem die Übergänge zwischen den fünf Qualitätsbereichen interessant. Dazu sind entsprechend der 5–stufigen Bewertungsskala (BW 5–1) vier Werte (BW = 4.2, 3.4, 2.6, 1.8) festgelegt worden, die den Übergang von einer zur nächsten Qualitätsstufe (5/4, 4/3, 3/2, 2/1) angeben, zusätzlich wird ein mittlerer Wert (BW = 3.0) definiert (es ist zu beachten, dass in der Tabelle 10.4-3 und 10.4-4 der Skalenwert 1 die beste und 5 die schlechteste Sprachverständlichkeit angibt, in den Versuchen war es umgekehrt). Für diese vier Übergänge sind für die Skalenwer-
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
479
te die Signal–Geräuschabstände zu bestimmen. Mit Hilfe der in den Versuchen ermittelten Daten wird deshalb für jede Bewertungsskala eine psychometrische Funktion (BW = f(SNRA)) berechnet (Abb. 10.4-8) und jeweils die Signal–Geräuschabstände abgeleitet. Der Qualitätsstufe (angemessen/gut) mit dem Skalenwert BWC = 3.4 entspricht z.B. der Übergangswert, d.h. der Signal–Geräuschabstand LSNA = ca. 3 dB. D.h. bei einem Signal–Geräuschabstand von 3 dB schätzen ca. 50 % der Hörer die Gesprächssituation als angemessen und geringer ein. Das bedeutet auch, dass nur ca. 50 % der Hörer diese Situation als gut und besser einschätzen. St, m
St, EW
St, m
St, PW
5
St, EW
St, PW
5
BWK 4
BWC 4
3
3
2
2
1
1 -15 -10
-5
0
5 10 15 SNRA/dB
20
-15 -10
-5
0
5 10 15 SNRA/dB
20
Abb. 10.4-8. Bewertung der Sprachverständlichkeit (SV): Konzentration (links, BWK), Bewältigung (rechts, BWC, Coping) und Geräusch (Straßenverkehrslärm St, hier konstant Stc), Messdaten (m), Psychometrische Funktion (Erwartungswert EW; Perzentilwert PW 75 %)
Will man sicherstellen, dass 75 % der Hörer bei einem solchen Übergangswert die Hörsituation als gut einschätzen, muss die Berechnung nach einer etwas veränderten psychometrischen Funktion vorgenommen werden. Solche Werte sind zusätzlich ermittelt worden. In Abbildung 10.4-8 ist die Psychometrische Funktion mit dem Erwartungswert (EW: ca. 50 %) und die mit dem Prozentwert (PW = 75 %) dargestellt (Sust et al. 2007). Für die Ableitung der Signal–Geräuschabstände, die die Übergänge von Qualitätsniveaus oder –stufen repräsentieren, wurden nur die Skalenwerte der beiden Fragen nach der Bewältigung (BWC) und der Konzentration (BWK) herangezogen (Abb. 10.4-9). Denn die Werte der Skala zur wahrgenommenen Verständlichkeit (BWV) sind in den meisten Fällen mit den Werten der Bewältigungsskala (BWV ū BWC) nahezu identisch. Die
480
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Werte der Belästigungsskala orientieren sich auch an der Höhe des Geräuschpegels. Da dieser hier eine untergeordnete Rolle spielt, wird die Frage nach der Belästigung nicht mit einbezogen. Für die Übergangswerte wird als objektives Kriterium nur der A–bewertete (effektive) Signal– Geräuschabstand benutzt.
Abb. 10.4-9. Übergangswerte für die Bewertung (BW = 1 bis 5) der Sprachkommunikation (Hörer) für die Stufen schlecht / schwach (o), schwach / angemessen ( ), angemessen / gut (o) und gut / sehr gut ( ), bei der Frage nach der Bewältigung (Coping BWC = 1.8, 2.6, (3.0), 3.4, 4.2) und nach der Konzentration (BWK = 4.2, 3.4, (3.0), 2.6, 1.8) ausgedrückt als Signal–Geräuschabstand (SNRAeff in dB). Angegeben ist: Bewertung: BW (K, C); Geräusch: N (RR, St, Gz, Stc, Stv, Stg); Versuchsbedingungen: VB (Kontrollversuch K, Paralleltätigkeit P; s. Tab. 10.3-3); Sprachmaterial: SM (E, S); Versuch: V 1, 2, 3; Psychometrische Funktion: PF (EW ca. 50 %, PW = 75 %); (Abkürzungen und Erläuterungen s. Text)
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
481
Aus der Abbildung (Abb. 10.4-9) geht hervor, dass die Übergangswerte für den höheren Qualitätsbereich (BW = 4.2) für die Bewältigungsbewertung (BWC) bei ca. LSNA = 10 dB und für die Konzentrationsbewertung (BWK) bei ca. LSNA = 22 dB liegen. Für den mittleren Bereich der Bewertung (BW = 3.0) liegen die Werte bei ca. LSNA (BWC) = 2 dB und LSNA (BWK) = 9 dB. Die Bewältigung der Sprachkommunikation wird also im Mittel positiver beantwortet als die Frage nach der Konzentration. Dabei wird in der Regel die Bewältigung des Verstehens von Einsilbern positiver als von Sätzen bewertet. Besonders hoch ist der Unterschied zwischen diesen Sprachreizen bei der Abschätzung der Konzentration. Dieser Unterschied ist verständlich, da im Vergleich zu einem Satz bei einem Einsilber eben nur ein Wort richtig verstanden werden muss. Die sechs Wörter eines Satzes sind zwar in eine grammatikalische Struktur eingebettet, deren inhaltliche Verbindungen aber durch die gewählten Übergangswahrscheinlichkeiten gering sind, was die Satzverständlichkeit erschwert. Ebenso werden zeitlich schwankende Geräusche (Stv, Stg) im Vergleich zu konstanten Geräuschen (Stc) positiver bewertet, da die Geräuschschwankungen in unterschiedlich starker Weise die Sprachreize maskieren und so der Einfluss auf die Sprachverständlichkeit variieren kann. Auch die Bewertung der Sprachwahrnehmung wird durch die auszuführende Paralleltätigkeit (P) verändert, sie wird negativer bewertet als die Wahrnehmung der Sprache ohne Tätigkeit. Weiterhin kann aus der Abbildung 10.4-9 entnommen werden, dass eine Erhöhung des Prozentsatzes der Versuchspersonen, die bestimmte Bewertungen vorgenommen haben, auf 75 % – was eine Veränderung der Lage der Psychometrischen Funktion bedeutet –, mit einer Erhöhung des Signal–Geräuschabstandes gekoppelt ist. Die ermittelten Übergangswerte werden allerdings durch die Beschaffenheit der einzelnen Einflussgrößen in einem großen Umfang variiert. Der Einfluss dieser einzelnen Faktoren auf die Übergangswerte im mittleren Bereich (BW = 3.0) ist etwa für x x x x x x
das Spektrum des Geräusches den Zeitverlauf des Geräusches das Sprachmaterial die Art der Bewertung (BWC, BWK) die Übergangsannahme (EW (50 %), PW (75 %)) die Paralleltätigkeit (P)
4 dB 2 dB 5 dB 7 dB 8 dB 3 dB.
Die Variation der einzelnen Einflussgrößen, die jeweils eine Veränderung der Übergangswerte (ÜW, Abb. 10.4-9) zur Folge hat, erschwert zwar eine methodisch begründete Ableitung. Für eine Entwicklung praxis-
482
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
relevanter und robuster Werte ist es jedoch unabdingbar, möglichst viele unterschiedliche Situationen zu berücksichtigen. Sichtet man die vorliegenden Daten (Abb. 10.4-9, lfd. Nr. 1–16) und versucht einen mittleren unteren und mittleren oberen Wert für jeden Übergangsbereich festzulegen, erhält man – abgeleitet aus den experimentellen Daten – den Bereich (min, max) für die Übergangswerte (s. Tab. 10.4-4, Spalte 3 und 4). Tabelle 10.4-4. Übergangswerte (ÜW), angegeben als effektiver Signal– Geräuschabstand (SNRA in dB) für die Qualitätsstufen (1–5) der Sprachverständlichkeit (SV) (1: sehr gut, ausgezeichnet; 2: gut; 3: angemessen, befriedigend, zufriedenstellend; 4: schwach, ausreichend; 5: schlecht, unbefriedigend) (Daten: Spalte 3 abgeleitet aus Abb.10.4-9, Nr. 1, 3–9; Spalte 4 abgeleitet aus Nr. 2, 10– 16) 1 Qualitätsstufen zur Bewertung der Sprachverständlichkeit gut / sehr gut angemessen / gut schwach / angemessen schlecht / schwach
2 Stufen
2/1 3/2 4/3 5/4
3 4 5 ÜW: effektiver Signal–Geräuschabstand SNRAeff in dB min max mittlerer 10 22 16 4 13 9 -1 7 3 -7 -2 -4
Entsprechend dieser Überlegungen ergeben sich für die Qualitätsbereiche schlecht bis sehr gut Übergangswerte, die als Signal–Geräuschverhältnisse (Tab. 10.4-4) beschrieben werden. Die mittleren Übergangswerte liegen bei LSNAeff = -4, 3, 9, 16 dB.
(10.4-1)
Vergleicht man diese Übergangswerte mit den bisher ermittelten und diskutierten Daten (s. Abb. 10.4-2), sind sie eher etwas höher. Der Grund liegt vermutlich darin, dass die kritischen Punkte der vorherigen Untersuchungen (s.o) vermieden wurden (unterschiedliches und ungeeignetes Sprachmaterial, zu geringer Umfang der Störsituationen, verschiedene Skalen). Es wurde versucht, die Repräsentativität bezüglich der praktischen Gegebenheiten durch die Art der Versuchsbedingungen und Datenerhebung zu verbessern. So wurde die Vielfalt der Sprecher (4 Sprecher) und des Geräusches (8 Geräusche in 3 Versuchen) einbezogen; das Sprachmaterial realistisch gestaltet (über 800 verschieden Inhaltswörter in 200 Sätzen) (Abb. 10.4-9, Nr. 1–16 (für S)); weiterhin wurde nicht nur nach der Verständlichkeit der Sprache und der Bewältigung der Situation sondern auch nach der Konzentration gefragt (Abb.10.4-9, Nr. 1, 3–9 (für C), 2, 10–16 (für K)).
10.4 Bedingungen für eine definierte Qualität der Sprachkommunikation
483
Zusätzlich wurden zur Abklärung einiger Fragestellungen ergänzende Versuche und Auswertungen durchgeführt, die nicht direkt in die Ableitung der Übergangswerte einbezogen wurden. So wurden in einigen Versuchen auch Einsilber einbezogen (Abb. 10.4-9, Nr. 17, 18), sie ergeben eher niedrigere Übergangswerte (Tab.10.4-4, Spalte 3). Weiterhin wurde z.B. im Versuch eine Paralleltätigkeit einbezogen (s.a. Tab.10.3-3). Man erkennt, dass sich die Paralleltätigkeit nur gering auf die Bewertung der Bewältigung (Abb. 10.4-9, Nr. 6, 19), aber stärker auf die Bewertung der Konzentration auswirkt (Abb. 10.4-9, Nr. 13, 20). Das Einbeziehen einer Paralleltätigkeit sollte keine wirkliche Doppeltätigkeit darstellen, sondern eher eine gewisse Aufmerksamkeitsschwankung während einer längeren Sprachverständlichkeitsaufgabe bedingen. Das Resultat weist darauf hin, dass für eine vergleichbare Bewertung der Konzentration (mit und ohne Paralleltätigkeit), das Signal–Geräuschverhältnis bei der Paralleltätigkeit erhöht werden muss. Für länger andauernde Gespräche sollte man sich damit eher an den Qualitätsstufen der oberen Werte (Tab. 10.4-4, Spalte 4) orientieren. Bei der Auswertung wurde weiterhin der Prozentsatz der Personen variiert, der die Kriterien des Qualitätsniveaus erfüllt, d.h. es wurde zusätzlich zum Erwartungswert (EW ca. 50 %) der Wert PW = 75 % gewählt. Dieses erhöhte Kriterium (75 %) verlangt für das Einhalten eines Qualitätsniveaus deutlich höhere Signal–Geräuschabstände (Abb. 10.4-9, Nr. 3, 6 gegenüber 21, 22). In Abbildung 10.4-6 ist der Anteil der Personen angegeben, die eine Hörsituation bzgl. der Bewältigung als gut bis schlecht und bzgl. der Konzentration als stark bis etwas bewerten, also eher negativ erleben. Der Anteil der Personen nimmt bei steigendem Signal–Geräuschabstand ab 5 dB bis 20 dB stetig ab (Daten für Werte über LSNA Ů 20 dB liegen zurzeit nicht vor). Diese stetige Abnahme gibt kaum eine Begründung dafür, den Einstieg in das höchste Qualitätsniveau (2/1) weit unterhalb von 20 dB festzulegen. Denn eine Erhöhung des Signal–Geräuschabstandes um einige Dezibel bringt jeweils einen Zuwachs an subjektiv wahrgenommener Verständlichkeit und Bewältigung der Wahrnehmungssituation; die Bewertung der Konzentration verändert sich ebenso, sie nimmt ab. Die drei Einflussaspekte, die Paralleltätigkeit, der höhere Erwartungswert bei der Wahl des Qualitätsniveaus und die Häufigkeit der Personen, die die Hörsituation eher negativ beurteilen, wurden zwar bei der Bestimmung der Übergangswerte in der Tabelle 10.4-4 außer Acht gelassen. Die Berücksichtigung eines dieser Aspekte würde jedoch eher für die Verwendung der maximalen Übergangswerte (Tab. 10.4-4, Spalte 4) sprechen. Bestätigt werden die gewählten mittleren Übergangswerte (Tab. 10.4-4, Spalte 5) z.B. für das höchste Qualitätsniveau (2/1) durch andere Autoren,
484
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
die ähnliche Werte für den Schulbereich diskutieren (15 dB bei geringer Nachhallzeit, s. Abschn. 12.2). Aber auch die Sprachqualität, gemessen anhand des Artikulation Loss (ALcons, Abschn. 7.3.4, Tab. 7.3.4-2), liegt für das höchste Qualitätsniveau (2/1) – dafür wird im allgemeinen ALcons = 3 % angenommen (Mapp 2002) – bei ca. 20 dB (Nachhallzeit 0.5 s). Die in früheren Untersuchungen zur Sprachkommunikation erarbeiteten Befunde sind in Abbildung 10.4-1 und 10.4-2 dargestellt. Sie führten zur Erstellung der ISO–Norm zur ergonomischen Bewertung von Sprachkommunikation (Tab. 10.4-2 und 10.4-3). In ISO 9921–1 (1996) wird die Qualität der Sprachkommunikation sowohl durch die Sprechanstrengung (LSA,1m) als auch durch die Sprachverständlichkeit (Signal–Geräuschabstand SNR) definiert. Die Werte dieser Norm (Tab. 10.4-3, -6 bis 18 dB, s.a. Abb. 10.4-2, NH1) korrespondieren relativ gut mit den mittleren Übergangswerten (-4 bis 16 dB, Tab. 10.4-4, Spalte 5). In der Weiterentwicklung der Norm ISO 9921–1 (1996) wird in der ISO 9921 (2003) die Sprachqualität sowie deren Einstufung definiert, und diese als Maß für die Verständlichkeit gewertet. Dabei wird auch empfohlen, die Sprachqualität im Bereich hoher Sprachverständlichkeit mittels subjektiver Bewertungsverfahren zu bestimmen, da die meisten Sprachverständlichkeitstests im Bereich hoher Sprachverständlichkeit keine weiteren Verbesserungen in der Verstehensleistung anzeigen und somit nicht anwendbar sind. Die in der überarbeiteten Norm (ISO 9921 2003) gemachten Angaben zur Sprechanstrengung entsprechen weitgehend denen in der ersten Auflage (1996) (s. Tab. 10.4-2), lediglich die Angaben zum Schreien und maximal Schreien sowie die Bewertungen sind nicht mehr aufgeführt. Änderungen wurden dagegen im Bereich der erforderlichen Sprachverständlichkeit beim Hörer vorgenommen. Die verwendete fünfstufige Qualitätsskala und die zugeordneten Übergangswerte (-6.0, -1.5, 3.0, 7.5 dB, s.a. Abb. 10.4-3) korrespondieren eher mit dem Minimum der aus den neuen Versuchen abgeleiteten Übergangswerten (-7 bis 10 dB, Tab. 10.4-4, Spalte 3). Will man für die abgestufte Sprachqualität (5 bis 1) Signal–Geräuschabstände (Übergangswerte) festlegen, die robust, für die Praxis zweckmäßig und nutzbar sind, muss man die dargestellten und diskutierten Befunde analysieren, gewichten und bewerten. Das wurde in diesem Abschnitt vorgenommen. Das Ergebnis: die vier Signal–Geräuschabstände sollen sich an den aus den Versuchen abgeleiteten mittleren Übergangswerten orientieren (Tab. 10.4-4, Spalte 5). Bei diesen vorgeschlagenen mittleren Signal–Geräuschabständen sind Nachhallzeiten außer Acht gelassen worden, da vor allem der kommunikationsnahe Bereich (< 5 m) für Wohnung, Öffentlichkeit und Arbeitsplatz
10.5 Qualität der Sprachkommunikation bei bestimmten Tätigkeiten
485
interessierte. D.h. der Einfluss der Nachhallzeit wird als nicht so wesentlich eingeschätzt und somit auch als gering (T < 0.5 s) vorausgesetzt. Die Personen wurden als normalhörend angenommen. Soweit im besonderen Nachhallzeit, Schwerhörigkeit und reduzierte Sprachkompetenz (Zweitsprachler) im größeren Umfang auftritt, sollte dies in den Übergangswerten (SNRA) berücksichtigt werden (s. Abschn. 6.4, 6.5.5, 8.2). Die Qualitätsstufen, d.h. die Übergangswerte sind hier als Signal– Geräuschabstände (SNRA) angegeben. Da die dargestellten Parameter der Qualitätsbewertung auf recht unterschiedlichen Sprechern, unterschiedlichen Zeitverläufen und Spektren von Geräuschen beruhen, kann der SNRA als effektiver SNRA aufgefasst werden. Soweit im Einzelnen die Ergebnisse als STI, SII oder SIL–Werte vorliegen, können diese gemäß der Umrechnungsmöglichkeiten (s. Abschn. 7.5.1) in einen effektiven SNRAeff umgerechnet und mit den angegebenen Signal–Geräuschabständen (Übergangswerten,; Tab. 10.4-4, Spalte 5) verglichen werden. Man könnte die Übergangswerte auch als STI–Werte angeben. Da aber der STI und der SII (weniger der AI) insbesondere bei geringer Nachhallzeit für den Bereich qualitativ hoher Sprachverständlichkeit keine Differenzierung zulässt, ist dieses Vorgehen wenig sinnvoll. Zusammenfassend kann festgehalten werden, dass die Sprachqualität durch die Sprachverständlichkeit und zusätzlich durch Fragen nach der subjektiv empfundenen Verständlichkeit, der Bewältigung (Coping) und der Konzentration während des Verstehensprozesses gut bewertet werden kann. Der Übergang der Qualitätsstufen lässt sich für den Nahbereich der Kommunikation (Entfernung der Gesprächspartner < 5 m, Nachhallzeit wird vernachlässigt) als Signal–Geräuschabstand (SNRA) definieren. Für die Qualitätsniveaus (Stufen 5 bis 1; schlecht bis sehr gut) liegen die Übergangswerte (Tab. 10.4-4, Spalte 5) zwischen den fünf Stufen (5/4, 4/3, 3/2, 2/1) bei einem Signal– Geräuschabstand von SNRA = -4, 3, 9, 16 dB. Bspw. liegt somit eine gute Sprachqualität im Bereich von SNRA = 9 bis 16 dB.
486
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
10.5 Qualität der Sprachkommunikation bei bestimmten Tätigkeiten Geräuschpegel am Arbeitsplatz, in der Freizeit; Ermittlung des Beurteilungspegels; zulässige Geräuschpegel bei Sprachkommunikation im gesprächsnahen Bereich: in Wohnung, Büro, Verkehrsmittel; zulässige Hintergrundgeräuschpegel in Räumen, Normen Eine ungestörte sprachliche Kommunikation ist dann besonders notwendig, wenn die Tätigkeit, die die Personen zusammenführt, die sprachliche Kommunikation selbst ist. Dies ist zum einen der Fall bei Gesprächen in der Wohnung, am Arbeitsplatz, im öffentlichen Bereich, in Konferenzräumen oder im Unterricht. Zum anderen aber auch in der Einwegkommunikation, also überall da, wo nur gesprochene Sprache, ohne nachfragen zu können, verstanden werden muss, wie z.B. in Auditorien, im Theater, bei der Ausbildung, beim Hören von Rundfunk– und Fernsehsendungen oder auch dort, wo zur Ausführung gewisser Tätigkeiten oder aus Gründen der Sicherheit eine arbeitsbedingte Kommunikation erforderlich ist (EG– Richtlinie 92/58 zur Sicherheitskennzeichnung). Im privaten Bereich ist eine ungestörte sprachliche Kommunikation selbstverständlich, da Gespräche und das Verstehen von sprachlichen Mitteilungen Voraussetzung für ein Zusammenleben von Menschen ist. Zudem werden Gespräche nicht nur mit erwachsenen, normalhörenden Personen, sondern auch mit Kindern, die der Sprache noch nicht vollständig mächtig sind, mit Personen mit einer reduzierten Sprachkompetenz (Zweitsprachler) und mit älteren und schwerhörigen Personen geführt (s. Abschn. 8.2, 8.3, 6.5.4, 6.5.5). Die sprachliche Verständigung findet in allen Lebensbereichen statt, so z.B. x x x x x x
im privaten Bereich (Wohnung, Balkon, Garten) im öffentlichen Bereich (Kaufhaus, Krankenhaus, Rathaus) in der Freizeit (Gaststätte, Sportplatz) in Ausbildungsstätten (Schule, Hörsaal, Werkstatt) in Verkehrsmitteln (Auto, Autobus, Bahn, Flugzeug) im Arbeitsbereich (Dienstleistung, Verkauf, Bankgeschäft, Büro, Handwerk, Industrie).
Beeinträchtigungen der Sprachkommunikation können durch hohe Geräuschpegel verursacht werden, wie durch geräuschintensive Schallquellen (z.B. Haushaltsgeräte, Verkehrsmittel, Büromaschinen, Arbeitsmaschinen und Arbeitsverfahren) sowie durch nicht optimale Gebäudegestaltung, wie geringe Schalldämmung von Wänden, Decken und Fenster oder zu geringe Schallabsorption im Raum. Der Beurteilungspegel (s. Tab. 10.5-1) berück-
10.5 Qualität der Sprachkommunikation bei bestimmten Tätigkeiten
487
sichtigt alle am Aufenthaltsort der Person eintreffenden (schädigenden, unerwünschten, störenden) Geräusche einschließlich der Sprechgeräusche aus der Nachbarschaft. Erwünschter Schall, d.h. Sprachschall, der durch ein Gespräch der betreffenden Person gegeben ist, wie ankommende sprachliche Mitteilungen und auch sprachliche Mitteilungen der Person selbst, werden nicht einbezogen. Der Beurteilungspegel enthält sozusagen den unerwünschten, ggf. gesundheitsbeeinträchtigenden Schall. Bei Schallpegeln, die gehörschädigend sind, d.h. bei über LAeq,T = 80 dB liegen, werden alle Schallereignisse (auch der erwünschte Schall wie Sprache und Musik) mit einbezogen, da sie unabhängig vom gewollten Zweck potentiell schädigend sind. Bei niedrigeren Schallpegeln muss dagegen der Schall in unerwünschten und erwünschten Schall aufgeteilt werden. Tabelle 10.5-1. Beurteilungspegel (Mittelungspegel, LNAeq) über die Beurteilungszeit (Nutzungszeit) für verschiedene Wohn–, Arbeits– und Freizeitbereiche, sowie für Verkehrsmittel; Impuls– und Tonzuschläge wurden nicht berücksichtigt; der Geräuschpegel wurde dort bestimmt, wo sich üblicherweise Personen aufhalten oder tätig sind, wobei während der Geräuschmessung am entsprechenden Aufenthaltsort der Personen kein Gespräch stattfand Wohnbereich/ Arbeitsbereich Wohnbereich innen Wohnbereich außen Kaufhaus Krankenhaus Schule Eisenbahn Flugzeug Pkw Lkw Büroraum Werkstatt Baustelle Industrie
LNAeq in dB 30–60 35–75 45–65 40–65 45–60 65–80 70–90 65–80 75–85 45–75 70–90 75–100 75–110
Nutzungszeit (Tageszeit) 6.00–22.00 Uhr 6.00–22.00 Uhr 8.00–18.00 Uhr 6.00–22.00 Uhr 8.00–14.00 Uhr mehrere Stunden mehrere Stunden mehrere Stunden mehrere Stunden 8.00–16.00 Uhr 8.00–16.00 Uhr 8.00–16.00 Uhr Schicht (8 Std.)
Da es nicht möglich ist, in allen Bereichen die beste Qualität der Sprachkommunikation zu realisieren, werden Stufen der Sprachqualität festgelegt (Abschn. 10.4). Es müssen dann zweckmäßige und realisierbare Ziele für die einzelnen Kommunikationsbereiche und –aufgaben formuliert werden. Zur Einschätzung dieser Kommunikationsbereiche müssen verschiedene Einflussgrößen beachtet werden: x die Art der sprachlichen Kommunikation x die Häufigkeit der sprachlichen Kommunikation
488
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
x die notwendige Qualität der Sprachverständigung (Tab. 10.4-3, -4 Sp. 5) x die vertretbare Sprechweise und –anstrengung (Tab. 5.2-2, 10.4-2) und x die für die Tätigkeit erforderliche Entfernung Sprecher–Hörer (r). So wird z.B. in einer Lehrwerkstatt für Metallbearbeitung eine „befriedigende“ Qualität der Sprachverständigung ausreichend sein, dabei ist eine Sprechweise „laut sprechen“ und eine Entfernung von Sprecher zu Hörer von r = 1 m akzeptabel. Die Häufigkeit und Notwendigkeit der Kommunikation ist in einer Lehrwerkstatt viel geringer als in Konferenzräumen oder Wohnungen. In den zuletzt genannten Räumen ist dagegen eine „gute bis sehr gute (ausgezeichnete)“ Sprachverständigung erforderlich, wobei eine Entfernung von Sprecher zu Hörer von r = 2–8 m und eine Sprechweise „entspannt bis normal“ mit zu berücksichtigen ist. Bei der Festlegung von Qualitätsniveaus für bestimmte Tätigkeiten, muss bedacht werden, dass die Sprachkommunikation in der Regel funktional für die Durchführung dieser Tätigkeiten ist, das heißt, beide Prozesse verlaufen nicht nur parallel, sondern bedingen einander und sind ursächlich miteinander verknüpft. Sprachkommunikation ist daher im Regelfall Bestandteil einer komplexen Tätigkeit. Je mehr mentaler Aufwand für die eine Tätigkeit – Sprachkommunikation – erforderlich ist, umso weniger Kapazität steht für die Bewältigung der anderen Tätigkeit zur Verfügung. Das heißt, der erforderliche mentale Aufwand für die Sprachkommunikation sollte so gering wie möglich sein, um möglichst viel für die anderen Tätigkeiten und Aufgaben zur Verfügung zu haben. Die Untersuchungen, bei denen eine Paralleltätigkeit die Verständlichkeit kaum, aber die erforderliche Konzentration zu Aufrecherhaltung der Sprachkommunikation deutlich erhöht (Abschn. 10.3, 10.4), unterstützen dieses. In Tabelle 10.5-2 werden, ausgehend von der Beschreibung der Art der sprachlichen Kommunikation (Spalte 2) und dem Raum (Spalte 1), in dem das Gespräch zu einem bestimmten Zweck geführt wird, Höchstwerte der Geräuschpegel (Spalte 8) unter verschiedenen Randbedingungen vorgeschlagen. Die Qualität der Sprachverständigung (Spalte 4) ist aus dem Zweck (Spalte 1), der Art (Spalte 2) und der Häufigkeit der sprachlichen Kommunikation (Spalte 3) abgeleitet. Die Qualität der Sprachverständigung (Tab. 10.4-4, Spalte 5) bestimmt den mittleren Wert eines Sprachindices, hier des Sprach–Störschallpegels (SIL, Spalte 5a) und auch den Signal–Geräuschabstand (SNRA, Spalte 5b). Die Sprechweise (Spalte 6) legt die Anstrengung (Tab. 5.2-2, Schallpegel LSA,1m) fest, mit der der Sprecher bei gleichzeitig vorgegebener Entfernung von Sprecher und Hörer (Spalte 7) sprechen muss, um den geforderten Signal–Geräuschabstand beim Hörer zu bewirken. Die maximale Entfernung zwischen Sprecher und Hörer (r) ist im Wesentlichen durch die Gesprächssituation bzw. durch den
10.5 Qualität der Sprachkommunikation bei bestimmten Tätigkeiten
489
Zweck des Gesprächs gegeben. Beispielsweise ist in Wohnungen in der Regel eine Entfernung zwischen den Gesprächspartnern von wenigstens r = 2–4 m notwendig, in Sitzungs- oder Konferenzräumen sind je nach Anzahl der Gesprächsteilnehmer r = 4–16 m erforderlich, während in Verkehrsmitteln eine Entfernung von r = 0.5–1 m zweckmäßig und ausreichend ist. Die Festlegung der Qualität der Sprachverständigung und der maximalen Entfernung von Sprecher und Hörer orientiert sich weitgehend am technisch Machbaren. So wäre es sicher sowohl für den Wohnraum (innen) als auch für den Außenbereich (Garten, Terrasse, Balkon) wünschenswert, gleich hohe Anforderungen an die Sprachverständigung zu stellen. Da jedoch in Innenbereichen auch in der Nähe von Straßen wesentlich leichter mit technischen Maßnahmen ein niedriger Geräuschpegel zu erreichen ist als im Außenbereich, sind die Anforderungen an die Qualität der Sprachverständigung und an die Sprechweise für den Außenbereich etwas geringer angesetzt worden. Bei der Festlegung des Signal–Geräuschabstandes (SNR = LSNA) beim Hörer und des Schallpegels des Sprechers (LSA,1m) müssen die Werte LSNA bzw. LSA,1m aufeinander abgestimmt sein. Es ist z.B. sehr unzweckmäßig, eine sehr gute Sprachverständigung (SIL = 24, SNR = 16 dB) und gleichzeitig eine Sprechweise schreien (LSA,1m = 84 dB) festzulegen; diese Anforderungen bedeuten eine sehr geringe Anstrengung für den Hörer (er kann alles bei geringer Konzentration verstehen), aber eine hohe Anstrengung für den Sprecher (er muss schreien). Die Anforderungen, die an die Sprachverständigung (an den Hörer) wie auch an die Sprechweise (an den Sprecher) gestellt werden, müssen im Ausmaß der Anstrengung einander ähnlich sein, da sie sonst nicht der Praxis entsprechen (s. Abschn.5.8). Sprecher wie auch Hörer streben im Gespräch danach, ihre Belastung bzw. Anstrengungen so gering wie möglich zu halten. In den Abschnitten 5.3, 5.7 und 5.8 wurde dargelegt, dass bei einer Zunahme des Geräuschpegels der Sprecher zwar lauter spricht, der Signal–Geräuschabstand am Ohr des Hörers aber trotzdem absinkt. Um ein anschauliches Bild der Schallpegel in den Gesprächssituationen zu geben, wurden jeweils für einen Raum (Spalte 1) mehrere Qualitäten der Sprachverständigung, der vertretbaren Sprechweise und der maximalen Entfernung zwischen Sprecher und Hörer angegeben. In der Regel wurde zur Berechnung des Geräuschpegels (LNA) aus dem Sprechpegel (LSA,1m) und dem Signal–Geräuschabstand (LSNA = LSA (r) - LNA) die Schallausbreitung im direkten Schallfeld herangezogen.
490
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Tabelle 10.5-2. Höchstwerte (HW) von Geräuschpegeln (LNA = LNAeq) für sprachliche Kommunikation in Räumen; der Geräuschpegel (LNA) umfasst alle Geräusche, die an den Ohren der am Gespräch teilnehmenden Personen eintreffen, außer dem Schall, der die gewünschte sprachliche Mitteilung enthält; Entfernung der Gesprächspartner (r); Nachhallzeit T < 0.5 bis 1 s (weitere Erläuterungen im Text) 1 Raum
2 Art der sprachl. Kommunikation, des Gespräches
1 Wohnung innen Gespräche, entspannt außen
Gespräche
2 Gast Gespräche stätte Diskothek kurze Gespräche 3 Kaufhaus kurze Gespräche 4 Sitzungs- längere raum(a) Gespräche
5 EinzelbüroGespräche Gespräche Mehrp.- Gespräche Kurze büro Gespräche sprachliche 6 UnterMitteilungen, richtsraum(b) Gespräche 7 Monta- kurze Mitteigearbeiten lungen
3 Häufigkeit der sprachl. Kommunikation
4 5a 5b 6 Qualität der SIL SNRA gerade noch Sprachver- in dB in dB vertretbare Sprechweise ständg. s. s. Tab 5.2-2 Tab. 10.4-4 (Sp. 5)
7 8 r HW in des m LNA in dB
sehr hoch sehr hoch hoch hoch hoch hoch mäßig
sehr gut sehr gut sehr gut sehr gut sehr gut gut gut gut ausreichend ausreichend gut gut sehr gut sehr gut sehr gut sehr gut sehr gut sehr gut gut befriedigend befriedigend sehr gut sehr gut sehr gut befriedigend befriedigend befriedigend befriedigend befriedigend befriedigend befriedigend gut gut befriedigend ausreichend befriedigend ausreichend
2 4 2 4 4 8 2 4 1 0.5 1 2 1 s ist, die Sprachverständlichkeit, die Genauigkeit der hier vorgenommenen Abschätzung sinkt ab. In einer Alarmsituation im Betrieb (Tab. 10.5-2, Zeile 10) kann natürlich die begrenzte Anzahl der vorgegebenen Wörter zur Warnung berücksichtigt werden. Die Verständlichkeit von Einsilbern (unbegrenzte Anzahl, Abb. 7.6-1, Kurve E1) liegt bei LSNA = 3 und -4 dB bei 70 und 35 %, bei Einsilbern mit begrenzter Anzahl (Abb. 7.6-1, Kurve EB2) jedoch bei 100 und 95 %. Die letzten Werte können somit in begrenztem Umfang als akzeptabel angesehen werden. Die angegebenen Höchstwerte (Tab. 10.5-2, Spalte 8) stellen Schallpegel (Mittelungspegel) von Geräuschimmissionen dar, die auf die an einem Gespräch beteiligten Personen einwirken. Da bei der Planung der Räume der genaue Zeitpunkt des Gespräches nicht bekannt ist, sind die angegebenen Höchstwerte der Geräuschpegel als Mittelungspegel über die Nutzungszeit der Räume zu verstehen. Somit können die Höchstwerte der Geräuschpegel als Beurteilungspegel (LAr) über die Beurteilungszeiten nach DIN 45645–1, –2 angesehen werden. Die Beurteilungszeit für den Arbeitsplatz beträgt 8 Stunden. Für den Umweltbereich ist die Zeit für den Tag auf 6 bis 22 Uhr (ggf. werden Zeiten für den Morgen 6–7 Uhr und den Abend 19–22 Uhr gesondert betrachtet) und für die Nacht auf 22–6 Uhr (hier wird die lauteste Stunde beurteilt) festgelegt. Für einige Arbeitsbereiche und Tätigkeiten (VDI 2058–3) wurden für den Beurteilungspegel (LAr) Höchstwerte vorgeschlagen: 55 dB für überwiegend geistige Tätigkeiten, 70 dB für einfache, überwiegend mechanisierte Tätigkeiten und 85 dB für sonstige Tätigkeiten. Sie eignen sich nur sehr bedingt zur Gewährleistung einer gewissen Qualität der Sprachkommunikation. Die für Räume angegebenen Geräuschhöchstwerte (Tab. 10.53 und 10.5-2) zeigen auch, dass die Störgeräuschpegel bis zu 15–25 dB unterhalb des häufig genannten Wertes von 55 dB liegen müssen, damit Ge-
492
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
spräche mit hoher Qualität ungestört geführt werden können. Schon Jansen (1977) wies auf ähnliche Zusammenhänge hin. In den meisten praktischen Fällen sind solche niedrigen Werte auch technisch realisierbar. Der Beurteilungspegel nach DIN 45645–1, –2 umfasst alle Geräuschimmissionen, die am Immissionsort eintreffen, bis auf die Schallpegel der Gespräche, die mit der Person am Immissionsort selbst durchgeführt werden. Die Geräuschimmissionen setzen sich aus Geräuschen zusammen, die 1. direkt am Aufenthaltsort der Personen entstehen (z.B. Schreiben am PC), 2. von benachbarten Geräuschquellen im gleichen Raum herrühren (technische Schallquellen oder benachbarte Gespräche) oder 3. von außen in den Raum eindringen (Geräusche von Verkehrsmitteln, von haustechnischen Anlagen oder von Geräuschen aus benachbarten Räumen, z.B. Flure, Küchen oder Diskotheken). In der europäischen Norm DIN EN ISO 11690 (1997) sind Geräuschimmissionswerte (Beurteilungspegel, äquivalenter Dauerschallpegel) für Arbeitsplätze, die für eine Arbeitsschicht für bestimmte Tätigkeiten nicht überschritten werden sollen, angegeben: x für routinemäßige Büroarbeiten 45–55 dB x für Sitzungsräume oder Tätigkeiten, die Konzentration verlangen 35–45 dB. Diese angegebenen Werte (Geräusche nach 1, 2, 3) sind durchaus – vergleicht man sie mit denen aus Tabelle 10.5-2 – geeignet, befriedigende bis gute, ggf. auch sehr gute Sprachkommunikation zu ermöglichen (s.a. Abschn. 12.3). Bei der Planung von Gebäuden und Räumen soll gemäß dem Stand der Lärmminderungstechnik der Geräuschpegel am Aufenthaltsort von Personen möglichst gering gehalten werden. Es wurden deshalb Höchstwerte von Geräuschpegeln für Räume festgelegt (Tab. 10.5-3). Die Höchstwerte der Beurteilungspegel (ggf. Tab. 10.5-2) begrenzen alle Geräusche (nach 1, 2, 3) in ihrer Höhe und deshalb auch die Geräuschemissionen von Bürogeräten und Maschinen am Ort des Gespräches und in seiner Nähe (Wohnung, Arbeitsplatz)(s.a. Tab. 12.3-1). Die Geräuschhöchstwerte für Räume (Tab. 10.5-3) sind im Wesentlichen Geräusche vom Typ 3, d.h. Geräusche, die von außen durch Wände, Decken, Fenster und Türen in die Räume eindringen; sie werden im allgemeinen Hintergrundgeräusche genannt und sind im Wesentlichen bauseitig festgelegt. In einer Übersicht (EPA 1974) sind Mittelungspegel für Geräuschimmissionen in Räumen, die von Ländern festgelegt oder von Autoren vorgeschlagen worden sind, zusammengestellt; diese Pegelwerte dürfen nicht
10.5 Qualität der Sprachkommunikation bei bestimmten Tätigkeiten
493
überschritten werden. Die VDI 2569 gibt Hintergrundgeräusche (LNAF,95%) für Büroräume an, die Norm DIN 4109 enthält Höchstwerte für Geräuschpegel, die beim Betrieb von haustechnischen Anlagen (Klima–, Heizungs– und Lüftungsanlagen, Armaturen von Wasserinstallationen, Wasserein– und –ablauf) und bei Betrieb von Maschinen in benachbarten Räumen (Gewerbebetriebe, Gaststätten) nicht überschritten werden dürfen. Die VDI 2719 schreibt weiterhin Geräuschhöchstwerte für von außen in Räume eindringenden Schall vor. Geräuschhöchstwerte für Räume, die an lüftungstechnische Anlagen angeschlossen sind, werden in der VDI 2081 angegeben. In Handbüchern zum Schallschutz sind Immissionspegel und Grenzwerte für Räume aufgeführt (Beranek 1992; Schirmer 1996). Geräusche in Büroräumen setzen sich in der Regel aus gleichmäßigen Geräuschen, die von technischen Schallquellen (Klimaanlagen, Verkehrsgeräusche, Büromaschinen) herrühren und Schallspitzen von Gesprächen zusammen. Besonders störend sind die wahrzunehmenden informationshaltigen Gesprächsfetzen. Niedrige Geräuschpegel verringern nicht nur den störenden Einfluss des Geräuschs, sondern reduzieren auch dadurch, dass aufgrund des Lombardeffektes (Abschn. 5.3) leiser gesprochen wird, indirekt die hohen Sprechpegelspitzen. So ist für die Sprachverständlichkeit am Arbeitsplatz ein hoher Signal–Geräuschabstand (LSNA > 10 dB) für die dort gesprochene Sprache angebracht, während der Signal– Geräuschabstand der Sprache benachbarter Arbeitsplätze LSNA = -10 bis -5 dB nicht übersteigen sollte. Damit wird auch eine Vertraulichkeit gewährleistet, die bei einem Gespräch gewünscht wird (Cavanaugh et al. 1962; Munker 1979; Moreland 1989). Tabelle 10.5-3. Höchstwerte für Geräuschpegel in Räumen. Die angegebenen Geräuschpegel sind in der Regel keine Beurteilungspegel, die am zu beurteilenden Immissionsort alle eintreffenden Geräuschimmissionen zusammenfassen, sondern stellen Hintergrundgeräusche (LNA,95% in VDI 2569; DIN EN ISO 11690) oder bauseitig vorgegebene Geräuschpegel (Mittelungspegel), herrührend von bestimmten Schallquellen außerhalb der Räume (DIN 4109, VDI 2719, VDI 2081) dar. So werden z.B. nach VDI 2081 nur die Geräuschpegel, die von raumlufttechnischen Anlagen herrühren, begrenzt. In den Normen und VDI–Richtlinien sind die Geräuschpegel als Mittelungspegel über die Nutzungszeit, z.B. Wohnraum von 6.00–22.00 Uhr, Büroräume von 8.00–16.00 Uhr, aufzufassen. Die angegebenen Bereiche von Geräuschpegeln für einen Raum (z.B. LNA = 35–45 dB) geben die verschiednen möglichen Niveaus der akustischen Anforderungen an den Raum wieder, z.B. entsprechen LNA = 35/40/45 dB einer hohen/mittleren/geringen akustischen Anforderung (s. VDI 2569). In VDI 2081 werden auch mittlere Nachhallzeiten (T) angegeben.
494
Räume
10 Sprachliche Kommunikation: Bewertung und Sprachqualität Höchstwerte für Geräuschpegel LNA in dB EPA 1974 Hintergrund- DIN 4109 VDI 2719 VDI 2081 für für geräusche in für Geräu- für von Räume, die an MittelArbeitsräu- sche von außen in raumlufttechn. ungspegel men (DIN haustechni- Räume Anlagen angein EN ISO schen An- eindring- schlossen sind Räumen 11690–1)1, lagen und ende Büroräumen Betriebsein Geräusche T in s (VDI 2569)2 richtungen
- Wohnungen Schlafräume 25–45 Wohnräume 30–45 Apartment 30–45 Hotels 35–45 - Gaststätten 40–55 - Auditorien Festsäle 35–45 Konzertsäle 25–35 Theater 30–35 Aufnahmestudios 25–35 Kinos 35–40 Hörsäle Unterrichtsr. 35–45 Sitzungsräume - Krankenhäuser 25–40 - Öffentliche Gebäude Bibliotheken 35–45 Sportstätten 45–60 Schalterr. - Büros Einzelbüros 30–45 Mehrpers.b. 40–55 Großraumb. - Industrie Laboratorien 40–50 Werkstätten Küchen EDV–Räume leichtere Arb. 45–60 Schwerere Arb. 60–80
25–35 25–35 25–35 25–35
30–401 30–351,2
30–401,2 30–452 35–451
25–35 30–40
30–35 30–35 30–35
0.5 0.5 0.5
40–50
40–55
1.0
25–30 30–35
1.5 1
30–40 30–40 30–40
15–30 30–35 35–40 30–40 35–40
0.5 1.0 1.0 1.0 1.0
30–40
30–50
1.0–2.0
25–35
30–40
30–35 45–50 40–45
1.0 1.5 1.5
35 35 35
30–40 35–45 40–50
35–40
0.5
45–50
0.5
30–40
52 50 50–60 45–60
2.0 1.5 1.5 1.5
< 35 < 35
35–501 35
35–45 35 35–551 65–701
40–50
10.5 Qualität der Sprachkommunikation bei bestimmten Tätigkeiten
495
Beides, ein hoher Signal–Geräuschabstand für die gewünschte Sprache und ein niedriger Signal–Geräuschabstand für die nicht gewünschte Sprache, können durch geringe Geräuschpegel (LNA = 30–45 dB) im Raum, durch eine hohe Schallpegelabnahme und große Entfernungen zu benachbarten Arbeitsplätzen, durch eine hohe Schallabsorption sowie durch Schallschirme erreicht werden (VDI 2569; Munker 1979). Geringe Geräuschpegel und reflektierende Flächen im Sprechbereich ermöglichen leises Sprechen. So bedingen Absorption und Möbel eine weitere Reduzierung der (schon leisen) benachbarten Gespräche. Weiterhin kann eine Störung der Sprachwahrnehmung durch Geräusche aus benachbarten Räumen im Büro, aber vor allem in Wohnbereichen durch eine entsprechend gut konzipierte Schalldämmung der Wände und Decken vermieden werden. Vergleicht man die Pegelwerte von bauseitigen Geräuschen für Räume (Tab. 10.5-3) mit den Werten, die für bestimmte Gesprächssituationen angegeben worden sind (Tab. 10.5-2) miteinander, so kann man unschwer erkennen, dass die Geräuschhöchstwerte in gleichen Größenordnungen liegen. Geräuschhöchstwerte für Räume wurden nicht nur festgelegt, um Gespräche zu ermöglichen, sondern auch um andere Beeinträchtigungen und Belästigungen durch Lärm zu verhindern, wie die Störung der Nachtruhe und der Erholungsphasen sowie Fehlverhalten bei Arbeitstätigkeiten. Teilweise entsprechen die angegebenen Werte jedoch nicht den Anforderungen, die für eine gute bis sehr gute Sprachkommunikation erforderlich sind. So sind Hintergrundgeräusche von 40 dB, wie sie in einigen Normen für Hörsäle und Sitzungsräume genannt werden (Tab. 10.5-3; s.a. DIN 18041; DIN 15906), zu hoch. Denn dieses sind Räume, die vorwiegend zum Zweck der Sprachverständigung über größere Entfernungen gebaut werden. Diese Werte sollten mindestens 5 dB niedriger liegen. Für den Außenbereich existieren Immissionswerte als Beurteilungspegel über die Tageszeit (6–22 Uhr) und über die Nachtzeit (lauteste Stunde von 22–6 Uhr) von LAr = 30–70 dB (TA–Lärm; DIN 18005). In 10 Räumen für Sprachdarbietungen wurde unter Vorgaben für eine Mindest–Sprachverständigung von RASTI = 0.6, 0.45, 0.3 der Schallpegel des Hintergrundgeräusches berechnet, der den RASTI–Wert gerade beginnt zu beeinflussen (Reyna u. Sancho 1988; s. Tab. 10.5-4). Tabelle 10.5-4. Maximaler Oktavpegel des Hintergrundgeräuschs (LNi(0.5 kHz)) für zehn Räume (Hörsäle, Seminarräume V = 2000–3000 m3, T = 0.9 s) für vorgegebene RASTI–Werte RASTI LNi in dB
0.6 19–24
0.45 32–36
0.3 39–43
496
10 Sprachliche Kommunikation: Bewertung und Sprachqualität
Häufig wird in Arbeits– und Wohnbereichen auch die sprachliche Kommunikation über Telefon durch Geräuscheinwirkung gestört. Der Sprechpegel beim Telefonieren erreicht in der Regel einen Wert von LS/LSA = 63/60 dB. Trotz unterschiedlicher Qualität der Hörkapseln, aus denen Sprechschall abgestrahlt wird (Schallpegel, Frequenzbereich, nichtlineare Verzerrungen, Leitungsgeräusche), lässt sich die Qualität der Sprachverständigung (Tab. 10.5-5) grob abschätzen (u.a. Beranek 1957; Webster 1969; DIN 33410). Tabelle 10.5-5. Qualität der Sprachverständigung beim Fernsprechen für den Pegel des Störgeräusches im Raum des Hörers (nach DIN 33410), angegeben als A– bewerteter Geräuschpegel (LNA) und als Sprach–Störgeräuschpegel (LSIL) Störgeräusch in der Nähe des Hörers LNA in dB LSIL in dB < 45 < 37 45–55 37–47 55–65 47–57 65–80 57–72 80 < 72
48 dB) sowohl beim Telefonieren als auch bei der Kommunikation gestört fühlten.
Abb. 11.1-1. Zusammenhang zwischen der Beurteilung von Bürogeräuschen und dem Sprachstörgeräuschpegel (LSIL in dB) und der Lautstärke (LL in phon; nach Beranek 1956)
11.1 Belästigung und Sprachverständlichkeit
501
Lazarus–Mainka und Mitarbeiter (1985) untersuchten den Zusammenhang zwischen Sprachverständlichkeit und subjektiv empfundener Belästigung. Sie vermuteten, dass unabhängig von der Intensität des Geräuschpegels das Ausmaß der Belästigung von der Sprachverständlichkeit determiniert wird und somit vom Signal–Geräuschverhältnis. In einem experimentellen Vorgehen wurden den Versuchspersonen Sätze unter drei unterschiedlichen Signal–Geräuschabständen bei drei Geräuschpegeln dargeboten, die sie verstehen sollten. Zusätzlich war auf einer zehnstufigen Skala die eigene Wahrnehmungsleistung und die empfundene Belästigung (SB) zu beurteilen (Abb. 10.3-1a, b). Daneben hatten die Versuchspersonen die Lästigkeit von Geräuschen (GB) zu bewerten, ohne dass diese die Sprache maskierten.
Die reine Geräuschbelästigung (GB) wird nur durch den Geräuschpegel verändert, der Signal–Geräuschabstand, d.h. die Sprachverständlichkeit hat kaum einen Einfluss. Die Situationsbelästigung (SB) nimmt vor allem mit dem Signal–Geräuschabstand zu, und nur geringfügig mit dem Geräuschpegel. Dasselbe Geräusch, wenn es Sprache maskierte, wurde umso belästigender erlebt, je schlechter die Sprache verstanden wurde. Wie die Autoren vorhergesagt hatten, ist für die erlebte Situationsbelästigung sowohl das Ausmaß der Maskierung der Sprachreize, die die Sprachverständlichkeit bestimmen, als auch in geringerem Maße der Geräuschpegel bestimmend. Die Störung der sprachlichen Kommunikation durch Geräusche spielt bei der Beurteilung der Situationsbelästigung eine wichtige Rolle, denn auch Geräuschpegel, die nicht mehr als belästigend eingestuft werden, werden als belästigend erlebt, sobald sie Sprache maskieren. Daraus folgern die Autoren, dass auch geringe Geräuschintensitäten in Wohnbereichen oder im Büro als belästigend erlebt werden, wenn man nicht mehr in einem normalen Sprachpegel (von LSAū 50 dB, am Ohr der Person) kommunizieren kann. Untersuchungen zur Störung von Sprache durch intermittierende Verkehrsgeräusche bestätigen diese Ergebnisse (s. Abschn. 10.3; Sust et al. 2007). Sprachverständlichkeit wird in Wohnbereichen häufig durch Verkehrsgeräusche beeinträchtigt. Um das Ausmaß einer solchen Belästigung zu eruieren, setzte Pearsons (1978) in einem experimentellen Vorgehen Versuchspersonen verschiedenen Verkehrsgeräuschen über Kopfhörer aus, in die eine Nachricht eingeblendet war. Der Signal– Geräuschabstand war so gewählt, dass die Sprache mehr oder weniger gut verstanden werden konnte. Die Personen sollten sich vorstellen, dass sie über einen längeren Zeitraum einer solchen Situation ausgesetzt seien und dann anhand einer Skala ihre erlebte Belästigung einstufen. Abschließend hatten sie drei Fragen zu der vermittelten sprachlichen Nachricht zu beantworten.
502
11 Lautheit von Sprachreizen, Belästigung durch Geräusche
Abb. 11.1-2. Lästigkeit von Verkehrsgeräuschen in Abhängigkeit vom Geräuschpegel (LNAeq) mit eingeblendeter Sprache bei unterschiedlichem Signal–Geräuschabstand (LSNA) (nach Pearsons 1978)
Wie die Abbildung 11.1-2 zeigt, hing das Ausmaß der eingestuften Belästigung zum einen von der Höhe des Geräuschpegels (LNA), zum andern aber auch vom Signal–Geräuschabstand (S/N–Pegel) ab. Je stärker die Sprache maskiert war, umso lästiger wurde die Situation beurteilt. War die Sprache so stark verrauscht, dass sie gar nicht mehr verstanden werden konnte (LSNA < -30 dB), wurde nur noch der Geräuschpegel nach seiner Lästigkeit eingeschätzt; die Lästigkeit bei niedrigen Geräuschpegeln war gering. Je weniger die Versuchspersonen in der Lage waren, die Fragen zu der sprachlichen Nachricht unter Geräuscheinwirkung zu beantworten, desto lästiger wurde das Geräusch beurteilt. Der Vergleich der Lautheit und der Lästigkeit von zwei Verkehrsgeräuschen, die mit und ohne Sprache gemessen wurden, zeigt den Einfluss mehrerer Aspekte. Der Pegel, die Lautheit und die Variabilität beeinflussen die Lästigkeit des reinen Geräusches (ohne Sprache) (Widmann 1991). Zusätzlich wurde bei den gleichen Geräuschen die Sprachverständlichkeit (Reimtest) und nach diesem Test die erlebte Belästigung ermittelt. Auch hier zeigt sich der Einfluss des Pegels und des Signal–Geräuschabstandes auf die Lästigkeit (s. Tab. 11.1-1). Aniansson u. Björkman (1983) untersuchten in einer Laborstudie den Zusammenhang zwischen Sprachverständlichkeit und Belästigung unter dem Einfluss von Verkehrsgeräuschen. In die Stichprobe aufgenommen wurden sowohl normalhörende Versuchspersonen als auch schwerhörige. Die Belästigung durch Straßenverkehr wurde bei einem Geräuschpegel (LNAeq) von 45 und 55 dB während vier unterschiedlicher Tätigkeiten erfasst: 1. Anschauen eines Fernsehfilms, 2. Gespräch in der Gruppe,
11.1 Belästigung und Sprachverständlichkeit
503
3. Sprachverständlichkeitstest mit phonetisch ausbalancierten Wörtern, 4. stilles Lesen. Auf einer 100 mm Skala hatten die Versuchspersonen das Ausmaß ihrer subjektiv erlebten Belästigung einzuschätzen.
Alle Gruppen stuften die erfahrene Belästigung im Sprachverständlichkeitstest bei einem Verkehrsgeräusch von 55 dB im Mittel als ziemlich belästigend ein (> 50 mm). Tabelle 11.1-1. Zwei Verkehrsgeräusche unterschiedlicher Pegel (LAeq) und Variabilität (N5 / N50) und deren Lästigkeit (1 bis 100) ohne Sprache und mit Sprache (Signal–Geräuschverhältnis (LSNA), Sprachverständlichkeit (SV)) LAeq in dB 74.0 65.5
Lautheit Variabilität Lästigkeit LSNA SV Lästigkeit in sone N5 / N50 ohne SV in dB in % mit SV 30 1.5 79 -9.5–3.5 9–64 98–81 10 2.8 52 -6.0–14.5 48.5–95.5 69–31
Eine hohe Sprachverständlichkeit (Tab. 11.1-2) ist verbunden mit einer niedrigen Belästigung und umgekehrt. Schwerhörige (SL1, SL2, SA), von denen man annehmen könnte, dass sie die Lautstärke der Geräusche bei diesen geringen Pegeln leiser wahrnehmen, sind stärker belästigt als Normalhörende (NH). Man kann annehmen, dass die geringere Sprachverständlichkeit dieses bedingt. Ebenso zeigten sich für die Gesamtgruppe signifikante negative Korrelationen zwischen Sprachverständlichkeit und erfahrener Belästigung. Tabelle 11.1-2. Sprachverständlichkeit (SV in %) und Belästigung (BL: 10 bis 100 mm) bei Darbietung von Sprache (LSA = 64 dB) und deren Störung durch Verkehrsgeräusche (LNAeq = 45, 55 dB) beurteilt von 4 Personengruppen: Normalhörende (NH), leicht Lärmschwerhörige (SL1; LHVT (bis 3 kHz) < 20 dB, sonst > 30 dB), Lärmschwerhörige (SL2; LHVT (bis 1 kHz) < 20 dB, LHVT (1–4 kHz) = 30 bis 60 dB) und Altersschwerhörige (SA; LHVT wie SL2) LNA
SV in % BL
NH 92 26
45 dB SL1 SL2 87 65 38 48
SA 71 31
NH 83 55
55 dB SL1 SL2 72 45 67 77
SA 48 73
Neben den seltenen Laborstudien wurde in verschiedenen Feldstudien über die Belästigung durch Geräusche auch der Frage nach der Störung der sprachlichen Kommunikation durch Lärm nachgegangen. Kastka (1981) konnte aus Fragebogendaten zu Belästigungsreaktionen durch Verkehrslärm mit Hilfe einer Faktorenanalyse drei Faktoren extrahieren, von denen einer die sprachliche Kommunikation darstellt. In einer anderen Untersuchung (Sörensen et al. 1973) erbrachte ebenfalls eine Faktorenanalyse von
504
11 Lautheit von Sprachreizen, Belästigung durch Geräusche
Daten zur Belästigung durch Fluglärm zwei Faktoren, von denen einer ebenfalls die Störung sprachlicher Kommunikation beschreibt. In dieser Untersuchung zeigte sich eine Korrelation zwischen dem Geräuschpegel und dem Ausmaß der Störung der Sprachkommunikation von r > .90. Die folgende Abbildung zeigt die Ergebnisse mehrerer Feldstudien aus den Jahren 1974–1981 (DFG–Studie 1974, Grandjean 1974, Finke et al.1980 und Nemecek et al. 1981). Der Anteil der befragten Personen, die sich bei der sprachlichen Kommunikation gestört fühlen, wurde über Mittelungspegel (LNAeq) aufgetragen. Die in den einzelnen Studien für die Geräusche benutzten Maße wurden in Mittelungspegel (LNAeq) umgerechnet. Die Geräuschpegel wurden in der Regel 1–3 m vor den Fenstern der Wohnungen gemessen, in denen die Personen befragt wurden. Zur Erfassung der subjektiv erlebten Belästigungen waren unterschiedliche Skalen eingesetzt worden, bei denen die Einstufung auf Skalen zwischen zwei und zehn Punkten erfolgt war. Auch das Pegelkriterium, ab dem man eine Person nach ihrem Skalenwert als gestört bzw. nicht gestört eingestuft hatte, war, wie der Abbildung 11.1-3 zu entnehmen ist, in den verschiedenen Studien nicht einheitlich. Die Beeinträchtigung der sprachlichen Kommunikation ist sowohl bei Unterhaltungen als auch beim Fernsehen und Radiohören, neben der Störung von Ruhe und Erholung, die am häufigsten genannte Belästigung (Rohrmann 1977). Einen weiteren Beleg für das Ausmaß an Belästigung durch Fluglärm gibt die Studie von Gjestland und Mitarbeitern (Gjestland et al. 1990). In einer breit angelegten Untersuchung eruierten sie die Reaktionen von Anwohnern im Bereich des Flughafens Fornebu in Oslo. Im Frühjahr und Herbst 1989 interviewten sie mit Hilfe eines Fragebogens mehr als 3300 Anwohner von 15 unterschiedlichen Wohnbezirken rund um den Flughafen. Der Fragebogen erfasste unterschiedliche Aspekte der Belästigung wie Interferenzen mit verschiedenen Aktivitäten und Verhaltensaspekte. Das Ausmaß der Gestörtheit wurde in Beziehung gesetzt zum EFN, dem Norwegischen Fluglärmindex (LNAeq,T/N = (EFN - 1) dB). Es zeigte sich, dass Fluglärm mit den verschiedensten Aktivitäten interferierte und ab einem Lärmpegel > 45 dB eine proportionale, fast lineare Beziehung zwischen dem Pegel und dem Ausmaß der Gestörtheit besteht. Hauptsächlich hatten die Befragten über Störungen der sprachlichen Kommunikation berichtet (Reden oder Zuhören, Radiohören und Fernsehen). Das Ausmaß der Sprachinterferenzen stieg mit zunehmendem Pegel steiler an als alle anderen genannten Aktivitäten. Abbildung 11.1-4a gibt das Ausmaß der Belästigung für die verschiedenen Aktivitäten wieder.
11.1 Belästigung und Sprachverständlichkeit
505
Abb. 11.1-3. Prozentsatz der Personen (W), die sich bei der Kommunikation (Unterhaltung, Radio, Fernsehen) durch Verkehrsgeräusche (LNAeq ) gestört fühlen, entsprechend der jeweiligen Bewertungsskala festgelegter Cut–Off–Werte: F1: Fluglärm, 6–22 Uhr (DFG Studie 1974), Skala 1–5, > 3; F2: Fluglärm, 6–22 Uhr (Grandjean 1974), Skala 1–2, =2, S1: Straßenverkehr, 18–22 Uhr (Finke et al. 1980), Skala 1–5, Ů 3; S2: Straßenverkehr, 6–22 Uhr (Nemecek et al. 1971), Skala 1–10, Ů 8 100 Gespräch (draußen) Gespräch (drinnen) Fernsehen/ Radio Erholen
80 W/% 60
40 Konzentrieren 20
Aufwachen
0 40
50
60
70 L Aeq,T/dB
Abb. 11.1-4a. Anteil der Personen (W in %), die sich in Abhängigkeit vom Fluglärm bei verschiedenen Aktivitäten gestört fühlen (2–stufige Skala: gestört bei den Aktivitäten: ja, nein; hier: ja) in Abhängigkeit vom Geräuschpegel (LAeq,T), T = Tag / Nacht (16/8) Std., gemessen vor der äußeren Fassade der Häuser
506
11 Lautheit von Sprachreizen, Belästigung durch Geräusche 100
80
gestört (draußen)
60
gestört (drinnen)
40
sehr gestört (draußen)
20
sehr gestört (drinnen)
W /%
0 40
50
60
70 L Aeq,T/dB
Abb. 11.1-4b. Anteil der Personen (W in %), die sich durch Fluglärm außerhalb und innerhalb der Wohnung gestört/belästigt fühlen, (Skala (1 (sehr)...4 (gar nicht)): (sehr gestört ŭ 1; gestört ŭ 3), über dem Geräuschpegel (LAeq, T; T = Tag/Nacht (16/8) Std.; gemessen vor der äußeren Fassade der Häuser)
Wie zu erkennen ist (Abb. 11.1-4a), wird die Belästigung durch Fluglärm bei der Sprachkommunikation, insbesondere beim Reden außerhalb des Wohnraums, als sehr stark eingeschätzt. Aber auch das Gespräch innerhalb der Wohnung wird neben der Belästigung beim Fernsehen oder Radiohören als störend eingestuft. Die Konzentrationsfähigkeit und die Erholung werden im Vergleich zu sprachlicher Kommunikation im Ausmaß der Belästigung als geringer eingestuft. Wird nach der allgemeinen Belästigung durch Lärm gefragt, ergibt sich ein ähnlicher Verlauf (Abb. 11.1-4b) wie bei der Frage nach der Störung bei Aktivitäten. Man kann vermuten, dass die allgemeine Belästigung durch Lärm wesentlich durch die Störung der Sprachkommunikation aufgrund von Lärm bedingt ist. In einer weiteren Studie (Gjestland et al. 1994) an den norwegischen Flughäfen Værnes in Trondheim und Bodø konnten diese Ergebnisse bestätigt werden. Die Anwohner der Flughäfen berichteten eher von Störungen durch Sprachinterferenzen (Reden oder Radiohören und Fernsehen) als von anderen Belästigungen (s. Abb. 11.1-5). Einschlafprobleme oder nächtliches Aufwachen durch Fluglärm wurden am wenigsten genannt. In einer Untersuchung zum Straßen– und Schienenlärm (Schreckenberg u. Guski 2005) wurde der Zusammenhang zwischen Gestörtheit, Belästigung und dem Geräuschpegel in Abhängigkeit von der Tageszeit und dem Tagesablauf untersucht. Es wurden allgemeine Befragungen (Interviews) und stündliche Abfragen durchgeführt (fünfstufige Skala:
11.1 Belästigung und Sprachverständlichkeit
507
5 (äußerst)...1 (überhaupt nicht) gestört/belästigt, n = 1100). Die Korrelation zeigt einen deutlichen Zusammenhang (r = 0.53–0.65) zwischen dem stündlich erfragten Grad der Belästigung und der generellen Einschätzung der Störung der Unterhaltung. 100
Erholen Telefonieren
80 W/% 60
Fernsehen/ Radio Gespräch (draußen)
40
20
0 40
50
60 L Aeq,T/dB
70
Fenster muß geschlossen werden Balkon kann nicht benutzt werden sich draußen aufhalten
Abb. 11.1-5a. Anteil der Personen (W in %), die sich in Abhängigkeit vom Fluglärm bei bestimmten Aktivitäten gestört fühlen (2–stufige Skala: gestört bei den Aktivitäten: ja, nein; hier: ja) in Abhängigkeit vom Geräuschpegel (LAeq,T), T = Tag / Nacht (16/8) Std., gemessen vor der äußeren Fassade der Häuser 100 sehr gestört 80 W /%
zumindest ziemlich gestört
60
zumindest etwas gestört
40
20
0 40
50
60 L Aeq,T/dB
70
Abb. 10.1–5b. Anteil der Personen (W in %), die sich durch Fluglärm gestört / belästigt fühlen (Skala von 1 (sehr) bis 4 (gar nicht)); insgesamt sehr gestört ŭ 1; insgesamt zumindest ziemlich gestört ŭ 2; insgesamt zumindest etwas gestört ŭ 3) über dem Geräuschpegel (LAeq,T), T = Tag / Nacht (16/8) Std.; gemessen vor der äußeren Fassade der Häuser
508
11 Lautheit von Sprachreizen, Belästigung durch Geräusche
Der Zusammenhang zwischen der Störung der Sprachkommunikation und den Verkehrsgeräuschen ist für insgesamt gestörte deutlich ausgeprägter als für stark gestörte (Abb. 11.1-6b), für den Schienenverkehr ist er deutlicher als für den Straßenverkehr (s. Tab. 11.1-3, Abb. 11.1-6a, b). Tabelle 11.1-3. Korrelation zwischen den Antworten der allgemeinen Befragung nach der Störung bei der Unterhaltung (Gespräch, Telefonieren, Fernsehen, Musikhören) in der Wohnung, der Unterhaltung (Gespräch) im Freien und der Erholung (Ruhe) in der Wohnung, sowie der Erholung im Freien und dem Geräuschpegel (LAeq,24 in dB), sowie der stündlichen Befragung nach der Belästigung (BL) durch Straßen– oder Schienenverkehr (s.a. Text)
Straße BL LAeq, 24 Schiene BL LAeq, 24
Störung der Unterhaltung Erholung i. d. Wohng im Freien i. d. Wohng im Freien 0.53 0.55 0.59 0.56 0.20 0.22 0.18 0.15 0.65 0.57 0.63 0.62 0.39 0.42 0.22 0.34
Abb. 11.1-6a. Anteil der Personen (W in %), die sich gestört fühlen durch Straßen– (St) oder Schienenlärm (Sch) (außen (a), innen (i)), Skala (5 (äußerst)...1 (überhaupt nicht): Ů 2) über den Geräuschpegel (LAeq,T, T = 24 Std.; gemessen vor der äußeren Fassade der Häuser)
Leider lassen sich die hier genannten Untersuchungen nicht direkt miteinander vergleichen, da die Fragestellungen und insbesondere die benutzten Skalen zu unterschiedlich sind. Die hier beispielhaft genannten Untersuchungen sollen insofern nur verdeutlichen, dass die Störung der Sprachkommunikation einen wesentlichen Anteil an der subjektiv erlebten
11.1 Belästigung und Sprachverständlichkeit
509
Belästigung hat. Eine Analyse von ca. 40 Untersuchungen zu Luft–, Straßen– und Schienenverkehrsgeräuschen nimmt nur Bezug auf die allgemeine Belästigung (Miedema u. Vos 1998; VDI 3722–2). Angegeben wird dort nur der Anteil der stark belästigten Personen (s. Tab. 11.1-4; VDI 3722–2). Der Anteil der einzelnen Störungsfaktoren, wie der der Sprachkommunikation, wird dort nicht diskutiert (Miedema u. Vos 1998).
Abb. 11.1-6b. Anteil der Personen (W in %), die sich stark gestört fühlen durch Straßen– (St) oder Schienenlärm (Sch) (außen (a), innen (i)), Skala (5 (äußerst)...1 (überhaupt nicht): Ů 3.5) über den Geräuschpegel (LAeq,T, T = 24 Std.; gemessen vor der äußeren Fassade der Häuser)
Stellt man trotz der schwierigen Vergleichbarkeit die Anzahl (Anteil) der gestörten Personen in 3 Pegelbereichen (45–55, 55–65, 65–75 dB) für die hier aufgeführten Untersuchungen zusammen, erhält man folgendes Bild (Tab. 11.1-4). Beim Straßenverkehr entspricht der Anteil der stark gestörten Personen etwa dem, der in der VDI 3722–2 angegeben ist. Beim Luftverkehr entsprechen die Belästigungsdaten der beiden Untersuchungen (1990, 1994) auch denen der VDI 3722–2. Der Anteil der Personen, die sich bei der Sprachkommunikation gestört fühlten, ist jedoch beträchtlich höher (wobei die Ergebnisse wegen der verschiedenen Skalen schwer vergleichbar sind). Beim Schienenverkehr ist der Anteil der Personen, die sich gestört fühlen, wesentlich höher als der in VDI 3722–2 genannte; das gilt vor allem umso mehr, je höher der Pegel ist. Es kann vermutet werden, dass die Sprachkommunikation bei intermittierenden Geräuschen für diese Differenzen verantwortlich ist. Denn insbe-
510
11 Lautheit von Sprachreizen, Belästigung durch Geräusche
sondere bei hohen Pegeln ist ein Gespräch, während das Geräusch vorhanden ist (sozusagen in der „on“–Phase), nahezu unmöglich. Daher kann das intermittierende Geräusch (Flugzeug, Zug) bei hohen Pegeln stärker stören, als es der Mittelungspegel vermuten lassen würde (s.a. Abschn. 6.3.3). Tabelle 11.1-4. Prozentsatz der Personen, die sich durch Geräusche belästigt fühlen (BL) oder sich bei der Sprachkommunikation (SK) (außen, innen) gestört fühlen. Je nach Skala (1–10, 1–5, 1–2), wurden jeweils die beiden obersten Skalenpunkte dem stark gestörten (st. gst.) Anteil zugeordnet, beim gestörten Anteil (gst.) wurden die untersten Skalenpunkte (nicht gestört) weggelassen, falls nur zwei Skalenpunkte (gestört: nein, ja) existierten (SK, Flugverkehr), wurde nur der oberste benutzt. Der Bezug der Untersuchungen ist durch die Angabe der Abbildungen erkennbar
Störung Luftverkehr DFG/Gr. 1974 Gj außen 1990 Gj innen 1990 Gj außen 1994 Gj innen 1994 Gj innen 1990 Gj innen 1994 VDI 3722–2 2005 Schienenverkehr Schi außen 2005 Schi innen 2005 VDI 3722–2 Straßenverkehr F/N 1971,1980 St außen 2005 St innen 2005 VDI 3722–2
Geräuschpegel LAeq,24 in dB 45–55 55–65 65–75 gst. st.gst. gst. st.gst. gst. st.gst. Abbildung SK SK SK SK SK BL 35 BL 45 BL
5
15
10 8 9
55 60
15 12 18
75 75
30 25 43
11.1-3,F1,F2 11.1-4a 11.1-4a 11.1-5a 11.1-5a 11.1-4b 11.1-5b -
SK 55 SK 30 BL
25 8 6
75 55
45 18 8
95 80
80 20 14
11.1-6a, b 11.1-6a, b -
SK 18 SK 40 SK 25 BL
3 10 3 8
40 55 40
15 18 5 14
63 65 50
40 20 10 29
11.1-3,S1,S2 11.1-6a, b 11.1-6a, b -
35 25 30 15
40
55 45 55 35
80 70 75 60
Innerhalb einer Studie über Flugzeuglärm (FL: LAeq = 60, 70 dB) und vergleichbarem Straßenverkehrslärm (SL) (Felscher–Suhr 1997), wurde die Belästigung/Störung bei zwölf Aktivitäten mit einer fünfstufigen Belästigungsskala (1 bis 5) erhoben. Die Kommunikationsstörung (außerhalb) liegt in allen Fällen an der Spitze (Häufigkeit der Störung: FL: 2.2– 4.2, SL: 1.7–3.4). Die Kommunikationsstörungen (innen) und Radiohören/Fernsehen lagen im oberen Bereich (FL: 1.5–3.4; SL: 1.3–2.2). Die Untersuchungen zeigen nochmals, dass insbesondere die sprachliche Kommunikation durch Lärm beeinträchtigt ist und diese Beeinträchtigung als belästigend empfunden wird. Lärm ist als psychologische Größe zu sehen, denn was als belästigend empfunden wird, hängt von der subjek-
11.2 Subjektiv empfundene Lautheit von Sprachreizen
511
tiven Einschätzung des einzelnen Individuums ab (s. a. Gottlob 1986). Es hat sich aber beim Straßenverkehrslärm gezeigt, dass bei einem Pegel von 45 dB eine entspannte Unterhaltung im Wohnbereich bereits erschwert ist, ab 50 dB hebt der Sprecher automatisch seine Stimme und bei 65 dB wird zu einer lauten Sprechweise übergegangen. Zusammengefasst können folgende Aspekte genannt werden, die einen Einfluss auf das Empfinden von Belästigung durch Lärm (s.a. Abschn. 6.3.3, 10.3) haben: x Dort wo die sprachliche Kommunikation gestört und beeinträchtigt wird, wird auch die Belästigung hoch sein. x Diese Störung und Belästigung steigen mit der Verringerung der zeitlichen Schwankungen des Geräuschpegels bei gleichen, aber nicht zu hohen Außenpegeln (LNAeq < 75 dB). x Intermittierende Geräusche, d.h. Geräusche mit hohen Pegeln (für kurze Zeit) und relativ geringen Pegeln (für eine längere Zeit) (wie Flug– oder Schienenlärm) stören die Sprachkommunikation besonders deutlich. x Eine Abnahme des Signal–Geräuschverhältnisses erhöht die Belästigung (bei gleichem Geräuschpegel). x Je nach dem ob eine Person während der Unterhaltung die Rolle des Sprechers oder des Hörers übernimmt, verändert sich die Art der Belästigung.
11.2 Subjektiv empfundene Lautheit von Sprachreizen Bevorzugter Sprachpegel, Messung der Lautheit von Sprache Während in Abschnitt 11.1 die Beziehung zwischen der Sprachverständlichkeit und der erlebten Belästigung diskutiert wurde, wird hier auf die Beziehung zwischen dem bevorzugten Pegel zum Hören und Verstehen von Sprache und der subjektiv empfundenen Lautheit dieses Pegels eingegangen. Richards (1975) und Heusden et al. (1979) fanden übereinstimmend, dass Personen bei fehlendem Hintergrundgeräusch den Schallpegel der Sprache von LSAeq = 50 dB als angenehm beurteilen. Dieser Wert stimmt mit den Messwerten der Sprachpegel überein, die Personen wählen, wenn sie – wie Pearsons et al. (1977) feststellen konnten – in ruhiger Umgebung sprechen (Abschn. 5.2). Da die Sprachverständlichkeit vom Pegel des Hintergrundgeräusches abhängig ist, ist zu vermuten, dass sich auch der als besonders angenehm
512
11 Lautheit von Sprachreizen, Belästigung durch Geräusche
beurteilte Sprachpegel abhängig vom Pegel des Hintergrundgeräusches ändert. Richards (1975) und Heusden et al. (1979) versuchten deshalb in ihren Untersuchungen den Zusammenhang zwischen dem bevorzugten Sprachpegel zum Hören von Sprache und dem Pegel des Geräusches genauer zu erfassen (Abb. 11.2-1). Heusden et al. ließen Sprache aus einem Lautsprecher und Rauschen mit einem sprachähnlichen Spektrum aus sechs weiteren Lautsprechern ertönen, um ein diffuses Schallfeld zu erzeugen. Die Personen hatten den Pegel der dargebotenen Sprache so einzustellen, als wären sie Hörer an einem Rundfunkgerät. Die Höhe des Geräuschpegels wurde systematisch variiert. Bis zu einem Geräuschpegel von LNA = 35 dB blieb der vom Hörer eingestellte Sprachpegel konstant. Stieg der Pegel des Umgebungsgeräusches über 35 dB an, nahm der als angenehm beurteilte Pegel der Sprache um 0.3 dB/dB anwachsendem Geräuschpegel zu. In der Untersuchung von Richards liegt dagegen eine Zunahme des als angenehm empfundenen Sprachpegels bei 0.7 dB/dB Anstieg des Hintergrundgeräusches. Die Unterschiede in der Wahl der bevorzugten Pegel zum Hören von Sprache könnten am Versuchsaufbau der Experimente liegen. Während Heusden et al. die Sprache sowie das Geräusch über Lautsprecher abstrahlten, spielte Richards seinen Personen Sprache und Geräusch über Kopfhörer vor. Neben der Erfassung des bevorzugten oder angenehmen Pegels zum Hören von Sprache erhob Richards auch Daten für die angenehmste Lautheit von Sinustönen. Die Ergebnisse beider Untersuchungen sind in Abbildung 11.2-1 dargestellt. Der Einfluss von zeitlich schwankenden Geräuschen auf die Höhe des bevorzugten Pegels der Sprache wurde ergänzend durch Pols et al. (1980) untersucht. Als Geräusche wurden Verkehrsgeräusche und Impulsgeräusche (LNA 10% - LNA 90%) = 4–23 dB benutzt. Der Mittelungspegel (LNAeq) der zeitlich schwankenden Geräusche beschreibt den bevorzugten Pegel zum Hören von Sprache in angemessener Weise (Abb. 11.2-1). Pearsons et al. (1977) fragten nach dem bevorzugten Pegel zum Hören von Sprache beim Fernsehen. Die Zuschauer wurden gebeten, den von ihnen bevorzugten Sprachpegel des Fernsehers angepasst an die Entfernung einzustellen, die sie gewöhnlich vom Gerät entfernt einnehmen. Der gewählte Abstand betrug im Durchschnitt 3 m, der Pegel der Fernsehsprache LSAeq = 61 dB. Abbildung 11.2-1 zeigt den eingestellten Pegel der Sprache, gemessen am Ohr des Hörers in Abhängigkeit vom Hintergrundgeräusch. Bei einem Anstieg des Hintergrundgeräusches von 1 dB wird der Pegel der Sprache um 0.7 dB lauter eingestellt.
11.2 Subjektiv empfundene Lautheit von Sprachreizen
513
Abb. 11.2-1. Bevorzugter Schallpegel zum Hören von Sprache (LSA) bei verdeckendem Hintergrundgeräusch (LNAeq) für sprachähnliches Rauschen (S/SR, nach Heusden et al. 1979), weißes Rauschen (S/WR, nach Richards 1975), zeitlich schwankende Geräusche (S/G, Pols et al. 1980). Zusätzlich sind der eingestellte Sprachpegel beim Fernsehen (S (Ferns.) nach Pearsons et al. 1977) und der angenehmste Schallpegel von Sinustönen (Si/WR, nach Richards 1975) angegeben
Um eine Beziehung zwischen der empfundenen Lautheit der Sprache und dem zum Hören bevorzugten Pegel der Sprache, bei maskierter Sprache, herzustellen, wurde ein weiteres Experiment durchgeführt (Heusden et al. 1979). In diesem Versuch bekamen die Personen abwechselnd alle drei Sekunden einen Sprachreiz (S) ohne und einen Sprachreiz mit Geräusch (S + N) dargeboten. Die Personen hatten die Aufgabe, gemäß ihrer subjektiven Empfindung, die Lautheit des Sprachreizes ohne Geräusch (S) an die Lautheit des Sprachreizes mit Geräusch (S + N) anzupassen. Als Sprachreiz diente ein vorgelesener Text. Heusden et al. führten eine zusätzliche Versuchsbedingung ein, um feststellen zu können, ob die Güte der Sprachverständlichkeit oder der Lautheitseindruck primär für die Lautheitseinstellung verantwortlich war; sie wiederholten den Versuch mit rückwärtslaufender Sprache. Durch diese Art des Reizmaterials war gewährleistet, dass einerseits ein Sprachreiz vorlag, andererseits ein Verstehen des Textes nicht möglich war.
Die Einstellungen der Lautheit in den beiden Experimenten unterschieden sich nicht voneinander. In Abbildung 11.2-2 sind die Ergebnisse von Pollack (1949) und Heusden et al. (1979) zusammengefasst. Aus dieser Abbildung ist ersichtlich, dass die Beurteilung der Lautheit von Sprachreizen mit einem Hintergrundgeräusch im Vergleich zu Sprachreizen ohne
514
11 Lautheit von Sprachreizen, Belästigung durch Geräusche
Hintergrundgeräusch von der Höhe der Geräuschpegel abhängt. Bei ansteigendem Pegel des Hintergrundgeräusches liegt der Pegel des als gleichlaut empfundenen Sprachreizes entsprechend höher als in Bedingungen mit geringerem Geräuschpegel. Geräuschpegel unter LNA = 35 dB wirken sich allerdings nicht auf das Lautheitsurteil aus. Da der Pegel der gesprochenen Sprache mit ansteigendem Hintergrundgeräusch zunimmt (Abb. 5.3-1) und der bevorzugte Pegel zum Hören von Sprache (Abb. 11.2-1) mit zunehmendem Pegel des Hintergrundgeräusches ebenfalls ansteigt, nehmen Heusden et al. an, dass Sprecher und Hörer den Pegel der Sprache ihrer subjektiven Lautheitsempfindung entsprechend dem Pegel angleichen, den sie in Ruhe (d.h. ohne Geräusch) wahrnehmen. In die Bewertung über den bevorzugten Pegel zum Hören von Sprache geht also eher die subjektiv empfundene Lautheit ein als der Wunsch, die Sprache verstehen zu können, was einen Anstieg des Sprachpegels von 1 dB/dB Zunahme des Geräusches bedeuten würde (LSNA = konstant).
Abb. 11.2-2. Pegel der Sprache (LSAe), maskiert durch Rauschen, der so eingestellt wurde, dass er der empfundenen Lautheit der Sprache in Ruhe (LSA) gleich ist. Das benutzte Rauschen (LNA) nach Heusden et al. 1979 ( ) ist sprachähnliches Rauschen und nach Pollack 1949 ( - - - ) weißes Rauschen
Eine häufig gestellte Frage ist die nach der Messung der Lautheit von Sprache. Fastl (1976) ließ Rauschen mit sprachähnlichem Spektrum und gesprochene Sprache miteinander auf ihren Lautheitseindruck vergleichen. Der Pegel der Sprache mit einem Maximum von LSASmax = 73 dB und LSAFmax = 76 dB wurde einem sprachähnlichen Rauschen von LNA = 74 dB in der Lautheit gleichgestellt. Auch wenn der Pegel der Sprache als
11.2 Subjektiv empfundene Lautheit von Sprachreizen
515
Mittelungspegel angegeben wird (LSAeq = 72–74 dB), entsprechen sich die Lautheitswerte vom Pegel der Sprache und vom Pegel des sprachähnlichen Rauschens. Der Lautheitseindruck der Sprache scheint also unabhängig vom Verstehen der Sprache zu sein. Schließlich konnte Fastl noch feststellen, dass, obwohl das sprachähnliche Rauschen im Pegel konstant ist und die Sprache zeitlich stark schwankende Pegel aufweist, für beide Schallereignisse eine Verminderung des Pegels um DL = 6–7 dB eine Halbierung des Lautheitseindrucks zur Folge hat. Im Allgemeinen nimmt man dagegen für Sinustöne und Geräusche an, dass eine Verminderung um 10 dB eine Halbierung des Lautheitseindrucks bewirkt. Petersen u. Petersen (1968) fragten nach den Schallpegelparametern, die den Lautheitseindruck am besten wiedergeben. Sie verglichen in ihren Untersuchungen 13 verschieden ermittelte Schallpegelwerte von Sprache mit den von den Personen eingestellten Lautheitswerten. Die geringsten Abweichungen zwischen den ermittelten Schallpegelwerten und den von den subjektiv eingestellten Lautheitswerten erbrachten die Spitzenwerte des Schalldruckpegels ( pˆ ), die z.B. mit einer Spitzenwertanzeige (Mittelungszeit des Gleichrichters 3 ms, Ausklingzeit 3 s) gemessen werden können. Der Abweichungsbetrag lag etwa zwischen 4–5 dB. Der Mittelungswert über dem Quadrat des Schalldrucks (p2), bei einer Zeitkonstante des Gleichrichters von W = 35 und 100 ms gemessen, ergab zum subjektiv eingestellten Wert Abweichungen von etwa 6–7 dB. Die Berechnung des Schalldruckpegels mit dem VU–Meter (p1,2) bringt Abweichungen zum subjektiv eingestellten Lautheitswert von etwa 9–11 dB. Der Vergleich der Lautheit von Sprache (Wörter, Zahlworte, Sätze) mit der von sinnlosen Wörtern und Sätzen oder sprachähnlichem Rauschen (Tschopp et al. 1992) zeigte, dass sich die Lautheit von sinnvollen und sinnlosen Texten wenig unterschieden (Tab. 11.2-1, links), denn das angegebene Verhältnis der eingestellten Pegel zum Bezugswert war nahe bei 1. Die Übereinstimmung entsprechend der Tabelle 11.2-1 ist dann am höchsten, wenn der Wert nahe 1 und die Standardabweichung (in Klammern) gering ist. Insofern wird die Lautheit (rechts) am besten durch A– bewertete oder unbewerteten Mittelungspegel (LAeq) oder die maximale Lautheit (Nmax) vorhergesagt. Für die objektive Kontrolle der subjektiv empfundenen Lautheit von Sprache ist bisher kein bevorzugtes Messverfahren vereinbart worden, da keines der o.g. Messverfahren mit der Lautheit von Sprache herausragend korreliert (Tschopp et al. 1991), teilweise wird die Impulsbewertung (LSI) vorgeschlagen (Tschopp u. Beckenbauer 1990).
516
11 Lautheit von Sprachreizen, Belästigung durch Geräusche
Tabelle 11.2-1. Vergleich der subjektiv eingestellten Lautheit von Wörtern und Sätzen mit der von sinnlosen Wörtern und Sätzen (links) und sprachähnlichem Rauschen (SR; rechts). Angegeben sind das Verhältnis der objektiv gemessenen Pegel (L; umgerechnet in Intensität) und der Lautheit (N) zum Bezugswert; die Standardabweichung ist in Klammern gesetzt Zeit– Bewertung Impulse Fast Slow Leq Lmax L10 L30 Nmax N30
sinnlose Wörter / Sätze Frequenz–Bewertung Linear 1.0 0.9 0.9 0.8 1.1 0.8 1.0 0.8 0.7
(0.3) (0.4) (0.5) (0.3) (0.3) (0.4) (0.8) (0.1) (0.2)
A–Bew. 0.8 0.6 0.6 0.5
(0.4) (0.3) (0.4) (0.2)
sprachähnliches Rauschen (SR) Frequenz–Bewertung Linear 4.7 3.0 1.1 1.6 6.7 3.3 1.5 0.9 0.5
(4.5) (2.9) (1.1) (1.0) (2.5) (2.0) (1.7) (0.1) (0.2)
A–Bew. 3.0 1.5 0.6 0.7
(1.1) (0.6) (0.3) (0.4)
11.3 Arbeitsleistung unter Lärm Schulleistungsdefizite, Spracherwerb, Irrelevant Speech Effect In neueren Untersuchungen beschäftigte man sich auch mit den Auswirkungen von Verkehrslärm auf die kognitiven Leistungen. Sanz und Mitarbeiter (1993) gingen der Frage nach, inwieweit starker Verkehrslärm in Schulnähe ein Risiko für die Lernleistung von Schülern darstellt. Zu zwei verschiedenen Zeitpunkten (vormittags und nachmittags) wurde der Geräuschpegel an zwei Schulen mit unterschiedlich hoher Lärmbelastung gemessen. Zur Prüfung der Leistungsfähigkeit wurden jeweils in drei verschiedenen Jahrgangsstufen zwei verschiedene Aufmerksamkeitstests durchgeführt. Obwohl sich rein deskriptiv deutliche Leistungsunterschiede in der erwarteten Richtung zeigten, wurde der Effekt nur in einem Test für die Drittklässler signifikant. Die Autoren sehen einen deutlichen negativen Effekt von starken Verkehrsgeräuschen auf die Aufmerksamkeit von Kindern. Es liegt eine Reihe von Untersuchungen vor, die sich mit den Leistungen von Schulkindern beschäftigen, die ständigem Fluglärm ausgesetzt sind (s. a. Guski 2002). Insbesondere untersuchte man die Störung der Konzentrationsfähigkeit, des Erinnerns sprachlichen Materials oder der Lesefähigkeit. Untersuchungen von Haines und Mitarbeitern am Flughafen Heathrow (Haines et al. 2001) konnten nachweisen, dass Kinder, die chro-
11.3 Arbeitsleistung unter Lärm
517
nischem Fluglärm (LNA > 66 dB) ausgesetzt sind, schlechtere Leistungen im Lesen aufweisen, als Kinder, die eine Schule in einem ruhigeren Wohngebiet besuchen. Evans u. Maxwell (1997) untersuchten den Zusammenhang zwischen Lärm und Lesefähigkeit systematisch. Sie wollten direkt ermitteln, ob die in anderen Untersuchungen festgestellten Defizite im Lesen tatsächlich das Ergebnis von aktuellem Lärm darstellen oder ob sich hier eher chronische Defizite durch andauernde Lärmeinflüsse manifestieren. Sie untersuchten Erst– und Zweitklässer zweier Grundschulen, von denen eine in Flughafennähe mit einer Lärmbelastung von LNAeq = 65 dB gelegen war und eine Kontrollschule in einem ruhigeren Gebiet. Obwohl beiden Gruppen der Lesetest unter ruhigen Bedingungen vorgelegt wurde, wiesen die Kinder aus dem Lärmgebiet Defizite in der Lesefähigkeit auf. Es konnte auf diese Weise gezeigt werden, dass nicht die aktuelle Lärmbelastung, sondern eine andauernde Lärmbelastung für die Lesefähigkeit verantwortlich ist. Die Autoren vermuten, dass der Spracherwerb als Vorläufer des Lesenlernens den dahinter liegenden intervenierenden Mechanismus darstellt. In einer weiteren Untersuchung gingen die Autoren (Maxwell u. Evans 2000) dieser Frage gezielt nach. Sie untersuchten insbesondere, wie der Spracherwerb und die Vorläufer der Lesefähigkeit, wie das Erkennen von Buchstaben, Zusammensetzen von Buchstaben zu Wörtern, Erlernen des Symbolgehalts von Wörtern und Zusammenhang zwischen Klang von Sprache und geschriebenem Wort durch Lärm beeinflusst werden. Dazu verglichen sie die Leistungen dreier kognitiver Tests von Kindern in einer lauten und in einer ruhigen Lernumgebung. Es zeigte sich bei zwei dieser Tests, dass Kinder in den ruhigeren Bedingungen bessere Leistungen erbrachten als in der lärmbelasteten Umgebung. Ebenso wurden diese Kinder von ihren Lehrern auf den sprachlichen Skalen höher (besser) eingestuft. Als Ergebnis beider Studien halten die Autoren fest, dass Vorschulkinder, die dauerhaft Lärm ausgesetzt sind, Sprache weniger nutzen, weniger sprachliche Hinweisreize (Cues) aufnehmen und über geringere Sprachwahrnehmungsfertigkeiten verfügen. Die sogenannte RANCH–Studie (Road Traffic and Noise Exposure and Children’s Health and Cognition), die die Untersuchungen von Evans u. Maxwell in drei Staaten – Großbritannien, Spanien, Niederlande – vertieft und fortführt (Clark et al. 2003; Matheson et al. 2003), belegt den störenden Einfluss von Fluglärm. An der Untersuchung nahmen fast 3000 Kinder (n = 2940) im Alter von 9 bis 10 Jahren teil, die Schulen jeweils in der Nähe der Flughäfen von Schiphol (Niederlande), Madrid (Spanien) und Heathrow (Großbritannien) besuchten. Insbesondere die durch Fluglärm beeinträchtigte Sprachwahrnehmung beeinflusst die Entwicklung der Lesefertigkeit, aber auch Gedächtnisleistungen sind betroffen. Auswirkungen
518
11 Lautheit von Sprachreizen, Belästigung durch Geräusche
von Flugzeuglärm auf das Langzeitgedächtnis konnten auch Hiramatsu et al. (2003) in einer japanischen Studie mit Schulkindern belegen. Mit den Auswirkungen von Straßenverkehrslärm auf verschiedene kognitive Kompetenzen bei Kindern – phonologisches Kurzzeitgedächtnis, Befolgen verbaler Anweisungen, Wortidentifikation, Lesen, Rechenaufgaben – beschäftigen sich die Untersuchungen von Klatte et al. (2004) und Sukowski et al. (2004). Im Ergebnis zeigen sich Beeinträchtigungen bei den Rechenleistungen, beim korrekten Lesen, im phonologischen Kurzzeitgedächtnis und bei der korrekten Ausführung von Anweisungen. Die Auswirkungen von verstehbarer und nicht verstehbarer Sprache auf das Arbeitsgedächtnis ist ein lang diskutiertes Thema, bekannt unter dem Begriff “Irrelevant Speech Effect (ISE)“ (zusammengefasst in Klatte et al. 1995). Hier geht es um Aufgaben – meist visuell dargeboten, verbunden mit Sprache –, die durch Sprache als Umgebungsgeräusch gestört werden. Die störende Sprache wird immer akustisch dargeboten und im Unterschied zur Sprache, die in der Aufgabe benutzt wird, als Sprachschall oder auch als Sprachgeräusch (s. Abschn. 6.3.4) bezeichnet. Die spezifische Aufgabe, akustisch dargebotene Sprache, die durch andere Sprachgeräusche gestört wird, zu verstehen, wurde in Abschnitt 6.3.4 ausführlich behandelt. Bei der Störung nicht akustisch dargebotener Aufgaben sind die Probleme ähnlich gelagert. Beobachtet, untersucht und diskutiert wird das Störpotenzial von unterschiedlichen Geräuschen auf die Arbeitsleistung (Jones u. Macken 1993; Klatte u. Hellbrück 1993; Hellbrück 1994; Klatte et al. 1995; Hellbrück et al. 1996; Schlittmeier u. Hellbrück 2004; Schlittmeier u. Thaden 2005), wobei die Störung abhängig von der Art des Geräusches (a bis e) zunimmt: (a) (b) (c) (d) (e)
gleichmäßige Geräusche zeitlich schwankende Geräusche nicht verstehbare Sprache (mehrere Sprecher gleichzeitig) nicht verstehbare Sprache (ein Sprecher) verstehbare Sprache (ein Sprecher).
Die Gesetzmäßigkeit der Störung orientiert sich an der Zunahme der zeitlichen Schwankungen der Geräusche ((a) bis (d)) (ausführliche Diskussion s. Abschn. 6.3.4). Interessant ist vor allem, dass das Störpotenzial für verstehbare (Deutsch für deutsche Versuchspersonen) und nicht verstehbare Sprache (Japanisch für deutsche Versuchspersonen und Deutsch für japanische Versuchspersonen), in etwa gleich ist, ähnlich wie die Störung von gesprochener Sprache durch ein Sprachgeräusch (s. Abschn. 6.3.4). Dabei ist das Störpotenzial von Sprache (verstehbarer oder nicht verstehbarer) deutlich höher als das von anderen fluktuierenden Geräuschen (Musik, synthetische Geräusch etc.). Das spricht dafür, dass der Inhalt der
11.3 Arbeitsleistung unter Lärm
519
Sprache keine oder nur eine geringe Rolle spielt. Es könnte sein, dass das Gehör auf die Wahrnehmung von Sprachlauten mit ihren sich schnell ändernden Intensitäts– und Frequenzmustern einstellt, so dass in Schallereignissen Sprache immer (automatisch) erkannt wird und durch ihren hohen Aufforderungscharakter deutlich stört. Man kann annehmen, dass das Störpotenzial weitgehend unabhängig vom Pegel ist, was aber nur für den bisher bevorzugten Pegelbereich der Sprachgeräusche von 40–60 dB gilt. So konnten Schlittmeier u. Hellbrück (2004) sowie Schlittmeier u. Thaden (2005) sowohl für verständliche als auch unverständliche Sprache zeigen, dass sich bereits bei niedrigen Pegeln (35 dB) signifikante Störungen des Arbeitsgedächtnisses ergeben. Beeinträchtigungen ergeben sich sowohl bei visuell als auch bei verbal dargebotenen Items. Inwieweit verstehbare Information mit einem hohen Aufforderungscharakter (Sprache) das Arbeitsgedächtnis oder das Verstehen von Sprache (s. Abschn. 6.3.4) zusätzlich stört, bleibt der weiteren Forschung überlassen. Zurzeit sprechen die Ergebnisse eher gegen eine solche These. Allerdings liegen hier Ergebnisse von Laborversuchen über 1–2 Stunden vor, in denen eine Aufmerksamkeitsfokussierung auf eine Aufgabe möglich erscheint. Ob nicht doch in der Praxis erkennbare Sprachfetzen mehr stören, als ein im akustischen Verlauf vergleichbares Geräusch, bleibt vorerst dahingestellt. Allerdings ist bekannt – wie Felduntersuchungen im Callcenter (Sust et al. 2002) und Krankenhaus (Sust u. Lorenz 2006) zeigen, dass gerade in Großraum– und Gruppenbüros Sprachfetzen häufig als eine erhebliche Störquelle von den Beschäftigten empfunden werden. Eine gute akustische Gestaltung von Räumen kann Sprachkommunikation hoher Qualität im Nahbereich (< 2–3 m) sowie die Durchführung von schwierigen und komplexen Tätigkeiten ohne Störungen ermöglichen (s. Abschn. 12.3).
12 Gestaltung von Räumen und Kommunikationsgeräten
12.1 Grundsätze der Anwendung Der Anwendungsbereich der Sprachkommunikation ist vielgestaltig. Es wurde schon mehrfach angesprochen, dass die Sprachkommunikation einerseits in allen Lebensbereichen möglich sein sollte (Abschn. 10.4, 10.5), dass andererseits aber auch spezifische Fragestellungen und Aspekte zu beachten sind, wie Schwerhörigkeit (Abschn. 6.3.2, 8.2), Alter (Abschn. 6.5.4), Zweitsprache (Abschn. 6.5.5) oder Gehörschutz (Abschn. 8.4). Wobei die Störung der Sprache (Kapitel 6) und die Messung und Bewertung der Sprachverständlichkeit (Kapitel 7) alle Kommunikationsbereiche tangieren. Es ist das Ziel, dass Gespräche im Bereich der Wohnung, Arbeit und Öffentlichkeit ungestört geführt werden können. Für dieses Umgebungsfeld der Gespräche, das bis zu einem Abstand der Gesprächspartner zueinander von 5 m (in Einzelfällen bis 8 m) geht, wurden für einzelne Tätigkeitsfelder mit Sprachkommunikation Höchstwerte für Geräuschpegel abgeleitet und diskutiert (Abschn.10.5, Tab. 10.5-2). Im Weiteren werden einzelne Anwendungsfelder, in denen die Sprachkommunikation eine besondere Rolle spielt, ausführlicher behandelt, wie x Unterrichtsräume, Ausbildungsräume x Dienstleistungsbereiche, Büro, Callcenter. Für einzelne Kommunikationsformen und Tätigkeiten, die wesentlich durch Gespräche geprägt sind, wird auf die Ergebnisse der Tabelle 10.5-2 verwiesen. Die Norm DIN EN ISO 11690–1, –2 enthält die Maßnahmen zur Reduzierung des Geräuschpegels in Räumen und Umgebungsbereichen. Dabei wird vor allem x die Planung der schalltechnischen Gestaltung, x die Minderung der Geräuschemission von Maschinen und Geräten und x die schalltechnische Optimierung der Räume durch geringe Nachhallzeiten und hohe Werte der Schallausbreitung
522
12 Gestaltung von Räumen und Kommunikationsgeräten
angesprochen. Die akustische Gestaltung von Räumen zur Sprachkommunikation wird in DIN 18041 (2004) behandelt.
12.2 Schule, Unterrichtsräume Sprechanstrengung der Lehrer, Lärmbelastung, optimale Nachhallzeit, Hintergrundgeräusch, Unterrichtsgrundgeräusch, technische und sozialpädagogische Interventionsmaßnahmen, Unterrichtsformen In der Schule ist die Sprachkommunikation eine der wesentlichen Aktivitäten, weil sie das „Transportmittel“ für Wissensvermittlung und Einübung sozialer Verhaltensweisen ist. Damit hat sie einen noch bedeutungsvolleren Rang als beispielsweise in Büro–, Konferenz– und Wohnräumen. Die Räume der Schule werden hier als Beispiel für eine Kommunikationssituation genommen, in der eine Person (Vortragender: Lehrer, einzelne Schüler, Studenten) eine Gruppe anderer Personen (Schüler, Studenten) mittels Sprache informiert. Wenn man dieses breite Feld betrachtet – die Grund– und weiterführenden Schulen, die Universität und die Aus– und Fortbildungseinrichtungen – wird deutlich, dass eine Vielzahl von Räumen und Unterrichtsformen einbezogen werden muss. Einige Autoren machen dies zum Gegenstand ihrer Forschung (Hecker 1994; Hodgson 1999; MacKenzie u. Airey 1999; Schönwälder et al. 2004; Fuchs 2006). Hier wird auf folgende Aspekte eingegangen, auf die: x Analyse der akustischen Situation mit dem Ziel, die Ursachen der akustisch bedingten Belastung zu identifizieren und diese so zu gestalten, dass eine bessere Sprachkommunikation stattfinden kann und die Belastung reduziert wird; x Beschreibung der akustischen Belastung in den Räumen; x schalltechnische Qualität der Räume, Gebäude und ihre Gestaltung; x Unterrichtsgestaltung. Die Sprachkommunikation selbst stellt unter normalen Bedingungen keine Belastung dar. Nur wenn durch Geräusche bedingt der Sprecher lange laut sprechen muss oder der Hörer durch Geräusche oder Nachhall die Sprache schlecht oder gar nicht versteht und sich übermäßig anstrengen und konzentrieren muss, um einen Rest Sprache zu verstehen, bedeutet dies eine Belastung für Sprecher und Hörer (s. Abschn. 10.3, 10.4). In der Schule kommt noch hinzu, dass der allgemeine Schallpegel im Unterricht, bedingt durch die Sprache (Sprechen des Lehrers und der Schüler) und das
12.2 Schule, Unterrichtsräume
523
allgemeine Klassengeräusch so hoch wird, dass er nicht nur die Sprachkommunikation stört, sondern eine generelle Lärmbelästigung darstellt. Die Beschwerden über hohe Schallpegel in Schulen und Kindergärten sind bekannt, und auf die Lärmbelastung von Lehrern und Schülern wird häufig hingewiesen (bspw. Schick et al. 1999). So fanden 32 % der Lehrer ihren Unterricht zu laut bzw. belästigend (noisy/too noisy) (MacKenzie u. Airey 1999), 50 % der Lehrer fühlten sich bei Pegeln von über 67 dB stark gestört (Schönwälder et al. 2004). Man unterscheidet zwischen dem Schallpegel im Raum ohne Sprache (ohne gezieltes Sprechen des Lehrers oder der Schüler zum Zweck der Kommunikation), der Sprache selbst und dem allgemeinen Schallpegel, bei dem alle Quellen (auch das Sprechen) einbezogen sind. Es hat sich auch als zweckmäßig erwiesen, drei Raumarten zu unterscheiden: x Klassenräume, Unterrichtsräume (vorwiegend Schule) x Vortragsräume (vorwiegend Universität) x Sonderräume: Sport– und Musikräume. Der Schallpegel ist in den Klassenräumen recht unterschiedlich. Er kann auf über 80 dB steigen, wenn alle tätig sind oder entsprechend der Situation die Aktivitäten (Sprechen von Schülern und Lehrer) gleichzeitig ablaufen. Während des normalen Unterrichts liegt der Pegel bei 59–65 dB, in ruhigen Situationen, wenn die Schüler arbeiten, sind es 55–59 dB. Die Belastung ohne die fünf Randminuten (35 min.) einer Schulstunde liegt deutlich (3 dB) niedriger als die, die über die 45 Minuten gemessen wurde. Das gilt insbesondere für die hohen Pegel. Werte unter 55 dB werden selten erreicht (s. Tab. 12.1-1). Eine Reduzierung der Schallpegel kann natürlich nur gelingen, wenn die Ursachen und Quellen der hohen Pegel bekannt sind. Dazu werden zunächst das Hintergrundgeräusch und die Nachhallzeit ermittelt. Beide können zu hohe Werte aufweisen. Die Verschlechterung der Sprachverständlichkeit durch Geräusche und Nachhall ist bekannt (Abschn. 6 und 7). Um diese zu kompensieren, muss lauter gesprochen werden, was vor allem eine höhere Belastung für den Lehrer ist. Dieses laute Sprechen kann aber auch generell zu höheren Pegeln führen, was wiederum die Sprachverständlichkeit verringern kann. Es besteht die Vermutung, dass ein relativ hoher Pegel die Schüler anregt, sich generell lauter zu verhalten (s.u.). Die Unterrichtsform wäre eine weitere, nicht technische Einflussgröße. Hintergrundgeräusch und Nachhall sind die beiden technischen Daten der Räume in Schulen, die die Voraussetzung für eine optimale Kommunikation erfüllen sollen, aber eben dieses häufig nicht tun, was im Folgenden kurz dargestellt wird.
524
12 Gestaltung von Räumen und Kommunikationsgeräten
Tabelle 12.1-1. Geräuschbelastung im Unterricht: Schallpegel in Klassenräumen (KR) von Schulen und Universitäten (Mittelungspegel LAeq,T in dB; T Mittelungsdauer in Minuten, mit und ohne Sprechen des Lehrers und der Schüler) während des Unterrichts (U), wenn nicht anders angegeben, erfolgte die Messung im Klassenraum (an verschiedenen Punkten) während der üblichen Aktivitäten bei der Anwesenheit von Lehrer und Schülern (VKL Verkehrslärm) 1 Autoren 1 Gundermann u. Lüth 1964 2 Pearsons et al. 1977 3 Schulz u. Klimt 1979 4 Markides 1986
5
6
7 8
9
2
3 4 5 Mittelungspegel LAeq,T in dB während d. ohne T in min Bemerkungen Sprechens Sprechen 50–60 15 Schüler im Raum
48(45–52) 51(48–56)
U. (9 KR) Schule 1 U. (9 KR) Schule 2 (imVKL) 75–81 120–180 während des U. (5 KR) 46–55 10–20 leere KR, geschl. Fenst. (4KR) 60 10 leere KR, offene Fenster Schwerh.–Schule 1, 2 (13 KR) 76(60–92) 5 U. (einz. laute Nebenger.) 46(40–55) 5 U. (Schüler sind ruhig) 61(50–70) 5 U. (Schüler unterhalten sich) Pekkarin- 67(58–79) U. (Lehrer spr.) (24 KR) nen u. Vil33(23–49) 20 27 leere KR janen 1991 Hecker 59–68 45 U. (KR) 1994 74–77 5 alle Schüler im Raum, Pause 48 5 Ruhe 59–61 5 Frontalunterricht 61–65 5 Allg. Unterricht 54–59 5 Einzelarbeit der Schüler 65–78 45 Holzwerkstatt 70–82 45 Sporthalle Hodgson 44(35–51) Allg. Hintergrundger. (18 KR) 1999 51(43–59) Sprechen des Lehrers Mac49–77 15 U. (6 Std.) Kenzie u. 56 Schüler sind ruhig Airey 77 Schüler arbeiten u. sprechen 1999 70 Lehrer spricht Schön65(51–86) 35 U. (30 KR, 460 UStd.) wälder et 67(54–98) 45 U. (30 KR, 430 UStd.) al. 2004 62–69 5 Schulen
Das Hintergrundgeräusch stellt den Pegel dar, der im leeren Raum auftritt (s.a. Tab. 10.5-3). Er gibt den Wert des Geräusches an, der von außen
12.2 Schule, Unterrichtsräume
525
(Kfz, Bahn, Flugzeug) oder vom Inneren des Gebäudes (Sprachfetzen vom Flur, Nachbarraum; haustechnische Anlagen wie Klima, Lüftung oder Heizung) noch in den Raum eindringen kann (i.d.R. bei geschlossenen Fenstern und Türen). Bei der Messung müssen die typische Verkehrssituation erfasst und die haustechnischen Anlagen in Betrieb sein. Der Pegel des Hintergrundgeräusches gibt die bautechnische Qualität des Schulgebäudes hinsichtlich seiner Schalldämmeigenschaften wieder. Die Werte, wie sie in den einzelnen Untersuchungen ermittelt wurden, liegen bei LA = 25 bis 55 dB (Tab. 12.2-2), in Sonderfällen natürlich kurzfristig höher (bei bis 78 dB, Flugzeugstart). Tabelle 12.2-2. Geräusche in Klassenräumen (KR): Hintergrundgeräusch (leere Räume, Fenster geschlossen; LNAeq in dB), Schülergeräusch (auch Unterrichtsgrundgeräusch; Minimum von LNAeq,T in dB mit T =10–60 s), Schallpegel der Sprache des Lehrers, ermittelt in 2–4 m vom Lehrer) oder im Raum (Bereich (RB)), wo die Schüler sitzen; (Sch.: Schule, Fls: Flugzeugstart; Flh: Flughafen) Geräuschpegel HintergrundSchüler- Sprechpegel geräusch (G): geräusch der Verkehrsger.: V, (ruhig, o. Lehrer Lüftung– u.. Sprechen) Autoren Klimager.: K; LNAeq,T LSA Messort Bemerkungen in dB LNAeq in dB in dB 1 Gündermann 60–70 4 m/RB 4 KR u. Lüth 1964 2 Pearsons 43 (V) 62 / 57 2 m/RB Sch1,9 KR, leer et al. 1977 47 (V) 66 / 62 2 m/RB Sch2,9 KR, leer 3 Schulz u. 46–55 (V) 4 KR leer Klimt 1979 4 Markides 45(40–50)(V, K) 57(45–68) 2 m 5 KR Sch.1 1986 48(40–55)(V, K) 58(40–70) 2 m 8 KR Sch.2 5 Pekkarinen u. 33(23–49)(V, K) 49(40–58) 27 KR Viljanen 1991 6 Hodgson 41(33–47) (K) 42(30–50) 51(53–59) RB et al. 1999 7 Hodgson 1999 42(30–50) 30 KR 8 MacKenzie u. 45 (55.5) RB Airey 1999 9 Chen u. 42–51 (ohne G.) Sch.1–4: leer, Charuk 2001 60–78 (mit Fls.) nähe Flh. 10 Schönwälder 32–52 30 KR et al. 2004
526
12 Gestaltung von Räumen und Kommunikationsgeräten
Zusätzlich wird zum Geräuschpegel in leeren Räumen noch das Unterrichtsgrundgeräusch (Schülergeräusch) angegeben (Tab 12.2-2). Es wird gemessen (a) während die Schüler im Raum sind und die Instruktion haben, möglichst ruhig zu sein, oder (b) es wird das Minimum des Pegelverlaufs in den Räumen während des Unterrichts (Minimum von LAeq,10s (Zeile 10); LAF,90% (Zeile 5, 6)) ermittelt. Das Unterrichtsgrundgeräusch liegt bei 30–58 dB. Hier bildet sich das allgemeine Grundgeräusch im Raum, das sich aus dem Hintergrundgeräusch (Quellen von außen) und dem von Schülern erzeugten Geräusch (ohne direktes lautes Sprechen) zusammensetzt. Die Nachhallzeit (Tab. 12.2-3) in Schulen ist nach dem Hintergrundgeräusch die zweite wichtige Größe. Sie gibt an, wie schnell die akustische Energie im Raum abklingt. Gemessen wird die frühe Nachhallzeit (EDT) und die Nachhallzeit (T) (s. Abschn. 6.4). Diese sind in Klassenräumen nahezu identisch (Hodgson 1999). Nimmt die Energie zu langsam ab (zu hohe Nachhallzeit), wird das nächste zu erkennende Phonem durch das vorhergegangene etwas verwischt, dadurch sinkt die Sprachverständlichkeit. Die Nachhallzeit liegt in leeren Räumen bei 0.4 bis 1.5 s, teilweise auch darüber. In Räumen mit Schülern sinken zwar die hohen Nachhallzeiten, die niedrigen bleiben aber weitgehend erhalten (0.2–1.1 s). Tabelle 12.2-3. Nachhallzeit in Schulen (Abkürzungen s. Tab. 12.2-1, -2) Autoren Pekkarinen u. Viljanen 1991 MacKenzie u. Airey 1999 Hodgson 1999 Schönwälder et al. 2004
Nachhallzeit in s Bewertungen leer mit Schülern besetzt 0.7 (0.4–1.6) 0.6 (0.4–1.1) 0.5 kHz 31/23 KR 0.78 0.63 KR, 0.5 kHz 4.60 Schwimmhalle 3.20 Mehrzweckhalle 0.6 (0.4–1.5) 0.4 (0.2–0.8) 30 KR, EDT, T 0.81–1.36 0.74–0,97 Schule 1 (30 KR) 0.48 0.43 Schule 2 0.42–0.74 0.38–0.64 Schule 3 0.55–0.87 0.44–0.75 Schule 4 0.75 0.64 Schule 5 1.30–1.80 Sporthalle
In einigen Untersuchungen wurden auch Verfahren zur Ermittlung der Sprachindices und der Sprachverständlichkeit benutzt. Zur Ermittlung der Sprachindices wurden entweder die gemessenen akustischen Daten der Räume herangezogen oder die Verfahren angewendet, die den Sprach– Übertragungsindex STI oder das RASTI–Verfahren auf direktem Wege
12.2 Schule, Unterrichtsräume
527
messen (s. Abschn. 7). Über einen Lautsprecher werden entsprechende sprachähnliche Signale gesendet und diese an den Schülerplätzen gemessen und ausgewertet. Die Ergebnisse (Tab. 12.2-4) der Sprachindexverfahren (STI, RASTI) liegen bei etwa 0.2 bis 0.85, im leeren Raum sind sie meistens etwas geringer. Die Messungen in Räumen (mit Schülern besetzt) sind problematisch. Durch die etwas geringere Nachhallzeit (mit Schülern) werden die STI–Werte eher etwas höher (besser), da die Schüler aber nie ganz ruhig sind (hohes Grundgeräusch), können die Verständlichkeitswerte auch geringer werden (Tab. 12.2-4, Zeile 4). Welcher ist nun der r„ichtige“Wert? Die interessantere Frage ist natürlich die nach einer geringeren Lärmbelastung und einer besseren Sprachverständlichkeit. Dazu werden zunächst die Einflüsse des Hintergrundgeräusches und der Nachhallzeit betrachtet. Tabelle 12.2-4. Sprachindices (Vorhersage der Sprachverständlichkeit) in Klassenräumen (STI, RASTI =0 bis 1 (schlecht bis sehr gut)); AL cons =0 bis 100 % (sehr gut bis schlecht); Signal–Geräuschabstand (LSNA in dB); Sprachverständlichkeit (SV in % , PB–Wörter) Autoren 1 Pekkarinen u. Viljanen 1991 2 Diaz u. Velazquez 1995
3 Hodgson 1999 4 MacKenzie u. Airey 1999 5 Schönwälder et al. 2004
Werte der Sprachindices leer mit Schülern besetzt Bemerkungen 0.68 (0.44–0.81) 0.72 (0.6–0.81) RASTI, 30/23 KR 18 (5–40) LSNA =L Aeq - LA90% in dB (24 KR) 4 KR 0.19–0.83 RASTI -9.0–9.8 LSNA in dB 48–93 SV in % 0.45–0.79 0.65–0.85 STI (30KR) 0.6 0.5 STI 10.8 13.7 ALcons in % STI (30KR) 0.56–0.70 0.63–0.70 Schule 1 0.78 0.80 Schule 2 0.71–0.80 0.71–0.81 Schule 3 0.70–0.76 0.70–0.81 Schule 4 0.68 0.71 Schule 5
Das Hintergrundgeräusch sollte möglichst gering sein. Der Lehrer kann dann leiser sprechen, um eine gleiche oder verbesserte Sprachverständlichkeit zu erreichen, da sich der Signal–Geräuschabstand erhöhen kann. Ein um 3–4 dB niedrigeres Hintergrundgeräusch führt dazu, dass der Lehrer seine Sprechanstrengung (1–4 dB) reduziert (s. Tab. 12.2-2, Zeile 2, 4; s.a. Abb. 12.2-2).
528
12 Gestaltung von Räumen und Kommunikationsgeräten
Das Hintergrundgeräusch und die Nachhallzeit erhöhen das Grundgeräusch im Klassenraum, wenn sie beide oder eines von beiden erhöhte Werte haben. Dies soll kurz erläutert werden, da hier technische Ausgangsdaten und das Verhalten der Personen zusammenspielen. Jede kleine Geräuschquelle, wie das Hantieren mit Möbeln und Taschen, motorische Aktionen (herumlaufen), willkürliche (diffuse) Laute (Lachen, Quietschen), unwillkürliche Laute (Husten, Niesen), Nebengespräche, Aufmerksamkeit erzielen (Melden) ist dann lauter und erzeugt damit einen höheren Geräuschpegel als bei einer niedrigeren Nachhallzeit. Dadurch bedingt müssen die Nebengespräche auch mit einem etwas höheren Pegel geführt werden, was das allgemeine Grundgeräusch wieder erhöht. So konnte gezeigt werden (Abb. 12.2-1), dass der Unterrichtsgrundgeräuschpegel (Minimum von LAeq,10s , ermittelt während der jeweiligen gesamten Unterrichtsstunde: 34–45 dB) gut mit der Nachhallzeit (0.3–1.5 s) korreliert (Schönwälder et al. 2004; Tiesler u. Oberdörster 2005). Das Hintergrundgeräusch wirkt in gleicher Weise wie das Unterrichtsgrundgeräusch. 50
45 LA/dB 40
35
30 0
1
T/s
2
Abb. 12.2-1. Unterrichtsgrundgeräusch (LA) in Abhängigkeit von der Nachhallzeit (T) (5 Schulen, 30 Klassenräume) (Symbole: leer (— ): Klassenraum besetzt, gefüllt (----): Klassenraum leer; die 3 Symbole bedeuten unterschiedliche Schulen)
Die Nachhallzeit hat aber auch einen Einfluss auf den Transport der Sprache. Um sprachliche Kommunikation zu optimieren, sollte möglichst viel Schall vom Sprecher (Lehrer) zum Hörer (Schüler) gelangen. Dazu muss der Lehrer laut genug sprechen (Direktschall) und es muss auch möglichst viel Reflexionsschall innerhalb der ersten 50 ms zum Hörer gelangen (s. Abschn. 6.4). Dafür werden in der Regel die Reflexionen der Decke genutzt. Reflexionsschall, der nicht innerhalb der 50 ms den Hörer erreicht, ist von Nachteil. Damit die frühen Deckenreflexionen für die
12.2 Schule, Unterrichtsräume
529
Sprachverständlichkeit beim Schüler genutzt werden können, sollte die Absorption vorwiegend nicht an der Decke angebracht werden (s.u.). Die Sprechanstrengung des Lehrers – das andauernde laute Sprechen – ist eine seiner Hauptbelastungen. Leider sind die meisten Messungen des Sprechpegels des Lehrers nur im Kassenraum beim Schüler (Raumbereich RB) erfolgt und entsprechend wenig aussagefähig. Zwei Untersuchungen (Pearsons et al. 1977; Markides 1986) sind jedoch präzise genug, um Aussagen zur Abhängigkeit des Sprechpegels von dem während des Sprechens vorhandenen Geräusch machen zu können. So konnte gezeigt werden, dass das Hintergrundgeräusch den Sprechpegel wesentlich bestimmt, die Korrelationskoeffizienten lagen bei r =0.55– 0.75. In Abbildung 12.2-2 ist die Sprechanstrengung (Sprechpegel in 1 m Abstand, LSA,1m) über dem Störgeräuschpegel dargestellt. Bemerkenswert sind die sorgfältigen Messungen von Pearsons et al. 1977. Im Gegensatz zum üblichen Lombardeffekt (Abschn. 5.3, 5.7), bei dem der Sprecher etwa 0.5 dB pro 1 dB Geräuschpegelzunahme lauter spricht (Abb. 5.3-1), steigt der Geräuschpegel der Lehrer mit etwa 1 dB pro 1 dB Geräuschpegelzunahme. Sie erreichen damit ein etwa gleiches Signal–Geräuschverhältnis bei ihren Schülern, das quasi unabhängig von der Höhe des Störgeräusches ist. Die Lehrer gleichen damit den höheren Geräuschpegel durch eine höhere Sprechanstrengung aus, was die weiblichen Lehrer stärker trifft, da sie sich dabei naturgemäß stärker anstrengen müssen als ihre männlichen Kollegen (s. Abschn. 5.2; Tab. 5.2-3; Abb. 5.5.1-1). 80 P
L SA /dB
M
70
60
50 35
45
L NA /dB
55
Abb. 12.2-2. Sprechanstrengung von Lehrern (Mittelwert der Sprechpegel in 1 m Abstand: LSA in dB) für Klassenräume mit üblichen Unterrichtsgeräuschen (LNA); P (nach Pearsons, Sprechpegel: Tab. 12.2-2, Zeile 2; Geräusch: Tab. 12.2-1, Zeile 2; 18 KR) und M (nach Markides, Sprechpegel: Tab. 12.2-2, Zeile 4; Geräusch Tab. 12.2-1, Zeile 4 (Zeile: U (Schüler sind ruhig)); 20 Lehrer)
530
12 Gestaltung von Räumen und Kommunikationsgeräten
In Abbildung 12.2-2 sind nur die mittleren Werte angegeben, allerdings variieren die Sprechpegel der Lehrer beträchtlich. Bei einem Geräuschpegel (Hintergrundgeräusch) von 45–55 dB liegt ihr Sprechpegel (1 m) bei 67–78 dB. Die Sprechanstrengung (LSA,1m) der 20 Lehrer in der Untersuchung von Markides kann nur abgeschätzt werden, da nur Messdaten für eine Entfernung von 2m vorliegen. Die Ergebnisse liegen aber in derselben Größenordnung wie die von Pearsons ermittelten, obwohl diese (von Markides) in einer Schwerhörigenschule ermittelt worden sind. Auch hier ist der Variationsbereich beträchtlich: bei Geräuschpegeln von 40–55 dB liegt der Sprechpegel (1 m) zwischen 51 und 76 dB. Pearsons et al. zeigen, dass etwa 20 % der Lehrer mit einem Schallpegel sprechen müssen, der höher als LSA,1m = 75 dB ist (s.a. Abschn. 5.7). Man kann schließlich festhalten, dass die Lehrer bei höheren Geräuschpegeln (z.B. 10 dB) zwar eine ausreichende Sprachverständigung mit den Schülern sicherstellen, dieses aber nur durch einen höheren Sprechpegel (durch lauteres Sprechen) erreichen können, d.h. durch eine erhöhte Sprechanstrengung. Funktionsstörungen des Sprechorgans treten bei Lehrern/Lehrerinnen relativ häufig auf. Notwendig sind Maßnahmen zur Pegelminderung und Sprechtraining (Lazarus et al. 1985). Alle Autoren (Gundermann u. Lüth 1964; Pearsons et al. 1977; Schulz u. Klimt 1979; Markides 1986; Pekkarinen u. Viljanen 1990; Pekkarinen u. Viljanen 1991; Hecker 1994; Diaz u. Velazquez 1995; Berg et al. 1996; MacKenzie et al. 1996; Hodgson 1999; Hodgson et al. 1999; MacKenzie u. Airey 1999; Schick et al. 1999; Bistafa u. Bradley 2000c; Chen u. Charuk 2001; Schönwälder et al. 2004; Klatte 2006; Fuchs 2006) weisen darauf hin, dass die Situation der Unterrichtsräume in Schulen und Universitäten sehr vielfältig ist und dass gerade die akustische Situation der kritischen (negativen) Fälle durch eine Reduzierung des Geräuschpegels und der Nachhallzeit verbessert werden muss und dies in den meisten Fällen auch ohne weiteres möglich ist. Für das Ziel einer optimal gestalteten Schule ist es immer sinnvoll, Stufen der schalltechnischen Qualität und nicht nur einen Wert anzugeben, denn in keinem Fall ist z.B. eine Nachhallzeit von über 0.6 s sehr schlecht und unter 0.6 s sehr gut. Folgende Werte sollten in Klassenräumen erreicht werden: x Hintergrundgeräusch: x Nachhallzeit:
LNAeq = 30–40 dB T = 0.5–0.8 s
Will man auch Schwerhörige, das sind Personen mit leichten und mittleren Hörschäden (ohne Hörgeräte) integrieren, benötigt man immer den niedrigeren Wert (s. Abschn. 8.2).
12.2 Schule, Unterrichtsräume
531
Zur Gestaltung von Klassenräumen sind in DIN 18041 differenzierte Ausführungen gemacht. Hinsichtlich des Hintergrundgeräusches ist es wichtig, die Geräuschquelle zu kennen (Kfz, Lüftung), um dann gezielt reagieren zu können (z.B. besser Fenster mit Zwangslüftung, etc.). Zur Raumgestaltung ist festzuhalten, dass einerseits eine möglichst niedrige Nachhallzeit, insbesondere für Schwerhörige, benötigt wird, dass es andererseits darum geht, möglichst viel Direktschall und die ersten Reflexionen über die Decke zum Hörer zu transportieren. Einige Maßnahmen zur besseren Gestaltung sollen hier angesprochen werden. Das Hintergrundgeräusch kann man sehr gut durch verbesserte Fenster oder Wände reduzieren. Eine Reduzierung um 10 dB ist, wenn die Quellen von außen kommen, in der Regel erreichbar. Eine erhöhte Schallabsorption im Raum und die damit erniedrigte Nachhallzeit wirken auf mehrfache Weise. Zum einen wird der Pegel des oben genannten Hintergrundgeräusches weiter reduziert (um bis zu 3 dB). Reduziert wird aus dem gleichen Grund auch das Unterrichtsgrundgeräusch. Der Raumschallpegel, der durch die in den Raum eingedrungenen Geräusche und die dort vorhandenen Schallquellen (u.a. auch die Geräusche der Schüler) entsteht, kann sich durch die schallreduzierende Absorption nicht so schnell aufbauen. Der Schallpegel im Raum ist geringer. Es kommt aber ein weiterer Prozess hinzu, der schon angesprochen wurde. Durch das geringere Hintergrund– und Unterrichtsgrundgeräusch kann leiser gesprochen werden, auch die Nebengeräusche (Flüstern mit Nachbarn) funktionieren auf niedrigerem Niveau. Dieses Sozialverhalten – eine Reaktion auf die geringere Nachhallzeit – führt nun dazu, dass insgesamt das allgemeine Niveau des Raumschallpegels gesenkt werden kann (bis zu 5– 10 dB). Für einen Klassenraum (7 x 7 x 3.7 m3) wurde der Einfluss einzelner Maßnahmen geprüft (Rietschote et al. 1981). Gemessen und berechnet wurde der STI in leerem Zustand, mit Schülern (simuliert mit einer Absorption von Į =0.2) und mit einem Teppich versehen, jeweils mit und ohne Wandabsorber (Decke reflektierend): Absorption am Boden Schüler (Į =0.2) Teppich (Į =0.5)
ohne Wandabsorber 0.48 0.63
mit Wandabsorber 0.62 0.70
Man sieht recht deutlich, dass eine Absorptionsmaßnahme (Teppich oder Wandabsorber) schon eine beträchtliche Erhöhung des STI bewirkt, aber erst beide Maßnahmen zusammen bewirken einen STI von über 0.7 (s.a. Abschn. 7.4.3). Sala et al. (1995) zeigen jedoch, dass die Sprachver-
532
12 Gestaltung von Räumen und Kommunikationsgeräten
ständlichkeit am besten ist, wenn zwei Flächen (Decke und Rück– oder Seitenwand) absorbierend ausgekleidet sind. Festzuhalten ist, dass Maßnahmen zur Verringerung der Nachhallzeit, dann besonders wirkungsvoll sind, wenn sie vorher besonders hoch war. Für einige Studien sind vergleichbare Werte für die gleichen Räume vor und nach den raumakustischen Maßnahmen (im Wesentlichen schallabsorbierende Decken) zusammengestellt (Tab. 12.2-5). Dadurch ergibt sich eine Reihe positiver Veränderungen: x x x x x
Verringerung der Nachhallzeit Senkung des Unterrichtsgeräuschpegels Senkung des Grundgeräuschpegels Abnahme des Sprechaufwands (des Lehrers) Zunahme der Sprachverständlichkeit.
Tabelle 12.2-5. Verbesserungen der Situation in mehreren Klassenräumen (KR) durch eine schallabsorbierende Decke: wahlweise durch die Messung der Nachhallzeit (T), des Schallpegels des Unterrichtsgrundgeräusches (LNA, Minimum von LAeq,10s) und des mittleren Unterrichtspegels über 35 Minuten (LAeq,35), der Sprachindices (STI, ALcons) und der Sprachverständlichkeit (SV) von Einsilbern (E) vor und nach der Maßnahme
Autoren Pekkarinen u. Viljanen 1990 MacKenzie u. Airey 1999
Schönwälder et al. 2004
Schalltechnische Gestaltung (schallabsorbierende Decke) Raum leer Raum mit Schülern besetzt vor nach vor nach 1.7 0.7 40 67 0.70 0.40 0.60 0.40 44.70 40.10 55.50 46.50 0.60 0.70 0.50 0.70 10.80 4.60 13.70 4.60 0.30 0.90 0.40 1.40 0.30 0.80 0.40 0.95 0.25 0.78 0.30 0.88 65 69 64 66 59 64 45 47 42 45 40 45 0.88 0.64 0.84 0.55 0.86 0.70 0.85 0.70 0.87 0.71 0.85 0.68
Messverfahren T in s; SV(E) in ,% bei LSNA =2 dB T in s LNA in dB STI ALcons KR 1, T in s KR 2, T in s KR 3, T in s KR 1, LAeq,35 in dB KR 2, LAeq,35 in dB KR 3, LAeq,35 in dB KR 1, LAeq,10s in dB KR 2, LAeq,10s in dB KR 3, LAeq,10s in dB KR 1, STI KR 2, STI KR 3, STI
12.2 Schule, Unterrichtsräume
533
Am deutlichsten zeigt sich die Verbesserung bei der Pegelhäufigkeit (Abb. 12.2-3), aber auch beim Unterrichtsgrundgeräuschpegel (Minimum von LAeq,10s; LA1s,95%, Abb. 12.2-1, -4). Das sind messbare Pegelunterschiede bis zu über 10 dB. Es wird vor allem deutlich, dass der Aufbau eines hohen Unterrichtsgrundgeräuschpegels fast ganz verhindert werden kann (Abb. 12.2-4).
Abb. 12.2-3. Verteilung (W in )%der Schallpegel (L A =L Aeq,1s) während einer Unterrichtsstunde (gleicher Lehrer, gleiche Klasse, entsprechender Unterricht) vor (rechts) und nach (links) der Maßnahme (vM, nM); M: Einbau einer schallabsorbierenden Decke in einem Klassenraum 70 vM nM 60 LA/dB
50
40 1
2
3
4
5 US
Abb. 12.2-4. Unterrichtsgrundgeräuschpegel (LA: Minimum von LAeq,10s gemessen jeweils über 45 min) für fünf aufeinander folgende Unterrichtsstunden (US) vor und nach der Maßnahme (vM, nM); M: Einbau einer schallabsorbierenden Decke
Das was man aus der Erfahrung kannte, scheint sich jetzt auch durch eine sorgfältige Analyse zumindest teilweise belegen zu lassen: Unterrichts-
534
12 Gestaltung von Räumen und Kommunikationsgeräten
formen und Konzepte von Unterricht wirken sich auf die Höhe des Schallpegels im Unterricht aus (Schönwälder et al. 2004; Oberdörster u. Tiesler 2005a, b). Bei der Gegenüberstellung von Frontalunterricht zu offenen Unterrichtsformen ergibt sich ein Anstieg des Unterrichtsgeräuschpegels (im Mittel von LAeq = 60 auf 70 dB) mit Zunahme des prozentualen Anteils der offenen Arbeitsformen (von 20 auf 100 %). Der Anteil, in dem der Lehrer oder die Schüler sprechen, ist dagegen über alle Unterrichtsformen etwa gleich verteilt (Oberdörster u. Tiesler 2005a, b). Raumakustische Maßnahmen sollten sich wegen der höheren Pegel vor allem bei den offenen Unterrichtsformen auswirken. Offenbar kann der Unterrichtsgrundgeräuschpegel (LA,95%) verringert werden, so dass er zwischen den verschiedenen Unterrichtsformen nur noch gering ist (5 dB), wogegen er in den Klassenräumen vor den Sanierungsmaßnahmen 10 dB betrug (s. Abb. 12.2-5). 70 vM nM
LA/dB 60
50
40 0-20
20-60
60-100 FU/%
Abb. 12.2-5. Schalldruckpegel des Unterrichtsgrundgeräusches (LA = LAeq,1s,95% in dB) für eher offene Unterrichtsformen (0–20 % FU) und eher frontalen Unterricht (FU) (60–100 % FU) vor und nach der Raumakustischen Maßnahme (vM, nM)
Ergänzend zu den technischen Maßnahmen zur Pegelminderung sollen noch die sozialpädagogischen Maßnahmen diskutiert werden. In der schon mehrfach erwähnten Studie (Schönwälder et al. 2004) wurden fünf Schulen untersucht. Dabei fielen zwei Schulen als besonders leise auf (Tab. 12.2-1, Spalte: Median LAeq,45 = 62 bis 64 dB gegenüber den lauten: LAeq,45 = 68 bis 69 dB). Diese leisen Schulen (3 und 5) lagen zwar von ihren technisch–akustischen Daten im Bereich der fünf untersuchten Schulen, in ihnen werden aber schon seit längerer Zeit im Rahmen eines sozialpädagogischen Gesamtkonzeptes auch Trainingsmaßnahmen zur Lärmreduzierung
12.2 Schule, Unterrichtsräume
535
praktiziert. Dabei werden systematisch, insbesondere schon für Schulanfänger, Verhaltenstrainingsmaßnahmen entwickelt und eingeführt. Insbesondere wird über akustische Zusammenhänge informiert und es werden Verhaltensrituale eingeübt. Nur durch dieses lärmreduzierende Trainingsprogramm ist der Pegelunterschied zwischen den Schulen 3 und 5 gegenüber den Schulen 1 und 2 (4) von über 5 dB zu erklären. Bei der kurzfristigen Einführung eines solchen Lernprojektes in der lauten Schule 2 sind zwar nachweisbare Erfolge zu verzeichnen (die Pegelreduzierung lag bei 0.5–4 dB im Vergleich vorher zu nachher), sie konnten aber, auf Grund der kurzfristig eingeführten Intervention, nur gering sein. In der Herriot–Watt Studie (MacKenzie u. Airey 1999) wird auf die geringe Übereinstimmung von subjektiven Eindrücken und Befragungen gegenüber objektiven Messdaten bei akustischen Maßnahmen in Schulen hingewiesen. Das erfordert genauere Analysen. So zeigt eine Beurteilung der letzten Studien (insb. Schönwälder et al. 2004), dass man durch eine differenzierte interdisziplinäre Arbeit das Lärmaufkommen in Schulen besser erklären kann. Werden Unterrichtsformen und Verhaltenstrainings anhand konstituierter Lehrer–Schüler–Kombination in die Analyse einbezogen, wird ein Teil der akustisch–technischen Analysen, Maßnahmen und Ergebnisse erst signifikant, anschaulich und interpretierbar. Mit Maßnahmen zur Optimierung der Sprachverständlichkeit in Klassenräumen hat sich eine Reihe von Studien befasst. Vorausgesetzt wurde dabei ein Raum, in dem auf der einen Seite eine Schallquelle (Sprecher) angenommen wird. Es ist das Ziel, durch Direktschall und Reflexionsschall innerhalb der ersten 50 ms an den Hörerplätzen auf der anderen Seite im Raum einen möglichst hohen Signal–Geräuschabstand zu erreichen; Varianten sind ein Störgeräusch und die Schallabsorption an den Wänden und der Decke. Kriterien sind das Energieverhältnis am Hörerplatz (Direktschall und erste Reflexionen/zur Gesamtenergie) und Sprachindices (AI, STI, RASTI, ALcons) (Reich u. Bradley 1998; Bistafa u. Bradley 2000a, c, d, 2001). Eine Modellrechnung verfolgt das Ziel, den Signal–Geräuschabstand und die Sprachverständlichkeit im Hörerbereich (im Bereich des diffus angenommenen Raumschallfeldes) zu optimieren. Dabei wird bei vorgegebener Nachhallzeit (T) und der Differenz des Sprechpegels zum Störgeräuschpegel (LS,1m - LN) das Energieverhältnis variiert. Es ergeben sich Bereiche von Nachhallzeiten (0.1–0.7 s), bei denen für die drei Volumen 100, 300, 500 m3 die Sprachindices eine gewisse Qualität gewährleisten (STI >0.75, AL cons 0.75) bei 0.1–0.4 s, aber nur wenn der Lehrer so laut spricht, dass sein Sprechpegel 25 dB über dem Geräuschpegel liegt. Eine direkte Optimierung der Nachhallzeit (Sprachverständlichkeit soll maximal sein) führt zu einer Nachhallzeit von 0.2 s. Tabelle 12.2-6. Nachhallzeit (Spalte 4, 5) in Klassenräumen (V = 300m3) bei vorgegebenem Hintergrundgeräusch (LNA = 30–50 dB) und zwei Sprechweisen des Lehrers (normal LSA,1m = 60 dB; angehoben LSA,1m = 65 dB) (Spalte 1, 2) und entsprechender Differenz zwischen LNA und LSA,1m (Spalte 3): angegeben ist die Nachhallzeit (für das Ziel STI > 0.75) (Spalte 4) und die optimale Nachhallzeit (Topt für maximale Sprachverständlichkeit (PB–Wörter)) (x: eine solche Nachhallzeit ist unter den vorgegebenen Bedingungen (STI > 0.75) nicht möglich) 1
2 3 Geräuschpegel LNA in dB Sprechanstrengung LSA,1m in dB LNA/LSA,1m LNA-LSA,1m LNA/LSA,1m in dB in dB in dB 45/60 50/65 -15 40/60 45/65 -20 35/60 40/65 -25 30/60 35/65 -30
4
5 Nachhallzeit STI > 0.75 SV = max T in s
Topt in s
x x 0.2–0.4 0.1–0.4
0.4 0.3 0.2 0.2
Die Ergebnisse der Modellrechnungen (Bistafa u. Bradley 2000a) ergeben zusammengefasst: x Die verschiedenen Modelle für die am Hörerplatz einfallenden Reflexionen haben keinen Einfluss auf die Endergebnisse. x Für sehr ruhige Klassenräume liegt der Nachhallzeitbereich, der die Sprachverständlichkeit maximiert, bei 0.1–0.3 s. Eine hohe Sprachverständlichkeit ist noch bei 0.4–0.5 s möglich, dieser Bereich wird aus technischen Gründen empfohlen. x Die verschiedenen Sprachindices ergeben unterschiedliche Ergebnisse. x Die Differenz von Störgeräuschpegel und Sprechpegel (LNA - LSA,1m) soll nicht größer als -20 dB sein. Erst bei einer Differenz von -25 dB ergeben sich an den Hörerplätzen Signal–Geräuschabstände von 15 dB. Modellrechnungen über die Anordnung von Absorptionsmaterial ergaben, dass das Material oben an der Wand angebracht werden sollte und die Nachhallzeit 0.5 s nicht übersteigen soll. Insbesondere Veränderungen der Nachhallzeit wirken sich günstig auf die Sprachverständlichkeit aus. Die
12.3 Dienstleistungssektor: Büroarbeit, Bildschirmtätigkeit, Callcenter
537
Ergebnisse der Modellrechnungen korrespondieren gut mit denen aus empirischen Erhebungen (s.o.). In den Modellen sind jedoch einige Aspekte nicht enthalten. Es wird immer (in einer gewissen Entfernung zum Sprecher) ein völlig diffuses Feld vorausgesetzt, obwohl die Messungen zeigen, dass der Schallpegel des Sprechers auch bei größter Entfernung noch abnimmt (Hodgson 1999; s.a. Abschn. 7.4.3). Weiterhin sind die Probleme des Unterrichtsgrundgeräusches in keiner Weise einbezogen, weder dass die Schüler abhängig vom Störgeräusch und der Nachhallzeit reagieren, noch dass der Lehrer mit seinem Sprechpegel reagiert. Schließlich sind auch unterschiedliche Unterrichts– und Sprecher–Hörer–Modelle bisher nicht einbezogen. Zusammenfassend lässt sich festhalten: x Die Analyse zeigt eine hohe allgemeine Lärmbelastung in Schulen und eine übermäßige Sprechanstrengung der Lehrer. Beides lässt sich reduzieren, wobei gleichzeitig eine Verbesserung der Sprachverständlichkeit erreicht wird. x Dabei sollen gemeinsam technische Gestaltungsmaßnahmen (hohe schalltechnische Qualität: geringes Hintergrundgeräusch und geringe Nachhallzeit) und sozialpädagogische Interventionsmaßnahmen (lärmarmes Verhalten) eingesetzt werden. x Sollen Zweitsprachler (Abschn. 6.5.5) oder Schwerhörige (Abschn. 8.2) integriert werden, müssen Geräuschpegel und Nachhallzeit entsprechend reduziert werden.
12.3 Dienstleistungssektor: Büroarbeit, Bildschirmtätigkeit, Callcenter Geräuschquellen, Gestaltungsmaßnahmen, Qualitätsmaßstäbe Die Tätigkeit im Dienstleistungssektor ist sehr vielgestaltig. Sie reicht von der Routinetätigkeit im Büro bis zu Übersetzungsarbeiten, von der handwerklichen Tätigkeit bis zum wissenschaftlichen Arbeiten oder dem Arbeiten im medizinischen Bereich. Also von einfacheren Arbeiten bis zu hochkomplexen Aktivitäten mit hoher Konzentration und hoher Verantwortung. Für die zuletzt genannten Tätigkeiten, die häufig am Bildschirm stattfinden, ist jede Art von Geräuschen, die nicht selbst verursacht werden, störend (VDI 2058–3). Geräusche in Büroräumen setzen sich in der Regel aus Geräuschen, die von technischen Schallquellen (Klimaanlagen, Verkehrsgeräusche, Bürogeräte: PC und Zubehör) und Schallspitzen, die von Gesprächen herrühren
538
12 Gestaltung von Räumen und Kommunikationsgeräten
zusammen (Probst 2003; Tab. 12.3-1). Besonders störend sind die wahrzunehmenden informationshaltigen Gesprächsfetzen. Im Bereich mittlerer Pegel ( 55
Schalltechnische Qualität anzustreben sehr gut gut im gewerblichen Umfeld akzeptabel ungünstig, aber noch zulässig Geräuschbelastung zu hoch
Diese Qualitätsangaben (Tab. 12.3-2) sind für Arbeitsplätze mit mittleren und hohen mentalen Anforderungen an die dort auszuübenden Tätigkeiten einschließlich sprachlicher Kommunikation entwickelt worden (VDI 2058–3, DIN EN ISO 11690–1) und sind auf alle Bildschirmarbeitsplätze in Büros anwendbar. Somit gelten sie für Großraumbüros, Mehrpersonenbüros und Einzelbüros sowie Kombibüros, Wohnbüros oder Studierzimmer. Allerdings ist zu berücksichtigen, dass in der Praxis nicht permanent Tätigkeiten mit hohen mentalen Anforderungen realisiert werden, sondern dass dies häufig nur phasenweise geschieht. Gerade unter den Bedingungen verstärkter Teamarbeit ist es häufig notwendig, Gruppen von zwei bis acht Personen Räumlichkeiten anzubieten, in denen sie selber konzentriert an einem Projekt arbeiten können, ohne dabei andere zu stören. Daher ist in aller Regel ein Bündel schalltechnischer gestalterischer und arbeitsorganisatorischer Maßnahmen zweckmäßig (Angebot von Räumen mit optimalen schalltechnischen Bedingungen, Verlagerung lauter Maschinen in separate Räume etc.). Im Einzelbüro ohne wesentlich einwirkende Fremdquellen ist ein Pegelbereich unter 30 dB normal. Dies gilt z.B. für Büros mit einem Computerarbeitsplatz, wenn keine weiteren geräuschrelevanten Geräte im Leerlaufbetrieb sind. Dieser Pegelbereich ist auch noch bei eingeschaltetem Computer am Arbeitsplatz erreichbar, wenn dessen Laufwerk und Lüfter dem Stand der Technik hinsichtlich Lärmarmut entsprechen. Das Mehrpersonenbüro versucht die Vorteile der Flexibilität und der allgemeinen leicht praktizierbaren Kommunikation zwischen den Personen, Arbeitsgruppen und Funktionsgruppen mit einer nur mäßigen akusti-
540
12 Gestaltung von Räumen und Kommunikationsgeräten
schen Störung zu verbinden. Das setzt aber eine gute akustische Planung dieser Büros voraus (Probst 2003; VDI 2569), d.h. man muss x die Geräuschemission der Geräte gering halten, x die Geräusche der Lüftung, Heizung und Klimatisierung müssen angemessen sein, x es sollte ein möglichst leises und gleichmäßiges akustisches Hintergrundgeräusch existieren, aus dem keine einzelnen Schallquellen und Muster zu erkennen sind, x die Schallausbreitung (durch Schallschirme und absorbierende Decken) soll zu einer hohen Pegelabnahme führen, x die Anzahl der Personen pro Quadratmeter muss angemessen sein. Die letzten beiden Aspekte sind notwendig, um den störenden Anteil der benachbarten Gespräche gering zu halten. Im Mehrpersonen– und Gruppenbüro (bis etwa 20 Personen) wie auch im Großraumbüro (mehr als 20 Personen) können je nach Ausstattung und Arbeitsplatzanordnung die Pegelbereiche 40 bis 45 dB bzw. 45 bis 50 dB erreicht werden. Die o.g. Anforderungen an Arbeitsplätze orientieren sich an der Störbarkeit der Arbeitstätigkeit und nur teilweise an der Sprachkommunikation. Die Sprachkommunikation ist ein Teil der Tätigkeit (Verkaufsgespräche) oder auch die Tätigkeit selbst (Fachgespräch) und auf diese Weise in die Arbeitstätigkeit eingebunden. Niedrige Geräuschpegel verringern nicht nur den störenden Einfluss des Geräusches, sondern reduzieren auch, dadurch, dass aufgrund des Lombardeffektes (Abschn. 5.3) leiser gesprochen wird, indirekt die hohen Sprechpegelspitzen. So ist für die Sprachverständlichkeit am Arbeitsplatz ein hoher Signal–Geräuschabstand (LSNA > 10 dB) für die dort gesprochene Sprache angebracht, während der Signal– Geräuschabstand der Sprache benachbarter Arbeitsplätze LSNA = -10 bis -5 dB nicht übersteigen sollte. Auf diese Weise wird auch eine gewisse Vertraulichkeit ermöglicht, die während stattfindender Gespräche angestrebt wird (s.a. Abschn. 10.5). Dort wo längere Gespräche mit komplizierten und neuen Inhalten geführt werden müssen, ist eine sehr gute Sprachverständlichkeit in einer entspannten Sprechweise erforderlich. Nimmt man eine Gesprächsentfernung von 2 m an, darf der Geräuschpegel nur LNA = 32 dB sein (s.a. Tab. 10.5-2, Zeile 5). Für fremdsprachige Texte, die für einen Teil der Hörer in einer Zweitsprache geführt werden müssen (Abschn. 6.5.5), muss der Geräuschpegel um 4 dB niedriger liegen. Auch für leicht schwerhörige Personen muss der Geräuschpegel um 5–10 dB niedriger sein (Abschn. 6.3.2, 8.2). Sollen Bedingungen für eine hochwertige Sprachkommunikation er-
12.4 Kommunikationsgeräte
541
möglicht werden, ist eine Nachhallzeit von T < 0.5 s und ein Geräuschpegel von weniger als 25–30 dB erforderlich. Die in der Tabelle 12.3-2 angegebenen Werte sind in begrenztem Umfang auch für die Einordnung der Sprachkommunikation brauchbar (s. Tab. 10.5-2). Entscheidend ist immer, wie lange solche Gespräche geführt werden und welcher Inhalt (einfache/komplexe Zusammenhänge) mit welchem Ziel (Konsequenzen der Verständlichkeit, Grad der Verantwortung) vermittelt werden soll. Für Callcenter ist eine ausgezeichnete Sprachverständlichkeit, die ggf. mit weiteren geistigen Aktivitäten gekoppelt sein kann, erforderlich. In diesem Fall ist einerseits ein Headset hoher Qualität (Mikrofon, Kopfhörer) (s. Abschn.12.4) notwendig, andererseits ist die akustische Umgebung (Geräuschpegel, Nachhallzeit) zu optimieren (Lazarus et al. 2002; Sust et al. 2002; Probst 2003; Fuchs 2006). Werden mehrere Callcenterarbeitsplätze in einem Raum realisiert, treten ähnliche akustische Probleme auf, wie sie in Mehrpersonen- und Großraumbüros zu finden sind. Der Geräuschpegel im Callcenter ist auch entsprechend der Tabelle 12.3-2 zu bewerten. Allerdings liegen die Richtwerte zurzeit zwischen 45 und 70 dB (Sust et al. 2002). Da die Tätigkeit im Callcenter vor allem aus Sprechen (und Hören) besteht, muss diese störende Schallquelle (Sprecher) vor allem durch eine vorzügliche Raumplanung (weiter Abstand der Arbeitsplätze, hohe Werte der Schallausbreitung) kontrolliert werden. Würde man sich allein an der sprachlichen Kommunikation orientieren, müssten die Callcenter in einzelne Zellen aufgeteilt werden. Allerdings ist bei Callcentern zu beachten, dass teilweise das Gespräch des Nachbarn im Hintergrund mitgehört werden soll. Hier werden dann widersprüchliche Ziele verfolgt, die optimiert werden müssen.
12.4 Kommunikationsgeräte Der Umgang mit und der Gebrauch von Geräten zur Kommunikation ist mittlerweile besonders vielfältig. Das gilt gleichermaßen für den Arbeitsbereich wie auch für den privaten Bereich. Auch sind die Übergänge von professionellen zu privaten Übertragungssystemen kaum noch zu erkennen. In der Arbeitswelt nimmt der Anteil der Dienstleistungen einen immer größeren Raum ein, in dem Mobilität, Flexibilität und Kommunikation Priorität haben. In diesem Zusammenhang kann hier nur eine knappe Übersicht über die vorhandenen Kommunikationsgeräte und deren Anwendungsbereich gegeben werden, die sich im Wesentlichen an Feneberg et al. (2004) orientiert.
542
12 Gestaltung von Räumen und Kommunikationsgeräten
Schnurgebundene Telefone – also analoge und ISDN–Telefone – haben meistens eine hohe bis sehr hohe Sprachqualität, die nur wenigen Schwankungen unterliegt, bedingt durch das Übertragungssystem. Auch bei schnurgebundenen Telefonen ist Freisprechen möglich, ohne ein Headset benutzen zu müssen. Da die Abstände zwischen Mikrofon und Lautsprecher zwangsläufig größer sind, sind Freisprechtelefone entsprechend anfällig für Störgeräusche. Wenn zudem noch elektronische Maßnahmen zur Unterdrückung systembedingter Einstreuungen (Echokompensation) getroffen werden, geschieht dies häufig auf Kosten der Sprachqualität und der Gegensprechfähigkeit (beide Gesprächspartner können gleichzeitig sprechen und sich hören). Bei Mobiltelefonen und schnurlosen Telefonen ist im Moment der Trend zu beobachten, diese mit einer Reihe anderer Funktionalitäten aufzurüsten (Musikabspielgeräte, digitale Kameras, Radio, Internet, Fernsehen), was die Nutzung des Telefons insgesamt erhöht. Die Sprachqualität bleibt aber deutlich hinter schnurgebundenen Telefonieren zurück, was dem Übertragungssystem und den verkleinerten Abmessungen von Mikrofon und Lautsprecher und der vergrößerten Distanz zum Sprechermund geschuldet ist. Besonders ungünstig ist die Qualität während der Nutzung im Auto (siehe unten). Nicht nur, aber vor allen in Callcentern werden Headsets (Hörsprechgarnituren) eingesetzt, bei denen Hörer und Mikrofon unmittelbar am Ohr bzw. am Sprechermund sind, was einer guten Sprachqualität zunächst einmal sehr förderlich ist und obendrein Haltungsschäden vermeidet. Daher sind Headsets grundsätzlich Vieltelefonierern zu empfehlen. Den Nutzern sollte die Möglichkeit zur Auswahl verschiedener Headsets (monaural, binaural, Im–Ohr–Modelle) gegeben werden. Bei schnurlosen Headsets – auf der Basis von Bluetooth oder DECT – ergeben sich aber unter Umständen wiederum Probleme mit der Sprachqualität, die aber gerade im Callcenter gefordert ist. Zur Vermeidung von Lärmattacken sollte unbedingt ein leicht erreichbarer Schalter mit einer Schallpegelabsenkung angebracht sein, solange keine Headsets zur Verfügung gestellt werden, die solche Lärmattacken automatisch ausschalten. Bei der Internet Telefonie (VIP – Voice over IP) wird die Sprache digitalisiert und über ein firmeneigenes Rechnernetz oder über das weltweite Internet übertragen, bezeichnet als eher ein Übertragungssystem als ein Endgerät. In der Regel werden Headsets verwendet. Aufgrund der Struktur des Rechnernetzes ist der Weg der digitalisierten Sprachpakete, die beim Empfänger wieder zusammengesetzt werden, aber nicht planbar, was zu unterschiedlichen Laufzeiten führt. Das kann zu einer hohen Gesamtlaufzeit führen und beeinträchtigt die Gegensprechfähigkeit. Eine gleich bleibende Sprachqualität ist kaum aufrecht zu erhalten.
12.4 Kommunikationsgeräte
543
Wenn man davon absieht, dass das Telefonieren im Auto für den Fahrer mit erheblichen Risiken (Ablenkungen durch Sprechen, Gerätebedienung) verbunden ist und damit die Verkehrssicherheit reduziert (und in vielen Staaten grundsätzlich verboten ist), werden unterschiedliche Lösungen angeboten. Dabei sind die von den Herstellern serienmäßig eingebauten Freisprechtelefone von der Sprachqualität und der Gebrauchstauglichkeit besser als andere Lösungen wie konventionelle Freisprechanlagen, Headsets oder sprachgesteuerte Anlagen. Dennoch wird die Sprachqualität auch bei den serienmäßigen Anlagen durch Fahrgeräusche beeinträchtigt. Zusammenfassend lässt sich festhalten, dass das Telefonieren standardmäßig durch die verschiedensten Aspekte gestört wird: x In büroähnlicher Umgebung oder im Callcenter stört häufig weniger die durch Gespräche und Telefonate von Kollegen hervorgerufene Lautstärke der Sprache, d.h. die Höhe deren Intensität, sondern eher die zeitliche Struktur und deren Informationshaltigkeit (s.a. Abschn. 6.3.4). Untersuchungen zeigen, dass auch relativ leise Umgebungsgespräche negativen Einfluss auf das Kurzzeitgedächtnis und die Arbeitsleistung haben (s. Abschn. 11.3). x Die Unterdrückung von Umgebungsgeräuschen durch passive oder aktive Dämmungen bzw. Kompensationsmaßnahmen von Gehörschützern gehen zu Lasten von Tragekomfort und akustischer Qualität. Deshalb sind Maßnahmen zur Reduzierung der Geräuschquellen, eine raumakustische Gestaltung (hohe Werte der Schallausbreitung) und eine zweckmäßige Raumaufteilung vorzuziehen (s.a. Abschnitt 12.3). x Beim Telefonieren soll die Höhe des Geräuschpegels (LAeq) unter 45 dB liegen. Bei Geräuschpegeln zwischen 45 und 55 dB kann die Sprachqualität beim Telefonieren noch als „befriedigend“akzeptiert werden (s.a. Tab. 10.5-5). Die Sprechanstrengung beim Telefonieren (LSA,1m) liegt bei diesen Geräuschpegel dann noch im normalen Bereich. x Bei Arbeitssituationen mit Geräuschpegeln zwischen LAeq =50 und 80 dB wird vor allem der Hörer beeinträchtigt, da dieser wenig Möglichkeiten hat (z.B. Abdecken des freien Ohres mit der Hand, Telefon lauter stellen oder das Telefon an das Ohr drücken, falls der Rückhörpfad nicht zu laut eingestellt ist), das Störgeräusch im Pegel zu beeinflussen. Im Gegensatz zum Hörer hat der Sprecher mehr Möglichkeiten die Sprache verständlich zu machen: der Sprecher wird bei diesen Geräuschpegeln entsprechend des Lombardeffektes (Abschn. 5.3) lauter sprechen, er kann aber auch zusätzlich – wenn der Hörer ihn nicht versteht – seinen Sprechpegel anheben und deutlicher sprechen, so dass auf der Sprecherseite der Signal–Geräuschabstand erhöht, das Sprechen aber anstrengender wird.
544
12 Gestaltung von Räumen und Kommunikationsgeräten
x Bei Umgebungsgeräuschen von mehr als 80 dB ist die Sprachqualität beim Telefonieren unbefriedigend. Insofern sind in solchen Situationen Kombinationen aus Gehörschützern und Telefonen, teils auch mit aktiver Störgeräuschunterdrückung angebracht. Diese sollten jedoch für den jeweiligen Einsatzzweck und für das Störgeräuschspektrum entsprechend genau ausgewählt werden.
12.5 Kennzeichnung von Räumen zur Sprachverständlichkeit Es ist zweckmäßig für die Einordnung von Räumen nach ihrer Eignung für die Sprachkommunikation mehrere Qualitätsniveaus anzugeben (schalltechnische Niveaus oder Anforderungen), wie es sich in vielen Bereichen bewährt hat, z.B. im Wohnungsbau (VDI 4100) und Räumen für die Sprachverständigung (DIN 18041). Hier wird in Anlehnung an DIN 18041 ein etwas abgeänderter Vorschlag gemacht (Tab. 12.5-1). Der Vorschlag ist für Räume gedacht, die für Aus–, Weiter– und Fortbildung benutzt werden sollen. Der Gestalter der Räume, der Architekt, kann erkennen, wie ein Raum beschaffen sein muss, um eine hohe Qualität des Raumes (für die Sprachkommunikation) zu erreichen und ihn damit auch für einen großen Kreis von Benutzern interessant zu machen. Dem Nutzer gibt dieser Vorschlag Hinweise, unter welchen Bedingungen ein Raum für Vorträge und Seminare geeignet ist. Falls in Frage kommende Räume entsprechend dieser Tabelle klassifiziert sind, kann der Nutzer den Raum mit der besten Qualität auswählen. In diesem Sinne sind solche Vorschläge zu Einordnung von Räumen (Tab. 12.5-1, DIN 18041) Angebote an Verhandlungspartner (z.B. Vermieter–Mieter), sich anhand rationaler Kriterien zu einigen. Zur Beurteilung der Räume (Tab. 12.5-1, Spalte 1) wurde seitens der baulichen Anforderungen das Störgeräusch und die Nachhallzeit berücksichtigt (Spalte 2 bis 4), seitens der Nutzung wurde das Hörvermögen (Abschn. 8.2), die Sprachkompetenz (Zweitsprachler, Abschn. 6.5.5) und das Verstehen schwieriger (ggf. fremdsprachlicher) Texte (Abschn. 7.6) herangezogen. Die letzten beiden Aspekte wurden hier zusammengezogen. Somit sind in der Tabelle 12.5-1 die personengebundenen Aspekte: das Hörvermögen in Spalte 5 und das Verstehen schwieriger Texte in Spalte 6 aufgeführt. Je höher die Anforderungen an den Raum sind, um so eher können Personen mit Hörverlusten (Ältere) und Personen, die nicht in ihrer Muttersprache kommunizieren, solche Räume sinnvoll nutzen.
12.6 Einwegkommunikation: die Medien
545
Tab. 12.5-1. Schalltechnische Eignung von Räumen zur Sprachverständigung; hier bedeuten Sprecher–Hörer–Entfernung (Sprechermund – Hörerohren): mittlere: bis 8 m, größere: über 8 m; die Raumgröße: mittlere: bis 500 m3, größere: über 500 m3, wobei Schwerhörige (Ältere) und des Verstehen schwieriger Texte (gilt vor allem für Zweitsprachler) einbezogen sind Nachhallzeit SchallHinterSprecher– in s technische grundHörer– Anforde Geräusch Entfernung Raumgröße rung LNA in dB mittel groß mittel groß 1 mindest ŭ 40 o 1.0 1.2 2 mittel ŭ 35 + o 0.7 1.0 3 hoch ŭ 30 + + 0.5 0.7 4 anzustreben ŭ 25 + + 0.3 0.5 + geeignet, o bedingt geeignet, - nicht geeignet
Pers. mit Hörverlust o +
Versteh. schwieriger Texte o + +
12.6 Einwegkommunikation: die Medien Fernsehen, Funk, Theater Die Medien wie Funk, Fernsehen, Film, Theater sollen hier nur kurz gestreift werden. Sie werden beispielhaft für die sog. Einwegkommunikation behandelt, bei der der Hörer keine oder nur noch sehr wenige Möglichkeiten hat, die Sprachverständlichkeit zu verbessern. Im Theater und andern Live–Aufführungen ist der Hörer ganz auf sich gestellt. Die Sprecher im Theater bestimmen allein die Verständlichkeit beim Hörer. Es wird vorausgesetzt, dass der Architekt und sein akustischer Berater das Theater nach den Regeln der Baukunst und Akustik gestaltet haben. Bei den Aufführungen ergeben sich Probleme häufig durch den Bühnenraum, der kaum Wände oder Decken zulässt, die die Sprache zum Publikum reflektieren und bei dem durch angebundene leere Raumvolumen die Nachhallzeit erhöht wird. Das wirkt sich vor allem dann negativ aus, wenn – wegen des Ablaufs des Theatergeschehens – der Sprecher nicht immer direkt in Richtung der Zuhörer sprechen kann. Auch muss bedacht werden, dass beides, leises Sprechen wie auch insbesondere Schreien für die Verständlichkeit problematisch ist. Natürlich bleibt die Art der Artikulation (bspw. deutlich, fließend) entscheidend für die Verständlichkeit. Bei den elektronischen Medien liegen die Dinge etwas anders. Die existierenden Anlagen und Lautsprechersysteme ermöglichen es, Schallereignisse, Sprache meistens sogar in guter bis sehr guter Qualität, wiederzugeben. Der Hörer hat in der Regel nur die Möglichkeit, die Lautstärke einzustellen, ggf. noch ein paar technische Details mehr. Problematisch
546
12 Gestaltung von Räumen und Kommunikationsgeräten
kann aber bei den Konserven (Filmen) das Verhältnis von Sprache zur Musik oder zu den natürlichen Geräuschen sein. Technische Störgeräusche spielen heute praktisch keine Rolle mehr. Hier geht es nur um die Schallereignisse, die bewusst und gezielt eingesetzt werden: die Sprache (der handelnden Personen oder des Kommentators), die Musik und die natürlichen Geräusche (Kfz, Küchengeräusche, Waldesrauschen etc.). Sie haben alle ihre natürlichen Spektren und Zeitstrukturen, und damit auch ihren Informationsgehalt, werden aber vor allem in ihrer Intensität ganz bewusst eingesetzt. Auswirkungen für die Sprachverständlichkeit beim zukünftigen Hörer hat vor allem das letzte, sicher ganz gezielt eingestellte Verhältnis der Intensitäten (Pegel) der Schallereignisse. Das Verhältnis der Pegel von Sprache zu denen der Musik oder den natürlichen Geräuschen sollte, wenn das Verstehen der Sprache als wichtig erachtet wird, deutlich im positiven Bereich liegen. Dieser Grundsatz ist in der Regel eingehalten, leider aber nicht immer. Auch wenn es dafür gute Gründe gibt, ist ein ungeeignetes Verhältnis der Schallpegel für den Hörer, der die Sprache verstehen will, nicht akzeptabel. Es sollte bei der Herstellung von Konserven darauf geachtet werden, dass auch Personen mit verminderter Hörfähigkeit (Schwerhörige, Ältere) und mit reduzierter Sprachkompetenz (Zweitsprachler) einen deutlich höheren Signal–Geräuschabstand (5 bis 20 dB) benötigen, um dem Sprachgeschehen wie ein normalhörender Muttersprachler folgen zu können (Kap. 6 , 8). Problematisch ist es vor allem deswegen, weil der Hörer keine Möglichkeiten hat, die Verständlichkeit der Sprache zu verbessern. Es wäre überlegenswert, ob nicht auf Konserven zwei Kanäle bereitgestellt werden könnten, einem mit dem eingestellten Verhältnis von Sprache zur Musik und natürlichen Geräuschen und einem weiteren bspw. mit einem höheren Verhältnis oder einem reinen Sprachkanal. Im Bereich des Hörfunk treten derartige Probleme mit einem gezielt eingesetzten niedrigen Verhältnis nicht oder ausgesprochen selten auf.
Literaturverzeichnis
Abel SM, Spencer DL (1997) Active noise reduction versus conventional hearing protection. Relative benefits for normal–hearing and impaired listeners. Scand Audiology 26 (3): 155–167 Abel SM, Spencer DL (1999) Speech understanding in noise with earplugs and muffs in combination. Applied Acoustics 57: 61–68 Abel SM, Alberti PW, Riko K (1980) Speech intelligibility in noise with ear protectors. J of Otolaryngology 9 (3): 256–265 Abel SM, Alberti PW, Haythornthwaite C, Riko K (1982a) Speech intelligibility in noise. Effects of fluency and hearing protector type. JASA 71 (3): 708–715 Abel SM, Alberti PW, Haythornthwaite C, Riko K (1982b) Speech intelligibility in noise with and without ear protectors. In: Alberti WP (Hrsg) Personal Hearing Protectors in Industry. Raven Press, New York, S 371–385 Abel SM, Krever EM, Alberti PW (1990) Auditory detection, discrimination and speech processing in aging noise–sensitive and hearing–impaired listeners. Scand Audiology 19: 43–54 Abel SM, Krever EM, Giguère C, Alberti PW (1991) Signal detection and speech perception with level–dependent hearing protectors. J of Otolaryngology 20: 46–53 Acton WI (1970) Speech intelligibility in a background noise and noise–induced hearing loss. Ergonomics 13 (5): 546–554 Acton WI (1977) Problems associated with the use of hearing protection. Annals of Occupational Hygiene 20: 387–395 AFNOR S31–047 (1975) Acoustique–Evaluation des distances d´intelligibilite de la parole dans une ambiance bruyante. Frankreich Ahnert W, Steffen F (1993) Beschallungstechnik. Grundlagen und Praxis. S. Hirzel Verlag, Stuttgart Leipzig Ahnert W, Steffen F (1999) Sound Reinforcement. Engineering Fundamentals and Practice. London EFN, Spon 2000, USA and Canada, Routledge, New York Ahnert W, Tennhardt H–P (2002) Acoustics for Auditoriums and Concert Halls. In: Ballou MG (Hrsg) Handbook for Sound Engineers. Focal Press, Boston, S 109–156 Alberti PW, Morgan PP, Fria TJ, Le Blanc JC (1976) Percentage hearing loss. Various schema applied to a large population with noise–induced hearing loss. In: Henderson D, Hamernik RP, Dosanjh SS, Mills JH (Hrsg) Effect of noise on hearing. Raven Press, New York Albrecht R (1967) Kinderaudiometrie. Deutsches Gesundheitswesen 22: 650
548
Literaturverzeichnis
Allen CH, Berger EH (1990) Development of a unique passive hearing protector with level–dependent and flat attenuation characteristics. Noise Control Engineering J 34 (3): 97–105 Amersbach K, Meister FJ (1951) Grundlagen der isophonen Sprachgehörprüfung. Archiv für Ohren– Nasen– und Kehlkopfheilkunde 158: 484–485 Anderson BW, Kalb JT (1987) English verification of the STI method for estimating speech intelligibility of a communications channel. JASA 81: 1982–1985 Aniansson G (1974) Methods for assessing high frequency hearing loss in every– day listening situations. Acta Oto–Laryngologica 105 (320): 1–50 Aniansson G (1980) Traffic noise speech interference levels for normal and hearing–impaired listeners. In: Tobias JV, Jansen G, Ward WD (Hrsg) Proceedings of Noise as a Public Health Problem, Freiburg 1978, Report 10, American Speech Language Hearing Ass, Rockville Maryland, S 192–202 Aniansson G, Björkman M (1983) Traffic noise annoyance and speech intelligibility in persons with normal and persons with impaired hearing. J of Sound and Vibration 88 (1): 99–106 Aniansson G, Peterson Y (1983) Speech intelligibility of normal listeners and persons with impaired hearing in traffic noise. J of Sound and Vibration 90 (3): 341–360 ANSI S3 14–1977 (1977) American National Standard for rating noise with respect to speech interference. Institute of American National Standards Inc, New York ANSI S3 5–1969 (1969) American National Standard – Methods for the calculation of the articulation index. Institute of American National Standards Inc, New York ANSI S3 5–1997 (1997) American National Standard – Methods for calculation of the speech intelligibility index (SII). Institute of American National Standards Inc, New York Arbeitsstättenverordnung (1975) §15 – Schutz gegen Lärm. Bundesgesetzblatt vom 20 03 1975 BGBI I S 729–742, zuletzt geändert durch Artikel 7 der Verordnung vom 27 Dezember 2002 (BGBI I S 2785) Arends N, Povel D–J, Os E, Van Speth L (1990) Predicting voice quality of deaf speakers on the basis of glottal characteristics. J of Speech and Hearing Research 33: 116–122 Arlinger S (1992) Speech recognition in noise when wearing amplitude–sensitive ear–muffs. Scand Audiology 21 (2): 123–126 Arlinger S, Gustafsson H–Ä (1991) Masking of speech by amplitude–modulated noise. J of Sound and Vibration 151 (3): 441–445 Asch H–J, Heine K, Huske H–J, Schulte J, Zoels, P (1977) Gehörschutzmittel unter besonderer Berücksichtigung der Tragefähigkeit im Untertage–Bergbau. Forschungsbericht des Bundesministeriums für Forschung und Technologie, BMFT–FB (01 VA 125 Z 13 TAP 006), S 1–57 Axelsson A, Borchgrevink HM, Hamernik HP, Hellstrom P–A, Henderson D, Salvi RJ (1994) Scientific Basis of noise induced hearing loss. Gothenberg, Sweden
Literaturverzeichnis
549
Bacon SP, Viermeister NF (1985) Temporal modulation transfer functions in normal–hearing and hearing–impaired listeners. Audiology 24: 117–134 Bacon SP, Opie JM, Montoya DY (1998) The effects of hearing loss and noise masking on the masking release for speech in temporally complex backgrounds. J of Speech, Language and Hearing Research 41: 549–563 Baer T, Moore BCJ (1993) Effects of spectral smearing on the intelligibility of sentences in noise. JASA 94 (3): 1229–1241 Ballou GM (2002a) Handbook for sound engineers. Focal Press, Boston Ballou GM (2002b) Assistive listening sytems. In: Ballou GM (Hrsg) Handbook for sound engineers. Focal Press, Boston, S 1391–1404 Barnett PW (1992) BS 7443: Sound systems for emergency purpose and speech intelligibility – an overview. Proceedings of the Institute of Acoustics 14 (5): 23–27 Barnett PW (1997) Conversion of rasti to alcons; a robust and reversible process? Proceedings of the Institute of Acoustics 19 (6):115–133 Barrenäs ML (1998) Are pure–tone audiometry and speech recognition scores in noise a better choice to assess hearing disability and handicap than self– reports? In: Prasher D, Luxon L, Pyykkö I (Hrsg) Advances in Noise Research II. Protection against Noise. Whurr Publishers Ltd, London, S 243–246 Bauer P, Körpert K, Neuberger M, Raber A, Schwetz F (1991) Risk factors for hearing loss at different frequencies in a population of 47 388 noise–exposed workers. JASA 90 (6): 3086–3098 Baughn WL (1973) Relation between daily noise exposure and hearing loss based on the evaluation of 6835 industrial noise exposure cases. Lab US Environmental Medical Research, AMRL–TR–73–35 Bauman KS, Marston LE (1986) Effects of hearing protection on speech intelligibility in noise. J of Sound and Vibration 20: 12–14 Beattie RC (1989) Word recognition for the CID W–22 test in multitalker noise for normally hearing and hearing–impaired subjects. J of Speech and Hearing Disorders 54: 20–32 Beck B (1986) Realitätsgrad von Selbsteinschätzungen schwerhöriger und gehörloser Schuljugendlicher. Z für die gesamte Hygiene und ihre Grenzgebiete 32 (7): 422–423 Beckmann G, Schilling A (1959) Hörtraining. Thieme Verlag, Stuttgart Békésy G von (1949) The moon illusion and similar auditory phenomena. American J of Psychology 62: 540 Bell TS, Dirks DD, Trine TD (1992) Frequency–importance functions for words in high– and low–context sentences. J of Speech and Hearing Research 35: 950–959 Benson RW, Hirsh IJ (1953) Some variables in audio spectrometry. JASA 25 (3): 499–505 Bentler RA, Niebuhr DP, Getta JP, Anderson CV (1993) Longitudinal study of hearing aid effectiveness. II Subjective measures. J of Speech and Hearing Research 36: 820–831 Beranek LL (1947a) The design of speech communication systems. Proceedings of the Institution of Radio and Electrical Engineers 35: 880–890
550
Literaturverzeichnis
Beranek LL (1947b) Airplane Quieting II – Specification of Acceptable Noise Levels. Transactions of the ASME 69: 97–100 Beranek LL (1954) Acoustics. Mc Graw Hill, New York Beranek LL (1956) Criteria for office quieting based on questionnaire rating studies. JASA 28 (5): 833–852 Beranek LL (1957) Revised criteria for noise in buildings. Noise Control Engineering J 3 (1): 19–27 Beranek LL (1989) Application of NCB noise criterion curves. Noise Control Engineering J 33: 45–56 Beranek LL (1992) Criteria for noise and vibration in communities buildings and vehicles. In: Beranek LL, Ver LI (Hrsg) Noise and Vibration Control Engineering – Principles and Applications. John Wiley Sons, New York, S 617– 642 Beranek LL, Warren E, Blazier WE, Figwer JJ (1971) Preferred Noise Criterion (PNC) curves and their application to rooms. JASA 50 (5): 1223–1228 Berg FS, Blair JC, Benson PV (1996) Classroom acoustics. The problem impact and solution. Language Speech and Hearing Services in Schools 27: 16–20 Berger EH (1990) Hearing Protection – The State of Art and Research Priorities for the Coming Decade. National Institute of Health Program and Abstracts of the NIH Consensus Development Conference in Noise and Hearing Loss, Bethesda MD, S 91–96 Berger EH (1991) Flat–response moderate–attenuation and level–dependent HPDs. How they work and what they can do for you. Spectrum 8 (1): 17 Berger EH, Franks JR, Lindgren F (1996) International review of field studies of hearing protector attenuation. In: Axelsson A, Borchgrevink H, Hamernik RP, Hellstrom P, Henderson D, Salvi RJ (Hrsg) Scientific basis of noise–induced hearing loss. Thieme Medical Publications, New York, S 361–377 Berglund B, Hassmen P (1996) Sources and effects of low–frequency noise. JASA 99 (5): 2985–3002 Berglund B, Lindvall T (1995) Community Noise Document prepared for the WHO Archives of the Center for Sensory Research 2 (1), Stockholm Bergmann M, Blumenfeld VG, Cascardo D, Dash B, Levitt H, Margulies MK (1976) Age–related decrement in hearing for speech–sampling and longitudinal studies. J of Gerontology 31 (5): 533–538 Bertoli S, Probst R, Jordan P (1996) Das Hörhandicap – Eine Ergänzung zum audiometrischen Hörverlust. HNO 44: 376–384 BG–Vorschrift B 3 (UVV) Lärm vom 01.01.1990 i.d.F. vom 01.01.1997, HVBG, Sankt Augustin BG–Vorschrift A 4 (UVV) Arbeitsmedizinische Vorsorge vom 01.04.1993 i.d.F. vom 01.01.1997, HVBG, Sankt Augustin Biermann JW, Janowitz T (1995) Lärmminderung im Arbeitsschutz durch Antischall. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 730, Wirtschaftsverlag NW, Bremerhaven Biesalski P, Leitner H, Leitner E, Gangel D (1974) Der Mainzer Kindersprachtest. HNO 22: 160–161
Literaturverzeichnis
551
Bilger RC, Hirsh IJ (1956) Masking of tones by bands of noise. JASA 28: 623– 630 Bistafa SR, Bradley JS (2000a) Reverberation time and maximum background– noise level for classrooms from a comparative study of speech intelligibility metrics. JASA 107 (2): 861–875 Bistafa SR, Bradley JS (2000b) Revisiting algorithms for predicting the articulation loss of consonance. J of the Audio Engineering Society 48 (6): 531–544 Bistafa SR, Bradley JS (2000c) Optimum acoustical conditions for speech intelligibility in classrooms. Noise and Vibrations Worldwide: 12–17 Bistafa SR, Bradley JS (2000d) Predicting reverberation times in a simulated classroom. JASA 108: 1721–1731 Bistafa SR, Bradley JS (2001) Predicting speech metrics in a simulated classroom with varied sound absorption. JASA 109 (4): 1474–1482 Black JW (1950) The effect of room characteristics upon vocal intensity and rate. JASA 22 (2): 174–176 Black JW (1951) The effect of noise–induced temporary deafness upon vocal intensity. Speech Monographs 18: 74–77 Black JW (1959) Equally contributing frequency bands in intelligibility testing. J of Speech and Hearing Research 2 (1): 81–83 Blauert J (1974) Räumliches Hören. Institut für Elektrische Nachrichtentechnik der Rheinisch–Westfälischen TH, Monographien der Nachrichtentechnik 256 + VIII 174 (241), S. Hirzel Verlag, Stuttgart Böhme G, Welzl–Müller K (1988) Audiometrie. Hörprüfungen im Erwachsenen– und Kindesalter. Verlag Hans Huber, Bern Stuttgart Toronto, S 83–95 Boenninghaus H–G, Röser D (1973) Neue Tabellen zur Bestimmung des prozentualen Hörverlustes für das Sprachgehör. Z für Laryngologie, Rhinologie, Otologie und ihre Grenzgebiete 52: 153–161 Boer B De, Poissenot R (1992) Improvement of speech intelligibility during high noise in the low frequencies when using a hearing protector. Otorhinolaryngol Nova 2: 220–222 Boike KT, Souza PE (2000) Effect of compression ratio on spech recognition and speech quality ratings with wide–dynamic range compression amplification. J of Speech, Language and Hearing Research 43: 456–468 Boothroyd A, Nittrouer S (1988) Mathematical treatment of context effects in phoneme and word recognition. JASA 84 (1): 101–114 Borchgrevink H (1994) Persönliche Mitteilung. Median Verlag, Heidelberg Bordone–Sacerdote C, Sacerdote GG (1969) Some spectral properties of individual voices. Acustica 21: 199–210 Bordone–Sacerdote C, Sacerdote GG (1976) Distribution of pauses as a characteristic of individual voices. Acustica 34: 245–247 Bormann V, Heinecke–Schmitt R, Fuder G (2005) Modelle zur Vorhersage der Sprachverständigung (Teil 1) In: Bormann V, Sust ChA, Heinecke–Schmitt R, Fuder G, Lazarus H (Hrsg) Schwerhörigkeit und Sprachkommunikation am Arbeitsplatz. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 1041, Wirtschaftsverlag NW, Bremerhaven
552
Literaturverzeichnis
Borrild K (1970) The acoustic environments in schools for the deaf. State Boarding School for Hard of Hearing and Deaf, Frederica, Denmark Bortz J (1971) Möglichkeiten der exakten Kennzeichnung der Sprechstimme. Diagnostika 17: 3–14 Bosman AJ (1992) Review of Speech Audiometric Tests. In: Kollmeier B (Hrsg) Moderne Verfahren der Sprachaudiometrie. Buchreihe Audiologische Akustik, Median Verlag, S 11–29 Bosman AJ, Smoorenburg GF (1995) Intelligibility of Dutch CVC syllables and sentences for listeners with normal hearing and with three types of hearing impairment. Audiology 34: 260–284 Bosshardt H–G, Hörmann H (1982) Der Einfluß suprasegmentaler Information auf die Sprachwahrnehmung bei 4 bis 6jährigen Kindern. Archives of Psychology 134: 81–104 Botsford JH (1969) Using sound levels to gauge human response to noise. J of Sound and Vibration 3 (10): 16–28 Bowman NT (1974) The articulation index and its application to room acoustics design. J of Sound and Vibration 32 (1): 109–129 Bradley JS (1986a) Predictors of speech intelligibility in rooms. JASA 80 (3): 837–845 Bradley JS (1986b) Speech intelligibility studies in classrooms. JASA 80 (3): 846–854 Bradley JS, Reich RD, Norcross SG (1999a) On the combined effects of signal– to–noise ratio and room acoustics on speech intelligibility. JASA 106: 1820– 1828 Bradley JS, Reich RD, Norcross SG (1999b) A just noticeable difference in C50 for speech. Applied Acoustics 58: 99–108 Bradley JS, Sato H, Picard M (2003) On the importance of early reflections for speech in rooms. JASA 113 (6): 3233–3244 Bradlow AR, Pisoni DB (1999) Recognition of spoken words by native and non– native listeners. Talker– listener– and item–related factors. JASA 106: 2074– 2085 Brady PT (1965) A statistical basis for objective measurement of speech levels. Bell System Technical J 44: 1453–1486 Brady PT (1968) Equivalent peak level. A threshold–independent speech–level measure. JASA 44 (3): 695–699 Bronkhorst A (2000) The cocktail party phenomenon. A review of research on speech intelligibility in multiple–talker conditions. Acustica 86: 117–128 Bronkhorst AW, Plomp R (1988) The effect of head–induced interaural time and level differences on speech intelligibility in noise. JASA 83 (4): 1508–1516 Bronkhorst AW, Plomp R (1989) Binaural speech intelligibility in noise for hearing–impaired listeners. JASA 86 (4): 1374–1383 Bronkhorst AW, Plomp R (1992) Effect of multiple speechlike maskers on binaural speech recognition in normal and impaired hearing. JASA 92 (6): 3132– 3139 Brulle P Van den (1995) Schalltechnische Gestaltung von Büroräumen mit Bildschirmen. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsme-
Literaturverzeichnis
553
dizin Dortmund, Forschungsbericht Fb 720, Wirtschaftsverlag NW, Bremerhaven Brungart DS (2001) Informational and energetic masking effects in the perception of two simultaneous talkers. JASA 109 (3): 1101–1109 Brusis T (1978) Die Lärmschwerhörigkeit und ihre Begutachtung. Demeter– Verlag, Gräfelfing Brusis T (1996) Hörverlustbestimmung und MdE–Einschätzung aus Tonaudiogramm und Sprachaudiogramm bei beruflicher Lärmschwerhörigkeit. Laryngologie Rhinologie Otologie 75: 732–738 Brusis T, Mehrtens G (1981) Vor– und Nachschäden bei Lärmschwerhörigkeit. Laryngologie Rhinologie Otologie 60: 168 Bühler K (1934) Sprachtheorie. Die Darstellungsfunktion der Sprache. Ullstein, Frankfurt/M Berlin Wien Bullock MD (1967) The effects of different reverberation times upon the intelligibility of PB words as perceived by subjects with sensorineural impairments and concomitant discrimination losses. Ohio State University, MA Thesis Bundesministerium für Wirtschaft und Arbeit (BMWA) (2001) Bericht zum Stand von Sicherheit und Gesundheit bei der Arbeit. Butts FM, Ruth RR, Schoeny ZG (1987) Nonsense syllable test (NST) results and hearing loss. Ear and Hearing 8: 44–48 Buuren RA Van, Festen JM, Houtgast T (1999) Compression and expansion of the temporal envelope evaluation of speech intelligibility and sound quality. JASA 105 (5): 2903–2913 Buus S, Florentine M, Scharf B, Canevet G (1986) Native french listeners' perception of american–english in noise. Proceedings of Inter–Noise ´86, Cambridge USA, (2): 895–898 Byblow WD (1990) Effects of redundancy in the comparison of speech and pictorial displays in the cockpit environment. Applied Ergonomics 21 (2): 121–128 Campbell GA (1910) Telephonic intelligibility. Philosophical Magazine London 6 (19): 152–159 Carhart R (1946) Speech reception in relation to pattern of pure tone loss. J of Speech and Hearing Disorders 11: 97–108 Carhart R, Porter LS (1971) Audiometric configuration and prediction of threshold for spondees. J of Speech and Hearing Research 14 (3): 486–495 Carhart R, Tillman TW (1970) Interaction of competing speech signals with hearing losses. Archives of Otolaryngology 91: 273–289 Carter HA (1947) Tentative standard procedure for evaluating the percentage of useful hearing loss in medicolegal cases. J of the American Medical Association 119 (14): 1108–1109 Carter NJ, Kryter KD (1962) Masking of Pure Tones and Speech. J of Auditory Research 2: 66–98 Carvalho APO (1999) Relation between rapid speech transmission index (RASTI) and other acoustical and architectural measures in churches. Applied Acoustics 58: 33–49 Casali JG (1989) Multiple factors affect speech communication in the work place. Occupational Safety and Health 58: 32–42
554
Literaturverzeichnis
Castellanos A, Benedi J, Casacuberta F (1996) An analysis of general acoustic– phonetic features for Spanish speech produced with lombard effect. Speech Communication 20: 23–35 Cavanaugh WJ, Farrell WR, Hirtle, PW, Watters BG (1962) Speech privacy in buildings. JASA 34: 425–492 CCITT Recommendation P84 (1988) Methods for subjective determination of transmission quality. CHABA Working Group on Speech Understanding and Aging (1988) Speech understanding and aging. JASA 83: 859–893 Charii NCA, Herman G, Danhauer JL (1977) Perception of one–third octave–band filtered speech. JASA 61 (2): 576–580 Chen AC, Charuk K (2001) Speech interference levels at airport noise impacted schools. J of Sound and Vibration 35: 26–30 Chilla R, Gabriel P, Kozielski P, Bänsch D, Kabas M (1976) Der Göttinger Kinderprachverständnistest I. HNO 24: 342–346 Ching TYC, Dillon H, Byrne D (1998) Speech recognition of hearing–impaired listeners. Prediction from audibility and the limited role of high–frequency amplification. JASA 103: 1128–1140 Chomsky N (1957) Syntactic structures. Janua Linguarum 4 (The Hague) Chomsky N (1969) Aspects of the theory of syntax. (Aspekte der Syntax– Theorie.) Suhrkamp–Theorie 2, Cambridge–Mass, Cambridge/Frankfurt Chung DY, Gannon RP (1979) The effect of ear protectors on word discrimination in subjects with normal hearing and subjects with noise–induced hearing loss. J of the American Auditory Society 5 (1): 11–16 Chung DY, Mack B (1979) The effects of masking by noise and word discrimination scores in listeners with normal hearing and with noise–induced hearing loss. Scand J of Audiology 8: 139–143 Clark C, Martin R, Kempen E Van, Alfred T, Head J, Davies HW, Haines MM, Barrio IL, Matheson M, Stansfeld SA (2003) Exposure–effect relations between aircraft and road traffic noise exposure at school and reading comprehension. The RANCH Project. American J of Epidemiology 163 (1): 27–37 Cluff GL (1969) A comparison of selected methods of determining speech interference calculated by the articulation index. The J of Auditory Research 9: 81–88 Cobb FE, Jacobson GP, Newman CW, Kretschmer LW, Donnelly KA (1993) Age–associated degeneration of backward masking task performance. Evidence of declining temporal resolution abilities in normal listeners. Audiology 32: 260–271 Cohen RL, Keith RW (1976) Use of low–pass noise in word–recognition testing. J of Speech and Hearing Research 19: 48–54 Coleman G (1998) The signal design window revisited. International J of Industrial Ergonomics 22: 313–318 Coles RRA, Rice CG (1966) Speech communications effects and temporary threshold shift reduction provided by V51R and Selectone–K earplugs under conditions of high intensity impulsive noise. J of Sound and Vibration 4 (2): 156–171
Literaturverzeichnis
555
Collard J (1930) Die Berechnung der Verständlichkeit eines Fernsprechstromkreises aus den Stromkreis–Konstanten. Electrical Communication 8: 141–163 Cook JA, Bacon SP, Sammeth CA (1997) Effect of low–frequency gain reduction on speech recognition and its relation to upward spread of masking. J of Speech, Language and Hearing Research 40: 410–422 Cooper Jr JC, Cutts BP (1971) Speech discrimination in noise. J of Speech and Hearing Research 14: 332–337 Cox RM, McDaniel DM (1984) Intelligibility ratings of continuous discourse Application to hearing aid selection. JASA 76 (3): 758–766 Cox RM, McDaniel DM (1989) Development of the speech intelligibility rating (SIR) test for hearing aid comparisons. J of Speech and Hearing Research 32: 347–352 Cox RM, Alexander GC, Gilmore C (1987) Intelligibility of average talkers in typical listening environments. JASA 81 (5): 1598–1608 Cox RM, Matesich JS, Moore JN (1988) Distribution of short–term rms levels in conversational speech. JASA 84: 1100–1104 Creelman SD (1957) Case of unknown talker. JASA 29: 655 Cremer L, Möser M (2003) Technische Akustik. VDI–Buch, Springer Verlag, Berlin Cremer L, Müller HA (1997) Die wissenschaftlichen Grundlagen der Raumakustik. Bd 1: Geometrische – Statistische – Psychologische Raumakustik. S. Hirzel Verlag, Stuttgart Crystal TH, House AS (1982) Segmental durations in connected speech signals. Preliminary results. JASA 72 (3): 705–716 Davenport WB (1952) An experimental study of speech–wave probability distributions. JASA 24 (4): 390–399 Delfs P, Liedtke M (2003) Pegelabhängig dämmende Gehörschützer. In: BGIA – Handbuch für Sicherheit und Gesundheitsschutz am Arbeitsplatz. Erich Schmidt Verlag, Berlin Demorest ME, Erdman SA (1986) Scale composition and item analysis of the communication profile for the hearing impaired. J of Speech and Hearing Research 29: 515–535 DePaolis RA, Janota CP, Frank T (1996) Frequency importance functions for words sentences and continous discourse. J of Speech and Hearing Research 39: 714–723 DFG Forschungsbericht (1974) Fluglärmwirkungen – eine interdisziplinäre Untersuchung über die Auswirkungen des Fluglärms auf den Menschen – Bd 1. Boppard H Boldt Verlag, Berlin Díaz C, Velaquez C (1995) A live evaluation of the RASTI–Method. Applied Acoustics 46: 363–372 Dieroff H–G (1994) Lärmschwerhörigkeit. G. Fischer–Verlag, Jena DIN 15906 (2003) Tagungsstätten DIN 18005 (2002) Schallschutz im Städtebau DIN 18041 (2004) Hörsamkeit in kleinen bis mittelgroßen Räumen DIN 33410 (1981) Sprachverständigung in Arbeitsstätten unter Einwirkung von Störgeräuschen Begriffe Zusammenhänge
556
Literaturverzeichnis
DIN 4109 (1989) Schallschutz im Hochbau – Anforderungen und Nachweise DIN 45621–1 (1995) Sprache für Gehörprüfung – Ein– und mehrsilbige Wörter DIN 45621–2 (1980) Sprache für Gehörprüfung – Sätze DIN 45626–1 (1995) Tonträger mit Sprache für die Gehörprüfung – Tonträger mit Wörtern nach DIN 45621–1 DIN 45630–2 (1967) Grundlagen der Schallmessung; Normalkurven gleicher Lautstärkepegel DIN 45641 (1990) Mittelung von Schallpegeln DIN 45645–1 (1996) Ermittlung von Beurteilungspegeln aus Messungen – Geräuschimmissionen in der Nachbarschaft DIN 45645–2 (1997) Ermittlung von Beurteilungspegeln aus Messungen – Geräuschimmissionen am Arbeitsplatz DIN 45681 (2005) Akustik – Bestimmung der Tonhaltigkeit von Geräuschen und Ermittlung eines Tonzuschlages für die Beurteilung von Geräuschimmissionen DIN EN 457 (1993) Sicherheit von Maschinen – Akustische Gefahrensignale DIN EN 458 (1994) Gehörschützer – Empfehlungen für Auswahl Einsatz Pflege und Instandhaltung DIN EN 60268–16 (2003) Elektroakustische Geräte – Objektive Bewertung der Sprachverständlichkeit durch den Sprach–Übertragungsindex DIN EN 61672–1 (2003) Elektroakustik – Schallpegelmesser; Anforderungen DIN EN 61672–2 (2004) Elektroakustik – Schallpegelmesser; Baumusterprüfungen DIN EN ISO 3744 (1995) Akustik – Bestimmung der Schallleistungspegel von Geräuschquellen aus Schalldruckmessungen – Hüllflächenverfahren der Genauigkeitsklasse 2 für ein im Wesentlichen freies Schallfeld über einer reflektierenden Ebene DIN EN ISO 7731 (2003) Ergonomie – Gefahrensignale für öffentliche Bereiche und Arbeitsstätten; Akustische Gefahrensignale DIN EN ISO 7779 (2002) Akustik – Geräuschemissionsmessungen an Geräten der Informations– und Telekommunikationstechnik DIN EN ISO 9921 (2004) Ergonomie – Beurteilung der Sprachkommunikation DIN EN ISO 9921–1 (1996) Ergonomische Bewertung der Sprachkommunikation. Teil 1 Sprach–Störschallpegel und Kommunikationsabstände für Personen mit normalem Hörvermögen in direkter Kommunikation (SIL–Methode) DIN EN ISO 11690–1 (1996) Akustik – Richtlinien für die Gestaltung lärmarmer maschinenbestückter Arbeitsstätten; Allgemeine Grundlagen DIN EN ISO 11690–2 (1996) Akustik – Richtlinien für die Gestaltung lärmarmer maschinenbestückter Arbeitsstätten; Lärmminderungsmaßnahmen DIN EN ISO 11690–3 (1997) Akustik – Richtlinien für die Gestaltung lärmarmer maschinenbestückter Arbeitsstätten; Schallausbreitung und –vorausbe– rechnung in Arbeitsräumen Dirks DD (1995) Effects of output limitors on speech quality and intelligibility. Carhart Memorial Lecture presented at the American Auditory Society, Dallas
Literaturverzeichnis
557
Dirks DD, Morgan DE, Dubno JR (1982) A procedure for quantifying the effects of noise on speech recognition. J of Speech and Hearing Disorders 47: 114– 123 Divenyi PL, Haupt KM (1997a) Audiological correlates of speech understanding deficits in elderly listeners with mild–to–moderate hearing loss. I Age and lateral asymmetry effects. Ear and Hearing 18: 42–61 Divenyi PL, Haupt KM (1997b) Audiological correlates of speech understanding deficits in elderly listeners with mild–to–moderate hearing loss. II Correlation analysis. Ear and Hearing 18: 100–113 Divenyi PL, Haupt KM (1997c) Audiological correlates of speech understanding deficits in elderly listeners with mild–to–moderate hearing loss. III Factor representation. Ear and Hearing 18: 189–201 Dolan TG, Wonderlick BA (2000) Multi–Channel compression and speech intelligibility in industrial noise. J of Speech, Language and Hearing Research 43: 1380–1388 Döring WH, Hamacher V (1992) Neue Sprachverständlichkeitstests in der Klinik. Aachener Logatomtest und Dreinsilbertest mit Störschall. In: Kollmeier B (Hrsg) Moderne Verfahren der Sprachaudiometrie. Buchreihe Audiologische Akustik. Median Verlag, Heidelberg, S 137–166 Dreher J, O'Neill JJ (1957) Effects of ambient noise on speaker intelligibility for words and phrases. JASA 29: 1320–1323 Dubno JR, Ahlstrom JB (1995) Growth of low–pass masking of pure tones and speech for hearing–impaired and normal–hearing listeners. JASA 98 (6): 3113–3124 Dubno JR, Dirks DD (1989) Auditory filter characteristics and consonant recognition for hearing–impaired listeners. JASA 85 (4): 1666–1675 Dubno JR, Schaefer AB (1992) Comparison of frequency selectivity and consonant recognition among hearing–impaired and masked normal–hearing listeners. JASA 91 (4): 2110–2121 Dubno JR, Dirks DD, Morgan, DE (1984) Effects of age and mild hearing loss on speech recognition in noise. JASA 76 (1): 87–96 Dubno JR, Dirks DD, Schaefer AB (1989) Stop–consonant recognition for normal–hearing listeners and listeners with high–frequency hearing loss. II Articulation index predictions. JASA 85 (1): 355–364 Duggirala V, Studebaker GA, Pavlovic CV (1988) Frequency importance functions for a feature recognition test material. JASA 83: 2372–2382 Dunn HK, White SD (1940) Statistical measurements on conversational speech. JASA 11: 278–288 Duquesnoy AJ (1983) Effect of a single interfering noise or speech source upon the binaural sentence intelligibility of aged persons. JASA 74 (3): 739–743 Duquesnoy AJ, Plomp R (1983) The effect of a hearing aid on the speech– reception threshold of hearing–impaired listeners in quiet and in noise. JASA 73 (6): 2166–2173 EG– Richtlinie 86/188/EWG (EG–Arbeitsplatz–Lärmschutz–RL) (1986) Richtlinie des Rates über den Schutz der Arbeitnehmer gegen Gefährdung durch Lärm am Arbeitsplatz. ABI EG Nr L 137, S 28
558
Literaturverzeichnis
EG–Richtlinie 89/392/EWG (1989) Richtlinie des Rates vom 14 Juni 1989 zur Angleichung der Rechtsvorschriften der Mitgliedsstaaten für Maschinen. ABI EG Nr L 183, S 9 EG–Richtlinie 92/58/EWG (1992) Richtlinie des Rates vom 24 Juni 1992 über Mindestvorschriften für die Sicherheits– und/oder Gesundheitskennzeichnung am Arbeitsplatz. ABI EG Nr L 245, S 23 EG–Richtlinie 2003/10/EG (EG–Arbeitsplatz–Lärmschutz–RL) (2003) Richtlinie des Europäischen Parlamentes und des Rates vom 6 Februar 2003 über Mindestvorschriften zum Schutz von Sicherheit und Gesundheit der Arbeitnehmer vor der Gefährdung durch physikalische Einwirkungen – Lärm. ABI EG Nr L 42, S 38 Egan JP (1948) Articulation testing methods. The Laryngoscope 58: 955–991 Egan JP, Wiener FM (1946) On the intelligibility of bands of speech in noise. JASA 18 (2): 435–441 Eggenschwiler K, Desarnaulds V, Imhof T, Köller W, Norman D (2001) Beschallungsanlagen für Sprache. Empfehlungen für Architekten und Bauherrschaften. Schweizerische Gesellschaft für Akustik, Luzern Eisenberg LS, Dirks DD (1995) Reliability and sensitivity of paired comparisons and category rating in children. J of Speech and Hearing Research 38: 1157– 1167 Eisenberg LS, Dirks DD, Bell TS (1995) Speech recognition in amplitude– modulated noise of listeners with normal and listeners with impaired hearing. J of Speech and Hearing Research 38: 222–233 Eisenberg LS, Dirks DD, Gornbein JA (1997) Subjective judgements of speech clarity measured by paired comparisons and category rating. Ear and Hearing 18: 294–306 Eisenberg LS, Dirks DD, Takayanagi S, Martinez AS (1998) Subjective judgments of clarity and intelligibility for filtered stimuli with equivalent speech intelligibility index predictions. J of Speech, Language and Hearing Research 41: 327–339 Eldredge DH (1976) The problem of criteria for noise exposure. In: Henderson D, Hamernik RP, Dosanjh DS, Mills JH (Hrsg) Effect of noise on hearing. Raven Press, New York Elliott LL (1979) Performance of children aged 9 to 17 years on a test of speech intelligibility in noise using sentence material with controlled word predictability. JASA 66 (3): 651–653 Elliott LL (1986) Discrimination and response bias for CV syllables differing in voice onset time among children and adults. JASA 80 (4): 1250–1255 Elliott LL, Hammer MA (1988) Longitudinal changes in auditory discrimination in normal children and children with language–learning problems. J of Speech and Hearing Research 53 (4): 467–474 Elliott LL, Hammer MA, Evan KE (1987) Perception of gated highly familiar spoken monosyllabic nouns by children teenagers and older adults. Perception and Psychophysics 42 (2) 150–157 Embleton TFW (1997) Final Report. Technical Assessment of upper limits on noise in the workplace. Noise/News International 12: 203–216
Literaturverzeichnis
559
EPA (1974) Information on level of environmental noise requisite to protect public health and welfare with an adequate margin of safety. US Environmental Protection Agency Report No 550/9–74–004 Erber NP (1969) Interaction of audition and vision in the recognition of oral speech stimuli. J of Speech and Hearing Research 12: 423–425 Evans GW, Maxwell L (1997) Chronic noise exposure and reading deficits The mediating effects of language acquisition. Environment and Behaviour 29 (5): 638–656 Fairbanks G (1954) Systematic research in experimental phonetics. (1) A theory of the speech mechanism as a servosystem. J of Speech and Hearing Disorders 19: 133–139 Fairbanks G (1958) Test of phonemic differentiation. The rhyme test JASA 30: 596–601 Fallon M, Trehub SE, Schneider BA (2000) Children's perception of speech in multitalker babble. JASA 108 (6): 3023–3029 Fant G (1960) Acoustic theory of speech production. The Hague Mouton, Netherlands Fastl H (1976) Schallpegel und Lautstärke von Sprache. Acustica 35: 341–345 Fastl H (1987) Ein Störgeräusch für die Sprachaudiometrie. Audiologische Akustik 26 (1): 2–13 Fastl H, Zwicker E, Fleischer R (1990) Beurteilung der Verbesserung der Sprachverständlichkeit in einem Hörsaal. Acustica Sonderdruck 71: 287–292 Feldmann H (1998) Stellungnahme zu "Neues von der Lärmschwerhörigkeit". Die Berufsgenossenschaft: 60–68 Feldmann H (2001) Das Gutachten des Hals–Nasen–Ohren–Arztes. 5. Aufl, Thieme Verlag, Stuttgart, S 94–104 Felscher–Suhr U (1997) On the difference in the evolution of judgements depending on either retrospective or actual noise annoyance measurement. Proceedings of Inter–Noise ´97: 1179–1182 Feneberg G, Gralla G, Mönninger B (2004) Bewertung und Gestaltung von akustischen Kommunikationssystemen. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 1017, Wirtschaftsverlag NW, Bremerhaven Fengler J (1990) Hörgeschädigte Menschen. Kohlhammer, Stuttgart Festen JM (1987a) Explorations on the difference in SRT between a stationary noise masker and an interfering speaker. JASA 82: S4 Festen JM (1987b) Speech–reception threshold in fluctuating background sound and its possible relation to temporal auditory resolution. In: Schouten MEH (Hrsg) The Psychophysics of Speech Perception. Martinus Nijhoff, Dordrecht, Netherlands, S 461–466 Festen JM (1993) Contributions of comodulation masking release and temporal resolution to the speech–reception threshold masked by an interfering voice. JASA 94: 1295–1300 Festen JM, Plomp R (1990) Effects of fluctuating noise and interfering speech on the speech–reception threshold for impaired and normal hearing. JASA 88 (4): 1725–1736
560
Literaturverzeichnis
Fillmore CJ (1968) The case for case. In: Bach E, Harms RT (Hrsg) Universals in linguistic theory. Holte Rinehart and Winston, New York, S 1–90 Fillmore CJ (1971) Plädoyer für Kasus. In: Abraham W (Hrsg) Kasustheorie. Athenäum Verlag, Frankfurt Finitzo–Hieber T, Tillman TW (1978) Room acoustics effects on monosyllabic word discrimination ability for normal and hearing–impaired children. J of Speech and Hearing Research 21 (3): 440–458 Finke H–O, Guski R, Rohrmann B (1980) Betroffenheit einer Stadt durch Lärm. Forschungsbericht des Umweltbundesamts Berlin, S 80–105 Fitzgibbons PJ, Wightman FL (1982) Gap detection in normal and hearing– impaired listeners. JASA 72 (3): 761–765 Fletcher H (1929) Speech and hearing. Van Nostrand, New York Fletcher H (1940) Auditory pattern. Rev Mod Phys 12: 47–65 Fletcher H (1950) A method of calculating hearing loss for speech from an audiogram. JASA 22 (1): 1–5 Fletcher H (1953) Speech and hearing in communication. Nostrand Comp Inc, Toronto/New York/London Fletcher H, Galt RH (1950) The perception of speech and its relation to telephony. JASA 22 (2): 89–151 Fletcher H, Steinberg JC (1929) Articulation testing methods. Bell System Technical J 8: 806–855 Florentine M (1985) Non–native listeners' perception of american–english in noise. Proceedings of Inter–Noise ´85 (2): 1021–1024, Wirtschaftsverlag NW, Bremerhaven Florentine M, Fastl H, Buus S (1988) Temporal integration in normal hearing cochlear impairment and impairment simulated by masking. JASA 84: 195–203 Florin I, Luck P, Komischke K (1990) Psychische Symptome und Krankheitsanfälligkeit bei schwerhörigen Erwachsenen. Projekt im Fachbereich Psychologie der Philipps–Universität Marburg, S 1–24 Formby C (1982) Differential sensitivity to tonal frequency and to the rate of modulation of broad–band noise by hearing–impaired listeners. Unpublished doctoral dissertation, St Louis, Washington University Forrest MR (1971) Ear protection and hearing in high–intensity impulsive noise. In: Robinson WD (Hrsg) Occupational Hearing Loss. Academic Press, London New York, S 151–154 Foster JR, Haggard MP (1979) An efficient analytical test of speech perception. Proceedings of the Institute of Acoustics IA3, S 9–12 Fowler EP (1941) Hearing standards for acceptance disability rating and discharge in military services and in industry. Trans Am Otolar Soc: 243–262 Fowler EP (1942) A simple method of measuring percentage of capacity of hearing speech. Archives of Otolaryngology 36: 874–890 Frank M (1993) Nicht hören, nicht fühlen. Süddeutsche Zeitung Nr. 192 vom 21/22.08.1993 French NR, Steinberg JC (1947) Factors governing the intelligibility of speech sounds. JASA 19 (1): 90–119
Literaturverzeichnis
561
Freyman R, Balakrishnan U, Helfer KS (2001) Spatial release from informational masking in speech recognition. JASA 109 (5): 2112–2122 Fröhlich G (1978) Der Einluß von Gehörschutzgeräten und Hörverlusten auf die Sprachverständlichkeit im Flugzeuglärm. Zentralbl. für Arbeitsmedizin: 78– 81 Fuchs HV (2006) Weniger Lärm in Kommunikations– und Schulungsräumen. Lärmbekämpfung 2: 47–56 Gabriel B, Kollmeier B, Wesselkamp M (2000) Untersuchung der Langzeit– Zufriedenheit und des Versorgungsgewinn bei Hörgeräte–Trägern. Z Audiol 39 (3): 86–96 Gabrielsson A, Hagerman B (1993) Subjective correlates of the acoustical characteristics of sound–reproducing systems. In: Studebaker GA , Hochberg I (Hrsg) Acoustical Factors Affecting Hearing Aid Performance. Allyn and Bacon, Boston, S 301–314 Gabrielsson A, Schenkman BN, Hagerman B (1988) The effects of different frequency responses on sound quality judgements and speech intelligibility. J of Speech and Hearing Research 31: 166–177 Gardner MB (1964) Effect of noise on listening levels in conference telephony. JASA 36 (12): 2354–2362 Gardner MB (1966) Effect of noise system gain and assigned task on talking levels in loudspeaker communication. JASA 40 (5): 955–965 Gat IB, Keith RW (1978) An effect of linguistic experience (auditory word discrimination by native and non–native speakers of English). Audiology 17: 339–345 Gelfand SA, Piper N, Silman S (1986) Consonant recognition in quiet and in noise with aging among normal hearing listeners. JASA 80 (6): 1589–1598 Gelfand SA, Ross L, Miller S (1988) Sentence reception in noise from one versus two sources Effects of aging and hearing loss. JASA 83 (1): 248–256 Geng Z, Xiaomin L, Sifa Z, Yanwu Z, Xiaoyu J (2000) A compound active noise cancellation earmuff. Noise Control Engineering J 48 (6): 181–184 Gengel RW, Kupperman GL (1980) Word discrimination in noise. Effect of different speaker. Ear and Hearing 1: 156–160 Gibbon D, Mertins I, Moore RK (2000) Handbook of multimodal and spoken dialogue systems. Kluwer Academic Publisher Gierke HE Von, Johnson PL (1976) Summary of present damage risk criteria. In: Henderson D, Hamernik D, Dosanjh RPSD, Mills HJ (Hrsg) Effect of noise on hearing. Raven Press, New York Gjestland T, Liasjo K, Granoien I, Fields JM (1990) Response to noise around Oslo Airport Fornebu. Report STF A94095. Trondheim, Norway Gjestland T, Liasjo K, Granoien I (1994) Response to noise around Vaernes and Bodo Airports. Report STF40 A90189. Trondheim, Norway Glasberg BR, Moore BCJ (1986) Auditory filter shapes in subjects and bilateral cochlear impairments. JASA 79: 1020–1033 Glasberg BR, Moore BCJ (1989) Psychoacoustic abilities of subjects with unilateral and bilateral cochlear hearing impairments and their relationship to the ability to understand speech. Scand Audiology 32: 1–25
562
Literaturverzeichnis
Glasberg BR, Moore BCJ (1992) Effects of envelope fluctuations on gap detection. Hearing Research 64: 81–92 Glasberg BR, Moore BCJ, Bacon SP (1987) Gap detection and masking in hearing–impaired and normal–hearing subjects. JASA 81 (5): 1546–1556 Glorig A, Summerfield A, Nixon J (1950) Distribution of hearing loss in non– noise–exposed populations. Proceedings of the International Congress on Acoustics, Stuttgart Goldinger SD, Pisoni D,B Logan JS (1991) On the nature of talker variability effects on recall of sopken word lists. J of Experimental Psychology, Learning Memory and Cognition 17: 152–162 Gordon–Salant S (1984) Effects of reducing low–frequency amplification on consonant perception in quiet and noise. JASA 27: 483–493 Gordon–Salant S (1987) Age–related differences in speech recognition performance as a function of test format and paradigm. Ear and Hearing 8: 277–282 Gordon–Salant S, Fitzgibbons PJ (1993) Temporal factors and speech recognition performance in young and elderly listeners. J of Speech and Hearing Research 36: 1276–1285 Gordon–Salant S, Fitzgibbons PJ (1995) Comparing recognition of distorted speech using an equivalent signal–to–noise ratio index. J of Speech and Hearing Research 38 (6): 706–713 Goshorn EL, Studebaker GA (1994) Effects of intensity on speech recognition in high– and low–fequency bands. Ear and Hearing 15: 454–460 Gottlob D (1986) Wirkungen von Straßenverkehrslärm. Haustechnik – Bauphysik – Umwelttechnik. Gesundheits–Ingenieur 107 (1) Gower Jr DW, Casali JG (1994) Speech intelligibility and protective effectiveness of selected active noise reduction and conventional communications headsets. Human Factors 36 (2): 350–367 Grandjean E (1974) Untersuchungen über Fluglärmwirkungen in der Schweiz. In: Lärmbekämpfung. Referate des 8. Internat. Kongress für Lärmbekämpfung. ACB Pro Aqua – Pro Vita, Brunner Verlag, Basel Grice GR (1975) Logic and conversation. In: Cole P, Morgan LJ (Hrsg) Syntax and semantics. Vol 3: Indirect speech acts. Academic Press, London New York, S 41–58 Groen JJ (1969) Social hearing handicap; its measurement by speechaudiometry in noise. International Audiology 8: 182–183 Grose JH, Eddins DA, Hall JW (1989) Gap detection as a function of stimulus bandwidth with fixed high–frequency cutoff in normal–hearing and hearing– impaired listeners. JASA 86: 1747–1755 Grosjean F, Deschamps A (1975) Analyse contrastive des variables temporelles de l'anglais et du francais. Phonetica 31: 144–184 Gundermann H, Lüth C (1964) Zur Problematik der Stimmleistung bei Lehrern während des Unterrichts. Folia Phoniatrica 16: 243–248 Guski R (1987) Lärm. Wirkungen unerwünschter Geräusche. Verlag Hans Huber, Stuttgart Guski R (2002) Status Tendenzen und Desiderate der Lärmwirkungsforschung zu Beginn des 21 Jahrhunderts. Z für Lärmbekämpfung 49: 219–232
Literaturverzeichnis
563
Guski R, Wühler K (1989) Sprachliche Kommunikation am Arbeitsplatz und Geräuschbelastung. Z für Lärmbekämpfung 36: 31–36 Guski R, Wühler K, Vössing J (1988) Belastung durch Geräusche an Arbeitsplätzen mit sprachlicher Kommunikation. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 545, Wirtschaftsverlag NW, Bremerhaven Guski R, Genuit K, Hottenbacher A, Wühler K (1996) Mangel an präventiven Gestaltungsmaßnahmen zum Lärmschutz. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 745, Wirtschaftsverlag NW, Bremerhaven Gustafsson HA, Arlinger SD (1994) Masking of speech by amplitude–modulated noise. JASA 95: 518–529 Haas H (1951) Über den Einfluß eines Einfachechos auf die Hörsamkeit von Sprache. Acustica 1: 49–58 Hagerman B (1982) Sentences for testing speech intelligibility in noise. Scand Audiology 11: 79–87 Hahlbrock H–H (1970) Sprachaudiometrie. Thieme Verlag, Stuttgart Haines MM, Stansfeld SA, Job RFS, Berglund B, Head J (2001) Chronic aircraft noise exposure stress responses mental health and cognitive performance in school children. Psychological Medicine 31: 265–277 Hall ET (1969) The hidden dimension. Doubleda Company, New York Hall JW, Grose JH (1991) Notch–noise measurements of frequency selectivity in adults and children using fixed–masker–level and fixed–signal–level presentation. J of Speech and Hearing Research 34: 651–660 Hallberg LR–M, Carlsson SG (1991a) A qualitative study of strategies for managing a hearing impairment. British J of Audiology 25: 201–211 Hallberg LR–M, Carlsson SG (1991b) Hearing impairment coping and perceived hearing handicap in middle–aged subjects with acquired hearing loss. British J of Audiology 25: 323–330 Hallberg LR–M, Erlandsson SI, Carlsson SG (1992a) Coping strategies used by middle–aged males with noise–induced hearing loss with and without tinnitus. Psychology and Health 7: 273–288 Hallberg LR–M, Eriksson–Mangold M, Carlsson SG (1992b) Psychometric evaluation of a Swedish version of the communication strategies scale of the communication profile for the hearing impaired. J of Speech and Hearing Research 35: 666–674 Halling DC, Humes LE (2000) Factors affecting the recognition of reverberant speech by elderly listeners. J of Speech, Language and Hearing Research 43: 414–431 Hannley M, Dorman MF (1983) Susceptibility to intraspeech spread of masking in listeners with sensorineural hearing loss. JASA 74 (1): 40–51 Hansen JHL (1996) Analysis and compensation of speech under stress and noise for environmental robustness in speech recognition. Speech Communication (Special Issue on Speech under Stress) 20 (2): 151–170 Hansen JHL, Bria O (1990) Lombard effect compensation for robust automatic speech recognition in noise. Proceedings of ICSLP, S 1125–1128
564
Literaturverzeichnis
Hansen M, Tandrup LC, Poulsen T (1994) Sprachverständlichkeitsmessungen in Gesprächssituationen. Fortschritte der Akustik – DAGA ’94, Oldenburg, S 1481–1484 Harris JD (1960) Combinations of distortion in speech. Archives of Otolaryngology 72: 227–232 Harris JD (1965) Pure–tone acuity and the intelligibility of everyday speech. JASA 37 (5): 824–830 Harris JD, Haines HL, Myers CK (1956) A new formula for using the audiogram to predict speech hearing loss. Archives of Otolaryngology 63: 158–176 Harris RW, Reitz ML (1985) Effects of room reverberation and noise on speech discrimination by the elderly. Audiology 24: 319–324 Hartley DEH, Wright BA, Hogan SC, Moore DR (2000) Age–related improvements in auditory backward and simultaneous masking in 6– to 10–year–old children. J of Speech, Language and Hearing Research 43: 1402–1415 Hashimoto M (1996) Speech perception in noise when wearing hearing protectors with little low–frequency attenuation. Int J Ind Ergon 18: 121–126 Hawkins DB, Naidoo SV (1993) Comparison of sound quality and clarity with asymmetrical peak clipping and output limiting compression. Academy of Audiology 4: 221–228 Hawkins JE, Stevens SS (1950) The masking of pure tones and of speech by white noise. JASA 22 (1): 6–13 Hecker R (1994) Lärmbelastung in der Schule. Z für Arbeitswissenschaft 48 (2): 90–98 Helfer KS (1994) Binaural cues and consonant perception in reverberation and noise. J of Speech and Hearing Research 37 (4): 429–438 Helfer KS, Wilber LA (1990) Hearing loss aging and speech perception in reverberation and noise. J of Speech and Hearing Research 33: 149–155 Hellbrück J (1994) Irrelevant background noise and human performance. Proc of Inter–Noise ´94, Yokohama, Vol 2, S 845–850 Hellbrück J, Ellermeier W (2004) Hören. Physiologie, Psychologie und Pathologie. Hogrefe, Göttingen Hellbrück J, Kuwano S, Namba S (1996) Irrelevant background speech and human performance. Is there long–term habituation? J of the Acoustical Society of Japan 17 (5): 239–247 Herbst KG, Humphrey C (1980) Hearing impairment and mental state in the elderly living at home. Br Med J 281: 903–905 Hétu R (1981) Wearing conditions of personal hearing protectors in a steel plant. JASA 70 (1): 107 Hètu R, Lalonde M, Getty L (1987) Psychosocial disadvantages associated with occupational hearing loss as experienced in the family. Audiology 26: 141– 152 Heusden E Van, Plomp R, Pols LCW (1979) Effect of ambient noise on the vocal output and the preferred listening level of conversational speech. Applied Acoustics 12: 31–43 Hickson LM (1994) Compression amplification in hearing aids. American J of Audiology 3: 51–65
Literaturverzeichnis
565
Hinchcliffe R (1998) Quality of life noise and hearing. In: Prasher D, Luxon L, Pyykkö I (Hrsg) Advances in noise Research. Volume II: Protection against noise. Whurr Publishers Ltd, London, S 24–44 Hiramatsu K, Tokuyama T, Matsui T, Miyakita T, Osada Y, Yamamoto T (2003) The Okinawa study. Effect of chronic aircraft noise exposure on memory of school children. Proceedings of Noise as a Public Health Problem, ICBEN 2003, Rotterdam Hirsh IJ, Bowman WD (1953) Masking of speech by bands of noise. JASA 25 (6): 1175–1180 Hirsh IJ, Davis H, Silverman SR, Reynolds EG, Eldert E (1952) Development of materials for speech audiometry. J of Speech and Hearing Disorders 17: 321– 337 Hirsh IJ, Reynolds EG, Joseph M (1954) Intelligibility of different speech materials. JASA 26 (4): 530–538 Hiselius P (2000) A new generation Uniform attenuation hearing protectors offer superior communication and user acceptance for normal and hearing impaired listeners. Occup Health Saf 69 (3): 50–54 Hodgson M (1999) Experimental investigation of the acoustical chacteristics of university classrooms. JASA 106: 1810–1819 Hodgson M, Rempel R, Kennedy S (1999) Measurement and prediction of typical speech and background–noise levels in university classrooms during lectures. JASA 105 (1): 226–233 Hörmann H, Lazarus–Mainka G, Lazarus H, Schubeius M (1981) Sprachliche Kommunikation unter Lärm und das Tragen von Gehörschutz. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 287, Wirtschaftsverlag NW, Bremerhaven Hörmann H, Lazarus–Mainka G, Schubeius M (1982) Sprachliche Kommunikation unter Lärm und das Tragen von Gehörschutz. Z für Lärmbekämpfung 29: 97–104 Hövel H Vom (1981) Vorhersage zur Sprachverständlichkeit unter Berücksichtigung der Eigenschaften des äußeren Gehörs und des binauralen Hörens. VDE–Verlag, Berlin Hövel H Vom, Platte H–J (1980) Sprachverständlichkeit bei einer und mehreren unkorrelierten Störschallquellen im Freifeld. Fortschritte der Akustik – DAGA ´80: 615–618, Oldenburg Hoffmann E (1997) Hörfähigkeit und Hörschäden junger Erwachsener unter Berücksichtigung der Lärmbelastung. Median Verlag, Heidelberg Hojan E, Stemplinger E, Fastl H (1997) Zur Verständlichkeit deutscher Sprache im Störgeräusch nach Fastl durch polnische Hörer mit unterschiedlichen Deutschkenntnissen. Audiologische Akustik 1: 32–37 Holmberg EB, Hillman RE, Perkell JS (1988) Glottal airflow and transglottal air pressure measurements for male and female speakers in soft normal and loud voice. JASA 84: 511–529 Holube I, Kollmeier B (1996) Speech intelligibility prediction in hearing–impaired listeners based on a psychoacoustically motivated perception model. JASA 100: 1703–1716
566
Literaturverzeichnis
Horii Y, House AS, Hughes GW (1971) A masking noise with speech–envelope characteristics for studying intelligibility. JASA 49: 1849–1856 House AS, Williams CE, Hecker MHL, Kryter KD (1965) Articulation–testing methods Consonantal differentiation with a closed–response set. JASA 37 (1): 158–167 Houtgast T (1980) Indoor speech intelligibility and indoor noise level criteria. Proceedings of the 3rd International Congress on Noise as a Public Health Problem (Freiburg 1978), ASHA–Report 10: 172–183 Houtgast T, Steeneken HJM (1971) Evaluation of speech transmission channels by using artificial signals. Acustica 25: 355–367 Houtgast T, Steeneken HJM (1972) Envelope spectrum and intelligibility of speech in enclosures. Conference on Speech Communication and Processing: 392–395 Houtgast T, Steeneken HJM (1973) The modulation transfer function in room acoustics as a predictor of speech intelligibility. Acustica 28 (1): 66–73 Houtgast T, Steeneken HJM (1978) Applications of the modulation transfer function in room acoustics. In: Report IZF 1978–20. Institute for Perception, TNO, Soesterberg, The Netherlands, S 1–29 Houtgast T, Steeneken HJM (1984) A multi–language evaluation of the RASTI– method for estimating speech intelligibility in auditoria. Acustica 54 (4): 185– 199 Houtgast T, Steeneken HJM (1985a) A review of the MTF concept in room acoustics and its use for estimating speech intelligibility in auditoria. JASA 77 (3): 1069–1077 Houtgast T, Steeneken HJM (1985b) The modulation transfer function in room acoustics. BK Technical Review 3: 3–12 Houtgast T, Steeneken HJM, Plomp R (1980) Predicting speech intelligibility in rooms from the modulation transfer function. I. General room acoustics. Acustica 46: 60–72 Howard–Jones PA, Rosen S (1993) The perception of speech in fluctuating noise. Acustica 78: 258–272 Howell K, Martin AM (1975) An investigation of the effects of hearing protectors on vocal communication in noise. J of Sound and Vibration 41 (2): 181–196 Howes D (1957) On the relation between the intelligibility and frequency of occurrence of English words. JASA 29 (2): 296–305 Hülse M, Boll B (1979) Literatur–Dokumentation zur Presbyacusis. Untersuchungen der Ursachen der Altersschwerhörigkeit. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 222, Wirtschaftsverlag NW, Bremerhaven Hull R (1978) Hearing evaluation of the elderly. In: Katz J (Hrsg) Handbook of clinical audiology. Williams & Williams, Baltimore Humes LE (1993) Some temporal factors affecting speech recognition. In: Studebaker GA, Hochberg I (Hrsg) Acoustical Factors Affecting Hearing Aid Performance. Allyn and Bacon, Boston, S 205–220
Literaturverzeichnis
567
Humes LE, Christopherson L (1991) Speech identification difficulties of hearing– impaired elderly persons. The contributions of auditory processing deficits. J of Speech and Hearing Research 34 (6): 686–693 Humes LE, Roberts L (1990) Speech–recognition difficulties of the hearing– impaired elderly. The contributions of audibility. J of Speech and Hearing Research 33: 726–735 Humes LE, Dirks DD, Bell TS, Ahlstrom C, Kincaid GE (1986) Application of the articulation index and the speech transmission index to the recognition of speech by normal–hearing and hearing–impaired listeners. J of Speech and Hearing Research 29: 447–462 Humes LE, Boney St, Loven F (1987) Further validation of the speech transmission index (STI). J of Speech and Hearing Research 30: 403–410 Humes LE, Espinoza–Varas B, Watson CS (1988) Modeling sensorineural hearing loss I Model and retrospective evaluation. JASA 83 (1): 188–202 Humes LE, Watson BU, Christensen LA (1994) Factors associated with individual differences in clinical measures of speech recognition among the elderly. J of Speech and Hearing Research 37: 465–474 Humes LE, Christensen LA, Bess FH, Hedley–Williams A (1997) A comparison of the benefit provided by well–fit linear hearing aids and instruments with automatic reductions of low–frequency gain. J of Speech, Language and Hearing Research 40: 666–685 Hygge S, Rönnberg J, Larsby B, Arlinger S (1992) Normal–hearing and hearing– impaired subjects' ability to just follow conversation in competing speech reversed speech and noise backgrounds. J of Speech and Hearing Research 35: 208–215 IEC 60268–16 (2002) Objective rating of speech intelligibility by Speech Transmission Index IEEE (1969) IEEE Recommmended practice for speech quality measurements. Institute Electrical and Electronic Engineers Inc, New York Ising H, Babisch W, Günther T, Kruppa B (1997) Risikoerhöhung für Herzinfarkt durch chronischen Lärmstreß. Z für Lärmbekämpfung 44: 1–7 ISO 226 (2003) Acoustics – Normal equal–loudness–level contours ISO 1999 (1990) Acoustics – Determination of occupational noise exposure and estimation of noise–induced hearing impairment ISO 9612 (1997) Acoustics – Guidelines for the measurement and assessment of exposure to noise in a working environment ISO 9921 (2003) Ergonomics – Assessment of speech communication ISO 9921–1 (1996) Ergonomic assessment of speech communication. Part 1: Speech interference level and communication distances for persons with normal hearing capacity in direct communication (SIL method) ISO R 1996 (1971) Acoustics–Assessment of noise with respect to community response ISO/TR 19358 (2005) Ergonomics – Construction and application of tests for speech technology ISO/TR 3352 (1974) Acoustics – Assessment of noise with respect to its effect on the intelligibility of speech
568
Literaturverzeichnis
ISO/TR 4870 (1991) Acoustics – The construction and calibration of speech intelligibility tests Jacobson R, Halle M (1956) Fundamentals of language. (Grundlagen der Sprache.) The Hague, Berlin Jansen G (1977) Lärm und Büroarbeit aus arbeitsmedizinischer Sicht. Arbeitsmedizin – Sozialmedizin – Präventivmedizin 12 (2): 38–40 Jekosch U (1993) Speech quality assessment and evaluation. Proceedings of Euro–Speech ´93: 1387–1394 Jekosch U (1994) Sprachverständlichkeit in Relation zum hörerwartungsbezogenen Schätzwert. Fortschritte der Akustik – DAGA ´94: 1357–1360, Oldenburg Jekosch U (2000a) Sprache hören und beurteilen Qualitätsbeurteilung von Sprechtechnologien als Forschungs– und Dienstleistungsaufgabe. Habilitationsschrift, Universität/Gesamthochschule Essen Jekosch U (2000b) Sprachqualitätsbeurteilung im Anwendungszusammenhang. Fortschritte der Akustik – DAGA 2000, Oldenburg Jekosch U (2001a) Sprachqualitätsmessungen und Semiotik. Ein interdisziplinärer Brückenschlag. Fortschritte der Akustik – DAGA 2001, Oldenburg Jekosch U (2001b) Projektionsmodell zu Sprachqualitätsmessungen. Fortschritte der Akustik – DAGA 2001, Oldenburg Jekosch U, Blauert J (2005) Schritte zu einer vereinheitlichten Theorie der Qualität von Geräuschen. Z für Lärmbekämpfung 52: 78–81 Jerger S, Jerger J (1976) Der funktionelle Zusammenhang zwischen Sprachhörschwelle und Sprachdiskriminations–Kurvenverlauf. Archives of Otolaryngology 102: 487–496 Jerger S, Jerger J (1984) Pediatric speech intelligibility test. Auditec of St. Louis Jerger J, Jerger S, Pirozzolo F (1991) Correlational analysis of speech audiometric scores hearing loss age and cognitive abilities in the elderly. Ear and Hearing 12: 103–109 Jones DM, Macken WJ (1993) Irrelevant tones produce an irrelevant speech effect. Implications for phonological coding in working memory. J of Experimental Psychology, Learning Memory and Cognition 19: 369–381 Johnson CE (2000) Children's phoneme identification in reverberation and noise. J of Speech, Language and Hearing Research 43: 144–157 Johnson CJ, Pick HL, Siegel GM, Cicciarelli AW, Garber SR (1981) Effects of interpersonal distance on children's vocal intensity. Child Development 52: 721–723 Johnson K, Pisoni D, Bernacki R (1989) Final report to the NTSB on the speech produced by the captain of the Exxon Valdez. Research on Speech Perception Progress, Report No 15, Indiana University, Bloomington Johnson NF (1965) Language models and functional units of language behavior. In: Rosenberg S (Hrsg) Direction in Psycholinguistics. Macmillan Company, New York, S 29–65 Jokinen K (1973) Presbyacusis. VI: Masking of speech. Acta Oto–Laryngologica 76: 426–430
Literaturverzeichnis
569
Jones O, Smith R (1983) The selective anti–noise ear defender. Proceedings of Inter–Noise ´83: 375–378 Jovicic S (1979) Anleitung zur Vorausbestimmung des Schallpegels in Betriebsgebäuden. MAGS, Düsseldorf Jovicic S (1997) Speech characteristics in high noisy environments. Proceedings of Inter–Noise ´97: 1277–1280 Junqua JC (1993) The Lombard reflex and its role on human listeners and automatic speech recognizers. JASA 93 (1): 510–524 Junqua JC, Anglade Y (1990) Acoustic and perceptual studies of lombard speech. Application to isolated–words automatic speech recognition. Proceedings of ICASSP: 841–844, New York Kalikow DN, Stevens KN, Elliott LL (1977) Development of a test of speech intelligibility in noise using sentence materials with controlled word predictability. JASA 61 (5): 1337–1351 Kang J (1996) Improvement of the STI of multiple loudspeakers in long enclosures by architectural treatments. Applied Acoustics 47 (2): 129–148 Karl JR, Pisoni DB (1994) Effects of stimulus variability on recall of spoken sentences. A first report. Research on Spoken Language Processing, Progress Report No 19, Speech Research Laboratory, Indiana University, S 145–193 Kastka J (1981) Psychologische Indikatoren der Verkehrslärmbelästigung. In: Schick A (Hrsg) Akustik zwischen Physik und Psychologie. Klett–Cotta, Stuttgart, S 68–86 Kates JM, Kozma–Spytek L (1994) Quality ratings for frequency–shaped peak– clipped speech. JASA 95 (6): 3586–3594 Kießling J, Meier R (1986) Vergleichende sprachaudiometrische Untersuchungen mit dem Freiburger Test und dem Reimtest nach Sotscheck. Oto–Rhino– Laryngology, Verhandlungsbericht der Deutschen Gesellschaft für Hals– Nasen–Ohren–Heilkunde, Kopf– und Hals–Chirurgie Sitzungsbericht Teil II: 285–288 Kießling J, Kollmeier B, Diller G (1996) Versorgung und Rehabilitation mit Hörgeräten. Thieme Verlag, Stuttgart New York Killion MC (1993) The K Amp hearing aid – an attempt to present high fidelity for persons with impaired hearing. American J of Audiology 2 (2): 52–74 Killion KD, Vilbiss E de , Steward J (1988) An earplug with uniform 15–dB attenuation. Hearing J 41: 14–17 Kingsbury HF (1995) Review and revision of room noise criteria. Noise Control Engineering J 43 (3): 65–72 Kintsch W (1972) Notes of structure of semantic memory. In: Tulving E, Donaldson W (Hrsg) Organization of memory. Academic Press, London New York, Kintsch W (1974) The representation of meaning in memory. John Wiley, New York Kirk KI, Pisoni DB, Miyamoto RC (1997) Effects of stimulus variability on speech perception in listeners with hearing impairment. J of Speech, Language and Hearing Research 40: 1395–1405
570
Literaturverzeichnis
Klatte M (2006) Auswirkungen der akustischen Bedingungen in Schulräumen auf Kinder. Lärmbekämpfung 2: 41–45 Klatte M, Hellbrück J (1993) Der Irrelevant Speech Effekt. Wirkungen von Hintergrundschall auf das Arbeitsgedächtnis. Z für Lärmbekämpfung 40: 91–98 Klatte M, Kilcher H, Hellbrück J (1995) Wirkungen der zeitlichen Struktur von Hintergrundschall auf das Arbeitsgedächtnis und ihre theoretischen und praktischen Implikationen. Z für experimentelle Psychologie XLII 4: 517–544 Klatte M, Sukowski H, Meis M, Schick A (2004) Effects of irrelevant speech and traffic noise on speech perception and phonological short–term memory in children aged 6 to 7 years. Paper presented at the 30th German Convention on Acoustics (DAGA), Strassburg 2004 Klein AJ (1989) Assessing speech recognition in noise for listeners with a signal processor hearing aid. Ear and Hearing 10 (1): 50–57 Klein AJ, Mills JH, Adkins WY (1990) Upward spread of masking hearing loss and speech recognition in young and elderly listeners. JASA 87: 1266–1271 Kliem K, Kollmeier B (1992) Ein Zweisilber–Reimtest in deutscher Sprache. In: Kollmeier B (Hrsg) Moderne Verfahren der Sprachaudiometrie. Buchreihe Audiologische Akustik. Median Verlag, Heidelberg, S 287–310 Klumpp RG, Webster JC (1963) Physical measurements of equally speech– interfering navy noises. JASA 35 (9): 1328–1338 Knall V, Schümer R (1981) Reaktion auf Straßen– und Schienenverkehrslärm in städtischen und ländlichen Regionen. In: Schick A (Hrsg) Akustik zwischen Physik und Psychologie. Klett–Cotta, Stuttgart, S 20–26 Körpert K (1980) Retrospektive Untersuchung über die Wirkung von Gehörschützern. ÖAL–Fachtagung Schutz vor Lärm: 79–82 Köster S (2002) Modellierung von Sprechweisen für widrige Kommunikationssituationen mit Anwendung auf die Sprachsynthese. Dissertation, Institut für Kommunikationsakustik, Ruhr–Universität Bochum, Shaker Verlag, Aachen Köster S, Pörschmann C, Walter J (2000) Eine Datenbank für deutsche Sprache mit Lombard–Effekt. Fortschritte der Akustik – DAGA 2000: 356–357, Oldenburg Kollmeier B (2004) Audiologie. Lecture Scripts, Universität Oldenburg. http //medi.uni–oldenburg.de/html/teaching_download.html Kollmeier B, Holube I (1992) Auditory filter bandwiths in binaural and monaural listening conditions. JASA 92: 1889–1901 Kollmeier B, Wesselkamp M (1997) Development and evaluation of a german test for objective and subjective speech intelligibility assessment. JASA 102 (4): 2412–2421 Korn TS (1954) Effect of psychological feedback on conversational noise reduction in rooms. JASA 26 (5): 793–794 Kryter KD (1946) Effects of ear protective devices on the intelligibility of speech in noise. JASA 10 (2): 413–417 Kryter KD (1960) Speech bandwidth compression through spectrum selection. JASA 32 (5): 547–556 Kryter KD (1962a) Methods for the calculation and use of the articulation index. JASA 34 (11): 1689–1696
Literaturverzeichnis
571
Kryter KD (1962b) Validation of the articulation index. JASA 34: 1698–1702 Kryter KD (1963) Hearing impairment for speech. Archives of Otolaryngology 77: 598–602 Kryter KD (1970) The effects of noise on man. (2. Aufl 1985) Academic Press, London New York Kryter KD (1972) Speech communication. In: Cott PH, Kinkade GR (Hrsg) Human Engineering Guide to Equipment Design. American Institutes for Research, Washington DC, S 161–246 Kryter KD (1973) Impairment to hearing from exposure to noise. JASA 53 (5): 1211–1234 Kryter KD, Whitman EC (1965) Some comparisons between rhyme and PB–word intelligibility tests. JASA 37: 1146 Kryter KD, Williams C (1966) Masking of speech by aircraft noise. JASA 39: 138–150 Kryter KD, Johnson PJ, Stevens SS (1947) Premodulation clipping in AM voice communication. JASA 19: 125–134 Kryter KD, Williams C, Green DM (1962) Auditory acuity and the perception of speech. JASA 34 (9): 1217–1223 Kuttruff H (2000) Room acoustics. Applied Science Publishers, London Kuzniarz JJ (1973) Hearing loss and speech intelligibility in noise. Proceedings of the 2nd International Congress on noise as a public health problem (Dubrovnik), EPA, US Environmental Protection Agency, Washington DC, 57–72 Lacroix PG, Harris JD, Randolph KJ (1979) Multiplicative effects on sentence comprehension for combined acoustic distortions. J of Speech and Hearing Research 22: 259–269 Lalande NM, Lambert J, Riverin L (1988) Quantification of the psychosocial disadvantages experienced by workers in a noisy industry and their nearest relatives. Perspectives for rehabilitation. Audiology 27: 196–206 Lalonde M, Hétu R (1986) Bases for the analysis of psycho–social disadvantages due to noise–induced hearing loss. 12 ICA B: 11–7 Lampert H (1923) Die Mängel der bisherigen Hörprüfung mit der Sprache. Z für Hals– Nasen– und Ohrenheilkunde 5: 69–91 Lane H, Tranel B (1971) The lombard sign and the role of hearing in speech. J of Speech and Hearing Research 14: 677–709 Lane H, Webster JW (1991) Speech deterioration in postlingually deafened adults. JASA 89: 859–866 Laroche C, Tran Quoc H, Hétu R, Mc Duff S (1991) "Detectsound". A computerized model for predicting the detectability of warning signals in noisy workplaces. Applied Acoustics 32: 193–214 Laroche C, Hétu R, Quoc HAT, Rouffet J–M (1992) "Detectsound" and "dBOHS". A software package for the analysis of health and safety in noisy workplaces. Canadian Acoustics 20 (3): 39–40 Launer S, Holube I, Hohmann V, Kollmeier B (1996) Categorical loudness scaling in hearing–impaired listeners – Can loudness growth be predicted from the audiogram? Audiologische Akustik 4: 156–163
572
Literaturverzeichnis
Lawson GD, Chial MR (1982) Magnitude estimation of degraded speech quality by normal– and impaired–hearing listeners. JASA 72 (6): 1781–1787 Lazarus H (1986a) Prediction of verbal communication in noise. – A review. Applied Acoustics 19 (1): 439–464 Lazarus H (1986b) Ein Modell zur sprachlichen Kommunikation unter Störbedingungen und deren Bewertung. Rundfunktech. Mitteilungen 30 (2): 59–72 Lazarus H (1986c) A model of speech communication and its evaluation under disturbing conditions. In: Schick A, Höge H, Lazarus–Mainka G (Hrsg) Contributions to Psychological Acoustics. Results of the 4th Oldenburger Symposium on Psychological Acoustics, Universität Oldenburg, S 155–184 Lazarus H (1987) Prediction of verbal communication in noise – A development of generalized SIL curves and the quality of communication (Part 2). Applied Acoustics 20 (2): 245–261 Lazarus H (1990a) New methods for describing and assessing direct speech communication under disturbing conditions. Environment International 16: 373– 392 Lazarus H (1990b) Schallpegelberechnungen in Räumen – Überblick über Methoden und Schallschutzmaßnahmen Schallausbreitung in Werkhallen – Schallschutz durch raumakustische Maßnahmen. VDI–Bericht 860: 1–28 Lazarus H (1990c) New techniques for describing and assessing speech communication under conditions of interference. In: Berglund B, Berglund U, Karlsson J, Linvall T (Hrsg) Noise as a Public Health Problem (4), Proc of the 5th International Congress. Swedish Council for Building Research, Stockholm, S 197–226 Lazarus H (1992) Speech intelligibility with respect to hearing protection and hearing impairment. Proceedings of Inter–Noise ´92: 289–294 Lazarus H (2005) Signal recognition and hearing protectors with normal and impaired hearing. International J of Occupational Safety and Ergonomics (JOSE) 11 (3): 233–250 Lazarus H, Lazarus–Mainka G (1979) Sprachverständlichkeit und Mithörschwellen verrauschter Sätze unterschiedlichen Materials. Acustica 42 (5): 281–294 Lazarus H, Wittmann H, Weißenberger H, Meißner H (1983) Die Wahrnehmbarkeit von Rottenwarntyphonen beim Tragen von Gehörschutz. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 340, Wirtschaftsverlag NW, Bremerhaven Lazarus H, Lazarus–Mainka G, Schubeius M (1985) Sprachliche Kommunikation unter Lärm. Kiehl–Verlag, Ludwigshafen Lazarus H, Irion H, Pfeiffer I, Albert O (1986) Geräuschbelastung in einem Großkraftwerk. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 467, Wirtschaftsverlag NW, Bremerhaven Lazarus H, Parthey W, Schust M (2001) Gefährdungsanalyse – Lärm. In: Ratgeber zur Ermittlung gefährdungsbezogener Arbeitsschutzmaßnahmen im Betrieb. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Sonderschrift S 42, 3. Aufl, Wirtschaftsverlag NW, Bremerhaven, S 235–255
Literaturverzeichnis
573
Lazarus H, Partey W, Kurtz P (2002) Schalltechnische Anforderung an Call– Center und die entsprechenden Arbeitsplätze und Arbeitsräume. Z für Lärmbekämpfung 49: 40–43 Lazarus H, Sust ChA, Volberg L, Kulka M (2002) Bewertung der Sprachkommunikation. Z für Lärmbekämpfung 49: 9–11 Lazarus H, Sust ChA, Kurtz P (2005) Sprachverständlichkeit Schwerhöriger unter realen Bedingungen. – Problemanalyse und Verbesserungen bei der Gestaltung der Umgebung – Teil 1. Z für Lärmbekämpfung 52 (5): 148–155 Lazarus H, Sust ChA, Kurtz P (2005) Sprachverständlichkeit Schwerhöriger unter realen Bedingungen. – Problemanalyse und Verbesserungen bei der Gestaltung der Umgebun. – Teil 2. Z für Lärmbekämpfung 52 (6): 191–195 Lazarus–Mainka G (1984a) Sprecher–Hörer–Interaktion unter Geräuscheinwirkung. In: Engelkamp J (Hrsg) Lehr– und Forschungstexte Psychologie 10. Springer–Verlag, Berlin Heidelberg, S 111–127 Lazarus–Mainka G (1984b) Subjektive Befindlichkeit von Sprecher und Hörer bei sprachlicher Kommunikation unter Geräuscheinwirkung. In: Schick A, Walcher PK (Hrsg) Beiträge zur Bedeutungslehre des Schalls. Ergebnisse des 3. Oldenburger Symposiums zur Psychologischen Akustik, Peter Lang, Bern Frankfurt am Main New York, S 325–336 Lazarus–Mainka G (1993) Faktoren der Belästigung bei der sprachlichen Kommunikation unter Geräuscheinwirkung. Z für Lärmbekämpfung 40: 129–139 Lazarus–Mainka G, Lazarus H (1976) Monaurale und binaurale Wahrnehmung maskierter Sprache. Fortschritte der Akustik – DAGA '76: 585–588, Oldenburg, VDI–Verlag, Düsseldorf Heidelberg Lazarus–Mainka G, Lazarus H (1984) Der Einfluss der Sprechweise auf die Sprachverständlichkeit. Fortschritte der Akustik – DAGA '84: 865–868, Bad Honnef Lazarus–Mainka G, Leushacke L (1985) Die Belastungen von Sprecher und Hörer während einer sprachlichen Kommunikation unter Geräuscheinwirkung. Psychologie und Praxis 29: 107–115 Lazarus–Mainka G, Raschdorf D (1985a) Sprechweise Sprachverständlichkeit und Geräuschintensität als Faktoren der erlebten Belästigung. Z für Lärmbekämpfung 32: 135–140 Lazarus–Mainka G, Raschdorf D (1985b) Sprachverständlichkeit abhängig von der Prosodie. Archiv 137: 219–232 Lazarus–Mainka G, Reck S (1986) Sprachverständlichkeit als Funktion der Prosodie. Z für Psychologie 194 (2): 191–204 Lazarus–Mainka G, Sasse M (1981) Die Wahrnehmung von Sprache in Abhängigkeit von der Aufmerksamkeitsverteilung. Z für Lärmbekämpfung 28: 186– 191 Lazarus–Mainka G, Tkocz N (1988) Sprechen und Sprechanstrengung. Z für Lärmbekämpfung 35: 1–6 Lazarus–Mainka G, Lazarus H, Hörmann H, Schubeius M (1981) Verständlichkeit von einsilbigen Wörtern und Sätzen in einer Face–to–Face–Kommunikation unter Lärm. In: Schick A (Hrsg) Akustik zwischen Physik und Psychologie Klett–Cotta/Psychologie Forschung, Stuttgart, S 151–160
574
Literaturverzeichnis
Lazarus–Mainka G, Lazarus H, Schubeius M, Hörmann H (1983) Sprachliche Kommunikation unter Geräuscheinwirkung und die subjektiv erlebte Belästigung. Z für Lärmbekämpfung 30: 4–10 Lazarus–Mainka G, Pasligh B, Raschdorf D (1985) Die Beeinträchtigung der Sprachverständlichkeit als Faktor der Belästigung. Z für Lärmbekämpfung 32: 65–72 Lazarus–Mainka G, Arnold M, Tkocz N (1989) Die Verarbeitung eines Sprachreizes und der dabei notwendige Arbeitsaufwand – ein Beitrag zur Doppeltätigkeit. Z für Psychologie 197: 171–185 Leder SB, Spitzer JB, Kirchner JC, Flevaris–Phillips C, Milner P, Richardson F (1987a) Speaking rate adventiously deaf male cochlear implant candidates. JASA 82: 843–846 Leder SB, Spitzer JB, Milner P, Flevaris–Phillips C, Kirchner JC, Richardson FR (1987b) Voice intensity of prospective cochlear implant candidates and normal hearing adult males. Laryngoscope 97: 224–227 Leder SB, Spitzer JB, Kirchner JC (1987c) Speaking fundamental frequency of postlingually profoundly deaf adult men. Annals of Otology Rhinology and Laryngology 96: 322–324 Lehiste I, Peterson GE (1959) Vowel amplitude and phonemic stress in American English. JASA 31: 428–435 Lehnhardt E (1978) Praktische Audiometrie Lehrbuch und synoptischer Atlas. Thieme Verlag, Stuttgart Lehnhardt E (1996) Praxis der Audiometrie. Thieme Verlag, Stuttgart Lehnhardt E, Plath P (1981) Begutachtung der Schwerhörigkeit bei Lärmarbeitern. Springer–Verlag, Berlin Heidelberg New York Leitmann T (2003) Lautstärke in Diskotheken. Z für Lärmbekämpfung 50 (5): 140–146 Leshowitz B (1977) Speech intelligibility in noise for listeners with sensorineural hearing damage. IPO Ann Prog Rep 12: 11–13 Lewis HD, Benignus VA, Muller KE, Malott CM, Barton CN (1988) Babble and random–noise masking of speech in high and low context cue conditions. J of Speech and Hearing Research 31 (1): 108–114 Licklider JCR (1959) Effect of noise on speech intelligibility. ASHA–Reports 4: 49–73 Licklider JCR, Miller GA, (1951) The perception of speech. In: Stevens SS (Hrsg) Handbook of Experimental Psychology. New York London Sydney, S 1040– 1074 Liedtke M (1997) Gehörschützer für Fahrzeugführer. Die Berufsgenossenschaft 7: 353–358 Liedtke M (2000) Otoplastik – ein spezieller Gehörschutz. BIA–Info 7/2000 Liedtke M (2002) Specifying a general criterion for hearing protectors with the aim of ensuring good acoustic perception. Noise and Vibration Worldwide 33 (7): 19–23 Liedtke M (2005) Risk by use of hearing protectors. – Expert programm supports SMEs in appropiate selection in use. J of Noise Health 7 (26): 31–37
Literaturverzeichnis
575
Lierle DM (1959) Report of the committee on conversation of hearing Guide for the evaluation of hearing impaired. Trans Am Acad Ophthal Otolaryng 63: 236–238 Lightfoot C, Carhart R, Gaeth JH (1956) Masking of impaired ears by noise. J of Speech and Hearing Disorders 21 (1): 56–70 Lindblom B (1990) Explaining phonetic variation. A sketch of the HH theory. In: Hardcastle J, Marchal A (Hrsg) Speech Production and Speech Modelling. Kluwer Academic Publisher Lindeman HE (1971) Relation between audiological findings and complaints by persons suffering from noise–induced hearing loss. American Industrial Hygiene Association J 32: 447–452 Lindeman HE (1976) Speech intelligibility and the use of hearing protectors. Audiology 15: 348–356 Lively SE, Pisoni DB, Summers W, Van Bernacki RH (1993) Effects of cognitive workload on speech production. Acoustic analyses and perceptual consequences. JASA 93 (5): 2962–2973 Llopis A, Llinares J (1987) Comparing the acoustical quality of conference rooms concerning speech intelligibility. Acustica 65: 39–43 Lochner JPA, Burger JF (1960) Optimum reverberation time for speech rooms based on hearing characteristics. Acustica 10: 394–399 Lochner JPA, Burger JF (1961) The intelligibility of speech under reverberant conditions. Acustica 11: 195–200 Lochner JPA, Burger JF (1964) The influence of reflections on auditorium acoustics. J of Sound and Vibration 1: 426–454 Lombard E (1911) Le signe des l'élevation de la voix. Ann Mal Oreil Larynx 37: 101–119 Longhurst TM, Siegel GM (1973) Effects of communication failure on speaker and listener behaviour. J of Speech and Hearing Research 16: 128–140 Loven FC, Collins MJ (1988) Reverberation masking filtering and level effects on speech recognition performance. J of Speech and Hearing Research 31: 681– 695 Ludvigsen C (1985) Relations among some psychoacoustic parameters in normal and cochlearly impaired listeners. JASA 78 (4): 1271–1280 Ludvigsen C (1987) Prediction of speech intelligibility for normal–hearing and cochlearly hearing–impaired listeners. JASA 82 (4): 1162–1171 Lutman ME, Gatehouse S, Worthington AG (1991) Frequency resolution as a function of hearing threshold level and age. JASA 89 (1): 320–328 Lyregaard PE (1982) Frequency selectivity and speech intelligibility in noise. Scand Audiology 15: 113–122 MacKenzie DJ, Airey S (1999) Akustik in Klassenzimmern. Ein Forschungsprojekt. Edinburgh University, Edinburgh MacKenzie DJ, Craik CJM, Airey S (1996) Speech intelligibility in classrooms. Proceedings of the Institute of Acoustics at Windermere 18 (9): 299–306 MacLeod A, Summerfield Q (1990) A procedure for measuring auditory and audio–visual speech–reception thresholds for sentences in noise rational evaluation and recommendations for use. British J of Audiology 24: 29–43
576
Literaturverzeichnis
Mahshie JJ, Conture EG (1983) Deaf speakers´ laryngeal behavior. J of Speech and Hearing Research 26: 550–559 Mahshie JJ, Oster A (1991) Electroglottograph and glottal air flow measurements for deaf and normal hearing speakers. Speech Transmission Laboratory Quarterly Progress and Status Report 2–3: 19–27 Mantel J (1968) Information theoretical design of speech communication system. Proceedings of the 6 National Convention of Electrical and Electronics Engineers in Israel IEEE, S 544–553 Mapp P (2002) Designing for speech intelligibility. In: Ballou GM (Hrsg) Handbook for sound engineers. Focal Press, Boston, S 1247–1274 Markel NN, Prebor LD, Brandt JF (1972) Biosocial factors in dyadic communication sex and speaking intensity. J of Personality and Social Psychology 23: 11–13 Markides A (1986) Speech levels and speech–to–noise ratios. British J of Audiology 20: 115–120 Martin AM, Howell K, Lower MC (1976) Hearing protection and communication in noise. In: Stephens GSD (Hrsg) Disorders of Auditiory Function II. Academic Press, London New York, S 47–67 Martin CS, Mullenix JW, Pisoni DB, Summers W Van (1989) Effects of talker variability on recall of spoken word lists. J of Experimental Psychology, Learnig Memory and Cognition 13: 676–684 Martinet A (1963) Grundzüge der allgemeinen Sprachwissenschaft. Kohlhammer, Stuttgart Matheson MP, Stansfeld SA, Haines MM (2003) The effects of chronic aircraft noise exposure on children´s cognition and health. 3 field studies. Noise Health 5 (19): 31–40 Maxwell LE, Evans GW (2000) The effects of noise on pre–school childrens's pre–reading skills. J of Environmental Psychology 20: 91–97 Maxwell DW, Williams CE, Robertson RM, Thomas GB (1987) Performance characteristics of active hearing protection devices. J of Sound and Vibration 5: 14–18 Mayer KU, Baltes PB (1996) Die Berliner Altersstudie. Akademie Verlag, Berlin Mayo LH, Florentine M, Buus S (1997) Age of second–language acquisition and perception of speech in noise. J of Speech, Language and Hearing Research 40: 686–693 McKendree FS (1986) Directivity indices of human talkers in English speech. Proceedings of Inter–Noise ´86 (7): 911–916 McKinley RL, Nixon CW (1993) Active noise reduction headsets. Proceedings of the 6th International Conference on Noise as a Public Health Problem (Nice) 2: 83–86, Institut National de Recherche sur les Transport, Bron Meier H (1964) Deutsche Sprachstatistik. Georg Olms Verlagsbuchhandlung, Hildesheim Meister FJ (1954a) Sprachanalyse und Sprachgehörprüfung. Z für Phonetik und allgemeine Sprachwissenschaft 8: 108–122 Meister FJ (1954b) Spezielle Fragen bei der Sprachgehörprüfung und Hörhilfenanpassung. Acustica 4: 165–168
Literaturverzeichnis
577
Metz DE, Whitehead RL, Whitehead BH (1984) Mechanics of vocal fold vibration and laryngeal articulatory gestures produced by hearing–impaired speakers. J of Speech and Hearing Research 27: 62–69 Meyer–Eppler W (1969) Grundlagen und Anwendung der Informationstheorie. Springer Verlag, Berlin Heidelberg New York Meyerson L (1948) Experimental injury. An approach to the dynamics of disability. J of Social Issues 34 (4): 72–77 Michael DD, Siegel GM, Pick Jr HL (1995) Effects of distance on vocal intensity. J of Speech and Hearing Research 38 (10): 1176–1183 Michael PL (1965) Ear protectors. Archives of Environmental Health 10: 612–617 Middelweerd MJ, Festen JM, Plomp R (1990) Difficulties with speech intelligibility in noise in spite of a normal pure–tone audiogram. Audiology 29: 1–7 Miedema HME, Vos H (1998) Exposure–response relationships for transportation noise. JASA 104 (6): 3432–3445 Miller GA (1947) The masking of speech. Psychological Bulletin 44 (2): 105–129 Miller GA (1951) Speech and language. In: Stevens SS (Hrsg) Handbook of Experimental Psychology. John Wiley, New York Miller GA (1962a) Some psychological studies of grammar. American J of Psychology 17: 748–762 Miller GA (1962b) Decision units in the perception of speech. IRE Transactions on Information Theory IT–8: 81–83 Miller GA, Isard S (1963) Some perceptual consequences of linguistic rules. J of Verbal Learning and Verbal Behavior 2: 217–228 Miller GA, Licklider JCR (1950) The intelligibility of interrupted speech. JASA 22 (2): 167–173 Miller GA, Nicely PE (1955) An analysis of perceptual confusions among some english consonants. JASA 27: 153–175 Miller GA, Heise GA, Lichten W (1951) The intelligibility of speech as a function of the context of the test materials. J of Experimental Psychology 41: 329–335 Miller GA, Galanter E, Pribram KH (1960) Plans and the structure of behavior. (Pläne und Strukturen des Verhaltens.) Holt Rinehart Winston, New York Miller JL, Grosjean F, Lomanto C (1984) Articulation rate and its variability in spontaneous speech. A reanalysis and some implications. Phonetica 41: 215– 225 Millin JP (1968) The effect of small room reverberation on discrimination tests. Study of the Case Western Reserve University, S 1–7 Mills JH (1975) Noise and children. A review of literature. JASA 58: 767–779 Möller S (2000) Assessment and prediction of speech quality in telecommunications. Kluwer Academic Publisher Möller S (2002) Monitoring speech quality in telephone networks. An overview. Fortschritte der Akustik – DAGA 2002, Oldenburg Möller S (2003) Qualität von Telefon–Sprachdiensten. (K)eine Frage der Akustik? Fortschritte der Akustik – DAGA 2003, Oldenburg Moncur JP, Dirks D (1967) Binaural and monaural speech intelligibility in reverberation. J of Speech and Hearing Research 10: 186–195
578
Literaturverzeichnis
Monsen RB (1981) A usable test for the speech intelligibility of deaf talkers. American Annals of the Deaf 126: 845–852 Monsen RB (1983) Voice quality and speech intelligibility among deaf children. American Annals of the Deaf 128: 12–19 Moore BCJ (1995) Perceptual consequences of cochlear damage. Oxford University Press, Oxford Moore BC,J Glasberg BR (1988) Gap detection with sinusoids and noise in normal impaired and electrically stimulated ears. JASA 83 (3): 1093–1101 Moore BCJ, Peters RW, Glasberg BR (1992) Detection of temporal gaps in sinusoids by elderly subjects with and without hearing loss. JASA 92: 1923–1932 Moore BCJ, Glasberg BR, Vickers DA (1995) Simulation of the effects of loudness recruitment on the intelligibility of speech in noise. British J of Audiology 29: 131–143 Moreland JB (1989) Speech privacy evaluations in open–plan offices using the articulation index. Noise Control Engineering J 33 (1): 23–32 Morimoto M, Sato H, Kobayashi M (2004) Listening difficulty as a subjective measure for evaluation of speech transmission performance in public spaces. JASA 116: 1607–1613 Morrongiello B, Kulig J, Clifton R (1984) Developmental changes in auditory temporal perception. Child Development 55: 461–471 Mosko JD, Fletcher JL (1971) Evaluation of the gundefender earplug. Temporary threshold shift and speech intelligibility. JASA 49 (6): 1732–1734 Müller–Limmroth W (1979) Die Auswirkung des Fluglärms auf die Bevölkerung in der Umgebung des geplanten Flughafens München am Erding/Freising. (Medizinisches Gutachten) Universität München, München Müsch H (2001) Review and computer implementation of Fletcher and Galt´s method of calculating the Articulation Index. Acoustic Research Letters Online (ARLO http //ojps aip org/ARLO/top html), S 25–30 Müsch H, Buus S (2001a) Using statistical decision theory to predict speech intelligibility I Model structure. JASA 109 (6): 2896–2909 Müsch H, Buus S (2001b) Using statistical decision theory to predict speech intelligibility. II Measurement and prediction of consonant–discrimination performance. JASA 109 (6): 2910–2920 Mullennix JW, Pisoni D, Martin CS (1989) Some effects of talker variability on spoken word recognition. JASA 85: 365–378 Mullins CJ, Bangs JL (1957) Relationships between speech discrimination and other audiometric data. Acta Oto–Laryngologica 47: 149–157 Munker H (1979) Umgebungseinflüsse am Büroarbeitsplatz. TÜV Rheinland, Köln Murray IR, Arnott JL (1993) Toward the simulation of emotion in synthetic speech. A review of the literature on human vocal emotion. JASA 2: 1097– 1108 Nábelek AK (1976) Reverberation effects for normal and hearing–impaired listeners. In: Hirsh SK, Eldredge DH, Hirsh IJ, Silverman SR (Hrsg) Hearing and Davis Essays Honoring Hallowell Davis, University Press, Washington /Saint Louis/Missouri, S 333–341
Literaturverzeichnis
579
Nábelek AK (1983) Acoustic of enclosed spaces for linguistically impaired listeners. In: Rossi G (Hrsg) Noise as a Public Health Problem (Turin), Proc 4th Int Cong, Milano, Edizioni tecniche, S 501–511 Nábelek AK, Mason D (1981) Effect of noise and reverberation on binaural and monaural word identification by subjects with various audiograms. J of Speech and Hearing Research 24: 375–383 Nábelek AK, Nábelek I (1994) Room acoustics and speech perception. In: Katz J (Hrsg) Handbook of Clinical Audiology. Williams Wilkins, Baltimore Nábelek AK, Pickett JM (1974a) Reception of consonants in a classroom as affected by monaural and binaural listening noise reverberation and hearing aids. JASA 56: 628–639 Nábelek AK, Pickett JM (1974b) Monaural and binaural speech perception through hearing aids under noise and reverberation with normal and hearing– impaired listeners. J of Speech and Hearing Research 17: 724–739 Nábelek AK, Robinette L (1978) Influence of the precedence effect on word identification by normally hearing and hearing–impaired subjects. JASA 63 (1): 187–194 Nábelek AK, Robinson PK (1982) Monaural and binaural speech perception in reverberation for listeners of various ages. JASA 71 (5): 1242–1248 Nábelek AK, Slawinsky E, Robinette LN (1975) Intelligibility of speech with simulated single reflection for normal and hearing–impaired subjects. JASA 58: 114 Nábelek AK, Czyzewski Z, Krishnan LA (1992) The influence of talker differences on vowel identification by normal–hearing and hearing–impaired listeners. JASA 92 (3): 1228–1246 Nakatani LH, Dukes KD (1973) A sensitive test of speech communication quality. JASA 53 (4): 1083–1091 Nakladal C, Listner T (1997) Objektivierung der Sprachverständlichkeit beim Tragen von Gehörschutz zur Verbesserung der Tragebereitschaft. Hauptverband der gewerblichen Berufsgenossenschaften (HVBG), Sankt Augustin Nelson DA, Pavlov R (1989) Auditory time constants for off–frequency forward masking in normal–hearing and hearing–impaired listeners. J of Speech and Hearing Research 32: 298–306 Nemecek J, Wehrli B, Turrian V (1981) Effect of the noise of street traffic in Switzerland. A review of four surveys. J of Sound and Vibration 78: 223–234 Neppert JMH (1999) Elemente einer akustischen Phonetik. Helmut Buske Verlag, Hamburg Neumann AC, Hochberg I (1983) Children´s perception of speech in reverberation. JASA 73: 2145–2149 Nickerson JF, Miller AW, Shyne NA (1960) A comparison of fife articulation tests. Final Rept Nr RADC–TR–60–71 prepared under Contr AF 30 (602)– 1818, New York Niemeyer W (1967a) Audiologie und Phoniatrie – Sprachaudiometrie in Sätzen. I. Grundlagen und Testmaterial einer Diagnostik des Gesamtsprachverständnisses HNO 15 (11): 335–343
580
Literaturverzeichnis
Niemeyer W (1967b) Speech discrimination in noise–induced deafness. International Audiology 6: 42–47 Niemeyer W (1983) Wie hört ein Lärmschwerhöriger? In: Pfeiffer BH (Hrsg) Lärm – Arbeitsmedizinische Gehörvorsorge. Hauptverband der Gewerblichen Berufsgenossenschaften (HVBG), Sankt Augustin, S 129–139 Niemeyer W, Beckmann G (1962) Ein sprachaudiometrischer Satztest. Archiv für Ohren– Nasen– und Kehlkopfheilkunde 180: 742–749 Niese H (1957) Die Prüfung des raumakustischen "Echograd–Kriteriums" mit Hilfe von Silbenverständlichkeitsmessungen. Hochfrequenztechnik und Elektroakustik 66: 70–83 Nilsson M, Soli SD, Sullivan JA (1994) Development of the hearing in noise test for the measurement of speech reception thresholds in quiet and in noise. JASA 95 (2): 1085–1099 Novak RE, Anderson CV (1982) Differentiation of types of presbyacusis using the masking–level difference. J of Speech and Hearing Research 25: 504–508 Nozza RJ, Wagner EF, Crandell MA (1988) Binaural release from masking for a speech sound in infants preschoolers and adults. J of Speech and Hearing Research 31: 212–218 Nozza RJ, Rossman RN, Bond LC, Miller SL (1990) Infant speech–sound discrimination in noise. JASA 87: 339–350 Oberdörster M, Tiesler G (2005a) Seid bitte leise. – Akustisch–ergonomische Arbeitsbedingungen für effizienten Unterricht. Fortschritte der Akustik – DAGA ´05, Oldenburg Oberdörster M, Tiesler G (2005b) Akustische Maßnahmen in Klassenräumen. – Grundlagen für effizienten Unterricht. In: Der gehörte Raum. – Aktuelle Forschungsergebnisse aus Akustik und Schallschutz. Tagungsband zum 2. Akustik–Forum Raum und Bau, Stuttgart Öster A, Risberg A (1986) The identification of the mood of a speaker by hearing impaired listeners. Speech Transmiss Lab – Q Prog Stat Rep (STL–QPSR) 27 (4): 79–90 Owens E, Schubert ED (1977) Development of the California Consonant Test. J of Speech and Hearing Research 20 (3): 463–474 Palva A, Jokinen K (1970) Presbyacusis; V. Filtered speech test. Acta Oto– Laryngologica 70: 232–242 Palva A, Jokinen K (1975) The role of binaural test in filtered speech audiometry. Acta Oto–Laryngologica 79: 310–314 Pakosz M (1982) Intonation and attitude. Lingua 56: 153–178 Parizet E (1992) The influence of speech importance function upon articulation index computation in cars. Noise Control Engineering J 38 (2): 73–79 Parizet E, Pollack JD (1992) The influence of an early reflection upon speech intelligibility in the presence of a background noise. Acustica 77: 21–30 Parthey W, Lazarus H, Kurtz P (2004) Lärmschutz an Maschine und Arbeitsplatz. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Regelwerk Rw 30, Wirtschaftsverlag NW, Bremerhaven Passchier–Vermeer W (1968) Hearing loss due to exposure to steady–state broad band noise. Report 35, Delft/Niederlande
Literaturverzeichnis
581
Pavlovic CV (1984) Use of the articulation index for assessing residual auditory function in listeners with sensorineural hearing impairment. JASA 75 (4): 1253–1258 Pavlovic CV (1987a) Derivation of primary parameters and procedures for use in speech intelligibility predictions. JASA 82 (2): 413–422 Pavlovic CV (1987b) Erratum. Derivation of primary parameters and procedures for use in speech intelligibility predictions. JASA 83: 627 Pavlovic CV (1993) Problems in the prediction of speech recognition performance of normal–hearing and hearing–impaired individuals. In: Studebaker GA, Hochberg I (Hrsg) Acoustical Factors Affecting Hearing Aid Performance. Allyn and Bacon, Boston, S 221–234 Pavlovic CV (1994) Band importance functions for audiological applications. Ear and Hearing 15: 100–104 Pavlovic CV, Studebaker GA (1984) An evaluation of some assumptions underlying the articulation index. JASA 75 (5): 1606–1612 Pavlovic CV, Studebaker GA, Sherbecoe RL (1986) An articulation index based procedure for predicting the speech recognition performance of hearing– impaired individuals. JASA 80 (1): 50–57 Pavlovic CV, Rossi M, Espesser R (1990) Use of the magnitude estimation technique for assessing the performance of text–to–speech synthesis systems. JASA 87: 373–382 Payne DG, Peters Jr L, Birkmire DP, Bonto MA, Anastasi JS, Wenger MJ (1994) Effects of speech intelligibility level on concurrent visual task performance. Human Factors 36 (3): 441–475 Pearsons KS (1978) The effect of time–varying traffic noise on speech communication and annoyance. Noise Control Engineering J 10 (3): 108–119 Pearsons KS, Bennett RL, Fidell S (1977) Speech levels in various noise environments. Office of Health and Ecolological Effects, Office of Research and Development (EPA – 600/1–77–025) US Environmental Protection Agency, Washington DC Peissig J, Kollmeier B (1997) Directivity of binaural noise reduction in spatial multiple noise–source arrangements for normal and impaired listeners. JASA 101 (3): 1660–1670 Pekkarinen E, Viljanen V (1990) Effect of sound–absorbing treatment on speech discrimination in rooms. Audiology 29: 219–227 Pekkarinen E, Viljanen V (1991) Acoustic conditions for speech communication in classrooms. Scand Audiology 20: 257–263 Pekkarinen E, Viljanen V, Salmivalli A, Suonpää J (1990) Speech recognition in a noisy and reverberant environment with and without earmuffs. Audiology 29: 286–293 Perkell J, Lane H, Svirsky M, Webster J (1992) Speech of cochlear implant patients. A longitudinal study of vowel production. JASA 91: 2961–2978 Peters RW, Moore BCJ, Baer T (1998) Speech reception thresholds in noise with and without spectral and temporal dips for hearing impaired and normally hearing people. JASA 103 (1): 577–587
582
Literaturverzeichnis
Petersen GE, Barney HL (1952) Control methods used in a study of vowels. JASA 24: 179–184 Petersen OJ, Petersen SB (1968) Possibilities for the objective measurement of the loudness of speech. A–4–3 S A 65 – A 69, International Congress on Acoustics, Tokyo Peterson LN, French L (1988) Summarization strategies of hearing–impaired and normally hearing college students. J of Speech and Hearing Research 31: 327–337 Peutz VMA (1971) Articulation loss of consonants as a criterion for speech transmission in a room. J of the Audio Engineering Society 19 (11): 915–919 Peutz VMA (1978) Sprachverständlichkeit und Informationsübertragung. Fortschritte der Akustik – DAGA ´78: 553–556, Oldenburg Peutz VMA (1998) Speech information and speech intelligibility. 85th Convention of the Audio Engineering Society, J Audio Eng Soc (Abstracts) 36: 1029 Peutz VMA, Kok BHM (1984) Speech intelligibility. 75th Convention of the Audio Engineering Society, J Audio Eng Soc (Abstracts) 32: 468 Picheny MA, Durlach NI, Braida LD (1985) Speaking clearly for the hard of hearing. I Intelligibility differences between clear and conversational speech. J of Speech and Hearing Research 28: 96–103 Picheny MA, Durlach NI, Braida LD (1986) Speaking clearly for the hard of hearing. II Acoustic characteristics of clear and conversational speech. J of Speech and Hearing Research 29: 434–446 Picheny MA, Durlach NI, Braida LD (1989) Speaking clearly for the hard of hearing. III. An attempt to determine the contribution of speaking rate to difference in intelligibility between clear and conversational speech. J of Speech and Hearing Research 32: 600–603 Pichora–Fuller MK, Schneider BA, Daneman M (1995) How joung and old adults listen to and remember speech in noise. JASA 97 (1): 593–608 Pick HL, Siegel GM, Fox PW (1989) Inhibiting the Lombard effect. JASA 85: 894–900 Pickett JM (1956) Effects of vocal force on the intelligibility of speech sounds. JASA 28 (5): 902–905 Pickett JM (1958) Limits of direct speech communication in noise. JASA 30: 278–281 Pickett JM, Pollack I (1958) Prediction of speech intelligibility at high noise levels. JASA 30 (10): 955–963 Plath P (1971) Das Ton– und Sprachgehör bei Lärmschäden des Ohres. Schattauer, Stuttgart Plath P (1981) Bemessung der Minderung der Erwerbsfähigkeit bei Lärmschwerhörigkeit. In: Lehnhardt E, Plath P (Hrsg) Begutachtung der Schwerhörigkeit bei Lärmarbeiten. Springer–Verlag, Berlin Heidelberg New York Platte H–J (1978) Probleme bei Sprachverständnistests unter Störschalleinfluß. Z für Hörgeräte–Akustik 17: 190–207 Platte H–J, Hövel H Vom (1980) Zur Deutung der Ergebnisse von Sprachverständlichkeitsmessungen mit Störschall im Freifeld. Acustica 45 (3): 139–150
Literaturverzeichnis
583
Platte H–J, Döring WH, Schlöndorff G (1978) Richtungshören und Sprachverstehen unter Störschalleinfluss bei "Normalhörenden". Laryng Rhinol 57: 672– 680 Plomp R (1976) Binaural and monaural speech intelligibility of connected discourse in reverberation as a function of azimuth of a single competing sound source (speech or noise). Acustica 34 (4): 200–211 Plomp R (1978) Auditory handicap of hearing impairment and the limited benefit of hearing aids. JASA 63: 533–549 Plomp R (1986) A signal–to–noise ratio model for the speech–reception threshold of the hearing impaired. J of Speech and Hearing Research 29: 146–154 Plomp R (1994) Noise amplification and compression. Considerations of three mean issues in hearing aid design. Ear and Hearing 15: 2–12 Plomp R, Mimpen AM (1979) Improving the reliability of testing the speech reception threshold for sentences. Audiology 18: 43–52 Plomp R, Mimpen AM (1981) Effect of the orientation of the speaker's head and the azimuth of a noise source on the speech–reception threshold for sentences. Acustica 48: 325–328 Plomp R, Steeneken HJM, Houtgast T (1980) Predicting speech intelligibility in rooms from the modulation transfer function. II Mirror image computer model applied to rectangular rooms. Acustica 46: 73–81 Plomp R, Duquesnoy AJ, Smoorenburg GF (1983) Effects of noise and reveberation on the speech–reception threshold of hearing–impaired listeners. In: Rossi G (Hrsg) Noise as a Public Health Problem (Turin), Proceedings of the 4th International Congress, Milan, Italy Centro Ricerche e Studi Amplifon, S 489–500 Plundrich J (1979) Zur Vergleichbarkeit von Kriterien für die Beurteilung lärmbedingter Gehörschäden. Z für ärztliche Fortbildung 73: 247–254 Pocock LC (1939) The calculation of articulation for effective rating of telephone circuits. Electrical Communication 18: 120–132 Pollack I (1948) Effects of high pass and low pass filtering on the intelligibility of speech in noise. JASA 20 (3): 259–266 Pollack I (1949) The effect of white noise on the loudness of speech of assigned average level. JASA 21 (3) 255–258 Pollack I (1957) Speech communications at high noise levels The roles of a noise– operated automatic gain control system and hearing protection. JASA 29 (12): 1324–1327 Pollack I, Pickett JM (1958) Stereophonic listening and speech intelligibility against voice babble. JASA 30 (2): 131–133 Pollack I, Rubenstein H, Decker L (1959) Intelligibility of known and unknown message sets. JASA 31: 273–279 Pols LCW, Heusden E Van, Plomp R (1980) Preferred listening level for speech disturbed by fluctuating noise. Applied Acoustics 13: 267–279 Pompino–Marschall B (2003) Einführung in die Phonetik. Gruyter, Berlin Potash LM (1972) A signal detection problem and a possible solution in Japanese quail. Animal Behavior 20: 192–195
584
Literaturverzeichnis
Potter RK, Kopp GA, Green–Kopp H (1966) Visible speech. Dover Publications Inc, New York Preis A, Terhardt E (1989) Annoyance of distortions of speech Experiments on the influence of interruptions and random–noise impulses. Acustica 68: 263–267 Preminger JE, Tasell DJ Van (1995a) Measurement of speech quality as a tool to optimize the fitting of a hearing aid. J of Speech and Hearing Research 38: 726–736 Preminger JE, Tasell DJ Van (1995b) Quantifying the relation between speech quality and speech intelligibility. J of Speech and Hearing Research 38: 714– 725 Probst W (1992) Schallausbreitung in Arbeitsräumen. II. Einfluss der Raumparameter – Vergleich von Berechnungs– und Messergebnissen. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 673, Wirtschaftsverlag NW, Bremerhaven Probst W (1999) Schallausbreitung in Arbeitsräumen. III. Einbeziehung von Richtwirkung, Abschirmung, großen Maschinen und gekoppelten Räumen. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 841, Wirtschaftsverlag NW, Bremerhaven Probst W (2003) Lärmminderung in kleinen Büros/ in Mehrpersonenbüros. Beurteilung und Minderung des Lärms an Bildschirmarbeitsplätzen im Büro und in der Produktion. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Reihe Arbeitswissenschaftliche Erkenntnisse – Forschungsergebnisse für die Praxis Nr. 123/124 Prosser S, Turrini M, Arslan E (1991) Effects of different noises on speech discrimination by the elderly. Acta Oto–Laryngologica 476: 136–142 Purdy SC, Pavlovic CV (1992) Reliability sensitivity and validity of magnitude estimation category scaling and paired–comparison judgements of speech intelligibility by older listeners. Audiology 31: 254–271 Quiggle RR, Glorig A, Delk JH, Summerfield AB (1957) Predicting hearing loss for speech from pure tone audiograms. The Laryngoscope 67 (1): 1–15 Raake A (2002) Does the content of speech influence its perceived sound quality? Proc 3rd Int Conf on Language Recources and Evaluation (LREC 2002) ES – Las Palmas, Vol 4, S 1170–1176 Reich R, Bradley JS (1998) Optimizing classroom acoustics using computer model studies. Canadian Acoustics 26: 15–21 Reichardt W (1960) Grundlagen der Elektroakustik. Akademische Verlagsgesellschaft, Leipzig Reyna AL, Sancho J (1988) Technical note the influence of room shape on speech intelligibility in rooms with varying ambient noise levels. Noise Control Engineering J 31 (3): 173–179 Richards AM (1975) Most comfortable loudness for pure tones and speech in the presence of masking noise. J of Speech and Hearing Research 18 (3): 498–505 Richards DL (1971) Telecommunication by speech. Butterworth Press, London Richards DL, Archbold RB (1956) A development of the collard principle of articulation calculation. Proceedings of the Institution of Electrical Engineers 103B: 679–691
Literaturverzeichnis
585
Richtberg W (1980) Hörbehinderung als psycho–soziales Leiden. Gesundheitsforschung 32: 226 (Bundesministerium für Arbeit, Bonn) Richtberg W (1988) Schwerhörigkeit. Die am häufigsten verkannte Behinderung. REHAB–Report Richtberg W (1989) Schwerhörigkeit als psycho–soziale Behinderung. Audiologische Akustik 1: 12–21 Rickheit G, Sichelschmidt L, Strohner H (2004) Psycholinguistik. Stauffenburg Verlag, Tübingen Rietschote HF Van, Houtgast T (1983) Predicting speech intelligibility in rooms from the modulation transfer function. V. The merits of the ray–tracing model versus general room acoustics. Acustica 53: 72–78 Rietschote HF Van, Houtgast T, Steeneken HJM (1981) Predicting speech intelligibility in rooms from the modulation transfer function. IV. A ray–tracing computer model. Acustica 49: 245–252 Rife D (1982) Modulation transfer function measurement with maximum–length sequences. J Audio Eng Soc (40) 10: 779–790 Rittmanic PA (1962) Pure–tone masking by narrow–noise bands in normal and impaired ears. The J of Auditory Research 2: 287–304 Robb MP, Pang–Ching GK (1992) Relative timing characteristics of hearing– impaired speakers. JASA 91 (5): 2954–2960 Robinson DW (1968) The relationships between hearing loss and noise exposure. Aero Report AC 32, Teddington, England Röser D (1973) Das Tonaudiogramm als Grundlage für die MdE–Skala. Z für Laryngologie, Rhinologie, Otologie und ihre Grenzgebiete 52: 666–673 Röser D (1980) Bemessung der Minderung der Erwerbsfähigkeit bei Lärmschwerhörigkeit. In: Lehnhardt E, Plath P (Hrsg) Begutachtung der Schwerhörigkeit bei Lärmarbeitern. Springer–Verlag, Berlin Heidelberg New York Rohrmann B (1977) Sozialwissenschaftlich erfassbare Auswirkungen von Flug– und Straßenlärm. In: Ising H (Hrsg) Lärm – Wirkung und Bekämpfung. E Schmidt Verlag, Berlin Rohrmann B (1978) Empirische Studien zur Entwicklung von Antwortskalen für die sozialwissenschaftliche Forschung. Z für Sozialpsychologie 9: 222–245 Rooij JCGM Van, Plomp R (1990) Auditive and cognitive factors in speech perception by elderly listeners. II Multivariate analyses. JASA 88 (6): 2611–2624 Rooij JCGM Van, Plomp R (1992) Auditive and cognitive factors in speech perception by elderly listeners. III. Additional data and final discussion. JASA 91 (2): 1028–1033 Rooij JCGM Van, Plomp R, Orlebeke JF (1989) Auditive and cognitive factors in speech perception by elderly listeners. I. Development of test battery. JASA 86: 1294–1309 Rosenberg S, Jarvella RJ (1970) Semantic integration and sentence perception. J of Verbal Learning and Verbal Behavior 9: 548–553 Rostolland D (1982a) Acoustic features of shouted voice. Acustica 50: 118–125 Rostolland D (1982b) Phonetic structure of shouted voice. Acustica 51: 80–89 Rostolland D (1985) Intelligibility of shouted voice. Acustica 57 (3): 103–121
586
Literaturverzeichnis
Rostolland D, Parant C (1973) Distortion and intelligibility of shouted voice. Symposion on Speech Intelligibility, Liege Rudmose HW, Clark KC, Carlson FD, Eisenstein JC, Walker RA (1948) Voice measurements with an audio spectrometer. JASA 20 (4): 503–512 Sabine PE (1942) Estimating the percentage loss of useful hearing. Trans Am Acad Ophthal Otolaryng 46: 179–186 Sala E, Viljanen V, Honka J (1995) Improvement of acoustic conditions for speech communication in classrooms. Applied Acoustics 45: 81–91 Salomon G, Vesterager V, Jagd M (1988) Age–related hearing difficulties I Hearing impairment disability and handicap – a controlled study. Audiology 27: 164–178 Samar VJ, Metz DE (1988) Criterion validity of speech intelligibility rating–scale procedures for the hearing–impaired population. J of Speech and Hearing Research 31: 307–316 Sanz SA, Garcia AM, Garcia A (1993) Road traffic noise around schools a risk for pupil´s performance. Internat Archives of Occupational and Environmental Health 65: 205–207 Sato H, Bradley JS, Morimoto M (2005) Using listening difficulty ratings of conditions for speech communication in rooms. JASA 117 (3): 1157–1167 Sauer U (1992) Auswirkung verschiedener Begutachtungsempfehlungen auf den Körperschaden (KS) bzw. die Minderung der Erwerbsfähigkeit (MdE) bei berufsbedingten Lärmschäden. Arbeitsmedizin – Sozialmedizin – Präventivmedizin 27: 59–66 Savin HB (1963) Word–frequency effect and errors in the perception of speech. JASA 35: 200–206 Scharf B (1970) Critical bands. In: Tobias JV (Hrsg) Foundations of Modern Auditory Theory Bd 1. Academic Press, London New York, S 159–202 Schiavetti N, Metz DE, Sitler RW (1981) Construct validity of direct magnitude estimation and interval scaling of speech intelligibility. Evidence from a study of the hearing impaired. J of Speech and Hearing Research 24: 441–445 Schick A, Klatte M, Meis M (1999) Die Lärmbelastung von Lehrern und Schülern – ein Forschungsstandsbericht. Z für Lärmbekämpfung 46: 77–87 Schirmer W (1996) Technischer Lärmschutz. VDI Verlag, Düsseldorf Schlittmeier SJ, Hellbrück J (2004) Noise impact on metal performance. Implications for sound environments at workplaces. 18th International Congress on Acoustics (ICA 2004) in Kyoto, Japan Schlittmeier SJ, Thaden R (2005) Wirkung irrelevanter Sprache unterschiedlicher Sprachverständlichkeit auf die Arbeitsgedächtnisleistung. In: Fastl H, Fruhmann M (Hrsg ) Fortschritte der Akustik – DAGA '05 München, Oldenburg Schmidt K–O, Brosze O (1967) Fernsprech–Übertragungstechnik. Schule Schöne, Berlin Schmidt PH (1967) Presbyacusis. Int Audiol, Leiden 6: 1–36 Schneider H (1955) Zur Messung der Sprachverständlichkeit. Frequenz 9 (6): 199–205 Schober MF, Clark HH (1989) Understanding by adressees and overhearers. Cognitive Psychology 21: 211–232
Literaturverzeichnis
587
Schönwälder H–G, Berndt J, Ströver F, Tiesler G (2004) Lärm in Bildungsstätten – Ursachen und Minderung. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 1030, NW Wirtschaftsverlag, Bremerhaven Schomann H (1977) Statistische Parameter des zum Sprachsignal gehörenden analytischen Signals. Dissertation, Technische Universität Hannover Schreckenberg D, Guski R (2005) Lärmbelästigung durch Straßen– und Schienenverkehr zu unterschiedlichen Tageszeiten. Umweltmedizin in Forschung und Praxis 10 (2): 67–76 Schroeder MR (1981) Modulation transfer functions. Definition and measurement. Acustica 49 (3): 179–182 Schubert K (1958) Sprachhörprüfmethoden. Thieme Verlag, Stuttgart Schuknecht HF (1964) Further observations on the pathology of presbyacusis. Archives of Otolaryngology 80: 369–382 Schulman R (1989) Articulatory dynamics of loud and normal speech. JASA 85 (1): 295–312 Schultz–Coulon H–J (1973) Über die Bedeutung des Umweltgeräusches für den Hochtonschwerhörigen. HNO 21: 26–32 Schultz–Coulon H–J (1980) Die Diagnostik der gestörten Stimmfunktion. Archiv für Ohren–, Nasen– und Kehlkopfheilkunde 227: 1–169 Schulz B, Klimt F (1979) Schule und Lärm. Das öffentliche Gesundheitswesen 41: 191–200 Schulz von Thun F (2003) Miteinander reden. Störungen und Klärungen. Allgemeine Psychologie der zwischenmenschlichen Kommunikation. Reinbek Rowolth TB Schum DJ (1996) Intelligibility of clear and conversational speech of young and elderly talkers. J of the American Academy of Audiology 7: 212–218 Schum DJ, Matthews LJ, Lee FS (1991) Actual and predicted word–recognition performance of elderly hearing–impaired listeners. J of Speech and Hearing Research 34 (6): 336–342 Schwartz MF (1970) Power spectral density measurements of oral and whispered speech. J of Speech and Hearing Research 13: 445–446 Selting M (1995) Prosodie im Gespräch. Aspekte einer interaktionalen Phonologie der Konversation. (Linguistische Arbeiten 329) Niemeyer, Tübingen Sendlmeier WF (1986) Ein Verfahren zur Messung von Fehlleistungen beim Sprachverstehen – Überlegungen und erste Ergebnisse. Sprache – Stimme – Gehör 10: 164–169, Thieme Verlag, Stuttgart New York Seraphim HP (1961) Über die Wahrnehmbarkeit mehrerer Rückwürfe von Sprachschall. Acustica 11: 80–91 Shannon RV, Zeng F, Kamath V, Wygonski J, Ekelid M (1995) Speech recognition with primarily temporal cues. Science 270: 303–304 Shaw WA, Newman EB, Hirsh IJ (1947) The difference between monaural and binaural thresholds. J of Experimental Psychology 37: 229–242 Shearme JN, Richards DL (1954) The measurement of speech level. Post Office Electrical Engineers J 47: 159–161 Sickert P (2004) Otoplastic – Allheilmittel oder Fehlentwicklung. www.smbg.de
588
Literaturverzeichnis
Siegel GM, Pick HL, Olsen MG, Sawin L (1976) Auditory feedback in the regulation of vocal intensity of preschool children. Developmental Psychology 12: 255–261 Silverman SR (1947) Tolerance for pure tones and speech in normal and defective hearing. Annals of Otology, Rhinology and Laryngology 56: 658–677 Silverman SR, Hirsh IJ (1955) Problems related to the use of speech in clinical audiometry. Annals of Otology, Rhinology and Laryngology 64: 1234–1245 Sinott JM, Stebbins WC, Moody DB (1975) Regulation of voice amplitude by the monkey. JASA 58: 412–414 Skinner MW, Miller JD (1983) Amplification bandwidth and intelligibility of speech in quiet and noise for listeners with sensorineural hearing loss. Audiology 22: 253–279 Smoorenburg GF (1992) Speech reception in quiet and noisy conditions by individuals with noise–induced hearing loss in relation to their tone audiogram. JASA 91: 421–437 Smoorenburg GF ,De Laat JAPM, Plomp R (1982) The effect of noise–induced hearing loss on the intelligibility of speech in noise. Scand Audiology 16: 123–133 Sörensen S, Berglund K, Rylander R (1973) Reaction pattern in annoyance response to aircraft noise. Proceedings of the Internat Congress on Noise as a Public Health Problem (Dubrovnik), EPA, US Environmental Protection Agency, Washington DC, W 669–677 Sohn W, Jörgenshaus W (2001) Schwerhörigkeit in Deutschland. Z für Allgemeine Medizin 77: 143–147 Sommers MS (1997) Stimulus variability and spoken word recognition. II The effects of age and hearing impairment. JASA 101 (4): 2278–2288 Sommers MS, Nygaard LC, Pisoni DB (1994) Stimulus variability and spoken word recognition. I Effects of variability in speaking rate and overall amplitude. JASA 96 (3): 1314–1324 Sotscheck J (1973) Speech quality of band–limited transmission systems. Intelligibility and diagnostic investigations. Symposium Intelligibilité de la Parole: 305–315 Sotscheck J (1976a) Methoden zur Messung der Sprachgüte. I Verfahren zur Bestimmung der Satz– und der Wortverständlichkeit. Der Fernmeldeingenieur (Sonderdruck) 30 (10): 1–33 Sotscheck J (1976b) Methoden zur messung der Sprachgüte. II Verfahren zur Bestimmung der Satz– und Wortverständlichkeit. Der Fernmeldeingenieur 30 (12): 1–32 Sotscheck J (1982) Ein Reimtest für Verständlichkeitsmessungen mit deutscher Sprache als ein verbessertes Verfahen zur Bestimmung der Sprachübertragungsgüte. Der Fernmeldeingenieur 36 (4/5): 1–84 Sotscheck J (1992) Sprachqualitätstest aus der Nachrichtentechnik. In: Kollmeier B (Hrsg) Moderne Verfahren der Sprachaudiometrie. Buchreihe Audiologische Akustik, Median Verlag, Heidelberg
Literaturverzeichnis
589
Soulodre GA, Popplewell N, Bradley JS (1989) Combined effects of early reflections and background noise on speech intelligibility. J of Speech and Vibration 135 (1): 123–133 Souza PE, Turner CW (1994) Masking of speech in young and elderly listeners with hearing loss. J of Speech and Hearing Research 37 (6): 655–661 Speaks C (1967) Intelligibility of filtered synthetic sentences. J of Speech and Hearing Research 10: 289–298 Speaks C Karmen J L Benitez L (1967) Effect of a competing message on synthetic sentence identification. J of Speech and Hearing Research 10: 390–396 Spoor A (1967) Presbyacusis values in reaction to noise induced hearing loss. Int Audiol (Leiden) 6: 48–57 Spreng M (1975) Langsame Rindenpotenziale, objektive Audiometrie und Psychoakustik. In: Keidel WD (Hrsg) Psychologie des Gehörs. Thieme Verlag, Stuttgart, S 277–358 Spreng M (1983a) Weiterführende Untersuchung und Beurteilung des Gehörs. – Arbeitsmedizinisches Kolloquium. Schriftenreihe des Hauptverbandes der gewerblichen Berufsgenossenschaften eV: 37–46 Spreng M (1983b) Physiologische Hintergründe der Sprachrezeption. Vortrag auf der Jahrestagung der Deutschen Gesellschaft für Sprach– und Stimmheilkunde, Mai 83, Stimme – Sprache – Gehör, Travemünde Spreng M (2003) Die Wirkung von Lärm und unerwünschten Geräuschen auf die Sprachentwicklung bei Kindern. In: Schick A, Klatte M, Meis M, Nocke C (Hrsg) Beiträge zur Psychologischen Akustik. Ergebnisse des 9. Oldenburger Symposiums zur Psychologischen Akustik: Hören in Schulen, S 117–147, Bibliotheks– und Informationssystem der Universität Oldenburg Stanton BJ, Jamieson LH, Allen GD (1988) Acoustic–phonetic analysis of loud and Lombard speech in simulated cockpit conditions. Proceedings of ICASSP–88: 331–334 Stanton BJ, Jamieson LH, Allen GD, (1989) Robust recognition of loud and Lombard speech in the fighter cockpit environment. Proceedings of ICASSP– 89: 675–678 Stathopoulos ET, Duchan JF, Sonnenmeier RM, Bruce NV, (1986) Intonation and pausing in deaf speech. Folia Phoniatrica 38: 1–12 Steeneken HJM (1992) On measuring and predicting speech intelligibility. University of Amsterdam, Amsterdam Steeneken (1999) Standardisation of ergonomic assessment of speech communication. Proceed of EuroSpeech ´99, Budapest, S 255–258 Steeneken HJM, Houtgast T (1980) A physical method for measuring speech– transmission quality. JASA 67 (1): 318–326 Steeneken HJM, Houtgast T (1982) Some applications of the speech transmission index (STI) in auditoria. Acustica 51: 229–234 Steeneken HJM, Houtgast T (1983) The temporal envelope spectrum of speech and its significance in room acoustics. Proceedings of 11th International Congress on Acoustics, Paris, 7: 85–88
590
Literaturverzeichnis
Steeneken HJM, Houtgast T (1999) Mutual dependence of the octave–band weights in predicting speech intelligibility. Speech Communication 28: 109– 123 Steeneken HJM, Houtgast T (2002a) Phoneme–group specific octave band weights in predicting speech intelligibility. Speech Communication 38: 399– 411 Steeneken HJM, Houtgast T (2002b) Validation of the STI method with the revised model. Speech Communication 38: 413–425 Steeneken HJM, Velden J Van (1989) Objective and diagnostic assessment of (isolated) word recognizers. Proc IEEE ICASPP, Glasgow, S 540–543 Steinberg JC (1934) Application of sound measuring instruments to the study of phonetic problems. JASA 6: 16–24 Stelmachowicz PG, Jesteadt W, Gorga MP, Mott J (1985) Speech perception ability and psychophysical tuning curves in hearing–impaired listeners. JASA 77 (2): 620–627 Stemplinger I, Fastl H, Schorn K, Brügel F (1994) Zur Verständlichkeit von Einsilbern in unterschiedlichen Störgeräuschen. Fortschritte der Akustik – DAGA ´94: 1469–1472, Oldenburg Stevens SS (1961) Procedure for calculating loudness Mark VI. JASA 33: 1577– 1585 Stevens SS, Miller J, Truscott I (1946) The masking of speech by sine waves square waves and regular and modulated pulses. JASA 18 (2): 418–424 Stickney GS, Assmann PF (2001) Acoustic and linguistic factors in the perception of bandpass–filtered speech. JASA 109 (3): 1157–1165 Stokes JP, Royster LH, Pearson R, Royster JD (1991) Subjective user evaluation of a test earmuff exhibiting flat attenuation with nonlinear characteristics. Am Ind Hyg Assoc J 52 (2): 52–60 Stowe AN, Harris WP, Hampton DB (1963) Signal and context components of word–recognition behavior. JASA 35: 639–644 Studebaker GA, Sherbecoe RL (1988) Magnitude estimations of the intelligibility and quality of speech in noise. Ear and Hearing 9: 259–267 Studebaker GA, Sherbecoe RL (1991) Frequency–Importance and Transfer Functions for recorded CID W–22 Word Lists. J of Speech and Hearing Research 34: 427–438 Studebaker GA, Sherbecoe RL (1993) Frequency importance functions for speech recognition. In: Studebaker GA, Hochberg I (Hrsg) Acoustical Factors Affecting Hearing Aid Performance. Allyn and Bacon, Boston, S 185–204 Studebaker GA, Bisset JD, Ort DM Van, Hoffnung S (1982) Paired comparison judgements of relative intelligibility in noise. JASA 72 (1): 80–92 Studebaker GA, Pavlovic CV, Sherbecoe RL (1987) A frequency importance function for continous discourse. JASA 81 (4): 1130–1138 Studebaker GA, Sherbecoe RL, Gilmore C (1993) Frequency–importance and transfer functions for the auditec of St Louis recordings of the NU–6 word test. J of Speech and Hearing Research 36: 799–807
Literaturverzeichnis
591
Studebaker GA, Taylor R, Sherbecoe RL (1994) The effect of noise spectrum on speech recognition performance–intensity functions. J of Speech and Hearing Research 37 (4): 439–448 Studebaker GA, Sherbecoe RL, McDaniel DM, Gwaltney CA (1999) Monosylabic word recognition at higher–than–normal speech and noise levels. JASA 105: 2431–2444 Sukowski H, Klatte M, Meis M, Schick A (2004) Effects of different kinds of traffic noise on reading and attention performance in elementary school children. Proceedings of the Joint Congress CFA/DAGA, Fortschritte der Akustik – DAGA 2004: 191–192, Oldenburg Sumby WH, Pollack I (1954) Visual contribution to speech intelligibility in noise. JASA 26 (2): 212–215 Summers W Van, Pisoni DB, Bernacki RH, Pedlow RI, Stokes MA (1988) Effects of noise on speech production. Acoustic and perceptual analyses. JASA 84 (3): 917–928 Sussman JE (1993) Perception of formant transition cues to place of articulation in children with language impairments. J of Speech and Hearing Research 36 (6): 1286–1299 Sussmann JE, Carney AE (1989) Effects of transition length on the perception of stop consonants by children and adults. J of Speech and Hearing Research 32 (1): 151–160 Sust ChA, Lazarus H (2005) Folgen von Schwerhörigkeit und Gehörschutz auf soziale und sprachliche Interaktion. (Teil 2) In: Bormann V, Sust ChA, Heinecke–Schmitt R, Fuder G, Lazarus H (Hrsg) Schwerhörigkeit und Sprachkommunikation am Arbeitsplatz. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 1041, Wirtschaftsverlag NW, Bremerhaven Sust ChA, Lorenz D (2007) Bildschirmarbeit in Kliniken und Praxen. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb (im Druck) Wirtschaftsverlag NW Bremerhaven Sust ChA, Lorenz D, Schleif H–D, Schubert P, Utsch A (2002) Callcenter–Design – Ergonomische Gestaltung von Callcentern. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb 954, Wirtschaftsverlag NW, Bremerhaven Sust ChA, Steckel R, Kulka M, Lazarus H, Kurtz P (2007) Beurteilung der Sprachkommunikation bei Verkehrsgeräuschen. – Gestaltungsgrundsätze. Schriftenreihe der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund, Forschungsbericht Fb (im Druck), Wirtschaftsverlag NW, Bremerhaven Suter AH (1980) Hearing level and speech discrimination in noise. In: Tobias JV, Jansen G, Ward WD (Hrsg) Noise as a Public Health Problem (Freiburg 1978), Proceedings of the Third International Congr, ASHA Rep 10, S 203– 209 Suter AH (1992) Communication and job performance in noise. A review. American Speech–Language–Hearing Association, Rockville Maryland, ASHA Monographs 28: 1–84
592
Literaturverzeichnis
Svirsky MA, Lane H, Perkell JS, Wozniak J (1992) Effects of short–term auditory deprivation on speech production in adult cochlear implant users. JASA 92 (3): 1284–1300 TA–Lärm (1998) Technische Anleitung zum Schutz gegen Lärm. Sechste Allgemeine Verwaltungsvorschrift zum Bundes–Immissionsschutzgesetz GMBl Nr. 26/1998 503 Takahashi GA, Bacon SP (1992) Modulation detection modulation masking and speech understanding in noise in the elderly. J of Speech and Hearing Research 35: 1410–1421 Takata Y, Nabelek AK (1990) English consonant recognition in noise and in reverberation by japanese and american listeners. JASA 88 (2): 663–666 Takizawa Y, Hamada M (1990) Lombard speech recognition by formant– frequency–shifted LPC cepstrum. Proceedings of ICSLP–90: 293–296 Tarnoczy T (1971) Das durchschnittliche Energie–Spektrum der Sprache (für sechs Sprachen). Acustica 24 (2): 57–74 Tasell DJ Van, Trine TD (1996) Effects of single–band syllabic amplitude compression on temporal speech information in nonsense syllables and in sentences. J of Speech and Hearing Research 39: 912–922 Tasell DJ Van, Fabry DA, Thibodeau LM (1987) Vowel identification and vowel masking patterns of hearing–impaired subjects. JASA 81: 1586–1597 Ter–Horst K, Byrne D, Noble W (1993) Ability of hearing–impaired listeners to benefit from seperation of speech and noise. The Australian J of Audiology 15: 71–84 Tesch–Römer C (2001) Schwerhörigkeit im Alter – Belastung, Bewältigung, Rehabilitation. Median–Verlag Killisch–Horn GmbH, Heidelberg Thompson PO, Webster JC (1963) The effect of talker–listener angle on word intelligibility. Acustica 13 (5): 319–323 Tiesler G, Oberdörster M (2005) Lärm in Bildungsstätten – Ursachen und Konsequenzen. Der gehörte Raum – Aktuelle Forschungsergebnisse aus Akustik und Schallschutz. Tagungsband zum 2. Akustik–Forum Raum und Bau, Stuttgart Tillmann TW, Carhart R (1966) An expanded test for speech discrimination utilizing CNC monosyllabic words. Northwestern Univerity Auditory Test No 6. SAM–TR–66–55: 1–12 Tisseyre A, Moulinier A, Rouard Y (1998) Intelligibility in various rooms. Comparing its assessment by (RA)STI measurement with a direct measurement procedure. Applied Acoustics 53: 179–191 Tokuyama H (1988) Evaluation of speech interference due to noise and reverberation. J of Sound and Vibration 127 (3): 549–533 Tolk J, Peutz VMA (1965) Speech intelligibility in reverberant rooms. 5. Congres International d'Acoustique A52: 1–4 Trychin S (1995) Counseling older adults with hearing impairments. In: Kricos PB, Lesner SA (Hrsg) Hearing care for the older adults. Butterworth– Heinemann Medical Newton, S 113–125
Literaturverzeichnis
593
Tschopp K, Beckenbauer T (1990) Zusammenhang zwischen Lautheit, Schallpegel und Verständlichkeit beim Freiburger Sprachtest. Audiologische Akustik 1: 14–26 Tschopp K, Ingold L (1992) Die Entwicklung einer deutschen Version des SPIN– Tests (Speech Perception in Noise). In: Kollmeier B (Hrsg) Moderne Verfahren der Sprachaudiometrie. Buchreihe Audiologische Akustik. Median Verlag, S 311–329 Tschopp K, Beckenbauer T, Harris FP (1991) Objective measures of sentence level with respect to loudness. Audiology 30: 113–122 Tschopp K, Beckenbauer T, Harris FP (1992) Measuring the level of speech materials used in audiology with respect to loudness. Acustica 76: 58–65 Türk R, Körpert K (1987) Beurteilung der Sprachverständlichkeit bei Störlärmeinfluß. Eine vergleichende Untersuchung zwischen Sprachübertragungs– Index und Signal–Geräuschabstandsmessung. Audiologische Akustik 26 (6): 180–187 Tun PA, Wingfield A, Stine EA (1991) Speech–processing capacity in young and older adults a dual–task study. Psychology and Aging 6: 3–9 Tun PA, Wingfield A, Stine EA, Mecsas C (1992) Rapid speech processing and divided attention. Processing rate versus processing resources as an explanation of age effects. Psychology and Aging 7: 546–550 Turner CW, Souza PE, Forget LN (1995) Use of temporal envelope cues in speech recognition by normal and hearing–impaired listeners. JASA 97: 2568–2576 Tyler RS (1986) Frequency resolution in hearing–impaired listeners. In: Moore BCJ (Hrsg) Frequency Selectivity in Hearing. Academic, London Tyler RS, Fernandes M, Wood EJ (1980) Masking temporal integration and speech intelligibility in individuals with noise–induced hearing loss. In: Talyor IG, Markides A (Hrsg) Disorders Auditory Function III. Academic Press, London, S 211–236 Tyler RS, Summerfield Q, Wood EJ, Fernandes MA (1982a) Psychoacoustic and phonetic temporal processing in normal and hearing–impaired listeners. JASA 72 (3): 740–752 Tyler RS, Wood EJ, Fernandes M (1982b) Frequency resolution and hearing loss. British J of Audiology 16: 45–63 VDI 2058–2 (1988) Beurteilung von Lärm hinsichtlich Gehörgefährdung VDI 2058–3 (1999) Beurteilung von Lärm am Arbeitsplatz unter Berücksichtigung unterschiedlicher Tätigkeiten VDI 2081–1 (2001) Geräuscherzeugung und Lärmminderung in raumlufttechnischen Anlagen VDI 2081–2 (2005) Geräuscherzeugung und Lärmminderung in raumlufttechnischen Anlagen – Beispiele VDI 2569 (1990) Schallschutz und akustische Gestaltung im Büro VDI 2719 (1987) Schalldämmung von Fenstern und deren Zusatzeinrichtungen VDI 3722–2 (E) (2005) Bewertung von Verkehrsgeräuschen beim Einwirken mehrerer Quellenarten VDI 3760 (1996) Berechnung und Messung der Schallausbreitung in Arbeitsräumen
594
Literaturverzeichnis
VDI 4100 (1994) Schallschutz von Wohnungen; Kriterien für Planung und Beurteilung Vesterager V, Salomon G, Jagd M (1988) Age–related hearing difficulties II Psychological and sociological consequences of hearing problems. – A controlled study. Audiology 27: 179–192 Volberg L, Kulka M, Sust ChA, Lazarus H (2004) Ergonomische Bewertung der Sprachkommunikation. Forschungsprojekt der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin Dortmund Volberg L, Kulka M, Sust ChA, Lazarus H (2006) Speech intelligibility and the subjective assessment of speech quality in near real communication conditions. Acta Acustica United With Acustica 92: 406–416 Wagener K, Kühnel V, Kollmeier B (1999a) Entwicklung und Evaluation eines Satztests für die deutsche Sprache. I. Design des Oldenburger Satztests. Z für Audiologie 1: 4–15 Wagener K, Brand T, Kollmeier B (1999b) Entwicklung und Evaluation eines Satztests für die deutsche Sprache. II. Optimierung des Oldenburger Satztests. Z für Audiologie 38 (2): 44–56 Wagener K, Brand T, Kollmeier B (1999c) Entwicklung und Evaluation eines Satztests für die deutsche Sprache. III. Evaluation des Oldenburger Satztests. Z für Audiologie 38 (3): 86–95 Wagstaff AS, Woxen OJ (2001) Double hearing protection and speech intelligibility – room for improvement. Aviat Space Environ Med 72: 405–406 Wagstaff AS, Tvete O, Ludvigsen B (1996) The effect of headset leakage on speech intelligibility in helicopter noise. Aviat Space Environ Med 67: 1034– 1038 Walker BE, Delsasso LP, Knudsen VD (1970) Reflective surfaces for hearing of speech and music in anechoic chamber. JASA 47: 99 Walker G, Byrne D (1985) Reliability of speech intelligibility estimation for measuring speech reception threshold in quiet and in noise. Australian J of Audiology 7: 23–31 Waltzman SB, Levitt H (1978) Speech interference level as a predictor of face–to– face communication in noise. JASA 63 (2): 581–590 Wang MD, Reed CM, Bilger RC (1978) A comparison of the effects of filtering and sensorineural hearing loss on patterns of consonant confusions. J of Speech and Hearing Research 21: 5–34 Warren RM (1968) Verbal transformation effect and auditory perceptual mechanisms. Psychological Bulletin 70: 261–270 Warren RM, Reiner KR, Bashford Jr JA, Brubaker BS (1995) Spectral redundancy. Intelligibility of sentences heard through narrow spectral slits. Perception and Psychophysics 57 (2): 175–182 Wattel E, Plomp R, Rietschote HF Van, Steeneken HJM (1981) Predicting speech intelligibility in rooms from the modulation transfer function. Acustica 48: 320–324 Weber F (1980) Berechnung von Kommunikationsstörungen durch Fluglärm. Fortschritte der Akustik – DAGA '80, VDE–Verlag, S 155–158, Oldenburg
Literaturverzeichnis
595
Weber F, Ehrenstein W, Müller–Limmroth W (1980) Ermittlung von Kommunikationsstörungen durch Fluglärm in der Umgebung von Flughäfen. Z für Arbeitswissenschaft 34 (1): 31–34 Webster JC (1964a) Relations between speech–interference contours and idealized articulation–index contours. JASA 36 (9): 1662–1669 Webster JC (1964b) Generalized speech interference noise contours. J of Speech and Hearing Research 7: 133–140 Webster JC (1964c) Important frequencies in noise–masked speech. Archives of Otolaryngology 80: 494–504 Webster JC (1965) Speech communications as limited by ambient noise. JASA 37 (4): 692–699 Webster JC (1969) Effects of noise on speech intelligibility. ASHA–Reports 4: 49–73 Webster JC (1970) Updating and interpreting the speech interference level (SIL). J of the Audio Engineering Society 18 (2): 114–118 Webster JC (1973) The effects of noise on the hearing of speech. Proceedings of the International Congress on Noise as a Public Health Problem (Dubrovnik): 25–43 Webster JC (1979) Effects of noise on speech. In: Harris CM (Hrsg) Handbook of noise control. Mc Graw–Hill, New York, 14: 1–9 Webster JC, Klumpp RG (1962) Effects of ambient noise and nearby talkers on a face–to–face communication task. JASA 34 (7): 936–941 Webster JC, Klumpp RG (1965) Updating and interpreting the speech interference level (SIL). J Aud Eng Soc 18: 114–118 Wedel H Von (1977) Diskriminationsverhalten von Normal– und Schwerhörigen bei kritischem Signalrauschabstand. Laryngologie Rhinologie Otologie 56: 180–186 Wedel H Von, Wiesner T (1987) Zum Einfluss von Hörgeräten auf die zeitliche Feinstruktur von Sprachsignalen. Teil 1 Pausenvariation (gap variation) in Konsonant–Vokal–Übergängen. Audiologische Akustik 5: 94–103 Wedel H Von, Wiesner T (1987) Zum Einfluss von Hörgeräten auf die zeitliche Feinstruktur von Sprachsignalen. Teil 2 Transition in Konsonant–Vokal– Übergängen. Audiologische Akustik 5: 144–157 Weinstein BE, Ventry IM (1982) Hearing impairment and social isolation in the elderly. J of Speech and Hearing Research 25: 593–599 Weiß R (2003) Beurteilung der Wirksamkeit von Gehörschutz. SMBG Präventionsbericht Weiß W (1964) Statistische Untersuchungen an Sprachschwingungen. – Mitteilung aus dem Institut für allgemeine Nachrichtentechnik der Technischen Hochschule Darmstadt, NTZ 7: 339–348 Weissing H (1965) Herleitung eines Lärmschädlichkeitskriteriums aus Vertäubungsmessungen. Hochfrequenz und Elektroakustik 74: 182–190 Welleschik B, Wicke W (1977) Sprachdiskrimination und Dynamikkompression. (Eine vergleichende Untersuchung mit Hörgeräten.) Laryngologie Rhinologie Otologie 56: 595–601
596
Literaturverzeichnis
Welzl–Müller K, Stephan K (1988) Sprachverständlichkeit mit Hörgerät – ohne und mit Störschall. Audiologische Akustik 27 (4): 108–119 Welzl–Müller K, Graber A, Stephan K (1990) Einsilberverständlichkeit und Artikulationsindex bei sensorineuraler Schwerhörigkeit. Audiologische Akustik 5: 208–216 Werkmeister–Stephan M, Liedtke M (1998) Gehörschützer – Postitivliste In: BGIA – Handbuch für Sicherheit und Gesundheitsschutz am Arbeitsplatz. Erich Schmidt Verlag, Bielefeld Werner O, Hundsnurscher F (1971) Linguistik. I. Lehr– und Übungsbuch zur Einführung in die Sprachwissenschaft. Niemeyer Verlag, Tübingen Wesselkamp M, Holube I, Gabriel B (1997) Sprachverständlichkeit in Störrauschen bei Schwerhörigen mit und ohne Hörgerät. Audiologische Akustik 4: 192–204 Westermann B (1996) Neues von der Lärmschwerhörigkeit. Arbeitsrecht im Betrieb 11: 638–643 WHO (1980) Noise Environmental Health Criteria, 12, World Health Organization, Geneva Widmann U (1991) Minderung der Sprachverständlichkeit als Maß für die Belästigung. Fortschritte der Akustik – DAGA ´91, Oldenburg Wightman FL, McGee T, Kramer M (1977) Factors influencing frequency selectivity in normal and hearing–impaired listeners. In: Evans EF, Wilson JP (Hrsg) Psychophysics and physiology of hearing. Academic Press, London New York, S 295–306 Wightman FL, Allen P, Dolan TR, Kistler DJ, Jamieson D (1989) Temporal resolution in children. Child Development 60: 611–624 Wijngaarden S Van, Steeneken HJM, Houtgast T (2002) Quantifying the intelligibility of speech in noise for non–native talkers. JASA 111 (4): 1906–1916 Wilde G, Humes LE (1990) Application of the articulation index to the speech recognition of normal and impaired listeners wearing hearing protection. JASA 87: 1192–1199 Wilkins PA (1984) A field study to assess the effects of wearing hearing protectors on the perception of warning sounds in an industrial environment. Applied Acoustics 17: 413–437 Wilkins PA, Martin AM (1982) The effects of hearing protection on the perception of warning sounds. In: Alberti PW (Hrsg) Personal Hearing Protection in Industry. Raven Press, New York, S339–369 Williams CE, Stevens KN, Hecker MHL, Pearsons KS (1967) Updating and interpreting the speech interference level (SIL). Aud Eng Soc 18: 114–118 Williams CE, Pearsons KS, Hecker MHL (1971a) Speech intelligibility in the presence of time–varying aircraft noise. JASA 50 (2): 426–434 Williams CE, Forstall JR, Parsons WC (1971b) Effect of earplugs on passenger speech reception in rotary–wing aircraft. Aerospace Medicine 7: 750–752 Wilson RH, Carhart R (1969) Influence of pulsed masking on the threshold for spondees. JASA 46 (4): 998–1010
Literaturverzeichnis
597
Wilson RH, Hopkins JL, Mance CM, Novak RE (1982) Detection and recognition masking–level differences for the individual CID W–1 spondaic words. J of Speech and Hearing Research 25: 235–242 Wittmann H, Meißner H (1986) Einfaches Verfahren zur Beurteilung der Wahrnehmbarkeit von Rottenwarntyphonen beim Tragen von Gehörschutz. Forschungsbericht, Planegg Müller–BBM Wolf D, Brehm H (1973) Zweidimensionale Verteilungsdichten der Amplituden von Sprachsignalen. NTG Tagung Signalverarbeitung, Erlangen, S 378–385 Yang L, Shield BM (2001) The prediction of speech intelligibility in underground stations of rectangular cross section. JASA 109 (1): 266–273 Young Jr LL, Goodman JT, Carhart R (1980) The intelligibility of whitened and amplitude compressed speech in a multitalker background. J of Speech and Hearing Research 23: 393–404 Young RW (1964) Single–number criteria for room noise. JASA 36 (2): 289–295 Zeiger R (1979) Die Ermittlung der MDE aufgrund Ton– und Sprachaudiometrischer Untersuchungen. Med. Sachverst. 75: 16–19 Zwicker E (1954) Verdeckung von Geräuschen durch Sinustöne. Acustica 4: 415– 420 Zwicker E (1982) Psychoakustik. Springer, Berlin Heidelberg New York Zwicker E, Feldtkeller R (1967) Das Ohr als Nachrichtenempfänger. S. Hirzel Verlag, Stuttgart
Sachverzeichnis
A–Bewertung 11 Abstandsverdopplung 56, 86, 237, 278, 282 Active–Noise–Reduction ANR 398-401, 423 Aktivitätsmaß 374, 375 Ältere Personen 320, 364, 375 -Anteil 310, 324 -Hörleistung 125, 145, 153, 187, 190, 208, 320, 362, 364 -Vergleich zu jüngeren 125, 153, 215, 362 Alter 37, 59, 86, 123, 145, 153, 202, 354, 495 Altersschwerhörigkeit 59, 168, 125, 212, 309, 319-322, 348, 356, 361, 364 -Beispiel 327, 361 -Durchschnitt 323 Amplitudenbegrenzung 147 Anti-Schall 398 Arbeitsschutz 13 Arbeitsschutzgesetzes 320 Arbeitsstätten 179, 318 Arbeitsstättenverordnung 318 Artikulation(s) 61, 67, 69 -art 62, 142 -Aussprache 71-72, 92-107, 124131, 348, 352, 413 -Erzeugen von Sprache 47, 61 -geschwindigkeit 59 -modus 64 -ort 62, 127 -pause 41
-weise 124 Audiometrie/Audiogramm 356, 379, 386 -Sprach- 20, 31, 251, 325-329, 330, 340, 345, 349 -Ton- 20, 315, 320, 326-329, 330, 340, 345, 349 Audiovisuelle Darbietung 211 Auditorien 4,194, 200, 288, 293, 486, 494 Auftretenshäufigkeit von Wörtern 36, 430 Auftretenswahrscheinlichkeit -Wörter 31, 222, 306, 326, 426 -Wörter (niedrig, hoch) 140, 223, 399 Ausbildung 2, 180, 320, 353, 375, 486, 497, 522, 530 -Sprach- 108 -Sprech- 466, 530 Ausbildungs -stätten 255 -räume 353, 369, 521, 544 Bandbegrenzung 137, 211 Bandbreite 10, 15 -kritische 21-24, 51, 155, 251, 447 Barrierefrei 3, 350 Basilarmembran 161, 321 Beeinträchtigung -erlebte 371 -körperliche 368, 381 -soziale 369
600
Sachverzeichnis
-subjektive 372, 373 Befindlichkeit, subjektive -der Gesprächspartner 1, 449, 454, 460 -des Hörers 174, 256, 452, 464, 475-477 -von Schwerhörigen 368, 386 -des Sprechers 363, 455 Begutachtung 345 Behinderung 347, 350, 368, 380, Belästigung 448-459, 463, 475, 499-511 -Geräusch- 235, 448, 499, 523 -Situations- 175, 452 -beim Gespräch 118, 449, 455 -bei Tätigkeiten 504 Berufskrankheiten 324 -Lärmschwerhörigkeit 323 -Anerkennung 345 Betonung 47, 72, 109 Beurteilung 7 Beurteilungspegel 7, 13, 315, 486 -Ermittlung 13, 315, 491 -Werte 318, 487, 492, 539 Beurteilungszeit 13, 491 Bewertung 7 Bewertungsmaßstab -für Arbeitsplätze 539 -für Sprachqualität 467 Bewertungsprozesse 440, 475 Bewertungsskala 7 -der Sprachqualität 128, 143, 438-484 -Gestörtheit durch Lärm 505 Blickkontakt 109, 113, 20, 379 Callcenter 519, 521, 541, 542 Dauerschallpegel, äquivalenter 6, 13, 179, 242, 315 Demographie 324
Dezibel 6 Dialekt 1, 219, 325 Dienstleistung 180, 470, 486, 521, 537, 541 Diskriminationsverlust 326 Distanz, soziale 85 Dynamikkompression 148 Echo 193, 267, 542 Effektivwert 9, 41 Einwegkommunikation 114, 486, 545 Energieäquivalenz 13 Entdeckungsschwelle 25, 28 Erinnern 124, 517 Erlernen -des Hörens mit Hörgeräten 347 -des Lesens 517 -des Sprachverstehens 219, 307 -des Sprechens 99, 530 -einer Sprechweise 119 -einer Fremd–/Zweitsprache 219 -lärmarmen Verhaltens 535 Ermüdung 380, 391 Europäische Richtlinie -zum Arbeitsplatz–Lärmschutz 318, 387, 419 -zur Maschinensicherheit 388 -zur Sicherheitskennzeichnung 468 Familie -Reaktion auf Schwerhörigkeit 372, 380, 383, 387 Fehlhörigkeit 38, 310, 347, 365 Fehlsichtigkeit 346 Fernsehen 1, 351, 499, 504-510, 513, 545 Filter (Frequenz-) -Bandpass- 15 -Hochpass- 15, 135 -Oktav- 16, 42, 236, 251, 262
Sachverzeichnis
-Terz- 16, 42, 251, 262 -Tiefpass- 15, 135 Flachraum 245, 281, 491 Formant/Formantfrequenz 54-55, 62-67, 91-95, 98, 99, 109 FortbildungĺAusbildung Fouriertransformierte 90, 283 Freisprechanlagen 231, 543 Fremdsprache 181, 219, 230, 368 Frequenz -gewichtung 247, 252 -gruppe 21-24, 161, 247, 367 -spektrum 12, 21 Frequenzbereich 16, 21 Frequenzbewertung 11 -A–Bewertung 11 -Differenz (A–Lin) für Sprache 53 Funktionsstörungen -des Gehörs 309, 418 -des Sprechorgans 530 Funktionswörter 39, 69, 433 Gefährdungsbewertung 318, 320 Gefahrsignale 381, 418 Gehörgefährdung 19, 314 Gehörschaden 19, 98, 166, 309, 401, 530 Gehörschutz 2, 73, 81, 155, 206, 230, 242, 273, 318, 388, 449 -aktive Schalldämmung 396-401, 406, 423 -für Sprachkommunikation 393, 422 -Headset 393, 398-401, 423 -Kapsel 389, 395, 402, 410, 418 -nichtlin. Schalldämmung 495501 -Optimierung 422 -Otoplastiken 422 -pegelabh. Schalldämmung 394, 395-401, 411
601
-Schalldämmung 489 -Stöpsel 389, 395, 402, 410, 418 -Tragepflicht 318-320, 419 -Vergleich Stöpsel/Kapsel 408, 413 Gehörvorsorge 318 Geräusch 7, 18, 20 -breitbandiges 21 -Grund- 526-528 -Hintergrund- 15, 80, 110, 208, 429, 492-495, 511, 523-531 -schmalbandiges 24 -Sprach- 37, 121, 150, 180-187, 190-192, 224, 362, 518-519, 539 -Sprech- 81, 103, 143, 181, 186187, 189-190, 207-209, 214, 217-218, 352-353, 487 -verdeckendes 20 Geräuschbelastung 81, 315, 524, 538 Geräusche -an Bildschirmarbeitsplätzen 537 -Arbeitslärm 312, 487 -Büro- 487, 500 -Helikopter- 492 -im Kaufhaus 111, 487 -im Rechnerraum 111 -in Kantinen 111 -in Krankenhäusern 111, 487 -in Unterrichtsräumen 487, 524 -in Wohnungen 111, 487 -Verkehrs- 111, 169, 172-175, 177, 179-180, 358, 476, 501, 504-510 Geräuschemission -von Maschinen 319, 492 -von Geräten an Bildschirmarbeitsplätzen 538 Geräuschexposition 316 Geräuschhöchstwerte nach Normen
602
Sachverzeichnis
-für Büroarbeiten und Sitzungsräume 492 -für haustechn. Anlagen 493 -für Hintergrundsgeräusche 493 -für raumlufttechn. Anlagen 493 Geräuschhöchstwert, empfohlen -für Bildschirmarbeitsplätze 492 -für Sprachkommunikation 490 Geräuschimmission 13, 316, 322, 349, 491-495, 538 -Ermittlung der 13, 491-492 Geräuschmessung 10, 13 Geräuschpegel 18 Gesamtwortverstehen 326-328, 344 Geschlechtsunterschiede 52-54, 57, 73, 77-79, 88-90, 103, 185, 238, 253, 270, 529 Gesprächsentfernung 71, 85, 110 Gestaltung -der Umgebung 350, 367 -von Arbeitsplätzen 318, 491, 538 -von Räumen 200, 205, 278-282, 288-294, 367, 493, 519, 522, 531 Gesundheit 310, 374, 380 -WHO 368 Grammatik/Syntax 36-39, 69-70, 221, 306, 426-436, 481 Grenzfrequenz -Bandpass- 15 -Hochpass- 15 -Oktav- 16 -Terz- 16 -Tiefpass- 16 Grenzkurvenverfahren 235, 295 Grenzwert 13, 234, 303, 315319, 344, 350, 422, 493 Großveranstaltungen 319 Grundfrequenz -der Sprache 55, 61, 71, 80, 9192, 94, 97, 99, 107, 109
-von Klängen 158-160 Grundton 52 Güte von Systemen 30, 135 Haarzellen 315, 321, 349, 366 Hallradius 272, 276, 286-289 Häufigkeitsanalyse 10 Häufigkeitsverteilung 13 Häufigkeitssummenverteilung 14 Headset 392, 397, 541, 542 Herstellungsverfahren 445 Hochtonsenke 315 Hörempfindung 9, 20 Hörer -anstrengung 437-440, 445, 455, 464-466, 470-471, 475, 478, 484, 488-489 -bereich 535 -entfernung 85 -Feedback 114, 450 Hörfläche 19, 154, 311, 324 -Sprach- 19, 155, 161, 260, 311 Hörfrequenzbereich 16 Hörgerät 4, 30, 145, 148, 150, 164, 188, 208, 253, 320, 327, 348, 351, 359, 366, 376, 381383, 437, 444-448, 530 Hörhandicap 376, 379 Hörminderung 309, 343 Hör–Modell 161-166 Hörprozess 164-168, 352-357, 365 -an der Schwelle 18, 20, 25, 28, -über der Schwelle 164, 264, 362, 365, 408 HörschadenĺGehörschaden Hörschadensrisiko 312-315, 318 Hörschwelle 10 -Sprache 25 -Töne 10, 18 Hörschwellenverschiebung 19 Hörverlust 19
Sachverzeichnis
-kriterien 316 -prozentualer 341-5 -Sprach- 26, 325-328, 329 -Ton- 19 Identifizieren 67, 152, 355, 431 Informations -gehalt von Sprache 26, 37, 134, 147, 153, 154, 181-186, 191-192, 248, 275, 519, 538 -austausch 1, 61, 118, 211, 310, 373, 376, 417 Innenohrschwerhörigkeit 309 Intensität(s)– -Frequenzbereich 19 -Frequenzmuster 41, 150, 206, 336, 348, 354, 366, 519 -Impulsantwort 283 Isolation, soziale 369-379 Junge Personen 215 -Hörleistung 215 -Kinder 144, 202, 215 -Schwerhörige 375 Kategoriallautheit 366 Kehlkopf 61, 99 Klangqualität 148, 441 Kleinkind 39, 217 Knochenleitung 413 Kommunikation(s) -bedürfnisse 373, 378 -bereitschaft 374 -beschränkung 377 -beziehungen 375 -fähigkeit 372 -im Alltag 86, 110, 114, 123, 331, 418, 478 -kompetenz 370 -leistung 373 -partner 375 -probleme 373, 374, 378, 385
603
-schwierigkeiten 373, 387, 385, 386 -situation 374, 386 -strategie 371, 373, 374 -umgebung 373 -verhalten 386 Kompression -Amplituden- 148-150, 439 -Zeit- 152-153 Konflikt 310, 176 Konsonantendauer 59, 96 Kontextinformation 37, 220, 435 Konversation 46, 73, 107, 255, 373, 376 Konzentrationsfähigkeit 506, 517 Kurzzeitgedächtnis 37, 518, 543 Langzeitmittelwert 46, 50, 181 Lärm 7 -gefährdung 317 LästigkeitĺBelästigung Lauterzeugung 63 Lautheit(s) 41, 194, 247, 437, 499 -ausgleich 339 -empfinden 41, 514 -pathologische Bildung der 365 -von Sprache 512-516 Lebensqualität 380 Lern -leistung 516 -umgebung 517 Lesefähigkeit 517 lexikalisch 221, 426, 428 Lokalisierung 206, 423 Lombardeffekt 71, 79-81, 84, 103, 113, 120, 229, 241, 242, 244, 249, 413, 493, 496, 529, 540, 543 Maßnahmen -für Schwerhörige 324, 366, 370
604
Sachverzeichnis
-Interventions- 535-537 -Verhaltenstraining 534 -vorher/nacher 531-534 -zur Gestaltung von Geräten 542 -zur Lärmminderung 317, 387, 421, 492, 539 -zur Verbesserung der Kommunikation 366-368, 423, 521, 530, 539 Maskierung 20, 25, 27, 134, 156163, 174, 181-187, 207, 211, 213, 233, 253, 300, 321, 362, 366, 393, 408, 415, 501 MdE 324, 344-346, 350 Median 49 Medien 1, 470, 545 Mehrsprechergeräusch 189 Mehr–Sprecher–Situation 124125 Merkmale der Sprachlaute -akustische 66, 429 -artikulatorische 64, 427 -distinktive 68 -linguistische 64, 431, 434 -psycholinguistische 134, 223, 425 Mithörschwelle 6, 20, 28 -Alter 216 -fluktuierende Geräusche 175, 190, 192, 357-359 -mit einer Fremdsprache 220 -informationshaltige Geräusche 181, 518 -intermittierende Geräusche 169176, 179-181, 353, 452 -konstante Geräusche 161 -mehrere Sprecher 124-129 -modulierte Geräusche 188 -Normalh./Schwerh. 192, 355367 -Richtungshören 206-209
-Schwerhörige 162-168, 182192, 332 -sprachähnliche Geräusche 182192 -Sprache 28 -Töne 20-25 Mittelung(s) 49 -arithmetisch 12 -gleitende 12, 41 -pegel 6, 13, 169-180 Mittenfrequenz 15 -Bandpass- 15 -Oktav- 16 -Terz- 16 Modulations -frequenz 17, 285 -grad 17, 43, 187-188, 267-273, 283 -schwingung 17 -übertragungsfunktion 268, 282 monaural/binaural 145, 202, 207, 216, 542 Mundart 123 Musik 19, 348 -Diskotheken 319, 490 -Gehörschutz für 390 -konsum 323, Nacherzählen 449 Nachfragen 117, 309, 486 Nachhall 193-205, 278, 291 -bei Kindern 216 -bei Mehrfachstörungen 153, 212 -bei Schwerhörigen 153, 168, 201, 204, 352, 359, 361 -bei Zweitsprache 224 Nachhallzeit 198 -frühe (EDT) 198 -für Räume 198, 205, 267-268, 288-291, 494, 530, 544 -in der Schule 526-528, 532-537
Sachverzeichnis
-in Sprachindices 249, 253, 267, 276 -optimale 205, 292, 530, 536 -und Sprechpegel 73, 111, Nicht–Muttersprachler 123, 220224 Noise–Rating–Kurven 235 Normen 3, 7 -zur Audiometrie 19, 27, 32, 304 -zur Lärmminderung 318, 393, 422, 492 -zur Raumgestaltung 200, 292, 368, 493-495 -zur Schallmessung 10, 13, 318, 528 -zur Sprachkommunikation 3, 73, 238, 257, 272, 304, 462 Nutz -schall 198-202 -signal 206 Oberwellen 61, 159, 353 Peak Clipping 146-148, 270 Pegelbegrenzung 422 Periodendauer 9 Personenkommunikationssystem 230 Perzentil 14 Phonem 26, 31, 54, 61, 68, 134, 170, 275, 305, 365, 426 PresbyakusisĺAltersschwerhörigkeit Prosodie 71-72, 91, 99, 178 Psychoakustik 2, 4, 32, 334, 415 Psycholinguistik 4, 31, 426 Psychometrische Funktion 29, 128, 161, 183, 477-481 Publikumsgeräusche 292-293, 545 Qualität(s)
605
-niveaus von Räumen 544 -schalltechnische 522, 525, 530, 537, 539, 544 -skala 484 Radio 1, 211, 351, 380, 499, 504-510, 545 Raumakustik 198, 268, 278, 293, 532, 543 Rauschen -Bandpass- 21 -Breitband- 21 -gleichmäßig verdeckendes 21 -rosa 10, 20 -Schmalband- 21, 154-162 -sprachähnliches 21 -Terz- 10 -weißes 10, 20 Rauschpulse 170 Recruitment 335, 339, 365 Redundanz 32, 115, 460 Redundanzkorrektur 253, 270271 Richtungshören 197, 205, 217 -gegenphasig 29 -monaural/binaural 145, 202, 206, 216 -von Schwerhörigen 206, 208 Richtungsindex 208, 286 Richtwert 13 Ruhehörschwelle 19, 20, 254 Rundfunksprecher 50 Sättigungseffekte 256, 461, 473 Satzform 69, 71 Satzinhalt 434 SatzmelodieĺProsodie Schall -absorption 279-282, 286, 291, 486, 495, 529-236 -ausbreitung 78, 245, 278-281, 292, 491, 540
606
Sachverzeichnis
-ereignis 10 -intensität 9 -leistungspegel 57, 278, 538 -messungen 9 -muster 365 -pegel 5, 10 -pegelmesser 10 -un-/erwünscht 206, 448, 487, 499 -wechseldruck 9 -wellen 9, 278 Schalldämmung -in Gebäuden 486, 495 -von Gehörschutz 388, 543 Schalldruck 9 -amplituden 17 -amplitudenmodulierte Schwingung17, 43 -effektivwert 9 -pegel 10 -pegelmesser 10 -schwingung 9 Schallenergie -nützlich/störend 198-200 Schallfeld 9, 87, 278, 294 -diffus 203, 207, 272, 276, 279290, 535 -frei/direkt 87, 237, 278-281, 286-291, 491 -frühe Reflexionen 193-205, 528 -Raum- 291 -Raummodelle 291 Schlüsselwort 36 Schmerzschwelle 10, 19, 26 Schnittpunktfrequenz 136, 141, 251 Schriftsprache 68 Schule 522 -Klassenraum 292, 523-536 -Schülergeräusch 293, 525 -Unterrichtsform 534-535 -Unterrichtsgrundgeräusch 525
Schulleistung 516 Schwelle 14, 18, 20, 25, 28 Schwerhörigkeit -altersbegleitende 309, 319-20, 348, 378 -Beurteilung, allgemeine 310, 324, 328, 341, 343, 345 -Beispiel 358 -Bewertung 328, 341-342, 249, 380 -Grad der 322, 327, 344-346, 359, 367, 407 -Lärm- 168, 309, 312-315, 322327, 344, 348, 359, 370, 408, 503 -Leitungs- 309 -Schallempfindungs- 107, 150, 162, 254, 309, 310, 332, 347, 348, 357, 365 Signalerkennung 319, 415, 417 Signal-Geräuschabstand -A–bewertet 5, 18 -als Maß der Sprachqualität 7, 468, 473-485, 487 -als Vorhersageverfahren 232234, 241-244, 247, 295-302, 468, 477, 482 -effektiver 106, 241, 266, 273, 302, 462, 468, 480, 482, 485 Signal-Geräuschverhältnis 5, 18 Silbendauer 59 Sonogramm 66-67 Sozialverhalten 531 Spanne 29, 357, 477 Spitzenwert 9 Sprach -beherrschung 215 -entwicklung 1, 39, 218 -erwerb 98, 310, 517 -gewirr 183 Sprachaudiometrie/Sprachtest 30 -Einsilbertest 26, 29, 303-307
Sachverzeichnis
-Freiburger Sprachtest 34 -für Alltagssprache 36, 331 -für Kinder 36 -mit Störgeräuschen 31, 303-305 -mit Umgangssprache 30, 303306, 326, 426, 430 -Reimtest 30-39, 294-298, 304, 426 -Satztest 33-40, 303-307, 476 -Übersicht 40 -Verfahren 30 -Wortlisten, ausbalanciert 32 -Zahlwörtern 26, 34, 325, 344 Sprache -als Mittel 2, 488, 522 -als Schallereignis 12, 41 -Frequenzbereich 16, 19, 42 -Frequenzspektrum (Terz, Oktav) 52 -idealisiertes Spektrum 51, 73, 260-265 -Hüllkurve 17, 42-44, 133, 267267 -Pegelhäufigkeitsverteilung 45 -Pegelverlauf 44 Sprachindex -Artikulationsindex 112, 141, 176, 234, 247-250, 257-266, 296, 304 -Artikulationsverlust 256, 275, 484, 527 -Gewichtsfunktion 249-255, 257274 -RASTI 464-467, 495, 527 -Sprach–Übertragungsindex 247, 267-274, 275, 282-291, 301, 305, 486, 526 -Sprach–Verständlichkeitsindex 247, 263, 271, 301, 468 Sprachkommunikation -als Tätigkeit 486 -Bewertung 450, 454, 468, 484
607
-Bewertung des Prozesses 475 -Bewertung, hörerseitig 435-485 463, 468, 484 -Bewertung, sprechseitig 456457, -drei Hauptwege 229 Sprachkompetenz 3, 30, 123, 215, 219, 327, 330, 485, 544 Sprachlaut 30, 47, 54, 62, 66, 68, 90, 107, 152, 154, 194 -Affrikate 58, 90, 97, 142 -Konsonant 33, 54, 58, 63, 66, 97, 123, 148, 194, 218, 275-276, 304, 426 -Nasal- 63, 90, 97, 142, 427 -Reibe-, Frikante 54, 63, 90, 97, 142 -stimmhaft/stimmlos 58, 63, 68, 127, 141, 427 -Verschluss-, Explosiv-, Plosiv54, 58, 62, 90, 97 -Vokal/Konsonant 26, 30, 47, 96, 97, 103, 107, 147, 427, 431 -Vokal 58, 62, 90, 92, 102, 123, 152 SprachmelodieĺProsodie Sprachproduktion 61 Sprachqualität(s) 7, 437-447, 461-485, 486-494 -Bewertungsskala 478 -bei Geräten 542-544 -Fragen zur Bewertung 475 -gefilterter Sprache 143-145 -komprimierter Sprache 148-149 -Merkmale 437-460 -mit Sprachindices 256 -niveau 3, 302, 461-485, 488 -Parameter 461, 475-477, 485 -stufen 482-485 Sprach–Störgeräuschpegel 237 Sprach–Störschallpegel 235-243, 257, 294-302
608
Sachverzeichnis
-Beispiele 243 -qualitätsstufen 240, 468, 490 Sprachübertragung 30, 133, 148, 211, 229 Sprachverarbeitung 36, 216, 250, 324, 351, 432 Sprachverständlichkeit 3, 7, 21, 25, 28, 32, 231, 303 -bei fluktuierenden Geräuschen 169-76, 177-179, 210, 220, 302, 367, 476, 518-519 -bei hohem Sprachpegel 120 -bei Gehörschutz 390, 399, 402 -bei Sprechweise flüstern bis schreien 101-106 -Testverfahren, Auswahl 31, 39 -wichtigste Frequenzen 141, 247 Sprachverständlichkeitsschwelle 25, 28 Sprechaufwand 242 Sprech(en) 71 -anstrengung 72-79, 85, 92-98, 102-106, 119, 241, 455-456, 462-463, 468, 484, 488-489 -bei Geräuschen 79 -geschwindigkeit 38, 44, 59, 96, 98, 107, 129, 214 -in Ruhe 72 -lautstärke 84, 101, 106, 113, 413, 463 -pausen 41, 45, 59 -weise 31, 48, 71, 76, 453, 462, 488, 536 Sprecher -belastung 449 -Modell 118-119 -mund 56, 72 -reaktionen 119 -Richtcharakteristik 56 -Schallleistungspegel 57 -verhalten 114
Sprecher–Hörer–Entfernung 73, 81, 85-88, 199, 240, 264, 279, 284, 293, 488, 545 Sprecher–Hörer–Interaktion 116, 210, 411, 449 Sprecher–Hörer–Modell 2, 118, 241, 249, 537 Sprechpegel 5 -anstieg bei Geräuschen 81-84 -bei Geräuschen 79 -dynamik 45-51, 82-84, 109, 250, 261, 366, 400 -in Ruhe 72 -ohne/mit Gehörschutz 413 -Übersicht (Ruhe) 73 -Übersicht (Geräusch) 81 -bei Sprechweise leise bis laut 76 Sprechprozess 67, 79, 101, 413 Sprechstil 119 Sprechstimme 98 Sprechvorgang 80, 467 Stimmbänder 62 Stress 4, 98, 319, 374 Tabu/Tabuisierung 348, 370, 371, 384 Tätigkeit (mit Sprachkommunikation) 2, 421, 457, 486-488, 519 -Arbeits- 211, 491, 495, 537 -bei hohen Pegeln 320 -Bildschirm- 537 -Büro- 211, 492, 537 -Dienstleistungs- 537 -Freizeit- 211 -Geräuschbelästigung 448, 502 -Sprecher–Hörer–Interaktion 114-120, 449, 488 -Sprecher- 75, 114-120 Tätigkeit (zusätzlich zur Sprachkommunikation): -Doppel- 457 -Parallel- 457-461, 480-483
Sachverzeichnis
-Sekundär- 457 -Sortier- 457 Telefonieren/Fernsprechen 30, 75, 133, 211, 248, 372, 443, 496, 508, 538, 542-544 Theater 1, 380, 486, 494, 545 Trägersatz 476 Überprotektion 496, 420 Umweltschutz 13 Unterbrechung -des Geräusches 170 -der Sprache 115, 151-153, 211214 Unterbrechungsrate 151-153, 211, 214, 269 Verdeckung 20, 141, 154, 161, 169, 181, 232, 254, 263 -Abwärts- 161, 254 -Aufwärts- 24, 161, 254 -informelle 181 -Nach- 25 -Normalhörender 20, 161 -Rückwärts- 218 -Schwerhöriger 25, 161, 187 -simultane 25, 134 -über der Schwelle 164, 264, 362 -Weitab- 24, 156, 161, 254, 263, 270, 301 -zentrale 21, 161 Vereinsamung 370 Verhalten -Hörer- 116, 441 -lärmarmes 531, 535 -lautes 523 -Schwerhöriger 369, 370 -Sprecher- 80, 114, 180, 329, 353 -Sprecher–Hörer- 85, 115, 243, 462, 528 -soziales 370, 522, 531
609
Verständlichkeit -Einsilber 26, 29, 34 -Konsonanten 26, 30 -Reimwörter 33 -Sätze 21, 26, 31 -sinnlose Silben 26, 30, 46, 121, 135, 141, 217, 238, 251, 256, 275, 303, 425, 428, 435 -Vokale 26, 30 -Wörter 21, 26, 29, 31 -Zahlwörter 26, 34 -Zweisilber 28, 35 Verstehensprozess 256, 464-467, 474, 485 Vertäubung 19, 79, 314, 380 Vertraulichkeit 493, 540 Vertrautheit 222 Verzerrungen 101, 107, 122, 125, 135, 149, 154, 230, 365, 391, 396, 443 Vokaldauer 80, 96 Vokaltrakt 61 Vorhersage der Sprachverständlichkeit 3, 166, 178, 232-240, 247-257, 267, 294-303, 303-307, 415, 527 -mit einfachen Verfahren 233, 241, 243, 255, 257, 294, 356, 468, 482, 489 -von Schwerhörigen 166, 329, 339, 343, 366 Vorhersagewahrscheinlichkeit 36 -niedrig/hoch 37, 140-141, 220221, 224, 362, 435 -von Wörtern 36, 183, 306, 470, 476 Vorschulkinder 517 Vorurteil 371 Warnrufe 211, 246, 491 Zeitbewertung 11
610
Sachverzeichnis
Zeitunterbrechung 153 Zweitsprache 1, 3, 219, 242, 340, 485, 537, 541, 544, 546 Zweitsprachler -Hörer 219 -Sprecher 47, 52, 128, 224, 476