Jutta Milde Vermitteln und Verstehen
VS RESEARCH
Jutta Milde
Vermitteln und Verstehen Zur Verständlichkeit von Wissenschaftsfilmen im Fernsehen
Mit einem Geleitwort von Prof. Dr. Georg Ruhrmann
VS RESEARCH
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
Dissertation Universität Jena, 2008
1. Auflage 2009 Alle Rechte vorbehalten © VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2009 Lektorat: Christina M. Brian / Dr. Tatjana Rollnik-Manke VS Verlag für Sozialwissenschaften ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.vs-verlag.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-531-16601-8
Geleitwort
Öffentliche Wissenschaftskommunikation ist ein aktuelles Thema geworden. Die Wirtschaft entdeckt Wissen als die knappe Ressource und die Politik legitimiert immer komplexere Folgen. So verwundert es nicht, dass eine wachsende Zahl von TV-Magazinen versucht, Wissenschaft öffentlich zu vermitteln. Jutta Milde setzt sich mit dieser Vermittlung grundlegend und systematisch auseinander. Die Wirkung von Wissenschaftsangeboten wird experimentell geprüft. Die Frage lautet: wie beeinflussen verschiedene Darstellungsvarianten von TV-Wissenschaftsfilmen, die derzeit in der Bundesrepublik Deutschland weit verbreitet sind, die Verstehensleistungen der Zuschauer. Zum Verstehensbegriff wird ein facettenreiches Spektrum eröffnet, das von der Hermeneutik bis zum kognitiven Lernen, Bild- und Textverstehen reicht. Angesprochen sind also Konzepte, die die Kommunikationswissenschaft eher selten behandelt. Diese münden in einem eigenständigen Modell und einer komplexen Untersuchungsanlage. Die Ergebnisse dieser Arbeit führen dann auch auf der Grundlage ihres kognitionspsychologischen Ansatzes und ihren ‚holistischen‘, realitätsnahen Treatments zu neuen und anschlussfähigen Erkenntnissen. So baut beispielsweise das gerade von der DFG bewilligte Projekt in Jena/ Landau „Verstehen wissenschaftlicher Evidenz in Medien und Rezipientenframes am Beispiel von TV-Wissenschaftsmagazinen“ auf den theoretischen Implikationen von Jutta Milde auf. Die diesem Buch zugrunde liegende Dissertation wurde an der FriedrichSchiller-Universität Jena angenommen und im Jahr 2009 mit dem Promotionspreis der Fakultät für Sozial- und Verhaltenswissenschaften ausgezeichnet. Georg Ruhrmann
Vorwort
Diese Publikation stellt die leicht überarbeitete Fassung meiner Dissertation dar, die ich im August 2008 an der Sozial- und Verhaltenswissenschaftlichen Fakultät der Friedrich-Schiller-Universität Jena eingereicht habe. Mein besonderer Dank gilt meinem Doktorvater Prof. Dr. Georg Ruhrmann, der mir mit seinen hilfreichen Hinweisen und Anregungen, aber auch mit den wissenschaftlichen Freiheiten, die er mir ließ, ermöglichte, das Thema angemessen zu entfalten. Ebenso danke ich meinem Zweitgutachter Prof. Dr. Bertram Scheufele, der sich stets bereit zeigte, konstruktive und wichtige Hinweise zu geben und mich vor allem in der Endphase mental unterstützte und ermutigte. Bedanken möchte ich mich auch bei Susanne Hilbert, die eine große Hilfe bei der Organisation und Durchführung der Experimente und der Datenaufbereitung war. Des Weiteren gilt mein Dank Pia-Luise Werner und Wiebe Fölster (MA), die mich als Interviewerinnen unterstützt haben. Zu besonderen Dank bin ich den an der Untersuchung teilnehmenden Studenten und Studentinnen der Friedrich-Schiller-Universität Jena verpflichtet. Ohne sie wäre diese Arbeit nicht möglich gewesen. Meinen Kollegen Dr. Denise Sommer, Sascha Hölig (MA) sowie Arne Zillich (MA) danke ich für den wissenschaftlichen Austausch und die konstruktiven Manuskriptkorrekturen. Mein ganz persönlicher Dank geht an meine Eltern, die immer zu mir standen und die seltenen Besuche während der Schreibphase geduldig hinnahmen. Vor allem aber danke ich meinem Mann Sascha Blödorn, der mich mit viel Geduld über den gesamten Zeitraum begleitet und unterstützt und tausende von Kilometern auf sich genommen hat, um diese Arbeit zu ermöglichen.
Jutta Milde
Inhalt
1 Einleitung ..................................................................................................... 13 2 Der dynamisch-transaktionale Ansatz als Rahmenkonzept .................... 21 2.1 Komponenten des dynamisch-transaktionalen Modells........................ 23 2.2 Forschungsleitende Implikationen ........................................................ 28 3 Die Vermittlung von Wissenschaft im Fernsehen .................................... 31 3.1 Einflüsse und Trends der Wissenschaftsvermittlung ............................ 32 3.2 Angebot und Struktur von Wissenschaftssendungen ............................ 40 3.3 Die Gestaltung von Wissenschaftssendungen....................................... 44 3.4 Nutzung und Bewertung von Wissenschaftssendungen ....................... 50 3.5 Schlussfolgerung I: Wissenschaftsfilme als Vermittlungskonzepte ..... 57 4 Verstehen von Medieninhalten .................................................................. 61 4.1 Zur Bedeutungsvielfalt und Definition des Begriffs „Verstehen“ ........ 62 4.2 Verstehen als Informationsverarbeitung ............................................... 67 4.3 Formen des Verstehens ......................................................................... 72 4.3.1 Sprachverstehen ........................................................................... 73 4.3.1.1 Satzverstehen .................................................................... 74 4.3.1.2 Textverstehen .................................................................... 78 4.3.2 Bildverstehen ................................................................................ 90 4.3.3 Text-Bild-Verstehen ...................................................................... 94 4.4 Audiovisuelles Verstehen ................................................................... 102 4.4.1 Fernsehverstehen ....................................................................... 103 4.4.2 Filmverstehen ............................................................................. 113 4.5 Schlussfolgerung II: Verstehen von Vermittlungskonzepten ............. 120 5 Verständlichkeitsforschung ...................................................................... 123 5.1 Textverständlichkeitsforschung .......................................................... 124 5.2 Die Verständlichkeit von Fernsehsendungen...................................... 131
10
Inhalt
5.2.1 Psycholinguistische und lernpsychologische Befunde................ 132 5.2.2 Kognitionspsychologische und kommunikationswissenschaftliche Befunde ................................ 138 5.3 Schlussfolgerung III: Verständlichkeit von Vermittlungskonzepten .................................... 142 6 Das Verstehensmodell audio-visueller Wissenschaftsvermittlung ........ 145 7 Forschungsfragen und Untersuchungsdesign ......................................... 149 8 Verständlichkeitsanalyse der Wissenschaftsfilme .................................. 155 8.1 Auswahlverfahren der Wissenschaftsfilme......................................... 155 8.2 Methodik der Sequenzanalyse ............................................................ 162 8.2.1 Operationalisierung ................................................................... 162 8.2.2 Hilfsmittel und Auswertungsstrategie......................................... 165 8.3 Verständlichkeitscharakteristik der Wissenschaftsfilme..................... 166 9 Methodik der Verstehensanalyse ............................................................. 173 9.1 Operationalisierung............................................................................. 173 9.2 Untersuchungsanlage .......................................................................... 177 9.3 Überprüfung der Gütekriterien ........................................................... 185 9.4 Voraussetzungen der Datenauswertung .............................................. 188 10 Ergebnisse der Verstehensanalyse ........................................................... 193 10.1 Das Verstehen von Wissenschaftsfilmen ............................................ 193 10.1.1 Vermittlungskonzepte und Vermitteltes Verstehen ..................... 193 10.1.1.1 Vollständigkeit der Reproduktionen ............................... 194 10.1.1.2 Abstraktionsgrade der Reproduktionen........................... 200 10.1.1.3 Abruforganisation der Reproduktion .............................. 206 10.1.1.4 Die Bedeutung der Vermittlungskonzepte für das Vermittelte Verstehen ..................................................... 209 10.1.2 Vermittlungskonzepte und Integratives Verstehen ..................... 214 10.1.2.1 Formen der Wissensaktivation als Integratives Verstehen..................................................... 215 10.1.2.2 Die Bedeutung der Vermittlungskonzepte für das Integrative Verstehen ...................................................... 220 10.1.3 Vermittlungskonzepte und Gesamtverstehen .............................. 223 10.2 Subjektive Verständlichkeitsbewertungen der Wissenschaftsfilme .... 226
Inhalt
11
10.2.1 Bewertungsdimensionen ............................................................. 226 10.2.2 Bewertungen der Vermittlungskonzepte ..................................... 230 10.3 Die Bedeutung subjektiver Verständlichkeitsbewertungen für das Verstehen ................................................................................ 234 10.4 Zusammenfassung der Verstehensanalyse .......................................... 244 11 Diskussion .................................................................................................. 247 11.1 Theoretischer Stellenwert des Verstehensmodells .............................. 247 11.2 Bewertung der empirischen Befunde .................................................. 251 11.3 Ausblick .............................................................................................. 254 12 Literaturverzeichnis.................................................................................. 257 Anhang ............................................................................................................. 285 Wissenschaftsmagazine im Fernsehen ........................................................ 285 Fragebogen .................................................................................................. 287 Codierbuch .................................................................................................. 302
1 Einleitung
„Vermitteln“, „Verstehen“, „Verständlichkeit“ von Wissenschaftsfernsehen? – Manchem Leser kommen bei diesem Thema vielleicht Bezeichnungen wie „langweilig“, „trocken“ und „überholt“ in den Sinn. So scheint die Diskussion um wissensvermittelnde und verständliche Fernsehprogramme bereits seit Mitte der 1990er Jahre weitestgehend geklärt. Andere, modernere Themen und Fragen der Medienwirkungsforschung treten seitdem in den Vordergrund. Dabei erfährt das Thema gerade in diesen Tagen eine neue Aktualität. So richtete die Deutsche Forschungsgemeinschaft (DFG) im Mai letzten Jahres das Schwerpunktprogramm „Wissenschaft und Öffentlichkeit“ ein. Das Erkenntnisinteresse der DFG liegt dabei in der Erforschung des öffentlichen Verständnisses von Wissenschaft – mit besonderem Augenmerk auf der massenmedialen Vermittlung von Wissenschaftsangeboten und deren Wirkung beim Rezipienten. Ziel der Ausschreibung ist, auf Basis der Forschungsergebnisse Anhaltspunkte für eine verbesserte Gestaltung der Kommunikationsangebote zu erhalten. Ein Jahr zuvor schrieb das Bundesministerium für Bildung und Forschung (BMBF) ein ähnliches Projekt aus. Sowohl die DFG als auch das BMBF interessieren sich demnach dafür, wie und in welcher Form Wissenschaft in den Massenmedien dargestellt wird und welchen Einfluss diese Darstellung auf das Wissenschaftsverständnis der Rezipienten hat. Die Gründe für dieses neu entfachte Interesse lassen sich auf drei zentrale Argumente zurückführen. So wird erstens angenommen, dass wissenschaftliches Wissen einen steigenden praktischen Nutzen für die Bevölkerung haben kann. Beispielsweise können Informationen über neue medizinische Behandlungsverfahren oder technische Entwicklungen einen hohen Gebrauchswert im Alltag einnehmen und mitunter handlungsweisend werden. Zweitens lässt sich Wissenschaft als Teil unserer Kultur betrachten. Somit müsse jedem Bürger das Recht zugestanden werden, von wissenschaftlichen Entwicklungen und neuesten Erkenntnissen zu erfahren. Das dritte Argument bezieht sich auf den Demokratiegedanken, der unterstellt, dass Wissenschaftsberichterstattung hilfreich dabei sein kann, sich über strittige Themen wie Atomenergie oder Gentechnik zu informieren. Erst dadurch sei es möglich, an politischen Entscheidungsprozessen partizipieren zu können (vgl. Göpfert 2002).
14
Einleitung
Die vorliegende Arbeit lässt sich in dieses Forschungsprogramm einordnen, da ihr ein ähnliches Erkenntnisinteresse zugrunde liegt. So wird danach gefragt, welche Wirkung TV-Wissenschaftsfilme auf ihre Zuschauer haben. TVWissenschaftsfilme sind ein wesentlicher Bestandteil in Wissenschaftsmagazinen, einem Format, deren Anzahl in den letzten Jahren deutlich zugenommen hat und das auf große Zuschauerresonanz trifft (vgl. Sucher 2004; Parastar 2006; Albrecht 2006; Götz-Sobel 2006). Das Ziel der TV-Wissenschaftsmagazine ist, wissenschaftliche Themen anhand kurzer Wissenschaftsfilme nachvollziehbar zu vermitteln. Dazu werden Zusammenhänge und Hintergründe umfassend dargestellt. Für die Umsetzung der Themen verwenden die verantwortlichen Wissenschaftsredakteure unterschiedlichste Gestaltungsmittel und Erzählformen. Beispielsweise kann ein Thema anhand der „persönlichen Geschichte eines Menschen“ oder über Statements zahlreicher Experten erläutert werden. Ausschlaggebend für die Auswahl ist, welche Vermittlungsintentionen von den Wissenschaftsredaktionen verfolgt werden. Daher stellen diese Vermittlungsintentionen den Ausgangspunkt der Arbeit dar, da sie zu unterschiedlichen Darstellungsvarianten eines Themas führen. Dies kann wiederum unterschiedliche Verstehensleistungen beim Zuschauer auslösen. Da diese Annahme der zentralen Logik der vorliegenden Studie entspricht, wird folgende forschungsleitende Fragestellung formuliert: Inwieweit determinieren und beeinflussen verschiedene Darstellungsvarianten von TV-Wissenschaftsfilmen die Verstehensleistungen der Zuschauer? Die Studie lässt sich demnach dem Bereich der Verständlichkeitsforschung zuordnen. Allerdings geht es hier nicht (wie häufig in der traditionellen Verständlichkeitsforschung) darum, verschiedene Verständlichkeitsniveaus von Wissenschaftsfilmen zu testen. Vielmehr soll untersucht werden, welchen Einfluss unterschiedliche Filmtypen auf das Zuschauerverstehen haben. Das Verständlichkeitsniveau wird nicht variiert. Zudem wird Verstehen als ein konstruktiver und interpretierender Prozess des Zuschauers aufgefasst, der in einer wechselseitigen Beziehung mit dem Wissenschaftsfilm steht. Fernsehverstehen wird somit sowohl durch die Vermittlungsform der Fernsehdarstellung als auch durch die Verarbeitungsprozesse des Rezipienten beeinflusst und stellt folglich das Resultat der Beziehung zwischen beiden Positionen dar. Die Grundannahme dieser Untersuchung ist demnach, dass das „Vermitteln“ und „Verstehen“ wissenschaftlicher Themen in TVWissenschaftsfilmen untrennbar miteinander verknüpft und voneinander abhängig ist. Daher lassen sich die Vermittlungsintentionen der Wissenschaftsredakteure mit den Verstehensleistungen der Rezipienten in Beziehung setzen.
Einleitung
15
Die Fragestellung der Studie lässt sich auf zwei Beweggründe zurückführen, die belegen, dass in diesem Themenbereich Forschungsbedarf besteht: Beweggrund 1: Im Rahmen des Forschungsprojekts „Molekulare Medizin und Fernsehen“, das über den Zeitraum von 2003 bis 2005 an der Friedrich-Schiller-Universität Jena unter der Leitung von Georg Ruhrmann durchgeführt wurde und an dem die Verfasserin mitarbeitete, wurden zwölf TVWissenschaftsjournalisten zur ihren journalistischen Arbeitsweisen und Zielsetzungen befragt.1 Die Ergebnisse der Befragung wurden im Jahr 2004 in einem Auftaktreferat einer Weiterbildungsveranstaltung der ARD-Anstalten für Wissenschaftsjournalisten vorgestellt. In der anschließende Diskussion wurde eines vor allem deutlich: Das Interesse der Journalisten lag nicht so sehr in der Reflexion der eigenen Arbeitsweise, sondern vielmehr darin, welche Wirkung ihre Sendungen beim Publikum erzielen. Die zentrale Frage des Tages lautete: „Verstehen denn die Zuschauer überhaupt das, was wir ihnen zeigen?“. Die Frage konnte damals nicht befriedigend geklärt werden, da zu diesem Zeitpunkt keine entsprechenden Untersuchungen bekannt waren. Die anschließenden Literaturrecherchen ergaben dann auch ein recht desolates Bild. Zwar ließen sich durchaus Studien finden, die sich mit Verstehens- und Verständlichkeitsanalysen von Wissenschaftsfernsehen befassen. Allerdings wurden diese im Zeitraum von 1980 bis Mitte der 1990er Jahren durchgeführt (vgl. z.B. Augst et al. 1982; 1985; Meutsch/ Müller 1988; Hamm/ Koller 1989; Türer 1989; Crane 1994; Chen 1994; Gunter et al. 1997). In den letzten zehn Jahren ließ jedoch das Forschungsinteresse sowohl in Deutschland als auch international deutlich nach. Vielmehr verlagerte sich der Forschungsfokus auf die folgenden Bereiche: Wissenschaftsjournalismus und Wissenschaftsjournalisten (vgl. z.B. Hömberg 1987; 1989; Göpfert/ Schanne 1998; Kohring 1998; Schröter 2000; Wilson 2000; Kohring 2004; 2005; Meier/ Feldmeier 2005) Die Darstellung von Wissenschaft und wissenschaftlichen Themen in den Massenmedien (vgl. z.B. Scholz/ Göpfert 1998; Ramsey 1999; Hömberg/ Yankers 2000; Hampel et al. 2001; Bauer et al. 2001; Görke/ Ruhrmann 2003; Kua et al. 2004; Leonarz 2006) Öffentliche Wahrnehmung und öffentliches Verständnis von Wissenschaft im Rahmen des Forschungsprogramms „Public Understanding of Science“ (vgl. z.B. Evans/ Durant 1995; Hampel/ Pfennig 1999; Field/ Powell 2001; Bonfadelli et al. 2002; Nisbet et al. 2002; Miller 2004; Ten Eyck 2005; Coyle/ Fairweather 2005; Bauer 2005; Ho et al. 2008). 1
Das Forschungsprojekt wurde durch das Bundesministerium für Forschung und Bildung (BMBF) gefördert. Über den Zeitraum von 2003 bis 2005 wurden im Rahmen eines Mehrmethodendesigns eine Journalistenbefragung, Inhaltsanalysen sowie eine Bevölkerungsbefragung durchgeführt.
16
Einleitung
Die Forschung zur Rezeption und Wirkung der Wissenschaftsberichterstattung insbesondere auf der Mikroebene wurde hingegen seitdem weitestgehend vernachlässigt. Es zeigt sich somit, dass hier Forschungsbedarf besteht, der nicht nur wissenschaftliche, sondern auch praktische Relevanz hat. Beweggrund 2: Das Forschungsprojekt machte es außerdem erforderlich, sich mit dem beruflichen Selbstverständnis von Wissenschaftsjournalisten zu befassen. Dies führte unweigerlich zu der Frage, welche gesellschaftlichen Funktionen dem Wissenschaftsjournalismus auferlegt werden. Dabei zeigte sich, dass eine zentrale Funktion in der Vermittlung wissenschaftlicher Evidenzen gesehen wird. Eine weit verbreitete Meinung scheint zu sein, dass es zu den zentralen journalistischen Aufgaben zählt, im Namen der Wissenschaft wissenschaftliches Wissen an ein breites und wissenschaftlich ungebildetes (Laien-)Publikum weiter zu geben. Dabei gilt das Credo: Je mehr die Bevölkerung über wissenschaftliches Wissen verfüge, desto eher werden das Wissenschaftssystem und dessen Arbeitsweisen und Erkenntnisse akzeptiert (vgl. Kohring 1998; 2004; 2005). Dieser Anspruch wird jedoch von Kohring stark kritisiert. So schreibt er: „Die Funktion des Journalismus ergibt sich allein aus seiner Beziehung zu seinem Publikum“ (Kohring 2007: 33). Er fordert daher, dass sich Wissenschaftskommunikation an den Bedürfnissen des Publikums auszurichten habe und wissenschaftliches Wissen immer im Lebenszusammenhang der Rezipienten zu stehen habe. Dies schließe zwar die Vermittlung von Wissen nicht aus, im Vordergrund solle aber eine von der Wissenschaft unabhängige Orientierungsmöglichkeit der Menschen stehen (ebd.: 37-38). Legt man diese Forderung nun als Forschungsprämisse zugrunde, lässt sich auch für die Verstehensforschung eine stärkere Orientierung am Rezipienten ableiten. Der Fokus liegt demzufolge nicht mehr auf der Frage, ob und wie viel wissenschaftliches Wissen aufgenommen und erinnert wird, sondern darauf, welche Informationen wie verstanden bzw. konstruiert und interpretiert werden. Der Begriff „Vermitteln“ beschreibt demnach nicht nur den Transfer wissenschaftlichen Wissens, sondern vielmehr eine bestimmte, von Redakteuren geplante Darstellung der Themen, die in bestimmter, vom Rezipienten subjektiv abhängiger Weise verstanden wird. Diese konstruktivistische Perspektive auf den Verstehensprozess, der sich auch als eine „Rezipient-Fernsehtext-Transaktion“ beschreiben lässt, kann mit der Wirkungsvorstellung des dynamisch-transaktionalen Ansatzes (kurz DTA) begründet werden (vgl. u.a. Früh/ Schönbach 1982; Schönbach/ Früh 1984; Früh/ Schönbach 2005). So lässt sich das Grundmodell des DTA als ein Verstehensmodell auffassen, das ein bestimmtes Denkmuster des Kommunikations- und
Einleitung
17
Wirkungsprozesses vorgibt.2 Da der DTA jedoch auf keine expliziten Theorien verweist, die die Beziehung zwischen Rezipient, Medienbotschaft und Kommunikator näher beschreiben, besteht die Notwendigkeit einer theoretischen Fundierung. So dient der DTA in der vorliegenden Studie als Rahmenkonzept, das die Theoriebildung zum Verstehen von Wissenschaftsfilmen anleitet. Die Gliederung des theoretischen Teils orientiert sich daher an den im DTA genannten Grundkomponenten Kommunikator, Rezipient und Medienbotschaft, wobei im Kapitel 2 zunächst der Ansatz selbst und die Beziehung der drei Komponenten zueinander beschrieben werden (vgl. Kap. 2.1). Daraus lassen sich anschließend die für diese Untersuchung relevanten forschungsleitenden Implikationen ableiten (vgl. Kap. 2.2). Kapitel 3 widmet sich der Wissenschaftsvermittlung aus Kommunikatorperspektive. Hier soll geklärt werden, welchen Einflüssen und Trends Wissenschaftsjournalisten ausgesetzt sind und wie sich dies auf die Vermittlungsintentionen der Journalisten auswirkt (vgl. Kap. 3.1). Anschließend werden Angebot und Struktur deutscher Wissenschaftssendungen unter besonderer Berücksichtigung der Filmgattung Wissenschaftsfilm (vgl. Kap. 3.2) sowie deren formale und inhaltliche Gestaltung (vgl. 3.3) vorgestellt. Dabei soll geprüft werden, ob sich die Vermittlungsintentionen der Journalisten in den Sendungskonzepten wiederfinden lassen. Kapitel 3.4 befasst sich schließlich mit der Relevanz von Wissenschaftssendungen für das Publikum. So geht es insbesondere darum, wie groß das Interesse an solchen Sendungen ist und wie umfangreich sie genutzt werden. Darüber hinaus wird geklärt, welche Funktionen Wissenschaftssendungen aus Sicht der Zuschauer erfüllen. Damit lässt sich abgleichen, inwieweit die Intentionen der Journalisten mit den Erwartungen der Rezipienten übereinstimmen. Die Schlussfolgerung dieses Abgleichs ist, dass Wissenschaftsfilme als Vermittlungskonzepte aufgefasst werden können, die das Ergebnis von InterTransaktions-Prozessen zwischen Journalisten und Rezipienten darstellen (vgl. Kap. 3.5). Kapitel 4 widmet sich den Verstehensprozessen der Rezipienten. Ziel des Kapitels ist, ein Verstehensmodell zu entwickeln, dass das Verstehen der Vermittlungskonzepte darstellen und erklären kann. Die Theorieentwicklung leitet sich dabei aus der intra-transaktionalen Verstehensannahme des DTA ab. Da jedoch dem Verstehensbegriff vielfältige Bedeutungen zugewiesen werden, ist es zunächst notwendig, den Begriff klarer von ähnlichen Konzepten abzugrenzen und zu definieren (vgl. Kap. 4.1). Daraus folgt, dass Verstehen als ein kognitiver Prozess aufgefasst wird, dessen Grundlagen der Informationsverarbeitung im Kapitel 4.2 erläutert werden. Darauf aufbauend werden die „Formen des 2
Diese Auffassung vertritt auch Gehrau (2001), der den dynamisch-transaktionalen Ansatz als Informationsverarbeitungsmodell von Fernsehangeboten beschreibt.
18
Einleitung
Verstehens“ (vgl. Kap. 4.3) vorgestellt, in dem die Verarbeitungsmechanismen beim Sprach-, Bild- und Text-Bild-Verstehen erläutert werden. Das Kapitel „Audiovisuelles Verstehen“ (vgl. Kap. 4.4) bezieht sich auf die für diese Arbeit relevanten Erkenntnisse zum Fernsehverstehen unter besonderer Berücksichtigung des Filmverstehens. Im Kapitel 4.5 werden abschließend Schlussfolgerungen zum Verstehen von Vermittlungskonzepten formuliert, die für die Untersuchung von Bedeutung sind. Kapitel 5 befasst sich mit der Verständlichkeitsforschung. Hier stehen die Eigenschaften der Medienbotschaft und ihr Einfluss auf die Verstehensleistung der Rezipienten im Vordergrund der Betrachtungen. Dabei lassen sich zwei zentrale Forschungsbereiche voneinander abgrenzen: die Textverständlichkeitsforschung (vgl. Kap. 5.1) und die Verständlichkeitsforschung von Fernsehsendungen (vgl. Kap. 5.2). Ziel dieser Darstellung ist, die Befunde der Verständlichkeitsforschung mit dem in Kapitel 4 entwickelten Verstehenskonzept in Beziehung zu setzen und um die Erkenntnisse der Verständlichkeitsforschung zu vervollständigen, so dass im Kap. 5.3 wiederum Schlussfolgerungen abgeleitet werden können. Im Kapitel 6 wird schließlich das vollständige „Verstehensmodell audiovisueller Wissenschaftsvermittlung“ erläutert. Kapitel 7 schließt den Theorieteil ab, in dem auf Basis des Verstehensmodells die für die Untersuchung relevanten Forschungsfragen formuliert und das Untersuchungsdesign vorgestellt werden. Es folgt der empirische Teil, der sich in zwei Untersuchungphasen unterteilt. Dabei orientiert sich die Darstellung des empirischen Teils an der Reihenfolge der Forschungsfragen. So befasst sich Kapitel 8 mit der Verständlichkeitsanalyse ausgewählter TV-Wissenschaftsfilme (Untersuchungsphase I), deren methodisches Vorgehen in Kapitel 8.1 (Auswahlverfahren der Wissenschaftsfilme) und 8.2 (Methodik der Sequenzanalyse) erläutert wird. Die Ergebnisse werden in Kapitel 8.3 dargestellt. Die untersuchten Wissenschaftsfilme bilden die Grundlage für das weitere Vorgehen in Untersuchungsphase II, in der eine experimentelle Verstehensanalysedurchgeführt wird. Dazu widmet sich Kapitel 9 den methodischen Grundlagen des Wirkungsexperiments. Kapitel 9.1 erläutert die Operationalisierung der zentralen Konzepte, in Kapitel 9.2 wird die Untersuchungsanlage vorgestellt. Das anschließende Kapitel 9.3 befasst sich mit den Gütekriterien, mit denen die Güte der Verstehensanalyse geprüft wird. Für die Auswertung der Daten müssen im Rahmen dieser Arbeit bestimmte Voraussetzungen erfüllt werden, die im Kapitel 9.4 vorgestellt werden. Im Kapitel 10 folgt schließlich die Ergebnispräsentation der Verstehensanalyse. Dazu werden im Kapitel 10.1 zunächst die Ergebnisse zum Verstehen von Wissenschaftsfilmen vorgestellt. Da subjektive Verständlichkeitsbewertungen
Einleitung
19
einen wichtigen Einfluss auf die Verstehensleistung der Probanden darstellen, werden im Kapitel 10.2 die Ergebnisse der Bewertungen vorgestellt. Anschließend lassen sich die Befunde der Verstehensanalyse mit denen der subjektiven Verständlichkeitsbewertungen in Kapitel 10.3 zusammenführen und auf ihren Zusammenhang prüfen. Das Kapitel schließt mit der zusammenfassenden Darstellung der Ergebnisse ab (vgl. Kap. 10.4). Da das theoretische und empirische Vorgehen im Rahmen der Verständlichkeitsforschung neue Wege beschreitet, folgt im Kapitel 11 die Diskussion. So befasst sich Kapitel 11.1 zunächst mit dem theoretischen Stellenwert des „Verstehensmodells audio-visueller Wissenschaftsvermittlung“ und prüft, inwieweit sich der dynamisch-transaktionale Ansatz im Rahmen dieser Arbeit als Heuristik für die Theoriebildung eignet. Im Kapitel 11.2 folgt die Bewertung der empirischen Befunde. Kapitel 11.3 endet mit einem Ausblick auf mögliche Weiterentwicklungen und Forschungsfelder. Im Anschluss an das Literaturverzeichnis folgt der Anhang. Leider lassen sich die umfangreichen Materialien, die im Rahmen dieser Untersuchung verwendet wurden, aufgrund des begrenzten Platzes nicht komplett dokumentieren. Der Anhang beschränkt sich daher neben einer Auflistung aller Wissens-und Wissenschaftsmagazine im deutschen Fernsehen auf den verwendeten Fragebogen und die Erläuterungen der Codierkategorien aus der Verstehensanalyse. Auf Anfrage unter
[email protected] können jedoch alle Materialien dem interessierten Leser zur Verfügung gestellt werden. Um das Verständnis des Lesers zu unterstützen, folgt nach jeder längeren Sinneinheit (in der Regel im Anschluss jedes zweiten Unterkapitels) eine kurze Zusammenfassung der zentralen theoretischen und empirischen Befunde. Diese werden durch einen grauen Rahmen gekennzeichnet.
2 Der dynamisch-transaktionale Ansatz als Rahmenkonzept
Den konzeptuellen und forschungsleitenden Rahmen der vorliegenden Studie bildet der dynamisch-transaktionale Ansatz, der auf Früh und Schönbach zurückgeht (vgl. u.a. 1982; Schönbach/ Früh 1984; Früh 1991; Früh/ Schönbach 2005). Die Autoren formulierten den DTA aus der Kritik heraus, dass die klassischen Wirkungs- bzw. Nutzenansätze der Komplexität des Wirkungsprozesses nicht gerecht würden (vgl. Früh/ Schönbach 1982). So lässt sich der DTA als neues Forschungsparadigma der Rezeptions- und Medienwirkungsforschung beschreiben, dem ein integratives Denkmuster zugrunde liegt.3 Den Vorteil des Ansatzes sehen die Autoren darin, dass der „DTA zwar eine bestimmte Denkweise vorgibt, nicht jedoch eine bestimmte Theorie“ (Früh 2001: 12). Zwar werden mit dem Ansatz relevante Faktoren im Wirkungsprozess benannt und zugleich beschrieben, wie diese zueinander in Beziehung stehen, allerdings fehlen explizite Theorien, die die Beziehungen der Faktoren spezifizieren. Diese müssen erst entwickelt werden (vgl. Früh 1991: 43f). Daher wird der DTA als eine Heuristik betrachtet, die für die Theorieentwicklung angewendet werden kann (vgl. Früh 1991; Früh/ Schönbach 2005; Früh 2008). Der Ansatz stellt demnach ein Grundgerüst zur Verfügung, das den Bau einer Theorie steuert (vgl. Wünsch 2007: 19).4 Den heuristischen Wert des Modells sehen Früh und Schönbach (1982) vor allem darin, dass die strikte Trennung von Ursache und Wirkung aufgehoben wird. Die Annahme ist, dass sich das Wirkungspotenzial der Medien aus der Kombination von Medienbotschaft und aktiver Bedeutungszuweisung durch den Rezipienten ergibt. So transagieren auf Rezipientenseite Rezeptionsfähigkeit (Wissen) und Rezeptionsbereitschaft (Motivation), wobei erst ein simultaner Wechselwirkungsprozess zu einer effektiven Informationsverarbeitung führt. Mit diesem prozesshaften Wirkungsbegriff wird insbesondere die Zeitdimension von
3
4
Früh steht der Beschreibung, dass der DTA ein „Paradigma“ sei, hingegen kritisch gegenüber (vgl. Früh 2008: 30). Vgl. zur Paradigmengeschichte der Medienwirkungsforschung u.a. Brosius (1997); Kunczik/ Zipfel (2001); Schenk (2007). Vgl. zur Interdisziplinarität und zum Theorieimport des DTA Scheufele (2008).
22
Der dynamisch-transaktionale Ansatz als Rahmenkonzept
Kommunikation berücksichtigt, was Früh und Schönbach (1982) mit dem Begriff „Dynamik“ kennzeichnen. Die dynamische Sichtweise postuliert, dass beispielsweise die Wirkung einer Fernsehsendung nicht statisch aufzufassen ist, sondern die Bedeutungszuweisung durch den Rezipienten sukzessiv und fortlaufend mit der Rezeption verläuft. Dabei selegiert, interpretiert, vergisst und ergänzt der Rezipient die Medieninformationen, bis er am Ende des Rezeptionsvorgangs einen vorläufigen Zustand erreicht. Eigene Gedanken, Assoziationen, Emotionen und Spannungserlebnisse prägen und beeinflussen somit die Wirkung (vgl. Früh 1991: 133). Eine weitere, dritte zentrale Sichtweise des DTA ist die molare (oder auch ökologische) Perspektive. Sie betrachtet den Kommunikations- und Wirkungsprozess im Gesamtzusammenhang eines zumeist mehrdimensionalen, hierarchisch gegliederten und relevanten Kontexts. Dies führt zu Unschärfen im wissenschaftlichen Zugang. Daher ist nach Früh (1991) die theoretische Vorarbeit von entscheidender Bedeutung, um relevante Einflüsse und ihre Gewichtung vornehmen zu können (vgl. auch Wirth 1997). Die folgenden Aspekte sollen dabei besonders beachtet werden: Als erstes nennt Früh (2001) das Problem der methodischen Manifestation des Forschungsgegenstands, da die Identität und Ausprägung eines Objekts von seiner Messung abhängig sind. Die grundlegende Frage hierbei ist, ob die methodische Erfassung des Forschungsgegenstands valide ist. Im Zusammenhang mit der Messung von kognitionspsychologischen Sachverhalten (wie sie auch in der vorliegenden Studie durchgeführt werden soll) argumentiert er jedoch, dass kognitive Größen wie Meinungen oder Wissen ohne die Aktualisierung, wie sie durch die Messung ausgelöst werden, keine relevante Existenz erhalten würden. Der methodische Zugriff (also die Aktualisierung des Wissens) gehört somit essenziell zum Wissen und führt zu einer spezifischen Existenz der Phänomene. Prinzipiell ist der Forscher demnach gefordert, die Messmethode so zu wählen, dass sich die Unschärfe minimiert oder aber er hat Konsens über die Wahl der Methode anzustreben, um eine möglichst große Vergleichbarkeit von Forschungsergebnissen gewährleisten zu können (vgl. Früh 2001: 16-18). Der zweite Aspekt der molaren Sichtweise ist, dass Medien eine Informationsquelle neben anderen darstellen und das Rezeptionsverhalten als eine Ausformung des alltäglichen Lebens aufgefasst wird. Daraus folgt, dass der Kommunikationsprozess von einer Vielzahl von Randbedingungen begleitet wird, die bei der theoretischen Abbildung und Messung eines Phänomens angemessen berücksichtigt werden müssen. Dazu sollen sie sinnvoll auf die wesentlichen Einflüsse reduziert werden, so dass eine erklärungskräftige Strukturierung vorgenommen wird. Damit impliziert der DTA ein gewichtetes Multikausalmodell.
Komponenten des dynamisch-transaktionalen Modells
23
Grundsätzlich gilt, dass die drei Dimensionen Publikumsmerkmale, (objektive und subjektive) Medienmerkmale und Kontextmerkmale als wirksame Faktoren aufzufassen sind und somit beachtet werden müssen. Früh beschreibt die Dimensionen folgender Maßen (vgl. Früh 2001: 20-21): Publikumsmerkmale können sozialstatistische Größen, kognitive Stile oder psychische Befindlichkeiten sein. Objektive Medienmerkmale sind solche, die von den Rezipienten nicht beliebig interpretiert und beeinflusst werden können. Subjektive Medienmerkmale kennzeichnen sich hingegen durch die vom Publikum kontrollierbaren Selektionen, Interpretationen und Elaborationen. Zu den Kontextmerkmalen werden der situative Kontext, persönliche Interaktionsbeziehungen, Gruppennormen, soziale Bindungen und Milieus bis hin zur Kultur gezählt. Um die beschriebenen Einflussfaktoren entsprechend berücksichtigen zu können, fordert Früh (2001: 21) eine vermehrt interdisziplinäre Problemwahrnehmung, so dass der Kommunikations- und Wirkungsprozess nicht nur aus einer rein kommunikationswissenschaftlichen Perspektive betrachtet wird, sondern darüber hinaus psychologische, soziologische oder ökonomische Theorien integriert. Der dritte Aspekt der molaren Perspektive befasst sich mit der Komplexion der Variablen. So sollten die interessierenden Wirkungszusammenhänge nicht isoliert, sondern in ihren relevanten Kontexten betrachtet werden. Dies führt zu hoher Komplexität der Variablenanzahl, die es notwendig macht, die einzelnen Merkmale zu Merkmalsbündeln (oder auch Syndromen) zusammen zu fassen. Diese Vorgehensweise führt wiederum dazu, dass die Komplexität reduziert werden kann. So sind Syndrome in der Lage, „als neue, eigenständige Größen im Wirkungsprozess Effekte hervorzubringen, die über die Wirkungen ihrer einzelnen Bestandteile hinausgehen, ohne sie aufzuheben“ (Früh 2001: 21, siehe auch Früh 2008). 2.1 Komponenten des dynamisch-transaktionalen Modells Eine Eingrenzung und Spezifizierung des Ansatzes nahmen Früh und Schönbach mit der Modellierung des dynamisch-transaktionalen Modells vor, in dem sie die anfänglich mikrotheoretische Perspektive später mit einer makrotheoretischen Perspektive verbanden. Gleichzeitig wurden im Laufe der Zeit die einzelnen Komponenten des Modells immer weiter modifiziert und ausdifferenziert (vgl. Früh 1991). Dabei soll das Modell als Anwendungsvorschlag dienen, in dem ein flexibles Modulsystem mit obligatorischen und optionalen Bestandteilen dargestellt wird (vgl. Früh/ Schönbach 2005: 6). In diesem Zusammenhang betont Früh
24
Der dynamisch-transaktionale Ansatz als Rahmenkonzept
(2001: 12), dass es sich hier „lediglich um die […] sinnvoll erscheinende Ableitung aus dem DTA handelt, die […] [die Autoren]5 als Wirkungsmodell vorschlagen“. Die drei Grundkomponenten des ursprünglichen DTA-Modells aus dem Jahr 1982 bilden die Größen Rezipient, Medienbotschaft und Kommunikator. Früh (1991) trennt allerdings später die Medienbotschaft in Medium und Mitteilung/ Aussage. Damit enthält das Grundmodell des dynamisch-transaktionalen Ansatzes letztendlich vier Faktoren, von denen angenommen wird, dass sie in wechselseitiger Beziehung stehen und bei denen jeweils Wirkungen auftreten können. Die Beziehung zwischen Rezipient und Kommunikator kennzeichnet sich in diesem Modell durch die grundlegende Idee, Wirkungs- und Nutzenperspektive zu integrieren. Integration bedeutet im DTA, dass sowohl der Kommunikator als auch die Rezipienten zugleich aktive und passive Teilnehmer im Kommunikationsprozess sind. Dabei werden „aktiv“ und „passiv“ so verstanden, dass Rezipienten und Kommunikatoren beiderseits Bedingungen im Kommunikationsprozess setzen und mit Bedingungen des jeweils anderen konfrontiert werden (vgl. Früh 1991: 31, zuerst in Früh/ Schönbach 1982): Der Kommunikator ist aktiv, in dem er bestimmte Informationen selektiert oder hervorhebt. Darüber hinaus hat er die Möglichkeit, bestimmte Eigenschaften, Bedürfnisse und Gewohnheiten des Publikums zu berücksichtigen, um eine optimale Wirkungschance seiner Botschaft zu erreichen. Zugleich ist er aber auch passiv, da er Bedingungen ausgesetzt ist, die u.a. vom Medium, seinem Publikationsorgan und den Rezipienten ausgehen und die er akzeptieren muss. Der Rezipient ist aktiv, indem er aus den dargebotenen Medienbotschaften die für ihn relevanten Informationen selektiert. Diese werden wiederum elaborativ verarbeitet, indem die Informationen zu einem subjektiven Ganzen zusammengefügt und fehlende Informationen selbständig ergänzt werden. Der Rezipient ist zugleich passiv, da er die Informationen nur aus denjenigen Angeboten auswählen kann, die der Kommunikator bereitstellt. Als passiv wird ebenso ein habitualisiertes Medienverhalten beschrieben, bei dem sich der Rezipient gewohnheitsmäßig bestimmten Medienangeboten aussetzt (vgl. Früh 1994; Suckfüll 2004) (vgl. Tab. 1).
5
Die kursive Hervorhebung entspricht nicht dem Original, sondern stellt eine Einfügung der Autorin dar; J.M.
Komponenten des dynamisch-transaktionalen Modells
aktiv
25
Kommunikator
Rezipient
Selektion und Hervorhebung von Informationen Berücksichtigung von Eigenschaften, Bedürfnissen und Gewohnheiten des Publi Akzeptanz gesetzter Bedingungen durch Medium, Publikationsorgan und Rezipienten
Selektion Modifikation Konstruktion/ Elaboration
Auswahl eines vordefinierten und vorgegebenen Medienangebots Habitualisiertes Medienverhalten Tabelle 1: Aktiv-passiv-Dimensionen von Kommunikator und Rezipient (vgl. Früh 1991; zuerst in Früh/ Schönbach 1982; eigene Darstellung) passiv
Rezipient und Kommunikator stehen demzufolge in einer wechselseitigen Beziehung, die sowohl alternierend als auch gleichzeitig stattfinden kann. Diese Wechselbeziehung zwischen Rezipient und Kommunikator bezeichnen Früh und Schönbach (1982) als Transaktion.6
Transaktionen zwischen Kommunikator und Rezipient Dem Grundmuster des dynamisch-transaktionalen Modells zufolge unterscheiden Früh und Schönbach (1982) zwei Transaktionstypen: Transaktion 1 und Transaktion 2, die sie später unter den Begriffen Inter-Transaktion (Transaktion 1) und Intra-Transaktion (Transaktion 2) spezifizieren (vgl. Schönbach/ Früh 1984). Lag der Fokus des ersten Modellvorschlags noch auf der Seite des Rezipienten, erweiterten sie später das Modell um die Transaktionsvorgänge auf Kommunikatorseite. Den Begriff „Transaktion“ wählten die beiden Autoren, um zu verdeutlichen, dass nicht nur eine Wechselwirkung zwischen den beiden am Kommunikationsprozess beteiligten Komponenten stattfindet, sondern sich die Komponenten selbst auch verändern können (vgl. Schönbach/ Früh 1984: 315; 6
Früh und Schönbach beziehen sich mit dem Begriff „Transaktion“ u. a. auf Bauer (1964). Die Auffassung, der Kommunikationsprozess zwischen Kommunikator und Rezipient verlaufe transaktional, wurde bereits Mitte der 50er Jahre von Zimmerman und Bauer (1956) formuliert. Abgeleitet wurde diese Annahme aus den wechselseitigen Reaktionen zwischen Schauspielern und Theaterbesuchern, die sich während den Vorstellungen zeigten (vgl. Bauer 1973).
26
Der dynamisch-transaktionale Ansatz als Rahmenkonzept
Früh/ Schönbach 2005: 5). Um die beiden Transaktionsvorgänge zu veranschaulichen, entwickelten Schönbach und Früh (1984) die folgende Darstellungsweise (vgl. Abb. 1).
Rezipient
Kommunikator
Aktivation
Aktivation
Wissen
Medienbotschaft (Mitteilung, Aussage/ Medium)
Para-Feedback Vorstellungen der Kommunikationspartner voneinander usw.
Intra-Transaktion
Intra-Transaktion
Inter-Transaktion
Wissen
Abbildung 1: Transaktionsvorgänge beim Rezipienten und Kommunikator (nach Früh 1991: 53, erstmals in Schönbach/ Früh 1984)
Inter-Transaktionen stellen imaginäre oder reale Interaktionsprozesse dar, die über die Medienbotschaft oder direkt zwischen Kommunikator und Rezipienten ausgetauscht werden. Inter-Transaktionen beinhalten verhaltenssteuernde indirekte Feedback-Prozesse oder Para-Feedback-Prozesse, die bewusst oder unbewusst ablaufen. Diese Feedback-Prozesse der Massenkommunikation sind von einer bestimmten zeitlichen Abfolge unabhängig. Dabei handelt es sich neben dem indirekten Feedback, das z.B. Redakteure oder Journalisten in Form von Einschaltquoten oder Meinungsumfragen etc. erhalten, vor allem um Vorstellungen, Vorannahmen, Vorurteile und Erwartungen, die beide Kommunikationspartner voneinander haben. Inter-Transaktionen werden eingesetzt, um mögliche Gratifikationen zu maximieren, die sich für beide Seiten aus der Kommunikation
Komponenten des dynamisch-transaktionalen Modells
27
ergeben können (vgl. Früh 1991; zuerst in Früh/ Schönbach 1982; Schönbach/ Früh 1984). Wirkung wird im DTA demnach multikausal betrachtet und ergibt sich aus einem Wechselspiel der Ursachen (vgl. Schönbach/ Früh 1984; Früh 1991; Früh 2004). Als ursächlich werden sowohl Medienaussagen als auch vorhandene Kognitionen und Affekte des Rezipienten betrachtet, die sich dann wiederum auf Kognitionen, Affekte und Handlungen auswirken können. Dabei konstituiert sich die Medienaussage erst dann zum Stimulus, wenn der Rezipient sie interindividuell selektiv und elaborativ wahrnimmt, verarbeitet und verändert. Das bedeutet, dass die Medienaussage potenziell ursächlich für Medienwirkungen sein kann, sein Potenzial jedoch erst im individuellen Wirkungsprozess entfaltet wird. Somit setzt der DTA dem kausalanalytischen Denken, das auf linearkausalen Ursachen-Wirkungs-Vorstellungen zielt, einen multiplen, dynamischen Wirkungsbegriff entgegen, in dem Variablen in einem selbstreferentiellen Prozess Ursache ihrer eigenen Veränderung sein können (vgl. Früh 1991: 159). Intra-Transaktionen lassen sich hingegen als Interaktionsvorgänge beschreiben, die im kognitiv-affektiven System sowohl des Rezipienten als auch des Kommunikators stattfinden. Es geht hier also nicht um die Beziehung zwischen Kommunikator und Rezipient, sondern um innerpsychische Vorgänge der am Kommunikationsprozess Beteiligten. Die Intra-Transaktion des Rezipienten ist ein wechselseitiger Beeinflussungsprozess zwischen Aktivationsniveau, dem jeweiligen Wissensstand sowie den Vorstellungen von sich und seiner Umwelt. Informationsaufnahme geschieht demnach gleichzeitig mit der Erhöhung des Aktivationsniveaus. Beide Pole sind untrennbar miteinander verbunden und es kann nicht mehr unterschieden werden, was Stimulus und was Reaktion ist. Das Aktivationsniveau kann durch den affektiven Zustand des Rezipienten, seiner Aufmerksamkeit und seinem Interesse an der Kommunikation variieren und beeinflusst werden. Die Intra-Transaktionen auf Kommunikatorseite sind den Mechanismen, die beim Rezipienten ablaufen, ähnlich. Dabei wird die Wechselbeziehung zwischen Aktivationsniveau und Wissensstand des Kommunikators als konstituierend für die Produktion von Medienaussagen angesehen (vgl. Früh 1991; zuerst in Früh/ Schönbach 1982; Schönbach/ Früh 1984).
Weitere Beziehungen: Transaktionen des Mediums In dem später ausdifferenzierten Grundmodell des DTA wird die Medienbotschaft vom Medium getrennt betrachtet. Mit dieser Trennung beschreibt Früh (vgl. Früh 1991: 62-63) weitere Transaktionen, die einerseits zwischen Medium und Aussage und andererseits zwischen Medium und Kommunikator ablaufen:
28
Der dynamisch-transaktionale Ansatz als Rahmenkonzept
Medium und Aussage transagieren, da die Darstellung einer Aussage (bzw. eines Inhalts) unweigerlich mit dem Medium und seinen Möglichkeiten verknüpft ist. So kann immer nur das jeweilige Zeichensystem verwendet werden, über das das Medium verfügt. Umgekehrt gehen die Autoren davon aus, dass nicht jede Botschaft in jedem Medium präsentiert werden kann und somit eine bestimmte Botschaft ein bestimmtes Medium erforderlich macht. Die Transaktion zwischen Medium und Kommunikator liegt in den Darstellungs- und Wahrnehmungsmodalitäten. So legt beispielsweise das Medium Fernsehen fest, dass ein Informationsinhalt audiovisuell dargestellt werden muss. Gleichzeitig nutzt der Kommunikator (in dem Fall der TV-Journalist) wiederum seine kreativen und technischen Möglichkeiten, um seine Botschaft entsprechend im Medium darzustellen. Die Beziehung zwischen Medium und Rezipient beschreibt Früh (1991) nicht als Transaktion, sondern als Stimulus-Response-Beziehung, da der Rezipient das Medienangebot in der dargestellten Form hinnehmen und entsprechend reagieren muss. So verlangt eine Fernsehsendung, dass der Rezipient diese sowohl über den auditiven als auch über den visuellen Kanal wahrnehmen und in entsprechender Weise rezipieren muss. Zusammenfassend lässt sich damit festhalten, dass der dynamischtransaktionale Ansatz eine Heuristik darstellt, in deren Zentrum sich Rezipient und Kommunikator befinden, die über die Medienbotschaft transaktional in Beziehung stehen. Beide Positionen setzen spezifische Bedingungen im Kommunikations- und Wirkungsprozess. Dabei handelt es sich um einen multikausalen Ansatz, d.h. der Ansatz postuliert zwar kausale Zusammenhänge, allerdings werden die Ursachen für Medienwirkung sowohl in der Medienbotschaft als auch in den im Rezipienten vorhandenen Kognitionen und Affekten gesehen. Die entsprechenden Medienwirkungen sind dann die jeweils vorfindbaren Kognitionen, Affekte und Handlungen (vgl. Früh 1991: 43, erstmals in Schönbach/ Früh 1984). Auf der Grundlage dieser Wirkungsvorstellung lassen sich nun forschungsleitende Implikationen ableiten, deren Ziel es ist, die Theoriebildung dieser Studie zu strukturieren und systematisieren. 2.2 Forschungsleitende Implikationen Da der dynamisch-transaktionale Ansatz komplexe Konstellationen von Wirkungen annimmt, schlägt Früh (1991) vor, ein für analytische Zwecke entwickeltes Modell einzugrenzen und somit die Komplexität des DTA zu verringern. Gleichzeitig betont er, dass die globalere dynamisch-transaktionale Beziehungsstruktur nicht aus dem Blickfeld geraten darf (vgl. Früh 1991: 59). Als unverzichtbar gilt
Forschungsleitende Implikationen
29
das Grundelement „Transaktion“, da bei deren Ausgliederung der heuristische Wert des Ansatzes verloren ginge (vgl. ebd.: 54). Ziel der Studie ist es, dieser Maßgabe gerecht zu werden. Dabei besteht der wesentliche Bezug in der mikroperspektivischen Denkweise des DTA, wobei insbesondere die Grundelemente Rezipient und Medienbotschaft im Mittelpunkt stehen. Der Kommunikator wird zwar in die theoretische Modellierung einbezogen, jedoch können die hier formulierten Ableitungen und Annahmen empirisch nicht überprüft werden. Dies lässt sich mit der zentralen Fragestellung der Studie begründen, die ihren Forschungsfokus auf die Verstehensprozesse der Rezipienten legt. So soll hier zunächst untersucht werden, welcher Zusammenhang zwischen verschiedenen Darstellungsvarianten von TV-Wissenschaftsfilmen und den Verstehensleistungen der Rezipienten besteht. Die Kommunikatoren – hier die TVWissenschaftsredakteure – stehen somit nicht im Zentrum des Forschungsinteresses. Da jedoch gemäß dem DTA sowohl die Rezipienten als auch die Kommunikatoren im Wirkungsprozess relevant sind, werden sie in der theoretischen Konzeption berücksichtigt. Die Ausführungen in den nachfolgenden Kapiteln lassen sich daher wie folgt einordnen, wobei die dynamisch-transaktionale Denkweise für die Entwicklung des Verstehensmodells theoriebildendende und forschungsleitende Funktion übernimmt. So unterliegt das zu entwickelnde Verstehensmodell der Annahme, dass sowohl TV-Wissenschaftsredakteure als auch Rezipienten eine sowohl aktive als auch passive Rolle am Kommunikationsprozess einnehmen und über die TV-Wissenschaftsfilme transaktional in Beziehung stehen. Beide setzen demnach Kommunikations- und Wirkungsbedingungen und sind mit denjenigen des anderen konfrontiert. Dies kann wiederum Einfluss auf den Verstehensprozess der Rezipienten haben. Daher sollen diese Bedingungen herausgearbeitet und auf ihre Relevanz für das Verstehensmodell geprüft werden. Auf Kommunikatorseite ist deshalb von Bedeutung, welchen Einfluss intertransaktionale Beziehungen der Wissenschaftsredakteure auf die Gestaltung von TV-Wissenschaftsfilmen haben. Daher interessiert sich die Studie für die redaktionellen Ziele und das journalistisches Selbstverständnis, was sich in Angebot, in der Struktur und in der Gestaltung von Wissenschaftssendungen niederschlägt. Die zentrale Frage ist, wie wissenschaftliche Themen in Wissenschaftsfilmen vermittelt werden. Mit Bezug auf die molare Perspektive werden die kommunikatorzentrierten Transaktionen auf mehreren Ebenen verortet und hierarchisch eingeordnet. So lässt sich die Darstellung wissenschaftlicher Themen in TVWissenschaftsmagazinen auf Wechselbeziehungen zwischen den Redakteuren und gesellschaftlichen, organisatorischen und individuellen Einflüssen sowie auf (imaginäre) Feedback-Prozesse mit dem Publikum zurückführen (vgl. Kap. 3). Die Ausführungen erheben allerdings nicht den Anspruch, die Gesamtheit aller
30
Der dynamisch-transaktionale Ansatz als Rahmenkonzept
Einflüsse und Zielsetzungen zu erfassen. Vielmehr werden diejenigen Einflüsse dargestellt, die die Autorin auf Basis der Literaturauswertungen für besonders relevant erachtet. Damit soll der Forderung des DTA Rechnung getragen werden, die interessierenden Wirkungszusammenhänge in ihren relevanten Kontexten zu betrachten. Für die Modellierung des Verstehensmodells sind vor allem die Transaktionsvorgänge des Rezipienten und dessen Beziehung zur Medienbotschaft von Bedeutung. Da Verstehen als kognitive Leistung aufgefasst wird, werden solche kognitionspsychologische Theorien bedeutsam, deren Modellannahmen mit den intra-transaktionalen Vorstellungen des DTA vereinbar sind (vgl. Kap. 4). Der Zusammenhang zwischen der Gestaltung von TV-Wissenschaftsfilmen und den Verstehensleistungen der Rezipienten kann darüber hinaus anhand verständlichkeitstheoretischer Befunde aufgearbeitet werden. Diese theoretische Perspektive konkretisiert somit die transaktionale Beziehung zwischen Kommunikator und Rezipient (vgl. Kap. 5). Insgesamt zielt die theoretische Auseinandersetzung darauf, ein Verstehensmodell zu entwickeln, das die Vermittlungsintentionen der Wissenschaftsjournalisten mit den Verstehensleistungen der Rezipienten in Beziehung setzen kann (vgl. Kap. 6). Dieses Verstehensmodell bildet dann die theoretische Grundlage der empirischen Untersuchung, mit der der Einfluss verschiedener Wissenschaftsfilme auf die Verstehensleistungen der Rezipienten analysiert werden soll (vgl. Kap. 7 bis 10).
3 Die Vermittlung von Wissenschaft im Fernsehen
Das folgende Kapitel berücksichtigt die vom DTA postulierten intertransaktionalen Beziehungen und befasst sich mit der Kommunikatorseite der Wissenschaftsvermittlung im Fernsehen. Es soll erläutert werden, welche Einflussfaktoren, die auf die Wissenschaftsredakteure einwirken, für die Vermittlung wissenschaftlicher Themen in deutschen TV-Wissenschaftssendungen relevant sind. Dabei kann gezeigt werden, dass im Laufe der Fernsehgeschichte vor allem gesellschaftliche und medienorganisatorische Einflüsse sowie die subjektiven Publikumsvorstellungen der Journalisten zu unterschiedlichen Darstellungsweisen geführt haben (vgl. Kap. 3.1). Das vorrangige Ziel der heutigen Sendungen ist, wissenschaftliche Informationen und Orientierungshilfen für den Alltag so zu vermitteln, dass sie für den Zuschauer nachvollziehbar und verständlich sind. Dafür werden am häufigsten Wissenschaftsfilme verwendet (vgl. Kap. 3.2), die möglichst verständlichkeitsfördernde und motivationale Gestaltungselemente enthalten (vgl. Kap. 3.3). Gleichzeitig kann gezeigt werden, dass auf Seiten der Rezipienten solche Formate vor allem die Funktion erfüllen, mit „Spaß“ etwas lernen zu können (vgl. Kap. 3.4). Auf Basis dieser Ausführungen lassen sich Wissenschaftsfilme daher als von den Wissenschaftsjournalisten intendierte Vermittlungskonzepte interpretieren, deren Gestaltung je nach Selbstverständnis, Kreativität und Umsetzungsmöglichkeiten der Redaktionen variieren können (vgl. Kap. 3.5). Die redaktionelle Entscheidung darüber, welche Ziele die Wissenschaftsberichterstattung im Fernsehen verfolgen soll, unterliegt einer Vielzahl von Einflussfaktoren, die sich wechselseitig bedingen. Diese Faktoren sind in verschiedenen Modellen zusammengefasst und kategorisiert worden (vgl. u.a. auch Donsbach 1987; Weischenberg 1994; Shoemaker/ Reese 1996; Scholl/ Weischenberg 1998). So identifizieren Shoemaker und Reese (1996) beispielsweise fünf entsprechende Ebenen: (1) die des Individuums, (2) die der Medienroutinen und (3) der Organisation sowie (4) die extramediale und (5) ideologische Ebene. Das aus einer systemtheoretischen Perspektive entwickelte Modell von Weischenberg (1994) führt journalistisches Handeln hingegen auf vier Einflussfaktoren zurück, die in bestimmten Kontexten zueinander stehen. Dabei handelt es sich (1) um die Medienakteure und deren Rollenzusammenhänge und (2) um den funktionalen Zusammenhang der von ihnen produzierten Medienaussagen. Den
32
Die Vermittlung von Wissenschaft im Fernsehen
dritten Einflussfaktor bilden die strukturellen Zusammenhänge der Medieninstitutionen, wobei es sich im Einzelnen um organisatorische, technische, ökonomische und politische Einflüsse handelt. Als vierten Einflussfaktor nennt Weischenberg die gesellschaftlichen Rahmenbedingungen, die sich auf ethische, historische und rechtliche Aspekte beziehen (vgl. Weischenberg 1994). Insbesondere für den vierten Faktor lässt sich zeigen, dass ein Zusammenhang zwischen der gesellschaftlichen Bewertung von Wissenschaft und Technik und der Wissenschaftsberichterstattung besteht. Dieser Zusammenhang führte im Laufe der Zeit immer wieder zu Veränderungen der journalistischen Vermittlungsintentionen. Zugleich wird deutlich, dass die strukturellen Zusammenhänge der Medieninstitutionen des dualen Mediensystems einen weiteren einflussreichen Faktor darstellen (vgl. Freund/ Köck 1994). Dies soll im folgenden Kapitel näher ausgeführt werden. 3.1 Einflüsse und Trends der Wissenschaftsvermittlung Anfang der 1990er Jahre wurde an der Universität Siegen ein Sonderforschungsbereich eingerichtet, der sich der Analyse der Verständlichkeit und Attraktivität von TV-Wissenschaftssendungen widmete (vgl. dazu Köck 1990).7 Im Rahmen dieser Projekte wurde die Entwicklung von Wissenschaftssendungen im deutschen Fernsehen analysiert und die Trends der Wissenschaftsvermittlung nachgezeichnet. Dabei konnte gezeigt werden, dass sich der Zeitraum zwischen den 1950er und 1980er Jahren in drei Hauptphasen der TV-Wissenschaftsberichterstattung unterscheiden lässt und diese Veränderungen vor allem mit der gesellschaftlichen Wahrnehmung und Bewertung von Wissenschaft zusammenhängen (vgl. Freund/ Köck 1994). Mit Bezug auf den dynamisch-transaktionalen Ansatz lässt sich dieser Zusammenhang auch als Ergebnis transaktionaler Beziehungen zwischen Wissenschaftsjournalisten und gesellschaftlichen Subsystemen interpretieren. So zeigt Früh (1991: 73), dass es im jeweiligen situativen Kontext zu transaktionalen Beziehungen zwischen den Kommunikatoren und den Systemen Wirtschaft, Politik, Privatumfeld und Medienpublikum kommt, was wiederum Einfluss auf die Journalisten und deren Medienbotschaft haben kann. Daher erweist sich eine solche Bestandsaufnahme für die vorliegende Studie als relevant, da auf diese Weise eine erste Bewertung und Einordnung journalistischer Vermittlungsintentionen vorgenommen werden kann.
7
Dabei handelt es sich um den DFG-Sonderforschungsbereich „Ästhetik, Pragmatik und Geschichte der Bildschirmmedien“, der sich mit dem Schwerpunkt „Fernsehen in der Bundesrepublik Deutschland“ befasst (vgl. Köck 1990).
Einflüsse und Trends der Wissenschaftsvermittlung
33
Da die Trendbeschreibung von Freund und Köck (1994) mit der Darstellung der 1980er Jahren endet, wird die Entwicklung auf der Grundlage eigener Literaturauswertungen weiter fortgeführt und aktualisiert. Somit lassen sich folgende Berichterstattungsphasen unterscheiden (vgl. Freund/ Köck 1994: 182ff)8: Die 1960er Jahre: Die erste Phase – die Phase der „Wissenschaftseuphorie“ – wurde durch den Sputnik-Schock im Jahr 1957 und der Feststellung eines „technological gap“ zwischen Europa und den USA ausgelöst. Dies führte in Deutschland zur Bildungsreform, die wichtige Voraussetzungen für die Zielsetzung der Chancengleichheit und das „Recht auf Bildung“ schuf.9 Das Fernsehen reagierte darauf auf zweierlei Weise: Zum einen präsentierte es herausragende und sensationelle wissenschaftliche Leistungen insbesondere aus der Raumfahrt. Zum anderen fand eine Pädagogisierung statt. Wissenschaftliche Themen wurden gemäß den neuesten didaktischen Erkenntnissen telegen umgesetzt und für das Laienpublikum möglichst verständlich erklärt. Die 1970er Jahre: Zu Beginn der 1970er Jahre kam es dann zu einem Umbruch, aus dem zwei neue Berichterstattungstendenzen hervorgingen. Diese folgende Phase charakterisieren Freund und Köck als die Phase der „angewandten Wissenschaft und der Wissenschaftskritik“. Einerseits wurde der praktische Nutzen von Wissenschaft und Technik für den Einzelnen in den Vordergrund gestellt, wobei es häufig um Entwicklungen in der Computerbranche oder um alternative Möglichkeiten der Energiegewinnung ging. In dieser Zeit entstanden auch die ersten TV-Ratgebersendungen wie z.B. Gesundheitsratgeber. Andererseits wurde die Wissenschaftsberichterstattung zunehmend kritischer. Mit dem Aufkommen der Anti-Atomkraftwerk-Bewegung und der Formierung der Partei Die Grünen verstärkte sich die Kritik an wissenschaftlichen und technischen Entwicklungen vor allem im Umweltbereich. Allerdings ging es in der Berichterstattung nicht darum, wissenschaftliche Entwicklungen zu reflektieren und vorausschauend zu bewerten. Es war vielmehr so, dass das Fernsehen reaktiv im Sinne eines Verlautbarungsjournalismus berichtete.10 Hinzu kam, dass die Berichterstattung nicht primär von den Wissenschaftsredaktionen, sondern vom Politikressort ausging, so dass die Beiträge oftmals 8
Freund und Köck stützen sich in ihren Ausführungen ebenfalls im Wesentlichen auf die Auswertung von Literaturquellen (vgl. Freund/ Köck 1994: 182). Vgl. dazu auch Dahrendorf (1965). 10 Freund und Köck beziehen sich mit dieser Einschätzung vor allem auf eine empirische Studie von Thorbrietz (1986). 9
34
Die Vermittlung von Wissenschaft im Fernsehen
stark politisiert waren. Wissenschaftsredaktionen gewannen erst mit zunehmender Verbreitung von Wissenschaftsmagazinen und wissenschaftlichen Dokumentationen an Bedeutung. Die 1980er Jahre: Mit dem Aufkommen des dualen Rundfunksystems konstatieren Freund und Köck die dritte Phase der Wissenschaftsberichterstattung: die „InfotainmentPhase“. Durch die zunehmende Konkurrenzsituation zwischen öffentlichrechtlichem und privatem Rundfunk im Dualen System nahm das Unterhaltungsangebot im öffentlich-rechtlichen Fernsehen zu. Klassische Wissenschaftssendungen bedienten sich nun unterhaltender Elemente und neue Sendeformate wie die Knoff-Hoff-Wissenschaftsshow im ZDF gingen auf Sendung. Man folgte der Devise, eine allgemein interessierte Zuschauerschaft anzusprechen und sich nicht mehr nur auf ein speziell interessiertes und hochgebildetes Publikum zu konzentrieren. 1990er Jahre bis heute: Freund und Köcks Phaseneinteilung der TV-Wissenschaftsberichterstattung lässt sich an dieser Stelle weiter fortführen. So kann ab Mitte der 1990er Jahre eine neue Phase konstatiert werden. Nach Beck (1986) befinden wir uns im Übergang von der Industriegesellschaft zu einer Gesellschaftsordnung, die auf Wissen basiert (vgl. Beck 1986; Beck et al. 1996). Mit der Transformation in eine Wissensgesellschaft verlieren industriegesellschaftliche Rollen- und Handlungsmuster ihre Bedeutung. Die Individualisierung nimmt zu und stellt jeden Einzelnen vor eine Vielzahl von Wahlmöglichkeiten. Wissen wird damit zunehmend relevanter, da es die Fähigkeit zum sozialen Handeln erst ermöglicht (vgl. Stehr 2001: 8). Das Verhältnis von Wissenschaft und Menschen verändert sich dahingehend, dass ein Trend zu einer „neuen Wissenschaftlichkeit“ ausgemacht wird. Neben die erkenntnisorientierte moderne Wissenschaft tritt eine Art „postmoderne Wissenschaftsperspektive“, „die von den jeweils geltenden realen gesellschaftlichen Problemlagen ausgeht und Wissen nicht als Erklärung, sondern als Problembewältigungsbeitrag generiert“ (Wersig 1998: 210-211). Vor diesem Hintergrund erlangt wissenschaftliches oder technisches Wissen besondere Bedeutung, da es gerade diese Wissensform ist, „die mehr als jede andere permanent neue Handlungsmöglichkeiten schafft“ (ebd.: 9; kursiv im Original). Damit wird insbesondere wissenschaftliches und technisches Wissen zum gesellschaftlichen Organisationsprinzip und Wissensaneignung zu einem lebenslangen Prozess. Das Fernsehen reagiert darauf, indem es seine Angebote kontinuierlich erweitert und diversifiziert, wobei sich insbesondere die Themenprioritäten verändern. Der Trend geht zunehmend weg von klassischen Wissenschaftsthemen. Die
Einflüsse und Trends der Wissenschaftsvermittlung
35
Zielsetzung scheint vor allem die zu sein, Themen so auszuwählen, dass dem Zuschauer ein praktischer Nutzen aufgezeigt wird. Anscheinend soll das Fernsehen hier eine Reflexionsleistung übernehmen, die den Zuschauer in die Lage versetzt, in potenziell praktischen Kontexten zu handeln und wissenschaftliches Wissen mit dem Alltag zu verbinden. Wissenschaftssendungen kommunizieren damit nicht mehr allein wissenschaftliches Wissen im engeren Sinn, sondern leisten vielmehr Wissenskommunikation, die problemorientiert ist, Zusammenhänge und Entwicklungen darstellt, Abstraktionen sinnlich vermittelt und an die Lebenswelt der Menschen anknüpft, um so Verbindungen zur Kommunikationswelt der Menschen herzustellen (vgl. Wersig 1998: 219). Es geht demnach darum, einen maximalen Nutzwert für die Zuschauer zu generieren. Besonders deutlich scheint der beschriebene Wandel in TV-Wissenschaftsmagazinen hervorzutreten. Durch den anhaltenden Erfolg von Wissenschaftsformaten im Fernsehen haben Wissenschaftsredaktionen einen bedeutenden Aufstieg innerhalb der Fernsehsender erlebt, so dass jede Redaktion heutzutage mindestens ein Wissenschaftsmagazin zu verantworten hat (vgl. Illinger 2006). Durch die Ausweitung des Magazinangebots entwickelte sich eine breite Palette verschiedener Themen und Macharten, die von der klassischen Wissenschaftspopularisierung bis zur wissenschaftlichen Klärung alltäglicher Phänomene reicht (Parastar 2006). Und darin liegt nach Meinung vieler Wissenschaftsredakteure auch der Erfolg der Sendungen begründet: Die Magazine behandeln Themen, die für den Alltag des Zuschauers große Bedeutung haben und mit fast allen gesellschaftlichen Bereichen vernetzt sind (Götz-Sobel 2006: 125). Diese alltagsnahe Ausrichtung erhöht offenbar die Attraktivität der Sendungen für ein Publikum, das sich für rein wissenschaftliche Inhalte sonst nicht zu interessieren scheint. Dokumentiert wird diese Entwicklung dadurch, dass die Magazine zunehmend nicht mehr als Wissenschaftsmagazine, sondern insbesondere von den privaten Anbietern als Wissensmagazine bezeichnet werden. Der wesentliche Unterschied zwischen Wissenschafts- und Wissensmagazin scheint dabei der zu sein, dass in Wissensmagazinen vorwiegend Themen angesprochen werden, die zunächst mit Wissenschaft nichts zu tun haben. Oder aber es werden Themen behandelt, die sich aus Beobachtungen und Fragen des Alltags ergeben (vgl. Albrecht 2006). Auf der Suche nach Antworten gelangt man erst im zweiten Schritt in Wissenschaftsbereiche und zu wissenschaftlichen Experten (vgl. Göpfert 2005). Dadurch geraten die Magazine zunehmend in die Kritik. So erfolgt seitens der öffentlich-rechtlichen Fernsehsender vereinzelt der Vorwurf, dass Wissensmagazine nicht mehr den Kriterien einer Wissenschaftssendung genügen. Sie seien eigentlich Boulevardsendungen, die sich als Wissenschaftssen-
36
Die Vermittlung von Wissenschaft im Fernsehen
dungen „verkleiden“ (vgl. Göpfert 2006b: 182).11 Dagegen wird von den Privaten argumentiert, dass es erst durch diese Art der unterhaltsamen Darstellung gelingt, ein Publikum zu erreichen, das sich sonst wissenschaftlichen Inhalten verweigern würde (vgl. Albrecht 2006). Diese Argumentation führt zu zwei weiteren Einflussfaktoren, die sich für die Veränderung der Wissenschaftssendungen verantwortlich zeigen. Sie lassen sich auf der organisatorischen Ebene der Medieninstitutionen verorten. Früh (1991: 72) bezeichnet dies als vertikale Transaktion und beschreibt damit die Beziehung zwischen dem Kommunikator und dem System Journalismus. So gilt einerseits für die öffentlich-rechtlichen Fernsehanbieter der gesetzliche Programmauftrag des Rundfunkstaatsvertrags und andererseits konkurrieren die Fernsehanbieter im Dualen System um zwei knappe Güter: „Programmerfolg“ und „Finanzierung“ (vgl. Mathes/ Donsbach 2002). Beide Güter haben unmittelbare existenzielle Auswirkungen auf die Redaktionen. Daher gilt es vor allem für die öffentlich-rechtlichen Fernsehanstalten, ein Gleichgewicht zwischen Programmauftrag und Publikumserfolg herzustellen (vgl. dazu auch Kiefer 1997).
Wissenschaftssendungen als Programmauftrag Der öffentlich-rechtliche Rundfunk in Deutschland ist wie auch in vielen anderen Ländern nach dem britischen Vorbild als public service broadcasting organisiert (vgl. Meyer 1997). Er steht also im Dienst der Öffentlichkeit und wird über eine dem Rundfunkteilnehmer gesetzlich auferlegte Gebühr finanziert. Daher untersteht er bestimmten gesellschaftlichen Zielsetzungen (vgl. Kiefer 1997). So ist er mit seinen Rundfunkprogrammen für die Grundversorgung verantwortlich.12 Zur Grundversorgung wird u. a. der programmliche Aspekt gezählt, der dem klassischen Rundfunkauftrag entspricht und damit der Information, Unterhaltung, Beratung und Bildung der bundesdeutschen Bevölkerung dienen soll. Diese Programmgrundsätze sind sowohl im Rundfunkstaatsvertrag als auch in den Rundfunkgesetzen der Länder verankert. Sie gelten auch für den privaten Rund-
11 12
Vgl. dazu auch Smiljanic (2006). Der Begriff „Grundversorgung“ geht auf das 4. Fernsehurteil des Bundesverfassungsgerichts zur Situation des öffentlich-rechtlichen Rundfunks im dualen Rundfunksystem aus dem Jahr 1986 zurück. Nach diesem Urteil wird der öffentlich-rechtliche Rundfunk dazu verpflichtet, mit seinem Programmangebot der demokratischen Ordnung und dem kulturellen Leben in der Bundesrepublik gerecht zu werden. Das Programmangebot des öffentlich-rechtlichen Rundfunks ist damit verpflichtet, Meinungsvielfalt im Sinne der verfassungsrechtlichen Weise herzustellen (vgl. dazu in Schulz et al. (o.J.): Leitentscheidungen des BVerGE 73, 118 sowie Eckhardt 1998).
Einflüsse und Trends der Wissenschaftsvermittlung
37
funk, sofern diese Vollprogramme ausstrahlen.13 Die Einhaltung der Programmgrundsätze wird durch unterschiedliche Aufsichtsgremien gewährleistet. Für die privaten Rundfunkanstalten sind die jeweiligen Landesmedienanstalten zuständig14, beim öffentlich-rechtlichen Rundfunk sind es die Rundfunkräte (Mathes/ Donsbach 2002). Mit der Ausstrahlung von Wissenschaftssendungen folgen die öffentlichrechtlichen Rundfunkanstalten zwar dem Postulat des Bildungsfernsehens, gehen aber über das „formelle Bildungskonzept“ hinaus, das viele Bildungssendungen kennzeichnet.15 Wissenschaftssendungen werden vielmehr allgemeiner unter den Begriffen Bildung, Wissen und Beratung gefasst und zielen darauf ab, das Konzept des „lebenslangen Lernens“ zu vermitteln (vgl. ARD 2006: 60). Wichtiger Grundsatz dieser Sendungen ist, dem Zuschauer zusätzlich zum Erkenntnisgewinn die Möglichkeit zu bieten, sich Hintergrundwissen anzueignen und einen persönlichen Nutzwert aus den Informationen zu ziehen. Ziel ist es, auf Grundlage wissenschaftlicher Erkenntnisse und Forschung alltagsnahe Orientierungshilfen anzubieten. Diese Prämissen werden sowohl in den Programmleitlinien der ARD-Anstalten als auch in denen des Zweiten Deutschen Fernsehens formuliert (vgl. ARD 2004; 2006; ZDF 2006).16 Dementsprechend ist Ranga Yogeshwar davon überzeugt, dass die wesentliche Aufgabe von Wissenschaftsmagazinen darin besteht, Wissenschaft darzustellen „[…] und der Bevölkerung Bildung und Orientierung zu ermöglichen“ (Göpfert 2006b: 183).17 Dennoch obliegt die Umsetzung der Programmgrundsätze den einzelnen Wissenschaftsredaktionen, denen bei der Auswahl und Umsetzung von wissenschaftlichen Themen ein großer Gestaltungsspielraum eingeräumt wird (vgl. auch Sucher 2004; Albrecht 2006; Götz-Sobel 2006). Jedoch entscheidet nicht nur der gesetzliche Programmauftrag darüber, welches Sendungsprofil eine Wissenschaftssendung erhält. Als Wirtschaftsunternehmen müssen sowohl die privaten als auch die öffentlich13
Für den öffentlich-rechtlichen Rundfunk gilt der im Rundfunkstaatsvertrag formulierte Bildungsauftrag des §11, für den privaten Rundfunk §41 (vgl. Staatsvertrag 2007). Die Programmkontrolle der Landesmedienanstalten ist allerdings beschränkt, denn sie dürfen nicht in die Programmautonomie der privaten Rundfunkanbieter eingreifen. So werden bei Verstößen häufig Verwarnungen ausgesprochen, weitergehende Sanktionen kommen jedoch kaum zur Anwendung (vgl. Mathes/ Donsbach 2002). 15 Dem „formellen Bildungskonzept“ entsprechen Sendungen wie „Telekolleg“, „Schulfernsehen“ oder „Sprachlehrprogramme“. Solche Sendungen sind meistens institutionalisiert und definieren ein bestimmtes, abprüfbares Lernziel. Mit erfolgreichem Bestehen des Telekollegs kann der Zuschauer die Mittlere Reife oder Fachoberschulreife erlangen (vgl. Meyer 1994; Porr 2000). 16 Entsprechende Leitlinien werden von den privaten Fernsehanbietern nicht formuliert bzw. nicht öffentlich zugänglich gemacht. Daher können sich die Ausführungen hier nur auf die Prämissen der öffentlich-rechtlichen Fernsehsender beziehen. 17 Ranga Yogeshwar ist Leiter und Moderator der Wissenschaftsmagazine Quarks & Co (WDR) und W wie Wissen (ARD/ Das Erste, bis Ende 2007). 14
38
Die Vermittlung von Wissenschaft im Fernsehen
rechtlichen Rundfunkanstalten ihr Bestehen sichern. Dies soll erreicht werden, indem erfolgversprechende Sendungskonzepte entwickelt werden.
Wissenschaftssendungen als Konsumgut Vor allem die privaten Fernsehsender müssen rentable Programme produzieren, da sie sich aus Werbegeldern finanzieren. Daher zielen sie darauf ab, ein möglichst massenattraktives Programm anzubieten, um ausreichend Zuschauer der angestrebten Zielgruppe erreichen und binden zu können. Damit soll die Sendung für Werbetreibende attraktiv werden. Prinzipiell gilt die Massenattraktivität auch für die öffentlich-rechtlichen Sender, da jeder Zuschauer GEZGebühren zahlen muss und daher Anspruch auf ein adäquates Fernsehprogramm hat. Demnach befinden sich die Wissenschaftssendungen in einer ständigen Konkurrenzsituation um die Gunst der Fernsehzuschauer, die sich den Fernsehsendungen (in der Regel) freiwillig aussetzen (vgl. Sucher 2004; Schneider 2005). Allerdings entscheidet nicht nur die „Quote“ allein, ob eine Sendung erfolgreich ist, sondern auch ihr Image. So hängt der Verkauf eines Werbeplatzes in der Werbepause davon ab, wie attraktiv das Programmumfeld ist. Dabei werden Ausstrahlungseffekte von der Sendung auf die beworbenen Produkte angenommen (vgl. auch Brosius/ Fahr 1998). So schätzen beispielsweise die Werbekunden der täglichen ProSieben-Wissenssendung „Galileo“ deren seriöses Image (vgl. Albrecht 2006: 132). Zwar stehen die öffentlich-rechtlichen Fernsehsender nicht in dem Maße wie die Privaten unter „Quotendruck“, dennoch werden auf einzelnen Sendeplätzen bestimmte Zielvereinbarungen getroffen, die die Redaktionen zu erfüllen haben (vgl. Götz-Sobel 2006). Daher ist man bemüht, Wissenschaftssendungen mit „erkennbaren Qualitäten“ zu entwickeln, die eindeutige und klare Formatprofile mit hohem Wiedererkennungswert enthalten. Es geht darum, dem Zuschauer sowohl einen hohen Erlebniswert zu bieten als auch redaktionelle Wissenskompetenz zu vermitteln (vgl. Hallet/ Yogeshwar 2006; Götz-Sobel 2006). Insgesamt scheint sich somit die Vielzahl unterschiedlicher Wissenschaftsmagazine sowohl auf gesellschaftliche als auch auf medienorganisatorische bzw. strukturelle Rahmenbedingungen zurückführen zu lassen, wobei der Erfolg der Formate anhand relativ hoher und stabiler Zuschauerzahlen festgemacht wird. Nach Ansicht der Fernsehsender hat dieser Zuschauererfolg jedoch nichts mit dem häufig postulierten wachsenden Wissenshunger zu tun, den der „PISASchock“ vermeintlich ausgelöst hat. Vielmehr belegen die Reichweiten laut
Einflüsse und Trends der Wissenschaftsvermittlung
39
Hendrik Hey18, dass sich das Publikum schon immer für Wissensformate interessiert hat. Allerdings, so Hey, fehlte es bislang an (massen)attraktiven Formaten.19 Erst mit dem Aufkommen der privaten Fernsehsender versuche man, Wissenschaftsthemen mit „Spaß und Spannung“ zu kombinieren (vgl. Mansmann 2005).20 Auf dieser Grundlage lässt sich auch das Zustandekommen der fünf unterschiedlichen Typen der Wissenschaftsberichterstattung von Meier (2006) erklären, die er als die „fünf Welten des Wissenschaftsjournalismus“ charakterisiert (vgl. im Folgenden Meier 2006: 37ff): 1. Wissenschaftsberichterstattung im traditionellen und engeren Sinn (wie sie z.B. im TV-Wissenschaftsmagazin „nano“ auf 3sat zu sehen ist), 2. Themen aus der aktuellen Medienagenda (Hintergrundberichte und Erklärungen anlässlich aktueller Ereignisse, wie z.B. der Bundestagsdebatte zur Stammzellforschung oder zum Tsunami), 3. Wissensvermittlung als Spaß und Unterhaltung (so z.B. einige Beiträge im TV-Wissensmagazin „Galileo“ auf ProSieben oder die SAT.1-Wissensshow „Clever!“), 4. Beiträge mit Nutzwert, Rat und Orientierung (z.B. Themen aus Medizin, Psychologie oder Pädagogik werden alltagstauglich präsentiert) sowie 5. zielgruppenorientierter Wissenschaftsjournalismus (z.B. Fachzeitschriften wie der „Journalist“, die sich an eine spezielle Berufsgruppe wenden). Hier handelt es sich jedoch nicht um exklusive Berichtstypen. Vielmehr werden sie häufig miteinander kombiniert, so dass einzelne TV-Beiträge oder ganze Sendungen Mischformen darstellen. Je nach redaktionellem Selbstverständnis kommt mal dem einen, mal dem anderen Typ ein stärkeres Gewicht zu (vgl. Meier 2006: 43). Mit den fünf Trends eng verbunden sind die journalistischen Zielsetzungen, die die Wissenschaftsredaktionen und Wissenschaftsjournalisten vertreten. So sehen nach einer Studie von Meier/ Feldmeier (2005: 211ff) Wissenschaftsjournalisten ihre zentralen Aufgaben darin,21 1. über Fakten zum Stand der wissenschaftlichen Entwicklung zu informieren (100%),
18
Hendrik Hey ist Moderator und Produzent des RTL II-Wissenschaftsmagazins „Welt der Wunder“. Diese Ansicht vertritt auch Peter Arens vom ZDF (vgl. Arens 2006). Zwar gab es auch in den öffentlich-rechtlichen Fernsehprogrammen einige Formate, die Wissenschaft spielerisch präsentierten, so z.B. die Knoff-Hoff-Show mit Joachim Bublath. Allerdings bildeten solche Formate eher die Ausnahme (vgl. Neumann-Bechstein 1997). 21 In der Studie wurden 35 Wissenschaftsjournalisten befragt. Die jeweils in Klammern angegebenen Prozente stellen den Anteil der Zustimmung der Wissenschaftsjournalisten dar. Dabei handelt sich um Mehrfachnennungen. 19 20
40
Die Vermittlung von Wissenschaft im Fernsehen
2. aktuelle politische, ethische oder wirtschaftliche Debatten zu wissenschaftlichen Themen einzubeziehen (94%), 3. wissenschaftliche Institutionen und Projekte kritisch zu analysieren und zu bewerten (89%), 4. zur Anregung und Unterhaltung beizutragen (86%) sowie 5. praktische Ratschläge und Orientierungshilfen zu geben (83%).22 Obwohl Faktenvermittlung demnach immer noch als die wichtigste Aufgabe angesehen wird, kennzeichnet sich das Selbstverständnis der Wissenschaftsjournalisten nicht mehr nur durch das Postulat des Wissenstransfers. Vielmehr zeigt sich, dass sich die journalistischen Vermittlungsintentionen ausdifferenziert haben und sowohl Faktenvermittlung als auch Orientierung, Unterhaltung und Beratung Bestandteile der Wissenschaftsberichterstattung sind. Insgesamt ist deutlich geworden, dass Wissenschaftsberichterstattung im Fernsehen vielfältigen Einflüssen unterliegt, die das Ergebnis transaktionaler Prozesse zwischen gesellschaftlichen Rahmenbedingungen, strukturellen Bedingungen der Medienorganisationen und individuellen Einstellungen der Wissenschaftsjournalisten zu sein scheinen. Dabei wird sich zunehmend an den (imaginären) Bedürfnissen der Zuschauer orientiert. So sind Wissenschaftsjournalisten häufig der Überzeugung, dass Wissenschaftsberichterstattung nicht mehr nur reine Faktenvermittlung sein soll. Es geht vielmehr darum, Wissen zu vermitteln, mit dem eine kritische und reflektierte Haltung gegenüber der Wissenschaft gefördert werden kann. Zudem sollen Informationen präsentiert werden, die den Zuschauern in ihrem alltäglichen Leben nützlich sein können. In welcher Form dieses Wissen tatsächlich gestaltet wird, wird in den folgenden Kapitel 3.2 „Angebot und Struktur von Wissenschaftssendungen“ und 3.3 „Formale und inhaltliche Gestaltung von Wissenschaftssendungen“ gezeigt. Im Mittelpunkt der Betrachtungen stehen dabei Wissenschaftsmagazine, da insbesondere dieses Format darauf zielt, wissenschaftliche Themen, deren Zusammenhänge und Hintergründe nachvollziehbar und verständlich zu vermitteln (vgl. dazu Freund 1990a; 1990b). 3.2 Angebot und Struktur von Wissenschaftssendungen Waren Wissenschaftssendungen zunächst eine Domäne der öffentlichrechtlichen Fernsehsender, zeigt sich heute, dass die Sendungen mittlerweile 22
Die Statements wurden in einer Berufsfeld-Analyse erhoben. Von den 35 Wissenschaftsjournalisten arbeiten allerdings nur acht in einer Fernsehredaktion (vgl. Meier/ Feldmeier 2005). Zu ähnlichen Ergebnissen kommen u.a. auch Hömberg (1989); Göpfert/ Schanne (1998); Blöbaum et al. (2004) sowie Milde/ Hölig (2008).
Angebot und Struktur von Wissenschaftssendungen
41
auch im Privatfernsehen etabliert sind.23 Diese Entwicklung lässt sich anhand der Programmstrukturanalysen von Krüger (2001) nachvollziehen, die belegen, dass der „Wissenschaftsboom“ Mitte der 1990er Jahre einsetzte (vgl. Abb. 2). Den stärksten Zuwachs verzeichnen ProSieben und ZDF, gefolgt von ARD/ Das Erste. Zudem wird deutlich, dass ARD/ Das Erste und ZDF bereits Anfang der 1990er Jahre ein ähnlich hohes Sendeniveau aufweisen. Insgesamt sendet das deutsche Fernsehen mittlerweile täglich rund 10 Stunden Wissenschaftsprogramm (vgl. Sucher 2004; Göpfert 2006a).24
3 2,5
ARD/ Das Erste
ZDF
RTL
SAT.1
Sendedauer in %
ProSieben 2 1,5 1 0,5 0 1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
Jahre
Abbildung 2: Entwicklung der Technik- und Wissenschaftssendungen (Basis: Sendevolumen) (vgl. Krüger 2001: 109; eigene Darstellung)25 23
Einen kurzen Überblick über die Entwicklung der Wissenschaftssendungen im öffentlichrechtlichen Fernsehen gibt Hömberg (1989: 50ff). 24 Es kann jedoch nicht geklärt werden, auf welcher Grundlage dieser Wert berechnet wurde. 25 Leider kann hier nur die Entwicklung über den Zeitraum von 1991 bis 2000 nachverfolgt werden. Obwohl die Programmstrukturanalysen jährlich fortgeführt werden, können keine aktuelleren Daten ausgewiesen werden. Die Berichterstattung der Programmstruktur erfolgt jedes Jahr mit unterschiedlichen Darstellungsschwerpunkten, so dass seit dem Jahr 2001 kein weiteres öffentlich zugängliches Datenmaterial in dieser Form zur Entwicklung von Technik- und Wissenschaftssendungen vorliegt.
42
Die Vermittlung von Wissenschaft im Fernsehen
Die Bandbreite verschiedener Wissenschaftsformate ist groß. Im Vergleich zu neueren Sendungsformen wie etwa das Living-Science-Format „Steinzeit – Leben vor 5000 Jahren“ der ARD dominieren jedoch noch die klassischen Formate ‚Dokumentation‘ und ‚Magazin‘, wobei das Magazin das erfolgreichere von beiden ist (vgl. Krüger/ Zapf-Schramm 2007). So stieg die Anzahl der Wissensund Wissenschaftsmagazine bei den öffentlich-rechtlichen Fernsehprogrammen über den Zeitraum von 2000 bis 2006 nochmals von zehn auf vierzehn Angebote (vgl. Blödorn 2006). Heutzutage verfügt nahezu jedes Vollprogramm und jeder Nachrichtenspartenkanal im deutschen Fernsehen über mindestens eine Wissensbzw. Wissenschaftssendung. Eine aktuelle Bestandsaufnahme erfasst 28 Wissenschaftsmagazine, die laut AGF/ GfK-Codierung26 wissenschaftliche Wissensinhalte präsentieren (siehe Anhang). So werden neben den vierzehn Sendungen des öffentlich-rechtlichen Fernsehens elf auf den privaten Kanälen gesendet und weitere drei Magazine sind auf N24 zu sehen. Damit bieten öffentlich-rechtliche und private Fernsehsender nahezu die gleiche Anzahl an. Am häufigsten werden die Magazine im vorabendlichen Hauptprogramm oder in der späten Prime Time gesendet - einige von ihnen sogar täglich, wie zum Beispiel „nano“ auf 3Sat, „Galileo“ auf ProSieben oder „Abenteuer Leben“ auf Kabel 1. Ursprünglich geht das Magazinformat auf das kommerzielle Werbefernsehen der USA in den 1950er Jahren zurück. Erst später wurden politische oder kulturelle Themen als bestimmende Sendungselemente relevant (vgl. Schumacher 1994; Buhmann 1995). Ab den 1960er Jahren adaptierte dann das öffentlich-rechtliche Fernsehen dieses Format für den deutschen Fernsehmarkt und erweiterte es kontinuierlich um weitere Themenbereiche (vgl. Ilsmann/ Kirpal 2005: 115f). Aktuelle Programmstrukturanalysen zeigen, dass Magazine mittlerweile den Hauptanteil des Informationsangebots im deutschen Fernsehen ausmachen (vgl. Krüger/ Zapf-Schramm 2007: 173).27 Besonderes Kennzeichen des Magazinkonzepts ist das „Reihen-“ und „Baukastenprinzip“ (vgl. Kreutz et al. 1998). Magazine werden regelmäßig auf einem festen Sendeplatz gesendet (Reihenprinzip) und setzen sich aus verschiedenen Einzelbeiträgen zusammen (Baukastenprinzip) (vgl. dazu auch Hömberg 1987; Wegener 2001). Buhmann charakterisiert das Magazinkonzept als „[a]dditive, in sich selbständige Prog26
Die Arbeitsgemeinschaft Fernsehforschung (AGF) ist ein Zusammenschluss der Sender ARD, ProSiebenSat.1 Media AG, RTL und ZDF, die gemeinsam die kontinuierliche quantitative Fernsehzuschauerforschung in Deutschland durch die Gesellschaft für Konsum- und Marktforschung (GfK) durchführen lassen. Ein gemeinsamer Codeplan ist für alle TV-Sender bindend. Quelle des Sendungscodes: SWR Medienforschung/ Programmstrategie (vgl. dazu auch AGF 2008). 27 Die Programmstrukturanalyse erfasst die Sender ARD/Das Erste, ZDF, RTL, SAT.1 und ProSieben über den Zeitabschnitt von 03:00 bis 03:00 Uhr für das jeweils aktuelle Jahr. Untersucht werden Programmsparten, Sendungsformen und inhaltliche Schwerpunkte der Sendungen (vgl. Krüger/ Zapf-Schramm 2007: 166).
Angebot und Struktur von Wissenschaftssendungen
43
rammsegmente - unterbrochen vom Kopf („talking head“) des Medienpersonals auf dem Schirm - […]“, der dem Zuschauer die durchlaufende Struktur einer Gesamtsendung signalisiert (Buhmann 1995: 28; siehe auch Kreutz 1995). Ein Moderator übernimmt also jeweils die Aufgabe, das Magazin zu strukturieren und einzelne Beiträge miteinander zu verbinden, um die Orientierung des Zuschauers zu unterstützen (vgl. Götz-Sobel 2006). Das zentrale Element in Wissenschaftsmagazinen ist der Filmbericht, der zu der Filmgattung „Wissenschaftsfilm“ gezählt werden kann (vgl. Kandorfer 2003). Er dominiert das Magazin (vgl. Scholz/ Göpfert 1998; Hömberg/ Yankers 2000). Ursprünglich dienten Wissenschaftsfilme dazu, wissenschaftliche Phänomene sichtbar zu machen, die der Mensch mit bloßem Auge nicht erkennen kann. Sie entstanden zu Beginn des 20. Jahrhunderts und waren als Forschungsfilm oft auch Teil wissenschaftlicher Experimente (vgl. Curtis 2005). Das wohl prominenteste Beispiel für einen Forschungsfilm ist die Dokumentation des Stanford Prison Experiments von Zimbardo aus dem Jahr 1971.28 Gleichzeitig wird der Wissenschaftsfilm als Instruktions- und Lehrfilm in der akademischen Aus- und Weiterbildung eingesetzt (vgl. Wulff 2006). Bei den Auftraggebern und Produzenten von Wissenschaftsfilmen handelt es sich in der Regel um wissenschaftliche Institute und Fachgesellschaften oder die forschende Industrie. Demnach werden die Filme vor allem zur Ausbildung von Studenten verwendet, auf Kongressen vorgeführt oder potentiellen Kunden im Internet bereitgestellt. Allerdings stehen oftmals nur begrenzte finanzielle Mittel zur Verfügung, worunter dann die professionelle Umsetzung leidet: Die Filme werden weder didaktisch durchdacht noch dramaturgisch umgesetzt (vgl. Kandorfer 2003). Der wesentliche Unterschied zwischen einem wissenschaftlichen Lehrfilm und einem Wissenschaftsfilm im Fernsehen ist, dass das Fernsehen ein breites, unspezifisches Publikum ansprechen soll, das sich wissenschaftlichen Fernsehsendungen vor allem freiwillig aussetzt. Daher ist man bemüht, Themen sowohl didaktisch als auch dramaturgisch ansprechend umzusetzen. Sie sollen für den Fernsehzuschauer leicht verständlich und attraktiv sein (vgl. Neumann-Bechstein 1997; Meier 2006). Vorreiter dieser Art der Wissenschaftsberichterstattung war der Fernsehprofessor Heinz Haber. Es folgten ihm prominente Filmemacher und Moderatoren wie Hoimar von Ditfurth, Bernhard Grzimek oder Heinz Sielmann. Heute zählen u.a. Joachim Bublath, Ranga Yogeshwar, Aiman Abdallah oder Hendrik Hey zu den bekanntesten (vgl. Voigt 2003; Sucher 2004). Wissenschaftsfilme im Fernsehen werden vor allem als Dokumentationen oder Filmberichte konzipiert (vgl. Voigt 2003; Kandorfer 2003). Die Dokumentation (oder auch das Feature) ist dabei mit einer Dauer von 30 bis 45 Minuten 28
Vgl. dazu auch Reichert (2005).
44
Die Vermittlung von Wissenschaft im Fernsehen
das länger andauernde Format. Ziel einer Dokumentation ist, in deskriptiver Weise möglichst objektiv und sachlich zu informieren. Das Feature - ein Spezialtyp der Dokumentation - ist weniger sachlich gehalten. Hier wird mit Hilfe von Beispielen, Fallschilderungen und Zitaten ein problematischer Sachverhalt umfassend und vollständig analysiert (vgl. Witzke/ Ordolff 2005; Renner 2006). Allerdings wurde die Dokumentation in den letzten Jahren mehr und mehr an den Rand des Fernsehprogramms verdrängt. Mittlerweile werden viele Sendungen erst nach 23 Uhr ausgestrahlt (vgl. Wolf 2003: 65). Daher sind sie kaum geeignet, dem Vorsatz zu genügen, ein breites und unspezifisches Fernsehpublikum regelmäßig zu erreichen. Sehr viel erfolgreicher ist dagegen der Filmbericht im Wissenschaftsmagazin. Im Vergleich zur Dokumentation bzw. zum Feature ist der Filmbericht kürzer und widmet sich meistens einem (zumindest latent) aktuellen Thema (vgl. Hömberg/ Yankers 2000). Da die Dauer der Magazine zwischen 30 und 60 Minuten variiert, enthalten sie durchschnittlich drei bis sieben Filmberichte mit einer Länge von fünf bis fünfzehn Minuten (vgl. Freund/ Köck 1994; Albrecht 2006). Mit den Filmberichten sollen Sachverhalte erläutert und Hintergrundinformationen geliefert werden, was häufig mit Hilfe von O-Tönen geschieht. Zentrales Kennzeichen des Filmberichts ist die persönliche Herangehensweise des Autors: Bilder, Texte und Schnitt entstehen nach seinen Vorstellungen (vgl. Ordolff 2005b; Schönenborn/ Strempel 2006). Allerdings sind Aufbau und Dramaturgie der einzelnen Filmberichte bzw. der Gesamtsendungen häufig an Dokumentationen und Features angelehnt, so dass eine Beitragsmischform entsteht. Ziel ist dabei, Authentizität herzustellen, Interesse zu wecken und die Aufmerksamkeit der Zuschauer zu binden (vgl. Heller 1994; Albrecht 2006; Parastar 2006). Welche motivationalen und formalen Mittel dazu verwendet werden, wird im folgenden Kapitel erläutert. 3.3 Die Gestaltung von Wissenschaftssendungen Bei der Gestaltung von Wissenschaftssendungen besteht in den Redaktionen ein grundlegender Anspruch, wissenschaftliche Themen nachvollziehbar darzustellen und komplexe Zusammenhänge verständlich zu machen. Gleichzeitig sollen die Themen attraktiv und spannend umgesetzt werden (vgl. Bullion 2004; GötzSobel 2006; Albrecht 2006). Dies hat höchste Priorität. Dabei wird besonders auf Dramaturgie, Aufbau und Schlüssigkeit sowohl bei der Gesamtsendung als auch bei den einzelnen Wissenschaftsfilmen geachtet (vgl. Ordolff 2005a). Zahlreiche Handbücher zum Fernseh- und Wissenschaftsjournalismus erläutern dazu ausführlich, welche Aspekte es zu berücksichtigen gilt (vgl. Ordolff 2005a; Schult/
Die Gestaltung von Wissenschaftssendungen
45
Buchholz 2006; Göpfert 2006c). Im Einzelnen handelt es sich dabei um die Berücksichtigung von formal-verständlichen Gestaltungselementen, geeigneten Bildmotiven und Visualisierungen, dramaturgischen Elementen und Filmkonzepten sowie eines rezipientenorientierten Themenspektrums.
Formal-verständliche Gestaltungselemente Beim formal-verständlichen Filmaufbau geht es vor allem darum, einen Text zu verfassen, den ein Zuhörer leicht nachvollziehen kann. Die Handbücher empfehlen dazu, auf Satzlänge, Formulierungsstil und Grammatik zu achten. Zugleich sollen Bilder und Kameraführung so eingesetzt werden, dass sie die Verständlichkeit des Textes unterstützen oder auch ohne Text eindeutig und verständlich sind. Die Annahme ist, dass es sich positiv auf die Verstehensleistung der Zuschauer auswirkt, wenn sich Text und Bild aufeinander beziehen. Dabei wird empfohlen, die Bilderfolge ästhetisch zu schneiden und den Text rhetorisch klar und einleuchtend zu formulieren und zu gliedern. Es gilt, möglichst anschaulich in den Beitrag einzusteigen und am Schluss prägnant zu enden. Wichtig ist zudem, die Texte zu pointieren und verwendete O-Töne an- und abzutexten, damit der Zuschauer den Zweck der Aussage nachvollziehen kann (vgl. Ordolff/ Wachtel 2004; Ordolff 2005a; Schult/ Buchholz 2006). Anhand von Inhaltsanalysen stellen Göpfert (1996) bzw. Scholz und Göpfert (1998) in diesem Zusammenhang fest, dass die Magazinbeiträge im Laufe der Zeit – zumindest in sprachlicher Hinsicht – verständlicher geworden sind. So werden im Jahr 1997 wesentlich weniger Fachtermini verwendet als noch 1992.29 Der Abstimmung von Text und Bild wird ebenfalls mehr Sorgfalt entgegen gebracht, da weniger Text-Bild-Scheren auftreten, die die Verständlichkeit von Filmbeiträgen senken können (vgl. dazu Wember 1983). Allerdings hat sich die Anzahl der visuellen Reize erhöht. Es werden schnellere Schnitte und Schnittfolgen verwendet und häufiger unterschiedliche Kameraeinstellungen und Perspektivwechsel vorgenommen, was wiederum zu höheren kognitiven Anforderungen und damit zu geringerer Verständlichkeit führen kann. Tendenziell zeigt sich zudem, dass die Privatsender ihre Bildfolgen schneller und dynamischer präsentieren als die öffentlich-rechtlichen Magazine (vgl. Hömberg/ Yan29
Göpfert (1996) vergleicht anhand einer Inhaltsanalyse deutsche und britische Wissenschaftssendungen, wobei er sowohl Wissenschaftsmagazine als auch andere Wissenschaftsformate berücksichtigte. Die Nachfolgestudie aus dem Jahr 1998 wurde dann mit den Daten der ersten 1996erStudie als Langzeitstudie mit den zwei Messzeitpunkten 1992 und 1997 konzipiert. Sie vergleicht deutsche Wissenschaftssendungen öffentlich-rechtlicher und privater Anbieter (vgl. Scholz/ Göpfert 1998).
46
Die Vermittlung von Wissenschaft im Fernsehen
kers 2000). Weitere medienspezifische Gestaltungsmittel stellen Zeitlupe oder Zeitraffer, Bildverfremdungen, extreme Kameraführungen und Wiederholungen dar (vgl. Scholz/ Göpfert 1998).
Bildmotive und Visualisierung Ein weiteres zentrales Gestaltungselement ist die Verwendung von möglichst attraktivem Bildmaterial. Häufig ist es bei der Vorbereitung eines Wissenschaftsfilmes so, dass die Recherchen beim Bildmaterial beginnen. Lässt sich das Thema bildlich nicht umsetzen, wird im Zweifelsfall darauf verzichtet. Erst wenn die bildorientierte Recherche positiv ausfällt, erfolgt die Inhaltsrecherche (vgl. Albrecht 2006: 135; vgl. auch Freund 1990a; 1990b). Zu einer attraktiven Bildgestaltung zählt eine aufwendige Ästhetik, die durch besonderes Licht, ungewöhnliche Blickwinkel oder aufwendige Inszenierungen hervorgerufen werden kann (vgl. Götz-Sobel 2006; Albrecht 2006; Parastar 2006). Abläufe oder Zusammenhänge wissenschaftlicher Vorgänge werden häufig anhand von Computeranimationen, Graphiken oder Trickfilmen z.B. in Form von Simulationsflügen durch DNA-Sequenzen dargestellt (vgl. Ordolff 2005a: 236-238; Trumbo 2000). Klassische Bildmotive wie Labor, Kanülen, Mikroskopaufnahmen oder Wissenschaftler im weißen Kittel gelten zwar als unattraktive Darstellungen (vgl. Milde/ Hölig 2009), sie werden aber dennoch insbesondere bei klassischen Wissenschaftsthemen häufig verwendet (vgl. dazu Leonarz 2006).
Dramaturgische Elemente und Filmkonzepte Wissenschaftsfilme werden häufig in einem sachlich-informativen Stil präsentiert, bei dem weitestgehend auf anregende und motivationale Stilelemente verzichtet wird (vgl. Scholz/ Göpfert 1998). Allerdings setzen sich seit einigen Jahren immer mehr Filmkonzepte durch, die die Wissensinhalte nicht einfach nur „dozieren“. Vielmehr soll der Zuschauer in das Geschehen einbezogen werden, indem insbesondere schwierige Themen anhand einer spannenden Geschichte erläutert werden. Für eine gute Geschichte gilt, dass sie einen durchgängigen Spannungsbogen enthält (vgl. Dähn 2006). Dafür dienen mitunter Spielfilme oder Krimis als Vorbild. Oder aber es wird eine Frage oder ein Rätsel formuliert, das es zu lösen gilt. Dabei wird häufig auch Musik eingesetzt. Das Ziel solcher dramaturgischen Darstellungen ist, Emotionen, Betroffenheit und Identifikation auszulösen, da die Redakteure annehmen, dass erst dann die Zuschauer bereit sind, die dargebotenen Sachinformationen aufzunehmen (vgl. Parastar 2006).
Die Gestaltung von Wissenschaftssendungen
47
Ein weiteres bedeutendes dramaturgisches Element ist die Personalisierung. Dazu werden Handlungsträger eingesetzt, die im Mittelpunkt der Wissenschaftsfilme stehen und sich häufig anhand von O-Tönen äußern (vgl. Hömberg/ Yankers 2000; Wegener 2001). Dabei werden die O-Töne der Interviews vorab gedreht und die Fragen des Reporters später beim Filmschnitt durch entsprechende Bilder ersetzt. Ein Off-Sprecher verbindet dann die einzelnen Interviewantworten (vgl. Renner 1994). Zu den häufigsten Handlungsträgern gehören Wissenschaftler, Mediziner oder andere Experten. Die zweite wichtige Gruppe bilden Privatpersonen, wobei diese in der Regel betroffene Personen, Patienten und/oder deren Angehörige sind. Hömberg und Yankers (2000) konnten zeigen, dass bei den öffentlich-rechtlichen Sendungen eher Wissenschaftler und praktizierende Ärzte vorkommen, während die privaten Sender vermehrt betroffene Privatpersonen einsetzen. Gerade bei Medizinthemen halten die Wissenschaftsredakteure es für wichtig, Patienten in den Mittelpunkt der Filme zu rücken (Albrecht 2006: 141). Grundsätzlich zielt der Einsatz von Handlungsträgern darauf, dass sie helfen, abstrakte Inhalte für den Zuschauer anschaulich zu erschließen. Dazu werden sie in die Ereignisse einbezogen oder treffen bestimmte Aussagen (vgl. Hömberg/ Yankers 2000: 578). Privatpersonen werden häufig in Form eines Fallbeispiels präsentiert, die sich stellvertretend für eine bestimmte Gruppe äußern (vgl. Brosius 1996; Daschmann/ Brosius 1997; Zillmann/ Brosius 2000). Eine Variante des Fallbeispiels stellt das „Quasi-Fiction-Plotting“ dar, bei denen die Betroffenen zunächst in das Problem einführen. Im weiteren Verlauf des Films wechselt dann die Darstellung auf eine abstraktere Ebene, um am Ende wieder auf den Betroffenen und seine Geschichte zurückzukehren (vgl. Hallenberger 1988; Neumann 2007).
Themenspektrum Auch wenn Themen keine Gestaltungsmittel im engeren Sinne darstellen, sind sie dennoch eng mit der Gestaltung und Dramaturgie verbunden. Daher werden sie hier berücksichtigt. So wählen Wissenschaftsredakteure insbesondere Themen aus, von denen sie annehmen, dass sie die Menschen bewegen, berühren und interessieren. Oder aber es wird über Themen berichtet, die latent aktuell sind und deren Hintergründe neue Erkenntnisse versprechen (vgl. Götz-Sobel 2006). Grundsätzlich werden vor allem solche Themen als relevant eingestuft, die dem Alltagswissen des Zuschauers nahe sind, denn Ausgangspunkt ist der „interessierte Laie“ ohne Vorkenntnisse (vgl. Bullion 2004: 98)30. Dabei gilt, 30
Bullion referiert hier eine Untersuchung, die im Auftrag des Projekts „Wissenschaft für Erwachsene – WISER“ des Deutschen Instituts für Erwachsenenbildung (DIE) durchgeführt wurde. Dabei
48
Die Vermittlung von Wissenschaft im Fernsehen
potenzielle Fragen zu behandeln, die einen direkten Nutzen für den Zuschauer haben „[…] oder mit seinen Lebenserfahrungen korrespondieren“ (ebd.). Bullion nennt diese Form der Themenselektion eine „take-home-message“ zu generieren. Dreh- und Angelpunkt stellen somit die Interessen des Publikums dar. Allerdings zeigt sich, dass die Redakteure kaum Kenntnisse über ihr Publikum haben und die Publikumsinteressen nicht weiter spezifizieren können. In den meisten Fällen leiten sie diese hypothetisch auf Basis eigener Vorstellungen ab (vgl. Freund 1990a; 1990b; Milde/ Hölig 200931). Traditionell geht es in den Wissenschaftsfilmen um Themen aus Naturwissenschaft, Technik und Medizin (vgl. Hanel 1994). Zwar werden geistes- und sozialwissenschaftliche Themen nicht ausdrücklich ausgeschlossen, dennoch orientieren sich Wissenschaftsjournalisten hauptsächlich an den klassischen Inhalten (vgl. Ruß-Mohl 2003; Göpfert/ Ruß-Mohl 2006). Naturwissenschaftliche Filme behandeln vor allem Themen der Zoologie, Geologie und Genetik. Die Medizinthemen beschäftigen sich im Schwerpunkt mit Infektionskrankheiten und Immunologie, in der technischen Rubrik geht es am häufigsten um Automobiltechnologie und Schifffahrt (vgl. Hömberg/ Yankers 200032). Allerdings zeigt sich insbesondere bei den kommerziellen Sendern, dass vermehrt auf alltagsnahe Themen zurückgegriffen wird. Zwar werden immer noch „harte“ wissenschaftliche Inhalte präsentiert, jedoch wesentlich seltener. Hier werden vielmehr „Produktions-MAZ“ gesendet, die Fragen nachgehen wie: Wie werden Würste, Schokoriegel oder Weingläser hergestellt? (vgl. Albrecht 2006: 137). Aber auch die öffentlich-rechtlichen Fernsehsender greifen alltägliche Fragen und Themen auf. Das Magazin „W wie Wissen „des Ersten Deutschen Fernsehens hat eigens dafür eine Rubrik mit dem Namen „Wissen im Alltag“ eingerichtet. Hier geht man z.B. der Frage nach, warum eine Spinne nicht im eigenen Netz kleben bleibt.33 Diese thematische Annäherung der Senderfamilien wird vereinzelt auch als Verflachung der Magazine wahrgenommen und unter den Redakteuren kritisch diskutiert. Der Wissenschaftsjournalist Ranga Yogeshwar ist zum Beispiel der Meinung, dass das Fernsehprogramm dabei ist, den Wissensbegriff medial neu zu definieren: „>>Wissen 12 Jahre)
16
1609
Alter 12-19 Jahre 7 179 20-29 Jahre 16 312 30-39 Jahre 20 285 40-49 Jahre 17 239 50-59 Jahre 16 217 60-74 Jahre 16 315 > 75 Jahre 12 62 Geschlecht Männer 18-59 Jahre 19 550 Frauen 18-59 Jahre 15 549 Schulbildung Volks-/Hauptschule 9 487 Berufs-/Fachschule 18 827 Matura/ Universität 21 295 Matura 22 243 Universität 15 52 Tabelle 2: Interesse an Wissenschaftsmagazinen (Basis: Österreichische Bevölkerung; Auszug der tabellarischen Darstellung nach Diem 1997: 139)
52
Die Vermittlung von Wissenschaft im Fernsehen
Allerdings wird das Fernsehen nur als mittelmäßig kompetent eingeschätzt, Wissen vermitteln zu können. Aus diesem Grund ist es für die Zuschauer besonders wichtig, dass die Sendungen gut, spannend und aufwendig inszeniert werden. Dabei bringen die Zuschauer vor allem solchen Themen Interesse entgegen, die für ihren Alltag relevant sind (vgl. Svendsen 1997). Dies ist ein Befund, der mit den in Kapitel 3.3 erläuterten Vorstellungen der Wissenschaftsredakteure korresponiert.
Nutzung von Wissenschaftssendungen Der Vergleich der Jahre 1999, 2001, 2004 und 2005 zeigt, dass die Nutzung von Natur- und Wissenschaftssendungen deutlich zugenommen hat. Betrug die Nettoreichweite35 1999 noch 18 Prozent, stieg sie bis zum Jahr 2005 auf 26 Prozent (vgl. Gerhards/ Klingler 2005; 2006).36 Damit erreichen die Sendungen ähnlich hohe Werte wie Informationssendungen über „Wirtschaft/ Politik/ Geschichte“ (24 Prozent) oder „regionale Nachrichten-/ Informationssendungen“ (26 Prozent) und sogar etwas höhere Werte als Nachrichtenmagazine (22 Prozent) (vgl. Gerhards/ Klingler 2006: 576). Ein Vergleich der Nutzung von vier ausgewählten Wissenschaftsmagazinen mit anderen Informationssendungen auf ähnlichen Sendeplätzen zeigt, dass, gemessen am Marktanteil37, insbesondere die Wissenschaftsmagazine des ZDF erfolgreich sind (vgl. Zubayr/ Gerhard 2007). So erreicht „Joachim Bublath“ 9,8% Marktanteil und „Abenteuer Wissen“ 9,3%, was mit Politmagazinen wie „Monitor“ (10,7%), „Report Mainz“ (9,7%) oder „Spiegel TV“ (9,5%) vergleichbar ist. Ähnlich erfolgreich sind auch die Wissenschaftsmagazine „W wie Wissen“ der ARD/Das Erste (8,5% Marktanteil) und „Wunderwelt Wissen“ von ProSieben (6,8% Marktanteil).38 In der von den privaten Anbietern anvisierten Kernzielgruppe der 14- bis 49jährigen liegen hingegen die privaten Formate vorne. So erreicht „Wunderwelt Wissen“ in dieser Altersgruppe die höchste Sehbeteiligung (in Mio.), gefolgt von „Galileo“ (ebenfalls ProSieben) (vgl. Albrecht 2006: 133). 35
Die Nettoreichweite gibt den Anteil derjenigen Zuschauer an, die mindestens eine Minute konsekutiv die Sparte eingeschaltet hatten. 36 Die Daten bilden Durchschnittswerte auf Basis der Nutzung von 20 Fernsehprogrammen ab. 37 Der Marktanteil weist den relativen Anteil der Zuschauernutzung des Sendeplatzes an der gesamten Fernsehnutzung zur Sendezeit des Sendeplatzes aus. Die Basis der hier angegebenen Marktanteile bezieht sich auf die deutsche Bevölkerung ab 3 Jahre. 38 Die Rangfolge verändert sich etwas, wenn man die Sehbeteiligung in Millionen zugrunde legt. In diesem Fall belegt „Abenteuer Wissen“ Rang 1 (2,08 Mio.), Rang 2 „Joachim Bublath (2,05 Mio.), Rang 3 „Wunderwelt Wissen“ (1,80 Mio.) und Rang 4 „W wie Wissen“ (1,47 Mio.).
Nutzung und Bewertung von Wissenschaftssendungen
53
Sendungen über Natur und Wissenschaft haben das Potenzial, ein breites, unspezifisches Publikum anzusprechen. Dies belegt u.a. die Mediennutzertypologie der ARD-Anstalten. So bestehen laut der Typologie keine deutlichen Nutzungsunterschiede zwischen den einzelnen Nutzertypen (vgl. Neuwöhner/ Schäfer 2007). Aktuelle Nutzungszahlen zu Wissenschaftsmagazinen bestätigen diesen Trend. So zeigt Blödorn (2006) beispielsweise, dass sich kaum Nutzungsunterschiede aufgrund des formalen Bildungsniveaus herausbilden. Allerdings misst das Publikum Wissenschaftssendungen unterschiedliche Bedeutungen bei, wie die folgenden Befunde belegen.
Bedeutungen und Bewertungen von Wissenschaftssendungen Generell genießen Wissenschaftssendungen in Deutschland aus Sicht der Zuschauer hohes Ansehen. So gehören sie nach deren Einschätzung zu den kompetentesten Angeboten des Fernsehprogramms, wobei ZDF und ARD/ Das Erste die Rangfolge anführen (vgl. Abb. 3). 60
Spartenkompetenz in %
50
50
40
40
30
26
20
23
10
11
10
SAT.1
RTL
0 ZDF
ARD/ Das Erste
Dritte
PRO-Sieben
Fernsehprogramme
Abbildung 3: Spartenkompetenz der TV-Sender im Bereich "Wissenschaft und Technik" (vgl. Darschin/ Zubayr 2003: 209; eigene Darstellung)39 39
Berücksichtigte Formate: Magazine, Reportagen; ARD-Trend-Frage: „Welcher Sender bringt Ihrem persönlichen Eindruck nach die besten Sendungen dieser Art?“
54
Die Vermittlung von Wissenschaft im Fernsehen
In einer französischen Studie zur Rezeption von Wissenschaftsfernsehen zeigt sich jedoch, dass verschiedenen Vermittlungsarten unterschiedliche Bedeutungen beigemessen werden. So unterscheiden Cheveigné und Véron (1996) die folgenden fünf Zuschauertypen:40 Der Zuschauertyp „intellectual reading“ steht dem Wissenschaftsfernsehen besonders skeptisch gegenüber, da Wissenschaftssendungen generell nicht als eine qualifizierte Quelle für die Vermittlung wissenschaftlichen Wissens angesehen werden. Ein Moderator wird hier strikt abgelehnt. Einzig die Dokumentation wird als kompetentes Format für die Wissenschaftsvermittlung wahrgenommen. Der Zuschauertyp „beneficiary reading“ sieht im Fernsehen hingegen eine gute Quelle für die Aneignung wissenschaftlichen Wissens. So wird ihm zugetraut, dass es in der Lage ist, wissenschaftliche Inhalte nachvollziehbar zu präsentieren. Die Präsenz eines Moderators wird als besonders wichtig erachtet. Der Zuschauertyp „intimistic reading“ hat keine besonders ausgeprägte Meinung zum Wissenschaftsfernsehen und steht ihm eher passiv und gleichgültig gegenüber. Dennoch reagiert er äußerst sensibel auf Aussagen und Darstellungen, die ihn an seine Schulzeit erinnern oder ihm das Gefühl geben, dass die Inhalte „von oben herab“ doziert werden. Der Zuschauertyp „excluded reading“ ist der Überzeugung, dass Wissenschaft für ihn nicht zu verstehen ist und Fernsehen grundsätzlich dabei nicht förderlich sein kann. Am Beispiel der ProSieben-Sendung „Galileo“ zeigen Dehm et al. (2005), wie deren Zuschauer die Sendung in folgender Weise erleben und bewerten. So hat die „Orientierung“ besondere Bedeutung (vgl. im Folgenden Tab. 3).41 Die Zuschauer schätzen die Sendung vor allem deswegen, weil sie etwas dabei lernen können (90% Zustimmung) und neue Informationen erhalten (88% Zustimmung). Gleichzeitig gibt die Sendung Anregungen und Stoff zum Nachdenken (67% Zustimmung) und präsentiert viele Themen, über die sich die Zuschauer mit anderen unterhalten können (65% Zustimmung).
40
In der Studie wurden 20 erwachsene Teilnehmer in eineinhalb- bis zweistündigen teilstrukturierten Interviews befragt. 41 Die Studie basiert auf einem Stichprobenumfang von 368 Fernsehzuschauern, die die Sendung in den letzten 14 Tagen gesehen haben. Die Befragten wurden gebeten, die Sendung anhand einer Aussagenliste von fünf Erlebnisfaktoren auf einer Fünfer-Skala nach ihrer Erlebnisqualität zu bewerten (vgl. Dehm et al. 2005).
Nutzung und Bewertung von Wissenschaftssendungen
55
Eine vergleichbare Bedeutung hat das emotionale Erleben. So gaben 74 Prozent der Zuschauer an, dass ihnen die Sendung Spaß macht und 68 Prozent sind „gespannt dabei“. Rund 59 Prozent empfinden die Sendung als „eine schöne Abwechslung nach der Tageshetze“ und 55 Prozent können beim Zuschauen entspannen. Für viele der Zuschauer stellt die Sendung einen wichtigen Zeitvertreib dar, da sie das Gefühl haben, ihre Zeit sinnvoll zu nutzen, wenn sie die Sendung anschauen (53% Zustimmung). Gut ein Drittel der Befragten gaben zudem an, dass die Sendung eine Art Ausgleich darstellt, indem sie von den Alltagssorgen ablenkt (32% Zustimmung). Bei rund einem Fünftel der Zuschauer führt die
56
Die Vermittlung von Wissenschaft im Fernsehen
Sendung zu sozialem Erleben, da sie das Gefühl haben, sich im Alltag besser zu Recht zu finden (20% Zustimmung) und am Leben anderer teilnehmen zu können (19% Zustimmung) (vgl. Dehm et al. 2005). Insgesamt zeigen die Befunde, dass entsprechend des wachsenden Sendungsangebots auch die Nutzung von Wissenschaftsmagazinen in den letzten Jahren zugenommen hat. Dabei setzt sich das Publikum aus sehr verschiedenen, an Wissensinhalten interessierten Zuschauern zusammen. Demnach ist die Nutzung von Wissenschaftsmagazinen heutzutage keine Randerscheinung mehr, sondern nimmt einen festen Platz in der Fernsehnutzung ein. Die Befunde der Zuschauerstudie zum Magazin „Galileo“ deuten darauf hin, dass Wissenschaftsmagazine insbesondere zur Orientierung und Unterhaltung bzw. Entspannung genutzt werden, wobei der Vermittlung von Wissensinhalten die bedeutendere Funktion von beiden zu sein scheint. Inwieweit andere Wissenschaftsmagazine ähnliche Erlebnisqualitäten erfüllen, kann aufgrund der eingeschränkten Datenlage nicht geklärt werden. Es erscheint jedoch plausibel anzunehmen, dass das Rezeptionserleben bei anderen Formaten grundsätzlich ähnliche Dimensionen annimmt. Allerdings können diese je nach Magazinkonzept unterschiedlich stark ausgeprägt sein und mitunter variieren. Somit lässt sich die Vermittlung von Wissenschaft im Fernsehen aus Zuschauersicht anhand der folgenden Kernbefunde beschreiben: Wissenschaftsfernsehen aus Sicht der Zuschauer… → stößt auf ein hohes Interesse, sofern die Sendungen alltagsrelevant, spannend und interessant inszeniert sind; → gewann in den letzten Jahren zunehmend Zuschauer und nimmt aktuell einen festen Platz in der Fernsehnutzung ein; → wird hinsichtlich seiner Vermittlungskompetenz individuell unterschiedlich wahrgenommen und bewertet; → wird vor allem für die Vermittlung wissenschaftlichen Wissens geschätzt, da etwas gelernt werden kann und man neue Informationen erhält; → macht zudem Spaß und dient der Spannung, Entspannung und Abwechslung.
Werden die dargestellten Befunde zur TV-Wissenschaftsvermittlung aus der Perspektive des Kommunikators und der Zuschauer nun entsprechend des dynamisch-transaktionalen Ansatzes miteinander in Beziehung gesetzt, zeigt sich, dass die Vermittlungsintentionen der Wissenschaftsredakteure mit den Nut-
Schlussfolgerung I: Wissenschaftsfilme als Vermittlungskonzepte
57
zungserwartungen des Publikums weitestgehend übereinstimmen und aufeinander bezogen sind. So zielen Wissenschaftsjournalisten darauf ab, Wissensinhalte in möglichst ansprechender und verständlicher Weise zu vermitteln und Orientierungswissen für den Alltag bereit zu stellen. Dies wird mit unterschiedlichen Darstellungsweisen umgesetzt. Die Zuschauer erwarten auf der anderen Seite, mit Spaß und Spannung neue Informationen zu erhalten und dadurch etwas lernen zu können. Sie wenden sich somit vor allem solchen Sendungen zu, die ihren Erwartungen gerecht werden. Erfüllen sich die Erwartungen, werden auf beiden Seiten entsprechende Gratifikationen erlangt. Diese als Inter-Transaktion aufgefasste Beziehung zwischen Kommunikator und Rezipient stellt einen grundlegenden und relevanten Befund für die vorliegende Studie dar. So lassen sich daraus erste Schlussfolgerungen formulieren, die für theoretische Modellierung des „Verstehensmodells audio-visueller Wissenschaftsvermittlung“ von Bedeutung sind. 3.5 Schlussfolgerung I: Wissenschaftsfilme als Vermittlungskonzepte Wie in den vorangegangenen Kapiteln gezeigt werden konnte, unterliegen TVWissenschaftssendungen auch heute noch dem Postulat der Wissensvermittlung. Während es jedoch zu Beginn des Wissenschaftsfernsehens noch um die Pädagogisierung und Bildung der Bevölkerung ging, veränderten sich im Laufe der Zeit das Selbstverständnis und die Zielsetzungen der Wissenschaftsredakteure. Diese Veränderungen lassen sich insbesondere auf Inter-Transaktionsprozesse mit gesellschaftlichen und medienorganisatorischen Bedingungen zurückführen, woraus erfolgs- und damit zugleich zuschauerorientierte Vorstellungen resultieren. Diese werden wiederum durch die Befunde der Zuschauerforschung bestätigt. Wissenschaftsvermittlung bedeutet folglich heutzutage, Wissensinhalte mit einem hohen Nutzwert möglichst ansprechend für das Publikum bereit zu stellen. Dabei soll Wissenschaftsvermittlung nicht nur unterhalten, sondern auch die Reflexions- und Kritikfähigkeit der Zuschauer fördern und Ratschläge und Orientierungshilfen für den Alltag bereit stellen. Für das hier zu entwickelnde Verstehensmodell bedeutet das, dass Wissenschaftsredakteure entsprechende Kommunikationsziele verfolgen und die Umsetzung dementsprechend strategisch planen. Der grundsätzliche Anspruch dabei ist, dass dies in verständlicher und attraktiver Weise geschieht, so dass die Angebote für den Zuschauer gleichsam anregend und nachvollziehbar sind. Für die ansprechende Gestaltung und Umsetzung der Themen stehen den Redakteuren vielfältige motivationale und formale Gestaltungsmöglichkeiten zur Verfügung, mit denen die Themen „fernsehtauglich“ umgesetzt werden können.
58
Die Vermittlung von Wissenschaft im Fernsehen
Da eine häufige Form der TV-Wissenschaftsvermittlung über Wissenschaftsfilme in Magazinen erfolgt, lassen sich diese auf der Grundlage der vorangegangenen Darstellungen als von den Wissenschaftsredaktionen intendierte Vermittlungskonzepte bezeichnen und definieren: Vermittlungskonzepte kennzeichnen sich dadurch, dass sie eine Reihe variabler Gestaltungsmerkmale enthalten, die in ihrer Gesamtheit die Zuschauer zur Rezeption motivieren und gleichzeitig den Verstehensprozess unterstützen sollen. Es wird unterstellt, dass Vermittlungskonzepte auf strategischen Entscheidungen der Redakteure beruhen, ein bestimmtes Thema für den (häufig imaginären) Zuschauer verständlich und attraktiv umzusetzen. Vermittlungskonzepte stellen somit das (immer vorläufige) Ergebnis von Inter-Transaktionsprozessen zwischen Wissenschaftsredakteuren und Rezipienten dar, das aus vorab ablaufenden verhaltenssteuernden Feedback- oder Para-Feedback-Prozessen resultiert. Die bislang skizzierten Schlussfolgerungen lassen sich in der folgenden Abbildung 4 visualisieren. Dabei handelt es sich zunächst um die Darstellung des Teilmoduls 1 des „Verstehensmodells audio-visueller Wissenschaftsvermittlung“, das im weiteren Verlauf der theoretischen Diskussion vervollständigt wird.
Kommunikationsziele
(Para)-Feedback
Rezipient
Verständlichkeit Attraktivität
Gestaltungsstrategien:
der Wissenschaftsredakteure
TV-Vermittlungskonzept (formale Gestaltung, motivationale Elemente)
Abbildung 4: Verstehensmodell audio-visueller Wissenschaftsvermittlung (Modul 1)
Schlussfolgerung I: Wissenschaftsfilme als Vermittlungskonzepte
59
Die Abbildung verdeutlicht, dass das Modul 1 an Frühs Forderungen anknüpft und den Vermittlungsprozess aus einer molaren Perspektive betrachtet (vgl. u.a. 2001, 2008). So werden hier entsprechend der oben beschriebenen Einflussbereiche Medien- und Kontextmerkmale berücksichtigt und anhand ihrer Merkmale zusammengefasst. Daher lässt sich das TV-Vermittlungskonzept als Syndrom auffassen, das eine Reihe von Merkmalen bündelt, die aus den Kommunikationszielen abgeleitet wurden. Die Komplexität des Wirkungszusammenhangs wird demnach auf Kommunikatorseite auf das Vermittlungskonzept reduziert (vgl. dazu auch Kap. 2). Da jedoch im Sinne des dynamisch-transaktionalen Ansatzes davon ausgegangen wird, dass die Verstehensleistungen der Rezipienten nicht ausschließlich von den Vermittlungskonzepten abhängen, sondern vielmehr einen multikausalen Wirkungsprozess darstellen, sollen im Folgenden die vorhandenen Kognitionen und Affekte der Rezipienten berücksichtigt werden. Daher befasst sich Kapitel 4 mit dem Verstehen von Medieninhalten.
4 Verstehen von Medieninhalten
Die Grundlage aller sozialen Interaktion ist eine effektive Kommunikation zwischen Kommunikationspartnern. Dies setzt ein erfolgreiches Verstehen voraus, das in der Regel auf sprachlicher Kommunikation basiert und damit auf linguistisches Wissen zurückgeht (vgl. Burkart 2002). Dies trifft auch auf TVWissenschaftsfilme zu. Würde zum Beispiel eine mikroskopische Zellaufnahme in einem Wissenschaftsfilm ohne verbale Zusatzinformationen präsentiert werden, könnte der Zuschauer kaum erschließen, um welche Zellen es sich handelt und warum sie gezeigt werden. Um solche Szenen dennoch treffend verstehen zu können, werden konkretisierende Erläuterungen des Off-Sprechers notwendig. Das Verstehen wird demnach auf Spracherläuterungen verlagert. Allerdings verwenden Wissenschaftsfilme häufig auch Darstellungstechniken, die bestimmte Vorgänge, Relationen oder abstrakte Strukturen in Form von Animationen oder Grafiken visualisieren. Würde ein Sprecher versuchen, die dargestellten Inhalte zu erläutern, ließe sich dies nur sehr kompliziert und schwer nachvollziehbar ausdrücken. Verstehen hängt in diesem Fall von der Visualisierung ab. Somit basiert das Verstehen von Wissenschaftsfilmen sowohl auf verbalen und bildlichen Darstellungen.42 Daher ist es für die theoretische Modellierung relevant, sich mit den Verstehensmodalitäten des Sprach-, Bild- und Text-BildVerstehens sowie des audiovisuellen Verstehens zu befassen. Ziel dieses Kapitels ist es, den aktuellen Stand der kognitionspsychologischen Verstehensforschung aufzuarbeiten, um daraus geeignete theoretische Implikationen für die Studie ableiten zu können. Die Darstellung wird dabei von der Annahme eines intra-transaktionalen Verstehensprozesses beim Rezipienten geleitet, wie es der dynamisch-transaktionale Ansatz fordert (vgl. Kap. 2). Somit widmet sich dieses Kapitel der rezipientenzentrierten Sichtweise. Den Ausgangspunkt der Ausführungen bildet die im Kapitel 4.1 formulierte Definition des Verstehensbegriffs. Da Verstehen als ein mentaler Vorgang aufgefasst wird, stehen im Kapitel 4.2 die kognitiven Grundlagen des Verstehensprozesses im Vordergrund. Diese helfen, die im Kapitel 4.3 vorgestellten Formen 42
Neben Sprache und Bildern können natürlich auch Geräusche und Musik Einfluss auf Verstehensprozesse nehmen. Da sie jedoch nur selten explizite Informationen enthalten, werden sie im Rahmen dieser Arbeit vernachlässigt (vgl. z.B. zur Wirkung von Musik im Fernsehen u.a. Holicki/ Brosius 1988; Brosius/ Kepplinger 1991; Neubauer/ Wenzel 2001).
62
Verstehen von Medieninhalten
des Verstehens einordnen und nachvollziehen zu können. Hier wird insbesondere auf das Sprachverstehen (vgl. Kap. 4.3.1), das Bildverstehen (vgl. Kap. 4.3.2) und auf das Text-Bild-Verstehen (vgl. Kap. 4.3.3) eingegangen. Diese bilden wiederum die Grundlage für das im Kapitel 4.4 behandelte audiovisuelle Verstehen. Hier werden insbesondere das Fernsehverstehen (vgl. Kap. 4.4.1) und das Filmverstehen (vgl. Kap. 4.4.2) berücksichtigt. Im abschließenden Kapitel 4.5 werden auf Basis der theoretischen Ausführungen forschungsleitende Schlussfolgerungen abgeleitet und das „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ um die theoretischen Implikationen erweitert. 4.1 Zur Bedeutungsvielfalt und Definition des Begriffs „Verstehen“ Verstehen ist ein facettenreicher Begriff, dem sowohl im umgangssprachlichen Gebrauch als auch in verschiedensten wissenschaftlichen Disziplinen unterschiedliche Bedeutungen zukommen. So unterscheiden Reusser und ReusserWeyeneth (1994) zehn phänotypische Kulturformen des Verstehens, die sich auf unterschiedliche Verstehensgegenstände und Verstehenszeichen richten und mit denen unterschiedliche Wissensformen assoziiert werden.43 Dabei kann sich Verstehen auf das akustische und inhaltliche Auffassen, Begreifen und Auslegen von Sprache und Texten oder auf andere menschliche Ausdrucksformen wie Musik, Bilder oder Tanz beziehen. Auch praktische Fertigkeiten können verstanden werden, indem beispielsweise davon ausgegangen wird, dass jemand etwas von seinem Beruf versteht. Werden Handlungen, Ziele, Motive oder Gefühle anderer nachvollzogen, spricht man ebenfalls davon, sie zu verstehen (vgl. Reusser/ Reusser-Weyeneth 1994: 11f). Unabhängig von diesem alltäglichen Gebrauch zeigt sich auch in zahlreichen geistes- und sozialwissenschaftlichen Ansätzen, dass dem Verstehensbegriff kein einheitliches Konzept zugrunde liegt (vgl. dazu Biere 1991; Ballod 2001; Deppert 2001). In der Lehre vom interpretativen Vorgehen, der Hermeneutik, wird Verstehen beispielsweise sowohl als Erkenntnisform als auch als Methodenbegriff verwendet und bezieht sich auf das Erfassen menschlicher Verhaltensäußerungen und Produkte (vgl. dazu Soeffner 2000; Reichertz 2000; 2005). Verstehen im engeren Sinne gilt dabei als Auslegung oder Interpretation von 43
Folgende Kulturformen des Verstehens werden unterschieden: (1) Textverstehen, (2) Kausalverstehen im Sinne der Naturwissenschaften, (3) Theoretisches Funktionsverstehen im Sinne der Ingenieurwissenschaften und der Technik, (4) Praktisches Verstehen im Sinne der handlungsmäßigen Könnerschaft, (5) Logisch-mathematisches Schließen, (6) Quantitatives Verstehen, (7) Motiv- und Handlungsverstehen, (8) Kritisches Verstehen, (9) Empathisches Verstehen und (10) Ästhetisches Verstehen (Reusser und Reusser-Weyenneth 1994: 11f).
Zur Bedeutungsvielfalt und Definition des Begriffs „Verstehen“
63
Sprache oder Texten, im weiteren Sinn meint es die Interpretation von sozialen Sinnzusammenhängen (vgl. Biere 1989; 1995; Stöber 2006). Eine der wesentlichen Voraussetzungen für das hermeneutische Verstehen ist das Vorverständnis bzw. Vorwissen. Dieses steht in ständiger Wechselwirkung mit dem Text oder Sachverhalt. Verstehen ist demnach ein prozesshafter Akt, der sich aus der Interaktion zwischen Vorwissen und Text bzw. Sachverhalt ergibt, wobei die Hermeneutik konstatiert, dass ein absolutes Verstehen im Sinne eines Endproduktes kaum erreicht werden kann (vgl. Lamnek 2005). Mitte der 80er Jahre entstand eine Forschungsinitiative, die sich explizit mit dem Verstehen von wissenschaftlichen Informationen befasst. Es handelt sich um das Programm Public Understanding of Science, kurz PUS genannt. PUS entstand durch die Initiative von Wissenschaftlern. Diese sahen die Akzeptanz ihrer Forschung gefährdet, was sie auf Wissensdefizite wissenschaftlicher Arbeitsmethoden und Inhalte in der Bevölkerung zurückführten.44 Daher konstatierten die Wissenschaftler einen steigenden Vermittlungsbedarf, der das Wissenschaftssystem transparenter machen sollte, um dem öffentlichen Bedürfnis nach demokratischer Steuerung, Kontrolle und Kritik gerecht zu werden (vgl. RußMohl 1985; Hömberg 1987; 1989; Kohring 2005). Bis heute erhofft man sich durch den Transfer wissenschaftlichen Wissens in die Bevölkerung, die eigene Forschung zu legitimieren. So ist das Hauptanliegen der PUS-Initiative, „[…] das Verständnis und das Verstehen von Wissenschaft in der Bevölkerung zu verbessern […]“ (Erhardt 1999: 4). Die Initiative wird sowohl in den USA als auch in Europa mit empirischen Studien begleitet45. Die Forschungsbemühungen dazu gehen insbesondere von Jon D. Miller (USA) und John Durant (Großbritannien) aus. In den USA wird das Forschungsprogramm häufig auch unter dem Begriff Science Literacy diskutiert (vgl. Miller 1983; 1987; 1998; 2004). Es weist jedoch große Parallelen zum Public Understanding of Science-Programm in Großbritannien und Deutschland auf (vgl. Gregory/ Miller 1998a; 1998b; Pardo/ Calvo 2004; Conein 2004). Die grundlegende Annahme der Forscher ist, dass die Einstellungen gegenüber der Wissenschaft vom jeweiligen Level der Science Literacy abhängen und damit auf kognitiver Ebene beeinflusst werden können. Dabei wird Scientific Literacy auf drei Dimensionen konzeptualisiert, die bei der Bevölkerung ausgeprägt sein sollten: (1) a basic vocabulary of scientific 44
Einen Überblick über die Entwicklung des PUS-Forschungsprogramms geben u.a. Gregory und Miller (1998a; 1998b) sowie Bauer et al. (2007). Einen kritischen Überblick liefert Kohring (1998; 2004; 2005), der sich insbesondere mit der Rolle des Wissenschaftsjournalismus in der PUSInitiative befasst. 45 In den USA werden die “National Science Foundation Surveys of Public Attitudes Toward And Understanding of Science And Technology” durchgeführt. In Europa wird seit 1974 zwei Mal jährlich das „Eurobarometer“ erhoben. Wurde das Eurobarmeter ursprünglich in neun Ländern Europas durchgeführt, erweiterte man später die Befragung um weitere 20 EU-Länder.
64
Verstehen von Medieninhalten
terms and constructs (content); (2) a general understanding of the nature of scientific inquiry (process) und (3) some level of understanding of the impact of science and technology on individuals and on society (social factors) (vgl. Miller 2004: 273; Burns et al. 2003: 188). Wellington (1990) formuliert ganz ähnliche Verstehensebenen, differenziert diese allerdings auf fünf Ebenen. Als Grundlage des Verstehens wird dabei Wissen in Form von (1) “knowledge that”, (2) “knowledge how” und (3) “knowledge why” definiert. Aus diesem Wissen resultiert (4) die Fähigkeit der Wissens-“Synthesis”, was (5) zu einem tieferen Verstehen führt, in dem daraus neues Wissen abgeleitet werden kann. Demnach interessiert sich weder die Hermeneutik noch die PUS-Forschungsinitiative dafür, wie der Verstehensprozess verläuft und welche Bedingungen hierfür ausschlaggebend sind. Vielmehr geht es um die Frage, was verstanden wird. Daher lassen sich beide Traditionen nicht mit dem dynamisch-transaktionalen Ansatze vereinbaren, da dieser explizit fordert, Intra-Transaktionsvorgänge des Rezipienten zu berücksichtigen. Somit werden beide Forschungsbereiche im Rahmen dieser Studie zurückgewiesen. Ergiebiger zeigt sich hingegen die kognitionspsychologisch orientierte Sprachund Textverstehensforschung, die Verstehen als ihren zentralen Untersuchungsgegenstand auffasst. Bereits Früh (1991) verweist auf deren Bedeutung für die theoretische Konzeption eines intra-transaktionalen Verstehensmodells. Die Kognitionspsychologie interessiert sich vor allem dafür, welche kognitiven Prozesse für das Verstehen verantwortlich sind. Verstehen wird demnach als ein mentaler Vorgang aufgefasst, der auf kognitiven Informationsverarbeitungsmechanismen beruht und eine psychologische Grundfunktion des Menschen darstellt. Um Verstehen und die daran beteiligten mentalen Vorgänge erklären zu können, greift die Kognitionspsychologie häufig auf Konzepte der Sprachpsychologie und Linguistik zurück. Verstehen wird hierbei als Aktivation von Gedächtnisrelationen aufgefasst, bei denen ein eingehender Reiz ein oder mehrere Wahrnehmungsschemata aktiviert. Diese werden wiederum in bestimmte Wissenshierarchien eingeordnet, die im Gedächtnis vorhanden sind. Dabei muss der Reiz in entsprechender Weise interpretiert werden, um mögliche Missverständnisse auszuschließen. Verstehen lässt sich danach folgendermaßen charakterisieren: Verstehen heißt, eine eingehende Information zu erkennen und darüber hinaus in der Lage zu sein, ihr einen Sinn bzw. eine bestimmte Bedeutung beizumessen. Dazu zählt, sich unter der Information etwas vorstellen bzw. sich ein Bild davon machen zu können. Verstehen ermöglicht, die Information mit anderen Dingen in Beziehung zu setzen, wie etwa der eigenen Welt, eigenen Zielen, eigenen Wünschen und Bedürfnissen.
Zur Bedeutungsvielfalt und Definition des Begriffs „Verstehen“
65
Verstehen bedeutet, das Verstandene in eine Kategorie einzuordnen bzw. einen Oberbegriff dafür zu finden und die Information in übergeordnete Zusammenhänge einzubetten. Darüber hinaus weiß der Verstehende, aus welchen Bestandteilen die Information besteht (vgl. Dörner 2005: 187-188). Demnach ist Verstehen zugleich Interpretation, Inferenzziehung und Kohärenzbildung. Auch in der Textverstehensforschung wird Verstehen als „Aufbau einer in sich stimmigen kohärenten mentalen Repräsentation“ definiert, wobei sich dies nicht nur auf Texte und sprachliche Äußerungen bezieht, sondern ebenso Situationen, Prozesse, Verhaltensweisen und Handlungen betreffen kann (Schnotz 1994a: 32). Mentale Repräsentationen entsprechen dabei Abbildungen der Realität im Gehirn des Menschen, wobei diese für den Forscher nie direkt beobachtbar sind, sondern anhand von Verarbeitungsprozessen, in denen sie aktiviert werden, erschlossen werden müssen (vgl. Ballstaedt et al. 1989: 108-112; Zimmer 2006). Durch das Verstehen eines neuen Sachverhalts wird subjektiv neues Wissen generiert, das über die explizit dargebotene Information hinausgeht und gleichzeitig die Informationen ergänzt. Dies gelingt, indem allgemeines Weltwissen bzw. entsprechendes Kontextwissen mit den im Text geäußerten Sachverhalten in Beziehung gesetzt wird. Verstehen basiert demzufolge auch hier auf Inferenzen. Diese helfen einerseits, aus dargebotenen Informationen mit Hilfe des Vorwissens neues Wissen zu erschließen, andererseits können Inferenzen selbst zu neu generiertem Wissen werden. Ein wesentliches Merkmal des Verstehens ist demnach, dass sowohl der Kommunikator als auch der Verstehende am Verstehensprozess beteiligt sind (vgl. Schnotz 1994a: 33ff). Während der Kommunikator Informationen gestaltet und zur Verfügung stellt, obliegt es dem Rezipienten, entsprechende Inferenzen auf Basis seines Vorwissens zu aktivieren, um die Informationen zu verarbeiten und zu verstehen. Verstehen ist somit mit dem kognitiven Lernen eng verbunden. Schnotz (1994a) grenzt allerdings die beiden Funktionen definitorisch voneinander ab. So kennzeichnet sich Verstehen nicht grundsätzlich darin, dass beim Verstehensprozess neues Wissen erworben wird. Liest ein Leser beispielsweise zum wiederholten Male einen wissenschaftlichen Text und bildet dabei immer wieder die gleiche mentale Repräsentation, versteht er zwar die Informationen, erwirbt jedoch kein neues Wissen. Kognitives Lernen hingegen entspricht einer erfahrungsbedingten und relativ dauerhaften Veränderung des kognitiven Systems, d.h. es wird neues Wissen erworben oder vorhandenes Wissen erweitert, verfeinert oder umstrukturiert. Da allerdings bei wiederholten Verstehensprozessen gleicher Sachverhalte das Wissen sowohl mental gefestigt werden kann als auch weitere Inferenzen gezogen werden können, erfolgt de facto bei jedem Verstehen immer
66
Verstehen von Medieninhalten
auch ein Lernen, da sich durch diese Prozesse das kognitive System wiederum verändert (Schnotz 1994a: 35f). Auch die kommunikationswissenschaftliche Verstehensforschung orientiert sich an kognitionspsychologischen Verstehenskonzepten. Allerdings zeigen sich in vielen empirischen Studien Diskrepanzen zwischen der Operationalisierung, Messung und Interpretation von Verstehen (vgl. Wirth 1997). So wird Verstehen häufig synonym mit Erinnern bzw. Behalten verwendet, was nicht zuletzt darauf zurückzuführen ist, dass es keine speziell entwickelten Messverfahren für die unterschiedlichen Verarbeitungsleistungen gibt. Oftmals konzentrieren sich die Messungen daher lediglich auf die Wiedergabe der erinnerten Medieninhalte, die dann als Verstehensniveau interpretiert werden (vgl. im Überblick Brosius 1995; Heuvelman et al. 2001; siehe z.B. auch Miller et al. 2006). Einige Studien berücksichtigen verstärkt elaborative Prozesse und unterscheiden somit stärker zwischen Erinnern und Verstehen (vgl. z.B. Woodall et al. 1983; Woodall 1986; Beentjes/ van Vlijmen 2001; Eveland 2001; Machill et al. 2006). Die Erinnerung wird dabei häufig mit Fragen zu Detailinformationen erfasst, Verstehen wird hingegen als „Erklärung von Zusammenhängen und Benennung von Schlussfolgerungen“ definiert (Machill et al. 2006: 490). Eine differenziertere Verstehenshierarchie legt Wirth (1997) vor, dessen Konzept auf konstruktions- und integrationstheoretischen Annahmen basiert, die im Rahmen der Textverstehensforschung entwickelt wurden (vgl. ausführlich dazu Kap. 4.3.1.2). Ähnlich wie die vorliegende Studie orientiert sich auch Wirth am dynamisch-transaktionalen Ansatz und berücksichtigt die transaktionalen Beziehungen der Rezipienten. So differenziert Wirth (1997: 104-106) zwei Verstehensebenen und unterscheidet zwischen kommunikatororientiertem und „höherem“ rezipientenorientiertem Verstehen. Das kommunikatororientierte Verstehen wird als eine Sonderform des Erkennens aufgefasst, wobei Erkennen heißt, eine Information als sinnvoll, strukturiert und bedeutsam wahrzunehmen (vgl. Früh 1980: 82). Wirth (1997) beschreibt diesen Verstehenstyp als vom Kommunikator beabsichtigten Informationstransfer, bei dem der Rezipient begreift, was gemeint ist und die Nachricht zu einem kohärenten Ganzen zusammenfügt. Das rezipientenorientierte Verstehen integriert das kommunikatororientierte Verstehen, geht jedoch darüber hinaus. So handelt es sich hier um weitergehende Vergleichsprozesse zwischen der Medieninformation und dem subjektiven Wissen des Rezipienten. Der Rezipient ist in diesem Fall in der Lage, die Inhalte zu bewerten und kritisch zu hinterfragen sowie Schlussfolgerungen, Alternativen und Prognosen zu erstellen. Die aus den Verstehensprozessen resultierenden Wissenstypen bezeichnet Wirth (1997) dann als kommunikatororientiertes und integratives Wissen (vgl. Wirth 1997: 104-106). Dabei entspricht insbesondere das integrative
Verstehen als Informationsverarbeitung
67
Wissen dem Ergebnis intra-transaktionaler Verarbeitungsprozesse der Rezipienten. Es zeigt sich somit, dass insbesondere kognitionspsychologisch orientierte Verstehenskonzepte geeignet sind, intra-transaktionalen Vorgänge des Rezipienten angemessen zu beschreiben und zu erklären. Daher wird hier eine Verstehensdefinition formuliert, die die beschriebenen Perspektiven integriert und dem „Verstehensmodell der audio-visuellen Wissenschaftsvermittlung“ zugrunde liegen soll: Verstehen bedeutet, → einen Sachverhalt (z.B. eine Information, Situation, Prozess oder Handlung etc.) zu erkennen, sich ihn vorstellen, nachvollziehen und kategorisieren zu können → und diesen mit eigenen Wünschen und Bedürfnissen in Beziehung setzen und somit Bewertungen und Schlussfolgerungen ziehen zu können. Kognitionspsychologisch ausgedrückt heißt das: → Verstehen ist Prozess und Resultat mentaler Vorgänge der Informationsverarbeitung, bei denen eine kohärente Repräsentation eines Sachverhalts aufgebaut wird, die auf Inferenzen basiert und bei der Vorwissen eine wichtige verstehensrelevante Größe darstellt. → Verstehen vollzieht sich somit auf mehreren Verstehensebenen.
Nachdem „Verstehen“ nun als ein mentaler Vorgang der Informationsverarbeitung definiert werden konnte, sollen im folgenden Kapitel die grundlegenden kognitiven Verarbeitungsmechanismen, die während des Verstehensprozesses ablaufen, erläutert werden. 4.2 Verstehen als Informationsverarbeitung Das Verstehen einer Medienbotschaft hängt in besonderem Maße von den Gedächtnis- und Speicherstrukturen ab, über die der Rezipient verfügt. Dabei zeigt sich, dass „Wissen“ bzw. verschiedene Wissensarten eine zentrale Rolle einnehmen und eine wichtige Voraussetzung für den Verstehensprozess darstellen. Ziel
68
Verstehen von Medieninhalten
dieses Kapitels ist, diese beim Verstehensprozess zentralen Verarbeitungsstrukturen und Voraussetzungen zu beschreiben. Die Grundannahmen des Verstehens gehen auf die Kognitionspsychologie zurück, die sich erst Mitte des 20. Jahrhunderts durch die kognitive Wende entwickelte. Als kognitive Wende wird der Wechsel vom behavioristischen Forschungsparadigma der Reiz-Reaktions-Annahme hin zu einem Modell der Informationsverarbeitung bezeichnet.46 Dabei setzte sich die Annahme durch, dass das menschliche kognitive System Informationen ähnlich wie ein Computer verarbeitet.47 Der Paradigmenwechsel der kognitiven Psychologie wurde maßgeblich durch die Entwicklungen in der Kommunikationstechnologie (vgl. Shannon/ Weaver 1949) und der Linguistik (vgl. Chomsky 1957) sowie durch die Entstehung der Computerwissenschaft beeinflusst. Diese drei Einflussfaktoren führten zu der Vorstellung, dass das menschliche Denken in einzelne Schritte zerlegt werden kann, „in denen eine abstrakte Einheit namens Information verarbeitet wird“ (Anderson 2007: 13). Unter Informationen werden dabei alle Umweltreize verstanden, „die auf das Individuum einwirken und für die es ein entsprechendes Sensorium hat“ (Winterhoff-Spurk 2001: 43). Generell besteht Konsens darüber, dass Informationen stufenweise über das Sensorische Gedächtnis, Kurzzeitgedächtnis und Langzeitgedächtnis verarbeitet werden. Dies geschieht nach Neisser (1967) in einem vertikalen Prozess entlang einer Zeitachse. Während die ersten Modelle von nur zwei Gedächtnisarten, also dem Kurzzeit- und Langzeitgedächtnis ausgingen, fügten Atkinson und Shiffrin (1968; 1971) das Sensorische Register hinzu. Außerdem unterschieden sie erstmalig die Termini Gedächtnis und Speicher. Während sich der Begriff Gedächtnis auf Informationen bezieht, die behalten werden, meint Speicher deren Lokalisierung innerhalb der Gedächtnisstrukturen. Daher wurden den Gedächtnisarten die jeweiligen Speichersysteme Sensorisches Register, Kurzzeitspeicher und Langzeitspeicher zugeordnet (vgl. Solso 2005). Die drei Speicher lassen sich nun hinsichtlich ihrer Verarbeitungskapazität, der Dauer der Informationsverfügbarkeit und der Art ihrer Informationsentschlüsselung unterscheiden: Das Sensorische Register kann zwar eine fast unbegrenzte Zahl von Reizen registrieren, jedoch nicht speichern. Entweder wird die Information sofort 46
Einen Überblick über die Forschungsbereiche der Kognitiven Psychologie geben u.a. Eysenck/ Keane (2002); Solso (2005); Funke/ Frensch (2006); Spada (2006); Engelkamp/ Zimmer (2006); Anderson (2007). 47 Derzeit dominiert noch die Annahme der „Computermetapher“, allerdings wird diese zunehmend verworfen. An die Stelle der „Computermetapher“ tritt immer häufiger die Vorstellung der „Gehirnmetapher“, die von konnektionistischen Netzwerken ausgeht. Eine weitere Vorstellung ist die ökologische oder Kontextmetapher, die das kognitive System als eine Organismus-UmweltRelation versteht (vgl. Frensch 2006).
Verstehen als Informationsverarbeitung
69
wieder vergessen oder aber zur Weiterverarbeitung in das Kurzzeitgedächtnis weitergeleitet. Dabei entscheiden Aufmerksamkeitsprozesse darüber, welche Informationen überhaupt dorthin gelangen. Das Kurzzeitgedächtnis verfügt über ein begrenztes Fassungsvermögen und kann nur eine relativ geringe Menge an eingehenden Informationen verarbeiten und behalten. Es handelt sich hier um die einzige Gedächtnisstufe, auf der die Informationen bewusst werden. Diese können jedoch nur dann länger im Bewusstsein verbleiben, wenn sie permanent wiederholt werden. Es wird angenommen, dass das Kurzzeitgedächtnis einen „chunk“, also sieben plus/minus zwei Elemente behalten kann. Werden mehrere Einzelelemente zu sinnvollen Einheiten strukturiert, erhöht sich die Verarbeitungs- und Speicherkapazität. Während im Sensorischen Register noch keine Verschlüsselung der eingehenden Informationen stattfindet, werden sie im Kurzzeitgedächtnis encodiert. Die Kodierungsform ist meistens akustischartikulatorisch, kann aber auch semantische oder sensorische (also visuelle oder olfaktorische) Formen annehmen. Empirische Untersuchungen zum Kurzzeitgedächtnis führten im Laufe der Zeit dazu, dass die Theorie des Arbeitsgedächtnisses formuliert wurde und den Begriff des Kurzzeitgedächtnisses ablöste (z.B. Baddley 1986; 1997; 2003). Vom Langzeitgedächtnis wird angenommen, dass Informationen in Form von mentalen Repräsentationen relativ dauerhaft und störresistent gespeichert werden. Das Langzeitgedächtnis stellt Speicherplatz für Informationen aus dem Kurzzeitgedächtnis zur Verfügung, die mit Hilfe von Elaborations- und Memorierprozessen dorthin gelangen (vgl. Wessels 1994; Schnotz 1994a; Schermer 2006; Vaterrodt-Plünnecke/ Bredenkamp 2006; Strube/ Herrmann 2006). Nach Tulving (1972) lässt sich das Langzeitgedächtnis in die Bereiche episodisches, semantisches und prozedurales Gedächtnis unterteilen. Episodische und semantische Gedächtnisinformationen werden dabei häufig auch unter dem Begriff „deklaratives Gedächtnis“ zusammengefasst. Während im episodischen Gedächtnis konkrete autobiographische Informationen über Ereignisse und Kontexte in Form von situationsspezifischem Wissen gespeichert werden, enthält das semantische Gedächtnis kontextungebundenes bzw. abstrahiertes Wissen über Regeln, Tatbestände oder Bedeutungen. Semantisches Wissen stellt demnach generelles Wissen über die Welt dar, das hauptsächlich aus Begriffen und deren Beziehungen untereinander besteht. Dabei entsprechen Begriffe (oder auch Konzepte) mentalen Repräsentationen von Kategorien (also Klassen von Gegenständen) wie z.B. Objekte, Personen oder Ereignisse. Diese gehen eine Beziehung in Form von semantischen Netzwerken ein, wobei die Begriffe als Knoten und die
70
Verstehen von Medieninhalten
Beziehungen als Kanten bezeichnet werden. Die Knoten können über die Kanten aktiviert werden. Dabei führt ein hoher Aktivierungsgrad dazu, dass die Information aus dem Gedächtnis abgerufen werden kann. Das prozedurale Gedächtnis entspricht wiederum dem Wissen über automatisch ausgeführte Fertigkeiten, wie es z.B. beim Autofahren angewendet wird (vgl. Wessels 1994; Schnotz 1994a; Schermer 2006; Vaterrodt-Plünnecke/ Bredenkamp 2006; Strube/ Herrmann 2006). Anhand der folgenden (stark vereinfachenden) Abbildung 5 lassen sich die drei Phasen der Informationsverarbeitung darstellen, wobei die mentalen Prozesse, die für das Verstehen relevant sind, auf der jeweiligen Verarbeitungsstufe verortet werden (vgl. Engelkamp/ Zimmer 2006: 5)48:
Abbildung 5: Phasen der Informationsverarbeitung (nach Engelkamp/ Zimmer 2006: 5)
Abbildung 5 lässt sich wie folgt beschreiben: 1. Ein „aktueller Reiz“ trifft auf den sensorischen Speicher und wird zunächst wahrgenommen. Dies entspricht der „peripheren sensorischen Verarbeitung“. 48
Im Original dient die Abb. 5 zur Visualisierung zentraler Themen der erkenntnisorientierten Psychologie der Informationsverarbeitung (vgl. Engelkamp/ Zimmer 2006: 5).
Verstehen als Informationsverarbeitung
71
2.
Die wahrgenommene Information wird anschließend zur weiteren Verarbeitung in die „zentrale Verarbeitung“ des Arbeitsspeichers weitergeleitet. 3. Da sich Arbeits- und Langzeitgedächtnis in einem ständigen Austausch befinden, wird der „aktuelle Reiz“ in der „zentralen Verarbeitung“ mit den im „Langzeitgedächtnis“ gespeicherten „vergangenen Reizereignissen“ abgeglichen. Dies führt zur Inferenzbildung. 4. Das Ergebnis („Reaktion“) der Inferenzen umfasst das bewusste „Erkennen“, „Verstehen“ und „Erinnern“ von Reizen bzw. Reizzusammenhängen im „Bewusstsein“. Allerdings lassen sich ohne adäquates Wissen und ohne verlässliche Enkodierungsstrategien die beschriebenen mentalen Repräsentationen nicht bilden, denn: „Verstehen ist wissensintensiv“ (Kintsch 1994: 41, Hervorhebung im Original). Damit beschreibt Kintsch treffend die Rolle des Wissens im Verstehensprozess. Als besonders bedeutsam wird das Vorwissen betrachtet, das in Form von Schemata organisiert ist.49 Christmann (2004: 431) nennt hier das „bereichsspezifische“ Vorwissen, das jegliches Wissen beschreibt, das im Zusammenhang mit dem Thema eines Textes oder eines Fernsehbeitrags steht. Deppert (2001) spricht auch von „themenspezifischem“ Vorwissen. Durch das bereichs- bzw. themenspezifische Vorwissen wird die Aufmerksamkeit des Rezipienten auf bestimmte Aspekte einer Nachricht gelenkt. Zugleich hilft es, neue Informationen in die bereits vorhandene Wissensstruktur zu integrieren und somit das Behalten zu erleichtern (vgl. Christmann 2004: 432). Demnach gilt: Je besser Medieninformationen zum Vorwissen passen, desto einfacher und besser kann der Rezipient diese verstehen. Verstehen findet somit immer vor dem Hintergrund des bereits Verstandenen statt, das wiederum als Vorwissen verfügbar ist (vgl. auch Berry et al. 1980; Ruhrmann 1989; Gunter et al. 1997). Ein weiterer bedeutsamer Einfluss geht vom medienspezifischen Wissen aus. Unter medienspezifischem Wissen lassen sich alle Kenntnisse und Erfahrungen zusammenfassen, die ein Rezipient im Laufe der Zeit über das Medium und seine Inhalte erworben hat (vgl. Schwan/ Hesse 2004).
49
Da im Kapitel 4.3.1.2 „Textverstehen“ schematheoretische Verstehensmodelle ausführlich dargestellt werden, wird an dieser Stelle auf eine weitere Erläuterung verzichtet. Für das Verständnis des Lesers ist es an dieser Stelle noch nicht erforderlich, detaillierte Kenntnisse über den organisatorischen Aufbau von Wissensstrukturen zu erhalten.
72
Verstehen von Medieninhalten
Somit lassen sich die für den Verstehensprozess relevanten kognitiven Verarbeitungsmechanismen wie folgt zusammenfassen: Der Verstehensprozess… → verläuft über die stufenweise Informationsverarbeitung des Sensorischen Gedächtnisses, des Arbeitsgedächtnisses und des Langzeitgedächtnisses; → basiert auf episodischem, semantischem oder prozeduralem Wissen des Langzeitgedächtnisses u.a. in Form von themenspezifischem oder medienspezifischem Vorwissen; → ist abhängig von der Verarbeitungskapazität, der Dauer der Informationsverfügbarkeit und der Art der Informationsverschlüsselung; → erfolgt durch die Interaktion zwischen Arbeits- und Langzeitgedächtnis, indem eine aktuelle Information mit bereits gespeichertem Wissen in Verbindung gebracht wird.
Nachdem die grundlegenden kognitiven Verstehensmechanismen beschrieben werden konnten, wendet sich das folgende Kapitel den verschiedenen Formen des Verstehens zu. Diese sind für die theoretische Modellierung relevant, da die Audio-Visualität von TV-Wissenschaftsfilmen sowohl zu visuellen als auch zu verbalen internen Repräsentationen führt. 4.3 Formen des Verstehens Verstehen lässt sich in die drei Verstehensformen Sprachverstehen (vgl. Kap. 4.3.1), Bildverstehen (vgl. Kap. 4.3.2) und Text-Bild-Verstehen (vgl. Kap. 4.3.3) unterscheiden. Dabei handelt es sich nicht um originäre Konzepte und Modelle. Vielmehr werden die theoretischen Annahmen zum Sprach- und Bildverstehen in die Text-Bild-Verstehensmodelle integriert, die wiederum die Grundlage audiovisueller Verstehenskonzepte bilden (vgl. Kap. 4.4). Ziel der Darstellung ist es, aktuelle theoretische und empirische Befunde zu den Verstehensformen zu erläutern und auf ihre Relevanz für die Fragestellung dieser Studie zu bewerten.
Formen des Verstehens
73
4.3.1 Sprachverstehen Als Sprachverstehen wird sowohl die Wahrnehmung als auch die Verarbeitung und Interpretation von Sprache verstanden. Dabei vollzieht sich der Verstehensprozess bei jedem Menschen zumindest bei einfachen Sätzen und Texten nahezu automatisch und unbewusst. Erst wenn etwas verstanden wird, dringt es ins Bewusstsein (vgl. Strube/ Herrmann 2006: 287). Die Analyse und Beschreibung des Sprachverstehens geht gegenwärtig vor allem von der kognitiven Sprachpsychologie aus. Sie begreift das Sprachverstehen als Prozess der Informationsverarbeitung, bei dem auf allgemeines und sprachspezifisches Wissen zurückgegriffen wird. So erfordert Sprachverstehen vom Hörer bzw. Leser ein grundlegendes sprachspezifisches Wissen. Folgende Wissensdimensionen müssen dabei zur Verfügung stehen: (1) lexikalisches Wissen in Form des Wortschatzes, (2) grammatikalisches Wissen über Wort- und Satzstellung sowie (3) pragmatisches Wissen, das Auskunft über Sprachstil und situationsadäquate Verwendungsweisen gibt. Das sprachspezifische Wissen lässt sich im Langzeitgedächtnis verorten, wobei insbesondere das grammatikalische Wissen prozeduralen Charakter hat. Darüber hinaus muss der Verstehende über deklaratives Wissen in Form von begrifflichem Wissen verfügen, mit dem er die Bedeutung von Wörtern erkennt. Für ein angemessenes Sprachverstehen ist zudem allgemeines Weltwissen bzw. Hintergrundwissen notwendig, das auf die zu verstehende Aussage angewendet wird (vgl. Strube/ Herrmann 2006: 283, siehe auch Kap. 4.2.). Zur Erklärung des Sprachverstehens werden linguistische und psychologische Modelle entwickelt und integriert, wobei sich die Forschung zum Sprachverstehen in die Teilprozesse Wort-, Satz- und Textverstehen unterteilen lässt (vgl. Strube/ Herrmann 2006). Dabei wird das Zuhören im Vergleich zum Lesen als der grundlegendere Prozess von beiden angesehen. Zugleich wird davon ausgegangen, dass beim Sprach- und Textverstehen größtenteils dieselben Faktoren bedeutsam sind. Während sich die Forschung zum Satzverstehen allerdings auf einzelne, isolierte Sätze bezieht, werden diese beim Textverstehen in einen größeren Kontext gestellt (vgl. Anderson 2007). Somit bildet das Verstehen von Sätzen und Texten eine relevante Größe für die theoretische Begründung zum Verstehen von TV-Wissenschaftsfilmen, da in Wissenschaftsfilmen die sprachliche Vermittlung der Inhalte überwiegt. Daher widmet sich Kapitel Kap. 4.3.1.1 dem Satzverstehen und Kap. 4.3.1.2 dem Textverstehen.
74
Verstehen von Medieninhalten
4.3.1.1 Satzverstehen Satzverstehen lässt sich als ein Prozess darstellen, der über drei Stufen verläuft. Die Stufen sind zum Teil zeitlich geordnet, können sich aber auch überschneiden. Auf der ersten Stufe wird die Sprache zunächst wahrgenommen (Wahrnehmung), auf der zweiten Stufe folgt das Parsing und auf der dritten Stufe kommt es schließlich zur Verwendung (vgl. Anderson 2007): Stufe 1 Wahrnehmung: Bei der Sprachwahrnehmung geht es darum, sowohl den physikalischen Stimulus als auch den sprachlichen Kontext zu erkennen und die Mitteilung, die aus Phonemen50 und Wörtern besteht, zu enkodieren. Stufe 2 Parsing: Als Parsing wird der Prozess bezeichnet, durch den die Wörter einer Mitteilung und deren Bedeutung in eine mentale Repräsentation überführt werden. Eine mentale Repräsentation ist ein vom Hörer entwickeltes kognitives Modell, mit dem Objekte und Ereignisse in ihren wesentlichen Eigenschaften abgebildet werden (vgl. Rickheit/ Strohner 1993: 15; Zimmer 2006). Dies erfolgt über die syntaktische Analyse, mit der grammatische Funktionen erfasst werden. Dabei geht es darum zu begreifen, „wer was mit wem tut bzw. worüber etwas ausgesagt wird“ (Strube/ Herrmann 2006: 288). Parsing beinhaltet, dass ein Zuhörer bestimmte Satzmuster in Form von Phrasen (oder auch Konstituenten) identifiziert. Dabei wird jedes Wort eines Satzes unmittelbar interpretiert, um möglichst viele Informationen extrahieren zu können. Darüber hinaus enthalten Sätze syntaktische Hinweise in Form von Wortreihenfolgen und Flexionsstrukturen, die das Verstehen ebenfalls unterstützen. Wörter und Sätze werden jedoch nicht nur über die syntaktische Struktur verständlich gemacht. Oftmals helfen auch plausible semantische Annahmen über die Bedeutung einzelner Wörter und ihrer Aussage, wobei diese wiederum mit syntaktischen Hinweisen verknüpft werden können. Oftmals enthalten Sätze auch mehrdeutige Wörter oder Phrasen (sogenannte Garden-Path-Sätze51), die erst durch Re-Interpretationen verständlich gemacht werden (vgl. Anderson 2007: 455-477; Irmen 2006).
50
Phoneme sind Sprachlaute, durch die die Bedeutung von Wörtern erkannt wird. Dabei können die Buchstaben eines Wortes mit dem Laut übereinstimmen oder nicht. Für solche Fälle wurden Lautalphabete entwickelt, die als Aussprachehilfen verwendet werden, so z.B. für die Aussprache des Doppel-„e“ im englischen Begriff „bee“ [i:]. 51 Vgl. zum Garden-Path-Model Frazier und Rayner (1982).
Formen des Verstehens
75
Stufe 3 Verwendung: Die Verwendung des Gehörten entspricht dem eigentlichen Verstehen. Dabei werden semantische Interpretationen vorgenommen, indem ein mentales Modell des vom Sprecher Gemeinten konstruiert und in das vorhandene Wissen integriert wird. Als mentale Modelle werden kognitive Repräsentationen bezeichnet, die den beschriebenen Sachverhalt losgelöst von sprachlichen Strukturen in einer analogen Weise intern abbilden (vgl. Johnson-Laird 1983; Gentner/ Stevens 1983). Sie sind demnach anschaulich vorstellbar. Dies erfordert vom Hörer Vorwärts- und Rückwärtsinferenzen. Bei Rückwärtsinferenzen wird ein Satz mit vorangegangen Informationen oder Vor- und Hintergrundwissen verbunden. Mit den Vorwärtsinferenzen werden Erwartungen an zukünftige Schlussfolgerungen hergestellt. Grundlegend für das Verstehen ist demnach, dass das mentale Modell mit dem Wissen vereinbar sein muss und es somit möglich wird, aus dem Gehörten Schlüsse zu ziehen (vgl. Strube/ Herrmann 2006; Irmen 2006; Anderson 2007). Aus psycholinguistischer Perspektive ist Sprachverstehen nicht nur Kognition, sondern auch Kommunikation. Sprachverstehen wird demnach nicht nur unter dem Aspekt der Informationsverarbeitung betrachtet, vielmehr werden auch individuelle, situative und kulturelle Rahmenbedingungen als wichtig erachtet. Das bedeutet, dass erst die psycholinguistische Perspektive zu einer dem dynamisch-transaktionalen Ansatz entsprechenden Auffassung des Sprachverstehens führt, da hier Inter-Transaktionen zwischen Kommunikator und Rezipient hervorgehoben werden. So wird angenommen, dass das Sprachverstehen von der jeweiligen Situation, den jeweiligen situativen Konventionen und dem gemeinsamen Wissenshintergrund der Kommunikationspartner abhängt (vgl. Rickheit 1995). Neben dem syntaktischen und semantischen Wissen wird somit eine weitere Wissensdimension relevant: das pragmatische Wissen. Das pragmatische Wissen beschreibt die Kenntnis über die Beziehung zwischen der Intention eines Sprechers und dessen Aussage und steht in einem engen Zusammenhang mit den beiden anderen Wissensdimensionen. So muss ein Hörer, um einen Satz vollständig zu verstehen, nicht nur die wörtliche, sondern auch die intendierte Bedeutung erfassen. Nimmt ein Hörer beispielsweise einen Scherz ernst, wird zwar die wörtliche, nicht jedoch die intendierte Bedeutung erfasst. Zu Schlussfolgerungen gelangt er erst über das pragmatische Wissen. Hilfreich können dabei auch Kontextinformationen sein. Sie helfen insbesondere bei linguistischen Mehrdeutigkeiten von Wörtern oder Sätzen deren Bedeutung angemessen zu interpretieren (vgl. Wessels 1994). Nun reicht es jedoch nicht aus, einzelne Sätze auf ihre syntaktische Struktur und auf die Bedeutung der Wörter, Phrasen oder Satzteile hin zu analysieren, um die gesamte Botschaft zu verstehen. Damit ein Zuhörer oder Leser versteht, muss erfasst werden, wie die Sätze
76
Verstehen von Medieninhalten
miteinander zusammenhängen. Erst dadurch kann er Sätze zu einer kohärenten Botschaft oder zu einem Thema zusammenfügen. Er muss also die Informationen aus „verschiedenen, thematisch jedoch zusammenhängenden Sätzen integrieren“ (Wessels 1994: 319f). Schlägt die Integration fehl, versteht also der Zuhörer die Information nicht, kann dies mitunter von der Struktur der Botschaft abhängen. In diesem Fall hat der Sprecher gegen bestehende soziale Konventionen verstoßen, wie sie auch Habermas mit seinen universellen Geltungsansprüchen „Verständlichkeit“, „Wahrheit“, „Wahrhaftigkeit“ und „Richtigkeit“ beschreibt (vgl. Habermas 1981). Demnach kann Verständigung nur auf Basis der gemeinsamen Anerkennung und Einhaltung der Geltungsansprüche beider Kommunikationspartner zustande kommen, wobei diese Regeln häufig implizites Wissen darstellen und Teil des pragmatischen Wissens sind. Daher formulierten Clark und Clark (1977) den „Kontrakt von vorhandenen und neuen Informationen“. Der Kontrakt besagt, dass es zu den Aufgaben des Sprechers gehört, neue Informationen so anzubieten, dass sie dem Zuhörer auch auffallen. Zudem soll er an solche Informationen anknüpfen, über die der Zuhörer bereits verfügt (vgl. Wessels 1994: 321). Für das Verstehen seitens des Hörers ist es demnach entscheidend, dass der Sprecher nach diesen Regeln handelt und seine Sätze dementsprechend verständlich formuliert. Der Verstehensprozess erfolgt dann in den folgenden drei unterscheidbaren Schritten: „Schritt 1: Identifiziere die vorhandene und die neue Information. Schritt 2: Suche im Gedächtnis nach einer Proposition, die zu der vorhandenen Information passt; nenne diese die antezendente Proposition. Schritt 3: Integriere die neue Information in das Gedächtnis, indem diese der antezendenten Proposition beigefügt wird.“ (Clark 1977; 1978, zit. nach Wessels 1994: 323)
Diese Verstehensstrategie wird in der Regel nicht bewusst angewendet, sondern läuft, zumindest in einfachen Situationen, automatisch ab. Fehlt jedoch die antezendente Proposition, kann kein Verstehen zustande kommen. Allerdings wird angenommen, dass bei fehlenden antezendenten Propositionen Brückenannahmen oder Implikationen gebildet werden, um unverständliche Textstellen integrieren zu können. Diese überbrückenden Annahmen werden als geschlussfolgerte antezendente Propositionen bezeichnet, die sich aus dem Alltagwissen des Zuhörers ableiten (vgl. Wessels 1994: 324ff). Diese Fähigkeit ermöglicht es, dass ein Sprecher nicht explizit alles sagen muss, was er ausdrücken möchte. Er kann auch Teile der Botschaft weglassen, wenn er annimmt, dass der Hörer bereits über derartige Informationen verfügt oder diese aufgrund seines Weltwissens erschließen kann. Werden diese Konventionen allerdings nicht eingehalten, kann es zu erheblichen Missverständnissen oder zum Nicht-Verstehen kommen (vgl.
Formen des Verstehens
77
Rickheit 1995). Zudem können individuelle Einstellungen, Interessen und Emotionen sowohl des Sprechers als auch des Hörers zur Informationsselektion und zu unterschiedlichen Interpretationen führen, was den Verstehensprozess wiederum begünstigen oder verhindern kann (vgl. Rickheit/ Strohner 1993; Rickheit 1995). Es zeigt sich somit, dass die Modelle des Satzverstehens in besonderer Weise den Prämissen des dynamisch-transaktionalen Ansatzes und damit auch dem hier zu entwickelnden „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ entsprechen. Neben den intra-transaktionalen Beziehungen zwischen den verschiedenen Wissensformen und individuellen Einflussgrößen des Zuhörers wird das Verstehen auch durch die Inter-Transaktionen zwischen Sprecher und Zuhörer beeinflusst. So lässt sich bei TV-Wissenschaftsfilmen annehmen, dass sowohl auf Seiten der Redakteure und als auch auf Seiten der Zuschauer Konventionen darüber bestehen, wie ein wissenschaftlicher Sachverhalt im Fernsehen angemessen erläutert werden kann. Darüber hinaus können beide Seiten aktiv Einfluss darauf nehmen, welche Verstehensstrategien angewendet werden sollen. Obwohl sich die Satzverstehensmodelle für das „Verstehensmodell audiovisueller Wissenschaftsvermittlung“ als theoretisch ergiebig gezeigt haben, müssen sie dennoch ergänzt werden. So enthalten TV-Wissenschaftsfilme zwar eine Vielzahl von einzelnen Sätzen, diese werden jedoch in jedem Beitrag zu einer komplexen Textstruktur zusammengefügt. Deshalb sollen im Folgenden Textverstehensmodelle betrachtet werden. Da die bislang dargestellten Wissensdimensionen und Verstehensvoraussetzungen grundlegende Mechanismen des Sprachverstehens darstellen, beziehen sie sich nicht nur auf das hier beschriebene Satzverstehen. Sie gelten für alle sprachlichen Verständigungssituationen und somit auch für das Textverstehen. Sätze organisieren Texte in einzelne Textabschnitte und stehen immer im Zusammenhang mit dem Gesamttext und der inhaltlichen Gesamtaussage (vgl. Anderson 2007). Allerdings sind keine Textverstehensmodelle bekannt, die die Gesamtheit der syntaktischen und semantischen Analyse inklusive der Konstruktion einer Textrepräsentation durch den Rezipienten vollständig abdecken. Vielmehr wird in den Modellen des Textverstehens vorausgesetzt, dass die syntaktische und semantische Analyse bereits angewandt wurde. Einigkeit besteht jedoch darüber, dass ein Textinhalt als Wissensstruktur beim Rezipienten repräsentiert wird (vgl. Strube/ Herrmann 2006: 308). Im folgenden Kapitel sollen daher die wichtigsten Textverstehensmodelle und Forschungsbefunde erläutert werden.
78
Verstehen von Medieninhalten
4.3.1.2 Textverstehen Unter dem Begriff Textverstehen lassen sich alle kognitiven Vorgänge fassen, die beim Leser während und nach der Rezeptionsphase eines Textes ablaufen. Die gegenwärtige Auffassung ist, dass Textverstehen ein konstruktiver und informationsschaffender Prozess der Sinngebung ist, bei dem auf der Grundlage des Vor- und Weltwissens aktiv neue Informationen in die Wissensstruktur des Lesers eingefügt werden. Diese kognitive Konstruktivität äußert sich letztendlich in der Fähigkeit des Lesers, Schlussfolgerungen, Elaborationen und Strukturierungsprozesse auf Basis des Textes vorzunehmen. Da sich dies bereits bei der Verarbeitung auf Wort- und Satzebene belegen lässt, stellt das Textverstehen eine logische Konsequenz des Sprachverstehens dar. Demnach wird Textverstehen als eine Interaktion zwischen dem Text und der kognitiven Struktur des Lesers konzeptualisiert, bei der parallel Bottom-up- und Top-down-Prozesse der Informationsverarbeitung ablaufen. Bottom-up-Prozesse entsprechen dabei einem textgeleiteten, Top-down-Prozesse einer erwartungsgeleiteten Informationsverarbeitung (vgl. Engelkamp 1984; Christmann 2006). Die Entwicklung der Textverstehensforschung lässt sich in zwei Positionen unterteilen, die dazu beigetragen haben, dass das Textverstehen als ein konstruktivistischer und wechselseitiger Prozess aufgefasst wird. Lag der Fokus zunächst auf dem textgesteuerten Verstehen, bei dem Textverstehen als eine mentale Repräsentation von Textoberfläche und Textbedeutung angesehen wurde, berücksichtigte man später deutlicher den Einfluss der Verarbeitungsprozesse seitens der Rezipienten. Beide Positionen wurden dann zu integrativen Textverstehensmodellen zusammengeführt, von denen gegenwärtig zwei Theorien in der Psychologie dominieren: das Construction-Integration-Model von Kintsch (1988; 1998) und die Theorie der mentalen Modelle von Johnson-Laird (1983; 1989).52 Beide Theorien zeichnen sich dadurch aus, dass sie durch die Integration der zwei Positionen dem dynamisch-transaktionalen Ansatz in besonderer Weise gerecht werden. Daher werden zunächst die textgeleiteten und rezipientenorientierten Modelle vorgestellt und abschließend darauf aufbauend die integrative Perspektive erläutert.
Textgeleitete Verstehensmodelle In der Kognitionspsychologie wird mehrheitlich angenommen, dass Verstehen propositional verläuft. Propositionen können dabei als eine hypothetische menta52
Diese Klassifizierung der Textverstehensforschung orientiert sich an den Arbeiten von Christmann (1989; 2000; 2006) sowie Christmann/ Groeben (1996; 1999).
Formen des Verstehens
79
le Sprache beschrieben werden, die mit Hilfe von Symbolen repräsentiert wird (vgl. Schnotz 2003: 26). Diese Annahme geht auf Kintsch (1974) bzw. Kintsch und van Djik (1978) zurück, die die propositionalen Strukturen im Langzeitgedächtnis verorten. Die Proposition bildet eine elementare Aussage, „die aus einer Relationsangabe und einer Reihe von Argumenten besteht. Die Relationsangabe – gewöhnlich ein Verb – sagt, in welcher raumzeitlichen Beziehung eine Reihe von Objekten zueinander stehen“ (Dörner 2005: 189). Chafe (1970) und Fillmore (1968) verstehen Propositionen als den Sätzen zugrunde liegende Zuschreibungen von Zuständen und Zustandsänderungen. Während Zustände und Zustandsänderungen als Prädikate dargestellt werden, entsprechen Zustandsträger und die von Zustandsänderungen betroffenen Personen und Objekte den Argumenten. Die Argumente lassen sich nach Argumententypen unterscheiden und entsprechend ihrer Beziehung zum Prädikat als Agenten, Objekte, Instrumente oder Nutznießer etc. klassifizieren (vgl. Engelkamp/ Zimmer 2006). Die Struktur einer Proposition lässt sich demnach wie folgt darstellen (die folgenden Beispiele sind aus Engelkamp/ Zimmer 2006: 182 übernommen): Prädikat (Argument 1, Argument 2, …) Der Satz „Der Bäcker verkauft das Brot an den Kunden“ enthält also folgende Proposition: verkaufen (Agent: Bäcker; Objekt: Brot; Nutznießer: Kunde) Oftmals sind Sätze jedoch komplexer strukturiert und enthalten Propositionen höherer Ordnung. Diese können durch einzelne Propositionen dargestellt werden, die dann wiederum als Argumente fungieren. Der folgende Beispielsatz drückt eine Ursache-Wirkungs-Beziehung zwischen zwei Ereignissen aus: „Weil der Mann Alkohol getrunken hat, ist er gegen das Fahrrad gelaufen“. Die Propositionen zu diesem Satz lauten dann: Proposition 1: trinken (Agent: Mann; Objekt: Alkohol) Proposition 2: laufen gegen (Agent: Mann; Objekt: Fahrrad) Ursache – Wirkung (Ursache: Proposition 1; Wirkung: Proposition 2) Entsprechend dieser Prädikatenlogik53 kann nun jeder Text propositional dargestellt werden, indem 53
Die Prädikatenlogik geht auf Gottlob Frege (1879) zurück und bildet die Logik der Beziehungen von Dingen zueinander ab (vgl. Dörner 2005: 189).
80
Verstehen von Medieninhalten
„ein Text mithilfe eines expliziten Regelsystems in eine Liste von Propositionen „übersetzt“ wird, die auf der Grundlage der lokalen Kohärenzverhältnisse (insbesondere der Koreferenz, d. h. der wiederholten Bezugnahme auf den gleichen Referenten) miteinander verknüpft und in eine hierarchische Textstruktur gebracht werden. Die Hierarchiehöhe von Propositionen bestimmt sich danach, ob und in welchem Ausmaß sie sich auf denselben Referenten beziehen, also Argumente enthalten, die in nachfolgenden Propositionen wieder auftauchen“ (Christmann 2006: 614).
Was hat nun das Propositionskonzept mit der menschlichen Fähigkeit zu tun, einen Sachverhalt verstehen zu können? Die Antwort liegt darin, dass das Konzept Verstehensprozesse simuliert, indem es Sachverhalte miteinander in Beziehung setzt. Es wird davon ausgegangen, dass beim Verstehen von Sprache und Texten entsprechende Prozesse ablaufen (vgl. Dörner 2005). So müssen nach der propositionalen Textverstehens-Theorie von Kintsch (1974) beim Verstehen neue mit früheren, bereits verarbeiteten Propositionen verknüpft werden. Dies funktioniert vor allem bei solchen Propositionen gut, die bereits bekannte Konzepte enthalten. Zudem werden diejenigen Propositionen besser behalten, die eine übergeordnete bzw. hierarchisch höhere Stellung in der propositionalen Struktur des Textes einnehmen. Dies führte Kintsch (1977) bzw. Kintsch und van Dijk (1978) zu der Annahme, dass ein Text makrostrukturell organisiert ist. Daher entwickelten Kintsch und van Dijk (1978) eine erste prozedurale Theorie der Textverarbeitung, bei der sie von einer zyklischen Textverarbeitung ausgehen. Unter einem Zyklus verstehen die Autoren die Zeitspanne, in der eine für die Kohärenzbildung relevante Proposition im Arbeitsgedächtnis verweilt, bis ein neuer Zyklus beginnt. Innerhalb des neuen Zyklus werden dann nach der sogenannten Leading-Edge-Strategie neue Propositionen für die Verarbeitung ausgesucht, wobei deren Hierarchieebene und der Zeitpunkt des Auftretens einer Proposition berücksichtigt wird (Rickheit/ Strohner 1989; 1993). Zugleich gehen Kintsch und van Dijk (1978) davon aus, dass die Kapazität des Arbeitsgedächtnisses auf durchschnittlich vier Propositionen beschränkt ist. Dies kann dazu führen, dass eine neue Proposition nicht mit dem Text verbunden werden kann, da die entsprechend relevante vorherige Proposition nicht mehr aktiv ist. Dies kann überwunden werden, indem eine Proposition aus einem bereits verarbeiteten Textteil reaktiviert (Reinstatement) oder, wenn dies misslingt, eine Inferenz zum Vor- bzw. Weltwissen hergestellt wird. Die Beschränkung des Arbeitsgedächtnisses führt zudem dazu, dass der Leser eine Auswahl zu treffen hat, welche Proposition über längere Zeit aktiv gehalten und welche ausgesondert wird. Kintsch und van Dijk (1978) stellen somit eine Verbindung zwischen Verarbeitungsprozessen und Gedächtnis her und verweisen damit auf die Notwendigkeit,
Formen des Verstehens
81
das rezipientengeleitete Verstehen stärker zu berücksichtigen (vgl. Rickheit/ Strohner 1993; Anderson 2007).
Rezipientengeleitete Verstehensmodelle Rezipientengeleitete Textverstehensmodelle berücksichtigen in besonderer Weise die Bedeutung der Wissensstruktur beim Rezipienten, die auch als Wissensschema bezeichnet wird. Damit rücken schematheoretische Ansätze in die theoretische Begründung des Textverstehens, die insbesondere auf Bartlett (1932) zurückgehen. Seine Annahme war, dass das Verstehen grundsätzlich davon beeinflusst wird, was man bereits weiß, was erwartet wird und welche Ziele verfolgt werden (vgl. auch Edwards/ Middleton 1987). Schemata lenken somit die Aufmerksamkeit und führen dazu, Textinformationen in relevante und irrelevante Informationen einzuteilen (vgl. Rumelhart 1975; 1980). Schemata lassen sich als kognitive Strukturen beschreiben, die Wissen über typische Zusammenhänge von Realitätsbereichen im Langzeitgedächtnis repräsentieren. Sie sind hierarchisch organisiert und verfügen über übergeordnete Schemata und Subschemata. Zwei Verarbeitungsprozesse lassen sich unterscheiden: 1. Die datengeleitete bzw. bottom-up-Verarbeitung versucht ein Schema zu identifizieren, das gut auf die eingehende Textinformationen passt. 2. Darauf folgt die konzeptgesteuerte top-down-Verarbeitung, bei der das vorab identifizierte Schema sowohl für die Verarbeitung nachfolgender Informationen als auch für die Aktivierung weiterer Schemata verantwortlich ist (vgl. Brosius 1991; Matthes 2004). Schemata sind dynamisch und änderungsfähig (vgl. Wessels 1994). Dabei wird angenommen, dass das Verstehen eines Textes davon geleitet wird, inwieweit bestehende Schemata entweder aktiviert, modifiziert oder umstrukturiert oder aber neue Schemata gebildet werden, um die Textinformationen mit dem bestehenden Wissen zu verknüpfen (vgl. Jahr 1996). Entscheidend sind dabei sogenannte „Slots“, die variable Leerstellen in den Schemata darstellen und „durch konkrete Informationen gefüllt oder durch hypothetische Konzepte besetzt werden können“ (Christmann/ Groeben 1999: 167). Dementsprechend sind sie dafür verantwortlich, die Aufmerksamkeit auf schemarelevante Informationen zu lenken und die Integration und Interpretation neuer Informationen zu erleichtern. In der Abrufphase steuern sie wiederum die Rekonstruktion des gespeicherten Wissens (vgl. Christmann 2006: 615, sowie Mandl et al. 1988). Die Schematheorie blieb allerdings nicht ohne Kritik. So wurde insbesondere kritisiert, dass sie zu unspezifisch sei, um Textverstehen angemessen erklären
82
Verstehen von Medieninhalten
und prognostizieren zu können. Somit sei sie auch nicht falsifizierbar (vgl. Rickheit/ Strohner 1993; Eysenck/ Keane 2002). Daher wurde die Schematheorie konkretisiert, wobei sich die Textverstehensforschung vor allem auf die Skripttheorie und Geschichtengrammatik konzentrierte (vgl. Christmann/ Groeben 1999). Die Skripttheorie geht auf Schank und Abelson (1977) zurück und bezieht sich auf das Wissen über bestimmte, stereotype Handlungssequenzen. Die beiden Autoren haben dies am Beispiel eines Restaurantbesuchs untersucht. Ein Skript entspricht demnach einem Schema und gibt Auskunft darüber, was bei einem Restaurantbesuch erwartet werden kann und wie man sich dabei zu verhalten hat. Skripte sind hierarchisch und sequenziell organisiert und verfügen ebenso wie Schemata über Leerstellen. Im Unterschied zum Schema gibt das Skript jedoch Auskunft über die Reihenfolge von Handlungen und Ereignissen. Allerdings unterscheidet Abelson (1981) starke und schwache Skripte. Während das starke Skript eine klar definierte Reihenfolge von Handlungen und Ereignissen aufweist, unterstellen schwache Skripthandlungen die Vorstellung von potenziellen Abläufen. Beim Textverstehen wird daher angenommen, dass die Stärke des Skripts die Erwartung an den weiteren Handlungsverlauf eines Textes leitet (vgl. Rickheit/ Strohner 1993: 81-82). Skripte lassen sich zudem in die folgenden drei Kategorien klassifizieren: 1. Situative Skripts, die sich auf bestimmte soziale Situationen beziehen, 2. Personenbezogene Skripts, die Auskunft über Erwartungen und Verhaltensweisen von Personen zueinander geben sowie 3. Instrumentelle Skripts, die in Verbindung mit bestimmten Erwartungen und Zielen stehen (vgl. Banyard/ Hayes 1995: 137). Solche Skripte ermöglichen es dem Rezipienten, bei fehlenden Textinformationen Rekonstruktionen und Ergänzungen vorzunehmen, die somit das Verstehen unterstützen (vgl. Christmann 2006). Belege dafür lieferten u.a. die Experimente von Bower et al. (1979), in denen Probanden nach typischen Abläufen von Situationen (z.B. einem Restaurantbesuch, Arztbesuch oder den Besuch einer Geburtstagsparty) befragt wurden. Skripte lassen sich demnach als festgelegte, konventionalisierte Handlungsfolgen beschreiben. Im Unterschied zu den Skripttheorien unterliegen die Annahmen der Geschichtengrammatiken bzw. Story Grammar einer weit weniger konventionalisierten Struktur und berücksichtigen zudem Intentionen und Gefühle der handelnden Charaktere (vgl. Engelkamp/ Zimmer 2006). Sie befassen sich mit dem Aufbau von Erzähltexten und beziehen sich auf sogenannte Superstrukturen (oder auch Superpropositionen), deren Regeln Mitte der 1970er Jahre von einer Reihe von Forschern entwickelt wurden (vgl. z.B. Rumelhart 1975; Thorndyke 1977; Mandler/ Johnson 1977; Thorndyke/ Hayes-Roth 1979). Danach umfasst
Formen des Verstehens
83
die allgemeine Grammatik einer Geschichte nach Thorndyke (1977: 79f) folgende Elemente und Regeln: Story -> Setting + Theme + Plot + Resolution. Jedes dieser vier Elemente verfügt über weitere strukturelle Unterelemente, deren Verhältnis zueinander ebenfalls über Regeln definiert ist. Anhand dieser Regeln lässt sich erkennen, welche hierarchische und sequenzielle Position jedes Element im Verlauf einer Geschichte (Story) einnimmt. So besteht das Setting einer Geschichte aus der Angabe der Akteure bzw. Charaktere sowie der Nennung von Ort und Zeit des Geschehens. Das Thema ergibt sich aus einem oder mehreren Anlässen sowie der Zielstellung der Geschichte. Der Plot einer Geschichte besteht aus mehreren Episoden, für die wiederum Teilziele, Lösungsversuche und Resultate definiert werden. Dabei stellt jeder Versuch wiederum ein einzelnes Ereignis dar. Die Geschichte endet mit der Auflösung bzw. Lösung der Geschichte (vgl. auch Black/ Wilensky 1979: 214). Weisen solche Geschichten nun Strukturverletzungen auf, kann es beim Rezipienten zu Verstehensschwierigkeiten kommen. Thorndyke (1977) konnte zudem belegen, dass hierarchisch höhere Handlungsinformationen am besten erinnert werden. Im Zusammenhang mit der Themennennung zeigte sich, dass die Erinnerung an die Geschichte am besten ausfiel, wenn das Thema zu Beginn genannt wird. Das Problem der Story Grammars besteht jedoch darin, dass sie zwar die Grammatik von Erzähltexten treffend strukturieren können, diese Struktur allerdings in realen Geschichten nur bedingt eingehalten wird. Problematisch ist auch, dass die Zuordnung der Geschichtenstruktur im subjektiven Ermessen des Forschers liegt, was die Vergleichbarkeit der Ergebnisse erschwert (vgl. Engelkamp/ Zimmer 2006). Zudem konnte belegt werden, dass auch der semantische Gehalt einzelner wichtiger Textelemente im Gesamtzusammenhang sowie die Art und Anzahl ihrer Relationen für das Verstehen relevant sind (vgl. Christmann/ Groeben 1999; Christmann 2006). Hinzu kommt, dass sich mit der Story Grammar kaum Aussagen darüber formulieren lassen, welche Verarbeitungsprozesse beim Rezipienten ablaufen (vgl. Eysenck/ Keane 2002). Trotz dieser Kritik liegt der Verdienst der Schematheorien darin, dass sie demonstrieren, welche wichtige Rolle Vorwissen, Zielsetzungen und Erwartungen der Rezipienten im Verstehensprozess übernehmen (vgl. Christmann/ Groeben 1996). So konnte die empirische Forschung zeigen, dass Rezipienten ihr Wissen flexibel nutzen, um Texte zu verstehen. Allerdings zeigen sich schematheoretische Modelle noch als zu unflexibel, um dem Verstehensprozess gänzlich gerecht zu werden (vgl. Christmann 1989; 2000; 2006). Daher stellen die weiterentwickelten integrativen Modelle eine entsprechende Alternative dar, die seit Beginn der 1980er Jahre die Verstehensforschung dominieren.
84
Verstehen von Medieninhalten
Integrative Verstehensmodelle Als die derzeitig populärsten Textverstehensmodelle der kognitiven Psychologie können (1) die Theorie der Mentalen Modelle von Johnson-Laird (1980; 1983; 1989; 2004; 2005) und (2) das Construction-Integration-Modell von Kintsch (1988; 1998) angesehen werden.
(1) Die Theorie der Mentalen Modelle Johnson-Laird (2005: 187ff) versteht unter einem Mentalen Modell eine dynamische mentale Repräsentation, in der die Relationen zwischen Objekten und deren Eigenschaften innerhalb von Ereignissen und Prozessen dargestellt werden. Ein im Text dargestellter Sachverhalt wird demnach mit Hilfe des Mentalen Modells zu einer konkreten analogen Vorstellung des Realitätsausschnittes. Somit lässt sich ein Mentales Modell nach Schnotz (1988; 1994b) als eine holistische Auffassung des Textverstehens beschreiben, da beim Textverstehen eine mentale Repräsentation gebildet wird, „die von vornherein ganzheitlichen Charakter hat und im Laufe des Verarbeitungsprozesses zunehmend differenziert und elaboriert wird“ (Schnotz 1988: 308). Die grundlegende Annahme der Theorie der Mentalen Modelle beim Textverstehen ist, dass die mentale Repräsentation eines Textes zwei Ebenen beinhaltet, die aufeinander aufbauen: 1. eine propositionale Repräsentation, die nahe an der linguistischen Textstruktur angelehnt ist und eine Art innere mentale Sprache darstellt (vgl. auch Kap. 4.3.1.2) sowie 2. ein mentales Modell, das den im Text beschriebenen Sachverhalt funktional und strukturell analog repräsentiert, so dass sich ein inneres Bild formiert (Johnson-Laird 1980; 1983). Ein Mentales Modell wird demnach zunächst durch die propositionale Repräsentation aktiviert. Im weiteren Verlauf bezieht der Leser oder Hörer textunabhängiges Vor- und Weltwissen mit ein, so dass das Mentale Modell über den im Text dargestellten Sachverhalt hinaus geht (vgl. Rickheit/ Strohner 1993). Ein Mentales Modell ermöglicht es somit, Prozesse und Handlungen mental zu simulieren. Dabei muss es nicht in allen Einzelheiten mit dem Original übereinstimmen, ausreichend sind hierfür bestimmte, relevante Eigenschaften (vgl. Schnotz 1988: 311). Auf die Rezeption von TV-Wissenschaftsfilmen bezogen bedeutet das, dass der Zuschauer über eine mentale Repräsentation des Textes verfügt, der durch den Off-Sprecher und die auftretenden Akteure (z.B. wissenschaftliche Experten oder Privatpersonen) vermittelt wird. Auf dieser Grundlage konstruiert er dann ein Mentales Modell und formiert ein inneres, ganzheitliches Bild des
Formen des Verstehens
85
beschriebenen Sachverhalts. So bekommt er beispielsweise bei einem Filmthema wie „Stammzellforschung“ eine Vorstellung davon, was Stammzellforschung ist und welche Vorgehensweise dabei notwendig ist. Entscheidend ist, welches subjektive Vor- und Weltwissen aktiviert und auf das Thema angewendet wird. Nach der Theorie der Mentalen Modelle kommt Textverstehen dann zustande, wenn ein einheitliches Mentales Modell konstruiert werden kann. Dabei gilt: Je leichter es konstruiert wird, desto kohärenter ist ein Text strukturiert. Ein Text kann dann als kohärent angesehen werden, wenn er die Bedingungen der Koreferenz und Konsistenz erfüllt. Koreferenz ist gegeben, wenn im Verlauf eines Textes für den Rezipienten erkennbar wiederholt Bezug auf bereits zuvor erwähnte Personen und Objekte genommen wird. Ein Text ist konsistent, wenn die Beziehungen, die zwischen Personen bzw. Objekten und ihren Eigenschaften hergestellt werden, für den Rezipienten plausibel erscheinen. So muss beispielsweise eine Person, die schneller als eine andere läuft, in der gleichen Zeit mehr Wegstrecke zurücklegen (vgl. Engelkamp/ Zimmer 2006: 577-578). Das Lesen eines Textes führt jedoch nicht immer zu einer Neukonstruktion eines Mentalen Modells. Bezieht sich der dargestellte Sachverhalt auf ein bereits aktuelles Mentales Modell, kann das Modell um diese Information erweitert werden. Ebenso können zwei Mentale Modelle zu einem integriert werden, wenn sich der Sachverhalt gleichzeitig auf zwei aktuelle Modelle bezieht. Ein Text kann außerdem dazu führen, dass die darin dargestellten Relationen mit denen des Mentalen Modells verglichen und validiert werden. Darüber hinaus ist es möglich, dass ein Mentales Modell um spezifisches Wissen angereichert wird (vgl. Rickheit/ Strohner 1993: 84-85).
(2) Das Construction-Integration-Model Das von Kintsch (1988; 1998) entwickelte Construction-Integration-Model (kurz CI-Model) weist große Übereinstimmungen mit der Theorie der Mentalen Modelle auf. Es basiert auf den Arbeiten von Kintsch und van Dijk (1978) bzw. van Dijk und Kintsch (1983) und postuliert wie auch die Theorie der Mentalen Modelle einen zweitstufigen Prozess des Textverstehens. Dieser beinhaltet aufbauend auf der syntaktischen Analyse die Konstruktion einer propositionalen Textbasis und die Integration mit dem Vorwissen. So beschreibt Kintsch (1994: 43) das Modell als „Interaktion und Verschmelzung des Textes mit dem aktualisierten Wissen bzw. dem persönlichen Erfahrungsschatz des Verstehenden […]“. Dabei fasst er das Modell als ein hybrides System auf, das sowohl symbolische als auch konnektionistische Aspekte enthält. Zudem geht er davon aus, dass
86
Verstehen von Medieninhalten
textgesteuerte Bottom-up-Prozesse und schemagesteuerte Top-down-Prozesse ineinander greifen (vgl. Kintsch 1994). Eine der grundlegenden Annahmen des CI-Modells ist, dass die Informationsspeicherung konnektionistisch, also in den Verbindungen des neuronalen Netzwerks erfolgt.54 Diese Verbindungen stellen Verknüpfungen zwischen einzelnen Knoten dar, die beim Textverstehen aus Propositionen oder Begriffen (Concepts) bestehen. Jeder Knoten befindet sich immer im Zustand eines bestimmten Aktivierungsniveaus und kann über die Verbindungen einen aktivierenden oder aber hemmenden Input erhalten. Ein hemmender Input entspricht einer sich ausschließenden Beziehung der Knoten. Dazu ein Beispiel (aus Deppert 2001: 91-92): Lautet ein Satz „Ich ging zur Bank“, so handelt es sich bei dem Begriff „Bank“ um ein potenziell mehrdeutiges Wort. Der Satz kann zweierlei ausdrücken: „Ich ging zur Parkbank“ oder aber „Ich ging zum Geldinstitut“. Da es sich hier um einen Widerspruch handelt (man kann nicht gleichzeitig zur Parkbank und zum Geldinstitut gehen), wird im Laufe des Integrationsprozesses die „falsche“ Proposition bzw. der „falsche“ Begriff deaktiviert. Konnektionistisch ausgedrückt bedeutet dies: Erreicht das Aktivierungsniveau einen bestimmten Schwellenwert, wird die Erregung an andere Einheiten weitergegeben oder aber gehemmt. Es handelt sich demnach um ein Prinzip der Aktivierungsausbreitung, wobei die Ausbreitung nicht schrittweise sondern gleichzeitig erfolgt (vgl. Kintsch 1994; Schermer 2006). Die Modellvorstellungen zur Konstruktions- und Integrationsphase lassen sich nun wie folgt beschreiben: 1. In der Konstruktionsphase des CI-Modells umfassen die Verstehensprozesse mehrere Verarbeitungselemente. Zunächst wird der Text anhand von Propositionen konstruiert, um diese dann in einem assoziativen (oder auch neuronalen) Netzwerk miteinander zu verknüpfen. Dabei wird Vorwissen (in Form von Assoziationen) aktiviert, die der Interpretation und Ergänzung der selbst konstruierten textbasierten Knoten dient. Gleichzeitig werden Inferenzen in Form von Brückenannahmen und Makropropositionen gebildet, wobei insbesondere die Brückenannahmen helfen, Kohärenzlücken des Textes zu schließen. Demnach wird in der Konstruktionsphase eine symbolische „Text+Wissen-Repräsentation“ generiert. 2. Auf die Konstruktionsphase folgt die Integrationsphase, in der „zusätzliche Mechanismen angewandt [werden], um zu einer widerspruchsfreien und kohärenten Interpretation des Textes zu gelangen“ (Kintsch 1994: 43; kursive Ergänzung der Autorin, J.M.). Die Integration erfolgt dabei über den Prozess der ausbreitenden Aktivierung, in dem in einer variablen Anzahl von Durch54
Vgl. zu den Modellvorstellungen der neuronalen bzw. konnektionistischen Netzwerke insbesondere Rumelhart/ McClelland (1986) sowie McClelland/ Rumelhart (1986).
Formen des Verstehens
87
gängen die jeweils aktivierten Knoten integriert und deaktivierte Knoten aussortiert werden (vgl. Deppert 2001: 87-97, Eysenck/ Keane 2002: 357-360). Kintsch (1998) fasst Textverstehen somit als einen prozesshaften Vorgang ständiger Konstruktion und Integration auf, der während des Lesens abläuft. Da das Arbeitsgedächtnis nur über eine beschränkte Möglichkeit verfügt, Propositionen zu speichern, wird daher die Konstruktion ins Langzeitgedächtnis integriert, um den nächsten Satz konstruieren zu können. So betrifft der Verarbeitungsprozess immer den aktuell gelesenen Satz, der gleichzeitig mit den Beständen des Langzeitgedächtnisses interagiert (vgl. Deppert 2001: 97-98). Das Ergebnis des Konstruktions- und Integrationsprozesses sind zwei Verstehensebenen, die aus der Repräsentation der Textbasis und der eines Situationsmodells bestehen.55 Die Bezeichnung Situationsmodell wird dabei als Synonym für das Mentale Modell aufgefasst (vgl. Wirth 1997; Dutke 1998; Strube/ Herrmann 2006).56 1. Die Repräsentation der Textbasis ist nahe am Originaltext angelehnt und besteht aus dem propositionalen Netz des Textes. Dieses Netz ist mit Ausnahme des lexikalischen und syntaktischen Wissens nicht mit weiteren Wissensbeständen des Lesers angereichert, so dass eine solche Verstehensebene auch von Lesern ohne entsprechendes thematisches Vorwissen erreicht werden kann. Daher wird diese Verstehensebene als ein relativ oberflächliches Verstehen charakterisiert. 2. Situationsmodelle hingegen beschreiben eine höhere Verstehensebene. Ein Situationsmodell repräsentiert die im Text beschriebene Situation, wobei die mentale Repräsentation über den Text hinaus geht. Grundlage eines Situationsmodells ist jeweils die Textbasis, die mit dem im Langzeitgedächtnis befindlichen Vorwissen in Form von Weltwissen, Wissen über die konkrete Kommunikationssituation und persönlichen Erfahrungen verknüpft wird (vgl. Deppert 2001: 100). Dies geschieht anhand von Inferenzen, die Teil des Situationsmodells sind. Eine weitere Eigenschaft ist, dass Situationsmodelle episodischer Natur sind und sich somit von Schemata und Skripts unterscheiden. Darüber hinaus lassen sie sich als multidimensional beschreiben, da sie neben räumlichen und zeitlichen Aspekten u.a. Personen und deren Charaktereigenschaften, Emotionen, Ziele und 55
Genau genommen handelt es sich nicht um zwei, sondern um drei Verstehensebenen, da die Textoberfläche auf Basis der lexikalischen und syntaktischen Analyse ebenfalls mental repräsentiert wird. 56 Der Unterschied zwischen einem Mentalen Modell und dem Situationsmodell ist, dass ein mentales Modell Sachtexte repräsentiert, während Situationsmodelle auf Basis von narrativen Texten konstruiert werden (vgl. Schwan/ Hesse 2004). Zwar präsentieren TV-Wissenschaftsfilme Sachinformationen, diese werden jedoch häufig durch narrative Elemente vermittelt, so dass sich hier eine Mischform ergibt.
88
Verstehen von Medieninhalten
Kausalzusammenhänge repräsentieren können. Welche Aspekte letztendlich repräsentiert werden, hängt vor allem von deren Wichtigkeit für das Textverstehen ab (vgl. Rinck 2000: 116-117). Nach Wirth (1997: 142-144) lassen sich Situationsmodelle auch in der folgenden Weise charakterisieren. So sind sie: holistisch bzw. ganzheitlich, da sie Sachverhalte einer möglichen Welt enthalten subjektiv, da sie auf individuellen und subjektiven Erfahrungen der Rezipienten beruhen perspektivisch, da Objekte und Sachverhalte von verschiedenen Seiten betrachtet werden und mitunter aktuelle Relevanzsysteme realisiert werden können kontextsensitiv, da sie in der Lage sind, Bedeutungen kontextspezifisch zu konstruieren. Darüber hinaus können Situationsmodelle dem Update des Weltwissens dienen und mitunter auch unvollständig und bruchstückhaft sein, wenn die Texte zu schwierig oder das Vorwissen nur unzureichend vorhanden ist. Die empirische Untersuchung von Situationsmodellen erfolgte bislang unter den Aspekten der räumlichen Anordnungen und Beziehungen, obwohl sie sehr viel mehr Dimensionen beinhalten. Häufig werden den Rezipienten dabei Fragen gestellt, die die Integration mehrerer Textinformationen erfordern sowie die Inferenzziehung evozieren (vgl. auch Kintsch 1998; Deppert 2001). Es wird jedoch zunehmend gefordert, verstärkt auch andere Bestandteile von Situationsmodellen in den Untersuchungen zu berücksichtigen. Dazu zählen z.B. Fragen zu Zeit, Raum, Emotionen oder Kausalitäten einer Situation (vgl. im Überblick Zwaan/ Radvansky 1998; Dutke 1998; Rinck 2000; Christmann 2006). Generell weisen die Ergebnisse der Untersuchungen darauf hin, dass die Annahme von der Konstruktion von Situationsmodellen durchaus plausibel und gültig zu sein scheint. Zudem kommt ihnen eine besondere Bedeutung zu, da sie stärker als die zuvor dargestellten Konzepte das Zusammenspiel von Textinformation und Inferenzen mit dem Vorwissen berücksichtigen. Daher lassen sich die Annahmen zur Konstruktions- und Integrationsphase des CI-Modells mit den im dynamisch-transaktionalen Modell postulierten Prämissen in Verbindung bringen (vgl. Kap. 2). So kennzeichnet sich der Rezipient im CI-Modell insbesondere dadurch, dass er zugleich aktiv und passiv ist. Einerseits selektiert, modifiziert und konstruiert er Textinformationen, andererseits kennzeichnet er sich durch die reine Aufnahme und mentale Repräsentation der Textbasis. Die Wirkung eines Wissenschaftsfilms wird demnach sowohl durch den Film selbst (erste Verstehensebene) als auch durch die Wechselwirkung mit dem Vor- und
Formen des Verstehens
89
Weltwissen (zweite Verstehensebene) beeinflusst. Eine weitere Entsprechung mit dem DTA ist, dass dem CI-Modell die Annahme zugrunde liegt, der Verstehensprozess verlaufe multikausal, prozesshaft und dynamisch. Während der DTA jedoch auf die intra-transaktionale Wechselbeziehung zwischen Aktivationsniveau und Wissen im kognitiv-affektiven System des Rezipienten hinweist, beschränken sich die kognitionspsychologischen Situationsmodelle auf das kognitive System. Beispielsweise werden Motivationen und Interessen der Rezipienten nicht explizit benannt. Dies gilt es im weiteren Verlauf der Studie zu berücksichtigen und wird daher im Kapitel 4.4 Fernsehverstehen und Kapitel 5 Verständlichkeitsforschung wieder aufgegriffen. Zunächst lassen sich jedoch die zentralen Befunde zum Sprachverstehen abschließend wie folgt darstellen: Sprachverstehen… → beinhaltet die Wahrnehmung, Verarbeitung und Interpretation von Sprache; → beinhaltet Satz- und Textverstehen; → basiert auf syntaktischem, semantischem und pragmatischem Wissen sowie auf Vor- und Weltwissen; → erfolgt prozesshaft über Konstruktions- und Integrationsphasen; → enthält zwei Verstehensebenen: (1) die propositionale Repräsentation der Textbasis und (2) das darauf aufbauende Mentale Modell bzw. Situationsmodell.
Da allerdings in TV-Wissenschaftsfilmen nicht nur die Spracherläuterungen, sondern auch Bilder für die Informationsvermittlung relevant sind, befasst sich das folgende Kapitel mit dem Bildverstehen. Durch die Analogiebeziehung mentaler Modelle mit der Außenwelt liegt die Annahme nahe, dass mentale Modelle nicht nur beim Textverstehen, sondern auch beim Bildverstehen konstruiert werden. Daher werden sie auch zur Modellierung von Bildverstehenstheorien herangezogen. Angenommen wird, dass mentale Modelle dabei helfen, Bilder zu decodieren und zu verstehen. Während jedoch das Sprach- und Textverstehen in den letzten Jahrzehnten intensive Forschungsbemühungen ausgelöst hat, blieb das Bildverstehen ein eher randständiges Thema. Dabei weisen Bilder gegenüber Sprache oder Texten einige Stärken auf, die die Informationsvermittlung und das Verstehen in besonderer Weise unterstützen können (vgl. Weidenmann 1994a: 38ff; 1997). Diese werden im folgenden Kapitel erläutert.
90
Verstehen von Medieninhalten
4.3.2 Bildverstehen Beim Bildverstehen sind (wie beim Sprachverstehen auch) vielfältige kognitive Prozesse beteiligt, die größtenteils simultan ablaufen und wechselseitig miteinander verknüpft werden. Diese Prozesse lassen sich auf drei Stufen verorten, wobei sich jede Stufe durch einen zunehmenden Verarbeitungsaufwand und eine zunehmende Verarbeitungstiefe kennzeichnet. Auf der ersten Stufe laufen präattentive Prozesse ab, die für eine automatische, unbewusste und kurzfristige Verarbeitung verantwortlich sind. Daran schließen sich attentative Verarbeitungsprozesse an, die dem Bewusstsein zugänglich und mit einer höheren „mentalen Anstrengung“57 verbunden sind (vgl. Weidenmann 1994a: 26). Auf der dritten Stufe kann es schließlich zu einer elaborativen Verarbeitung kommen, indem Schlussfolgerungen, Assoziationen oder Vorstellungen ausgelöst werden (vgl. Schnotz 1994b; Ballstaedt 1995).58 Der Anteil der top-down-Verarbeitung nimmt somit auf jeder Stufe zu, so dass vier Verstehensebenen unterschieden werden können: (1) visuelle Organisation, (2) Detailauswertungen durch Augenbewegungen, (3) inhaltliches Verstehen und (4) indikatorisches Verstehen. Die vier Verstehensebenen lassen sich wie folgt beschreiben (vgl. nachfolgend Ballstaedt 1995; 1996; 2005): (1) Visuelle Organisation: Auf der prä-attentiven Verarbeitungsstufe erfolgt die visuelle Organisation, deren Funktion es ist, sich möglichst schnell räumlich zu orientieren. Dabei handelt es sich um den ersten Blick auf ein Bild, wobei die Verarbeitung weitestgehend unbewusst stattfindet und durch die Gestaltungsprinzipien der Bilder beeinflusst wird. (2) Detailauswertungen durch Augenbewegungen: Auf der zweiten Ebene folgt durch sakkadische Augenbewegungen und Fixationen die Detailauswertung, die der attentiven Verarbeitung entspricht. Hier findet eine aktive Exploration der fixierten Areale statt, wobei diese größtenteils bewusst durch Interessen, Vorwissen oder Aufgaben gesteuert wird. Ort und Dauer der Fixationen können als Indikatoren für die Aufmerksamkeit angesehen wer57
58
Vgl. zum Konzept der mentalen Anstrengung (AIME) Salomon (1983; 1984; s. auch Kap. 4.4.1 in diesem Buch). Während Schnotz (1994b) und Ballstaedt (1995) von einer dreistufigen Ausdifferenzierung der Verarbeitungsprozesse ausgehen, nimmt Weidenmann (1988; 1994a) diese nicht vor. Elaborative Verarbeitungsprozesse werden in seinem Bildverstehensmodell den attentiven Prozessen zugeordnet und als eine Form des indikatorischen Bildverstehens beschrieben. Dem indikatorischen Bildverstehen stellt er das ökologische Bildverstehen gegenüber, das i.d.R. dem automatischen Erkennen in der prä-attentiven Phase entspricht (vgl. Weidenmann 1994a: 26-29).
Formen des Verstehens
91
den, die bei der Zuwendung aufgebracht wird. Die visuellen Informationen der Fixationen werden vom Betrachter kategorisiert und teilweise auch mental verbalisiert bzw. benannt. Je nachdem, wie der visuelle Stimulus gestaltet ist, können unerwartete oder hervorgehobene Bildinhalte auch reflexartige Reaktionen hervorrufen. Die Detailauswertung der Bilder, die mit der Aktivierung und Verbalisierung von Konzepten verbunden ist, führt auf der nächsten Ebene zum inhaltlichen Verstehen. (3) Inhaltliches Verstehen: Beim inhaltlichen Verstehen geht es darum zu erfassen, was in einem Bild oder in einer Bildfolge gezeigt (Referenz) und ausgesagt (Prädikation) werden soll. Dabei hängt das inhaltliche Verstehen stark vom jeweiligen Vorwissen ab. Allerdings stellt das inhaltliche Verstehen nur eine Ebene der elaborativen Verarbeitung dar. Ebenso wichtig ist das indikatorische Verstehen. (4) Indikatorisches Verstehen: Mit dem indikatorischen (oder auch intentionalen) Verstehen setzt die Gesamtinterpretation des Bildes ein. Hier geht es um die Frage, warum ein Bild gezeigt wird und welche Absicht dahinter steht. Es erfolgt eine multiple Integration von Schlussfolgerungen, Assoziationen und Vorstellungen in vorhandene Wissensbestände, wobei die Verarbeitung durch vorhandene Wissensschemata ausgelöst und geleitet wird (vgl. Ballstaedt 1995; 1996; 2005).59 Weidenmann (1988) geht davon aus, dass die Intensität des Bildverstehens die zentrale Variable für die Qualität der Bildverarbeitung ist. Je herausfordernder und anregender der Betrachter ein Bild erlebt, desto eher verarbeitet er es intensiver. Weidenmann spricht hier von einem wahrgenommenen Normalisierungsbedarf und der erlebten Virulenz des Bildbetrachters (vgl. Weidenmann 1994a: 36). Allerdings lässt sich auf Basis empirischer Befunde bislang noch keine einheitliche Aussage darüber treffen, ob es inter-individuelle Unterschiede bei der Decodierung und Verarbeitung von Bildern gibt (vgl. Weidenmann 1994a: 40), obwohl sich mit diesem Problem beispielsweise die Forschung zum „VerbalizerVisualizer-Konzept“ befasst. Diese untersucht unter anderem, ob eine stärkere Präferenz zur Verbalisierung oder Visualisierung Einfluss auf den Repräsentati59
Das inhaltliche und indikatorische Verstehen leitet Ballstaedt (1995; 1996) aus dem Organonmodell der Sprache Karl Bühlers (1934) ab. Während das inhaltliche Verstehen Bühlers Darstellungsfunktion entspricht, beinhaltet das indikatorische Verstehen sowohl den Ausdruck als auch den Appell einer Nachricht. Beim Ausdruck offenbart der Sender etwas über sein Innerstes, beim Appell versucht der Sender den Empfänger in seinem Sinne zu beeinflussen und eine bestimmte Wirkung zu erzielen (vgl. Bühler 1934).
92
Verstehen von Medieninhalten
onsmodus hat (vgl. dazu Richardson 1977; Brosius 1985; Childers et al. 1985; Paivio 1986; Markert 2003). Die Speicherung von Bildern im Langzeitgedächtnis erfolgt, wie bereits angesprochen, in Form von ganzheitlichen, dynamischen und analogen Mentalen Modellen (vgl. Weidenmann 1994a; Schnotz 1994b; Ballstaedt 1996). Dabei wird angenommen, dass sich das Mentale Modell aus drei verschiedenen mentalen Repräsentationen zusammen setzt. Zum einen werden visuelle Repräsentationen in einem eigenen visuellen Langzeitgedächtnis gespeichert60, wobei die Erinnerungen und Vorstellungen (wie auch beim Sprachverstehen) i.d.R. nicht in allen Einzelheiten dem Original entsprechen. Des Weiteren wird angenommen, dass Bilder teilweise mental verbalisiert werden und somit konzeptuell repräsentiert sind. Bei Bildern oder Bildfolgen, die Bewegungsabfolgen oder Handlungen visualisieren, wird zudem angenommen, dass diese sensumotorisch repräsentiert werden. In diesem Fall ist der Betrachter zwar in der Lage, die jeweiligen Vorgänge vorzumachen und gleichzeitig visuell zu repräsentieren, er ist oftmals jedoch nicht fähig, die entsprechenden Vorgänge zu erläutern bzw. zu verbalisieren (vgl. Ballstaedt 1996: 207-208). Die Grundannahme beim Bildverstehen im Rahmen der Theorie der Mentalen Modelle ist demnach, dass Bilder oder Bilderfolgen multimodal, d.h. visuell und konzeptuell, repräsentiert werden. Bildverstehen erfordert vom Betrachter die Fähigkeit zur visuellen Literalität bzw. „Visual literacy“. Das Konzept der Visual Literacy wurde in den USA entwickelt (vgl. Seels 1994; Messaris 1994; 1998) und ist eng mit dem in Kapitel 4.1 vorgestellten Konzept der „Science Literacy“ verwandt. Trumbo beschreibt „Visual literacy“ „as a holistic construct that includes visual thinking, visual learning, and visual communication“ (1999: 410). Es geht demnach um die erlernte Fertigkeit, „visuelle Botschaften zutreffend zu interpretieren und solche Botschaften selbst herzustellen“ (Pettersson 1994: 215; kursive Hervorhebung im Original).61 Das Konzept befasst sich also mit der visuellen Kompetenzentwicklung.62 Dabei zeigt sich, dass verschiedene Bilder unterschiedliche kognitive
60
Einer der führenden Vertreter der mentalen visuellen Repräsentationen ist Kosslyn (1981; 1994), der sich in der Gegenposition zu Pylyshyn (1981) befindet. Pylyshyn geht davon aus, dass die menschliche Informationsverarbeitung ausschließlich propositional organisiert ist. Diese Auseinandersetzung wird in der Literatur als „Imagery Debatte“ bezeichnet. Obwohl die Debatte in den 1980er Jahren unentschieden ausging, hat sich heutzutage die Vorstellung von multiplen Repräsentations- und Verarbeitungssystemen durchgesetzt; vgl. zum aktuellen Stand der Diskussion auch Gottschling (2005). 61 Die hier zitierte Definition von Pettersson (1994) wurde ursprünglich bereits von Heinrich et al. (1982) formuliert. 62 Siehe zu vergleichbaren Konzepten in Deutschland Doelker (1997) sowie im Überblick Huber et al. (2002); Doelker et al. (2003).
Formen des Verstehens
93
Verstehensfähigkeiten voraussetzen, wobei sich Bilder in die Bildtypen realistische Bilder, Analogiebilder und logische Bilder unterteilen lassen: Als realistisch werden Bilder bezeichnet, deren Abbildung einem realistischen Gegenstand sehr ähneln, so z.B. Fotos, Strichzeichnungen oder naturalistische Gemälde. Solche Bilder können einerseits oberflächlich verstanden werden, in dem erkannt wird, was das Bild darstellt. Dies erfolgt unter Rückgriff auf kognitive Schemata der alltäglichen Wahrnehmung. Ein tieferes Verstehen bezieht hingegen die Einschätzung und Interpretation der Mitteilungsabsicht des Bildproduzenten mit ein. Analogiebilder verwenden analoge bzw. metaphorische Darstellungen, die mit dem gemeinten Sachverhalt in Beziehung stehen, ihn jedoch nicht explizit zeigen. So lässt sich beispielsweise die Beziehung zwischen Atomen in Form einer Planetenkonstellation darstellen. Für das Verstehen von Analogiebildern ist wie bei realistischen Bildern zunächst relevant, den dargestellten Sachverhalt zu erkennen. Ein tieferes Verstehen erfolgt, wenn die Analogierelation zwischen dem dargestellten und dem gemeinten Sachverhalt hergestellt werden kann (vgl. dazu auch Issing 1994). Logische Bilder veranschaulichen abstrakte, i.d.R. nicht wahrnehmbare Sachverhalte in Form von Diagrammen. Da sie keine Ähnlichkeit mit dem repräsentierten Gegenstand haben, muss das Verstehen solcher Bilder erlernt werden. Dazu benötigt der Betrachter spezielle kognitive Schemata, die ihn in die Lage versetzen, anhand der graphischen Konfigurationen bestimmte Informationen abzulesen (vgl. Schnotz 2006: 161-165). Abschließend lässt sich Bildverstehen auf der Grundlage der Ausführungen in der folgenden Weise charakterisieren: Bilderverstehen… → unterscheidet sich in prä-attentive, attentative und elaborativen Verarbeitungsprozesse; → verläuft über die vier Stufen visuelle Organisation, Detailauswertungen, inhaltliches Verstehen und indikatorisches Verstehen; → erfolgt über die Speicherung in Mentalen Modellen, die sich aus visuellen, konzeptuellen und sensumotorischen Repräsentationen zusammensetzen, d.h. multimodal mental repräsentiert werden; → erfordert visuelle Literalität, da sich Bilder in realistische Bilder, Analogiebilder und logische Bilder unterscheiden lassen.
94
Verstehen von Medieninhalten
Im Zusammenhang mit der Vermittlung von Wissensinhalten erscheinen Bilder häufig als leicht und Sprache als schwierig zu verstehen. Daher werden TVWissenschaftsfilme oft als besonders geeignet empfunden, wissenschaftliche Inhalte verständlich zu vermitteln (vgl. dazu Kap. 3). Dabei scheint es durchaus so zu sein, dass Bilder im Vorteil sind, wenn es darum geht, „das Aussehen von Objekten, die Beschaffenheit von Szenen, den Ablauf von Ereignissen, räumliche Konstellationen [oder] die gleichzeitige Veränderung mehrerer Komponenten eines Systems“ darzustellen (Weidenmann 1994a: 45; kursiv nicht im Original, J.M.). Während es Bilder demnach erleichtern, Informationen zu vergleichen, zu strukturieren oder zu gruppieren, scheinen sprachliche Erläuterungen in diesen Fällen ungleich komplexer und schwieriger nachvollziehbar zu sein. Andererseits sind Bilder oftmals mehrdeutig und unübersichtlich, so dass in solchen Fällen wiederum sprachliche Informationen für das Verstehen relevant werden. Diese helfen dabei, die Bildinhalte zu akzentuieren, zu verdeutlichen oder zu erläutern (vgl. ebd. 46). Um die jeweiligen Vor- und Nachteile von Bildern und sprachlichen Informationen zu nutzen bzw. auszugleichen, werden Wissensinhalte daher häufig in der Kombination aus Bild und Text vermittelt (vgl. dazu im Überblick Weidenmann 1994b; Seufert 2003). Das hat dazu geführt, dass sich viele Forschungsbemühungen dem Text-Bild-Verstehen widmen, wie im folgenden Kapitel gezeigt werden kann.
4.3.3 Text-Bild-Verstehen Die Erkenntnisse zum Text-Bild-Verstehen basieren auf drei verschiedenen theoretischen Positionen der Text-Bild-Verarbeitung. Die beiden Extrempositionen bilden Paivios Ansatz der doppelten Kodierung (1971; 1977; 1986; Sadoski/ Paivio 2001) und der „Single-Code“-Ansatz“, der insbesondere von Pylyshyn (1981) vertreten wird. Die dritte Variante entspricht einem Kompromiss beider Ansätze (z.B. Kosslyn 1981; 1994). Die drei Positionen ergeben sich aus der Diskussion, ob die Verarbeitung von Text und Bild über modalitätsspezifische Verarbeitungssysteme oder aber über ein einheitliches amodales System erfolgt. Während die Theorie der doppelten Kodierung annimmt, dass die Text-BildVerarbeitung jeweils getrennt über das verbale und imaginale System verläuft, geht der „Single-Code“-Ansatz von einem einheitlichen Gedächtnissystem aus, das jegliches Wissen in einem propositionalen Format darstellt. Die gemäßigten Positionen vereinen die beiden Ansätze und vertreten die Ansicht, dass Informationen zwar in einem imaginalen System verarbeitet werden, sich das Wissen jedoch propositional darstellt, so z.B. Nelson (1979); Engelkamp (1991). Allerdings hat sich mittlerweile auch beim Text-Bild-Verstehen überwiegend die
Formen des Verstehens
95
Annahme der Mentalen Modelle durchgesetzt. Dabei wird ein ausschließlich propositionales Verarbeitungssystem im Sinne des „Single-Code“-Ansatzes ausgeschlossen, die duale Codierung und die gemäßigte Position dagegen zu einem Ansatz vereint. Die Annahme, dass der Text-Bild-Verstehensprozess über multiple mentale Repräsentationen verläuft, findet somit mehrheitlich Zustimmung (vgl. Ballstaedt et al. 1989, Ballstaedt 1990; Engelkamp/ Zimmer 2006). Eines der aktuellsten Modelle stellt in diesem Zusammenhang das integrierte Text-Bild-Verstehensmodell von Schnotz und Bannert (1999; 2003) dar, das im folgenden erläutert wird.
Das integrierte Text-Bild-Verstehens-Modell von Schnotz/ Bannert (1999; 2003) und Schnotz (2005) Schnotz und Bannert (1999; 2003) entwickelten ein integriertes Text-BildVerstehens-Modell, das Schnotz (2005) später modifizierte. Das Modell unterliegt der Prämisse, dass das Verstehen von verbalen und bildlichen Mitteilungen ein aktiver zielgerichteter Prozess ist, bei dem das Individuum mit Hilfe seines Vorwissens mentale Repräsentationen konstruiert. Es lässt Aussagen darüber zu, unter welchen Bedingungen Lernende auf verbale oder piktorale Informationen zurückgreifen, wie Informationen zur Konstruktion mentaler Repräsentationen verwendet werden und welche Eigenschaften diese Repräsentationen kennzeichnen (vgl. Schnotz/ Bannert 1999: 218). Dazu unterscheiden die Autoren in ihrem Modell einen deskriptionalen (beschreibenden) und einen depiktionalen (darstellenden) Repräsentationszweig. Der deskriptionale Repräsentationszweig befindet sich in Abbildung 6 auf der linken, der depiktionale auf der rechten Seite.
Verstehen von Medieninhalten
Textoberflächenrepräsentation
verbale Organisation
Text
Bild / Diagramm
Wahrnehmung
semantische Verarbeitung
konzeptuelle Organisation
subsemantische Verarbeitung
Analyse von Symbolstrukturen
Modellinspektion
mentales Modell
piktorale Organisation
Abbildung analoger Strukturen
Modellkonstruktion
propositionale Repräsentation
thematische Selektion
96
Bild / Diagramm
Abbildung 6: Deskriptionale und depiktionale Repräsentationen beim Text-BildVerstehen (nach Schnotz/ Bannert 1999: 222)
Das Modell lässt sich wie folgt beschreiben (vgl. nachfolgend Schnotz/ Bannert 1999; Schnotz 2003): Während der Rezipient beim deskriptionalen (linken) Repräsentationszweig den Text liest, konstruiert er eine mentale Repräsentation der Textoberflächenstruktur sowie eine propositionale Repräsentation des semantischen Textgehalts. Alle drei Ebenen interagieren miteinander auf Basis von Symbolverarbeitungsprozessen. Dabei handelt es sich um auf- und absteigende Schemaaktivationen, die gleichzeitig Selektions- und Organisationsfunktionen übernehmen, so dass die Informationen in ein kohärentes Ganzes integriert bzw. in ein Mentales Modell überführt werden können (vgl. dazu auch Kap. 4.3.1). Der depiktionale (rechte) Repräsentationszweig enthält ebenfalls drei Ebenen. So wird ein Bild intern wahrgenommen bzw. vorgestellt, woraus auf Grund semantischer Verarbeitungsprozesse ein Mentales Modell sowie eine
Formen des Verstehens
97
propositionale Repräsentation des dargestellten Sachverhalts konstruiert werden (vgl. dazu auch Kap. 4.3.2). Des Weiteren wird angenommen, dass zwischen propositionaler Repräsentation und Mentalem Modell interaktive Modellkonstruktions- und Modellinspektionsprozesse stattfinden. Beim Textverstehen werden anhand der propositionalen Repräsentationen ein Mentales Modell konstruiert, neue Informationen generiert und der propositionalen Repräsentation wieder hinzugefügt. Beim Bildverstehen werden durch das Mentale Modell neue Propositionen gewonnen. Bild-TextVerstehen erfolgt demnach nicht über entsprechend getrennte Repräsentationen, sondern führt bei beiden Kanälen gleichermaßen zu depiktionalen bzw. deskriptionalen Repräsentationen. Propositionale Repräsentationen und Mentale Modelle beruhen demnach auf einander ergänzenden Repräsentationsprinzipien (vgl. Schnotz/ Bannert 1999: 221ff). Schnotz und Bannert (1999) testeten ihr Modell unter laborexperimentellen Bedingungen und überprüften, ob sich Text- und Bildverstehen bei der mentalen Modellkonstruktion einfach addieren, einander ersetzen oder aber einander stimulieren. Weiter wurde überprüft, welchen Einfluss die Form der Visualisierung auf die Struktureigenschaften des entstehenden Mentalen Modells hat. Die Ergebnisse belegen, dass die zusätzliche Bereitstellung von Bildern nicht automatisch zu einem weiteren, additiven kognitiven Verarbeitungsprozess führen, wie es z.B. die duale Kodierungstheorie unterstellt (vgl. u.a. Paivio 1971; 1986; Sadoski/ Paivio 2001). Vielmehr zeigt sich, dass sich Text und Bild gegenseitig ersetzen oder stimulieren können. Während einfachere Bilder eine eher oberflächlichere Verarbeitung bewirken, bei der sich Text- und Bildverstehen teilweise ersetzen, führen anspruchsvolle Bilder zu einer intensiveren Verarbeitung, bei der sich Text- und Bildverstehen wechselseitig stimulieren. Zudem konnte bestätigt werden, dass das Visualisierungsformat die Struktur des Mentalen Modells beeinflusst. Die Auswahl von Bildern, die einen Sachverhalt in unterschiedlicher Weise darstellen, nimmt somit Einfluss auf die entstehenden Wissensstrukturen. Da die duale Kodierungstheorie hierzu keine Aussagen macht, schließen die Autoren, dass das integrierte Text-Bild-Verstehens-Modell auch in diesem Zusammenhang der dualen Kodierungstheorie überlegen ist. Schnotz und Bannert (1999) gehen zudem davon aus, dass ihr Modell erklären kann, dass das Hinzufügen von Bildern auf bestimmte Lernende nicht nur positive Auswirkungen haben muss. So zeigen verschiedene Studien, dass die jeweilige Lernvoraussetzung des Lernenden ausschlaggebend dafür zu sein scheint, ob Bilder eine positive oder negative Wirkung auf die Lernleistung haben. Während Bilder das Textverstehen bei hohen Lernvoraussetzungen (z.B. höherer formaler Bildungsstatus, Vorwissen) durchaus negativ beeinflussen können, sind sie bei geringen
98
Verstehen von Medieninhalten
Lernvoraussetzungen in der Lage, das Textverstehen zu verbessern (vgl. auch Mayer 1997). Schnotz (2005) modifiziert im weiteren Verlauf das Modell, indem nicht mehr nur die verschiedenen Darstellungsformen Text und Bild, sondern auch die beiden Sinnesmodalitäten Sehen und Hören berücksichtigt werden. Zur theoretischen Begründung integriert er daher in das ursprüngliche Modell das Mehrspeichermodell von Atkinson und Shiffrin (1968; 1971, vgl. dazu auch Kap. 4.2.1), die Theorie des Arbeitsgedächtnisses von Baddley (1986; 1997; 2003; vgl. dazu auch Kap. 4.2.1), Paivios Theorie der dualen Kodierung (s.o. in diesem Kapitel), die Annahme der multiplen mentalen Repräsentation beim Textverstehen von van Dijk und Kintsch (1983; vgl. dazu auch Kap. 4.3.1.2) und zum Bildverstehen von Kosslyn (1994; vgl. dazu auch Kap. 4.3.2) sowie die Theorie des multimedialen Lernens von Mayer (1997; 2001).63 Abbildung 7 zeigt die schematische Darstellung des erweiterten integrierten Modells des Text-Bild-Verstehens (kurz ITPC für „integrated text and picture comprehension model“), das nun Aussagen über die jeweils kanalspezifischen Verstehensprozesse von Text und Bild sowie über deren Kombination zulässt. An anderer Stelle bezeichnet Schnotz sein Modell auch als Modell multimedialen Lernens (vgl. Schnotz 2006).
63
Zwischen dem Modell des Text-Bild-Verstehens von Schnotz/ Bannert (1999; 2003) und Mayers Theorie des multimedialen Lernens (1997; 2001) bestehen große Übereinstimmungen. Allerdings unterscheidet sich Mayers Modell dahingehend, dass sein Modell sowohl ein verbales als auch ein piktorales mentales Modell annimmt, während Schnotz und Bannert von einem integrativen mentalen Modell ausgehen.
Formen des Verstehens
99
Long Term Memory
Cognitive Schemata
Propositional Representations
Working Memory
Mental Models
Verbal Channel
Pictorial Channel
Auditive Working Memory
Visual Working Memory
Auditive Channel
Sensory Register
Visual Channel
Ear/ Auditive Register
Spoken Text
Sound Images
Eye/ Visual Register
Written Text
Visual Images
Abbildung 7: Integriertes Modell des Text-Bild-Verstehens (nach Schnotz 2005: 57)
Die Grundannahmen des Modells sind, dass beim Text- und Bildverstehen sowohl das Arbeitsgedächtnis, das modalitätsspezifische sensorische Register als auch das Langzeitgedächtnis aktiviert werden. Während Hörtexte (Spoken Text) und akustische Bildsignale64 (Soundimages) über das auditive Register aufgenommen und über den auditiven Kanal in das Arbeitsgedächtnis übertragen werden, werden geschriebene Texte (Written Text) und Bilder (Visual Images) in das visuelle Arbeitsgedächtnis geladen. Dabei wird sowohl für den auditiven als auch den visuellen Kanal und das Arbeitsgedächtnis angenommen, dass sie über nur begrenzte Verarbeitungs- und Speicherkapazitäten verfügen (vgl. dazu auch Kap. 4.2.1). Während im weiteren Verlauf der Spoken Text oder Written Text über den verbalen Kanal verarbeitet und propositional repräsentiert werden, erfolgt die Verarbeitung von Soundimages und Visual Images über den piktora64
Akustische Bildsignale (oder Klangbilder) erzeugen aufgrund bestimmter Töne bestimmte Vorstellungen des Gegenstandes oder Sachverhalts. Hört man beispielsweise das Krähen eines Hahnes, wird beim Zuschauer die jeweilige Vorstellung des Tieres generiert.
100
Verstehen von Medieninhalten
len Kanal in Form eines Mentalen Modells. Dabei werden beim Leseverstehen eines Textes die Informationen aus dem visuellen Arbeitsgedächtnis herausgefiltert und in das propositionale Arbeitsgedächtnis überführt. Die akustischen Bildsignale werden wiederum aus dem auditiven Arbeitsgedächtnis in das Mentale Modell übertragen. Um schließlich zu einem kohärenten Text- und Bildverstehen zu gelangen, werden die propositionale Repräsentation und das mentale Modell mit dem Vorwissen angereichert und integriert (Schnotz 2005: 56-58). Schnotz (2005) geht davon aus, dass das Modell in der Lage ist, positive und negative Effekte von Text- und/ oder Bildinformationen vorhersagen und erklären zu können und führt dazu eine Reihe von empirischen Evidenzen an. Allerdings werden hier nur solche Befunde erläutert, die für das Verstehen von TV-Wissenschaftsfilmen von Bedeutung zu sein scheinen (vgl. im Folgenden Schnotz 2005: 60-64). So zeigt sich, dass Rezipienten besser von Text-BildKombinationen lernen, wenn diese semantisch aufeinander bezogen sind (coherence condition) und sie nah beieinander präsentiert werden (contiguity condition). Andernfalls kommt es zu aufwendigen Suchprozessen, die zu einer hohen kognitiven Belastung in Form von „split attention“ (also einer geteilten Aufmerksamkeit) führen (vgl. auch Kalyuga et al. 1999; Mayer 1997; 2001). Der Prozess der Kohärenzbildung lässt sich dabei nach der Structure Mapping Theory von Gentner (vgl. Gentner/ Markmann 1997) in eine lokale und globale Kohärenzbildung unterscheiden. Während sich die lokale Kohärenzbildung auf das Verstehen der beschriebenen bzw. dargestellten Sachverhalte und Beziehungen innerhalb des Textes bzw. Bildes bezieht, entspricht das Verstehen der globalen Kohärenz dem Zusammenhang zwischen den beiden Repräsentationssystemen. Dementsprechend sollten Text-Bild-Darstellungen hinreichende Kohärenzbildungshilfen anbieten. Allerdings wird die Kohärenzbildung insbesondere durch das Vorwissensniveau beeinflusst. So sind Lernende mit geringem Vorwissen nicht in dem Maße in der Lage, Kohärenzhilfen effektiv zu nutzen, während Lernende mit mittlerem Vorwissensniveau am stärksten davon profitierten (vgl. Seufert 2003: 127). Als einen weiteren Beleg für die Gültigkeit des ITPC-Modells führt Schnotz (2005) den Modalitätseffekt (vgl. Kalyuga et al. 1999; Brünken et al. 2005) an, der besagt, dass Bilder besser verstanden werden, wenn sie mit gesprochenem statt mit geschriebenem Text präsentiert werden. Da sowohl das Sensorium als auch das Arbeitsgedächtnis über begrenzte Verarbeitungskapazitäten verfügen, kann es zu Selektionsprozessen kommen, wenn Text und Bild über den gleichen Kanal verarbeitet werden müssen. Der Modalitätseffekt ergibt sich, wenn die kognitive Belastung für den Rezipienten zu hoch ist. Einen ähnlich negativen Effekt erzielt eine redundante Darstellung (Redundanz-Effekt). Insbesondere in der multimedialen Wissensvermittlung werden Bilder gleichzeitig mit gespro-
Formen des Verstehens
101
chenem und geschriebenem Text kombiniert, was wiederum zu einer hohen kognitiven Belastung führt, da die zusätzliche Informationspräsentation kaum ignoriert werden kann. Da bei TV-Wissenschaftsfilmen in der Regel Bilder und gesprochener Text dominieren, kann davon ausgegangen werden, dass diese Effekte beim Fernsehpublikum seltener beobachtbar sind. Die Grundannahme des Modells ist, dass die Konstruktion der mentalen Repräsentation beim Text-Bild-Verstehen über zwei Routen verläuft. Dies lässt potenziell die Möglichkeit zu, dass sich der Rezipient eher auf die Bilder statt auf die Textinformationen bzw. eher auf den Text statt auf die Bildinformationen konzentriert. Dies ist mitunter auch davon abhängig, ob sich der Verarbeitungsaufwand aus Sicht der Rezipienten entsprechend einer cognitive economy überhaupt rentiert (vgl. Schnotz 2005: 63-64). Insgesamt zeigt sich, dass das ITPC-Modell durchaus geeignet zu sein scheint, eine Reihe von Text-Bild-Effekten erklären und prognostizieren zu können. Dabei wird das Text- und Bildverstehen als ein Prozess aufgefasst, bei dem multiple mentale Repräsentationen konstruiert werden. Zudem wird angenommen, dass der Verstehensprozess auf unterschiedlichen Verarbeitungsniveaus abläuft und durch die Verarbeitungskapazitäten des Arbeitsgedächtnisses beeinflusst wird (vgl. Schnotz 2005: 66). Dennoch wird das Modell dem Text-BildVerstehensprozess noch nicht gänzlich gerecht. So berücksichtigt es weder die Unterscheidung von Mikro- und Makropropositionen, die bereits von van Dijk und Kintsch (1983) eingeführt wurden, noch die unterschiedlichen Differenzierungsgrade, die Mentale Modelle annehmen können (vgl. jeweils Kap. 4.3.1.2). Daher sind noch weitere Modifizierungen und empirische Überprüfungen notwendig. Die folgende Zusammenfassung gibt abschließend nochmals einen kurzen Überblick über die zentralen Annahmen und Befunde zum Text-Bild-Verstehen: Text-Bild-Verstehen… → erfolgt über einen deskriptionalen und depiktionalen Repräsentationszweig; → ist ein mehrstufiger Prozess, der über das modalitätsspezifische sensorische Register, das Arbeitsgedächtnis und das Langzeitgedächtnis verläuft; → ist die Konstruktion von multiplen mentalen Repräsentationen in Form einer propositionalen Repräsentation und eines Mentalen Modells; → basiert bei Texten auf einer propositionalen Repräsentation, bei Bildern und akustischen Bildsignalen auf der Repräsentation in Mentalen Modellen:
102
Verstehen von Medieninhalten
Propositionale Repräsentation und Mentales Modell werden zur Kohärenzbildung mit Vorwissen angereichert Propositionale Repräsentation und Mentales Modell ergänzen sich gegenseitig und stehen in einer Wechselbeziehung.
Für TV-Wissenschaftsfilme lässt sich auf der Grundlage des Text-BildVerstehens nun annehmen, dass auch das Verstehen von Wissenschaftsfilmen auf der Konstruktion einer propositionalen Repräsentation und eines Mentalen Modells basiert. Zudem zeigt sich, dass das Vorwissen des Rezipienten eine wesentliche Rolle im Verstehensprozess einnimmt, da es in ständiger Interaktion mit der Konstruktion der multiplen mentalen Repräsentationen steht. Das Ergebnis des Verstehensprozess scheint eine ganzheitliche, integrative und kohärente Vorstellung des im Film präsentierten Sachverhalts zu sein. Die Befunde der Text-Bild-Verstehensforschung belegen zudem, dass die Kombination aus Text und Bild die Verstehensleistung sowohl positiv als auch negativ beeinflussen kann. Somit setzen sowohl die Zuschauer als auch die Medienbotschaft (bzw. die Wissenschaftsredakteure) aktiv und passiv Bedingungen, die den Verstehensprozess beeinflussen, was wiederum eine Grundvoraussetzung des dynamischtransaktionalen Ansatzes darstellt. Wie bereits im Kapitel 4.3.1 zum Sprachverstehen dargelegt wurde, wird der kognitionspsychologische Verstehensansatz nur als ein Teilaspekt der IntraTransaktionen im Rezipienten betrachtet, da einzig kognitive Vorgänge berücksichtigt werden. Die Wechselwirkung mit dem affektiven System wird hingegen nicht beachtet bzw. nur implizit erwähnt. Somit können kognitionspsychologische Annahmen allein dem Fernsehverstehen nicht gänzlich gerecht werden. Zudem unterliegt Fernsehverstehen einer Reihe von medienspezifischen Besonderheiten, die es in dieser Studie zu beachten gilt. Daher befasst sich das folgende Kapitel mit dem audiovisuellen Verstehen von Fernseh- und Filminhalten. 4.4 Audiovisuelles Verstehen Das audiovisuelle Verstehen basiert auf ähnlichen Wahrnehmungs-65 und Verarbeitungsprozessen wie das Sprach- und Text-Bild-Verstehen. Die Besonderheit des audiovisuellen Verstehens ergibt sich aus den medienspezifischen Eigen65
Vgl. auch zur sensorischen Wahrnehmung die Überblicke über akustische und visuelle Reize bei Gehrau (2001: 135-143) sowie Bilandzic (2004: 75-81).
Audiovisuelles Verstehen
103
schaften des „Laufbildes“. Anders als beim Lesen eines Textes oder Betrachten eines Bildes wird die Rezeptionsgeschwindigkeit beim Fernsehen vorgegeben. Es besteht keine Möglichkeit für den Rezipienten, sich bestimmte Informationen bei Verstehensschwierigkeiten wiederholt anzuschauen (sofern das Material nicht vorab aufgezeichnet wurde). Das bedeutet, dass sich der Zuschauer nicht über längere Zeit mit einem Problem beschäftigen kann, ohne Anschlussinformationen zu versäumen. Diese Besonderheiten führten zur Entwicklung einer Reihe von theoretischen Modellen und Konzepten, die sich mit ausgewählten Aspekten des audiovisuellen Verstehens befassen. Diese werden in den folgenden Kapiteln betrachtet. Kapitel 4.4.1 befasst sich mit dem Fernsehverstehen und geht insbesondere auf die Verarbeitungsmechanismen und Verstehenseinflüsse ein. Kapitel 4.4.2 widmet sich dem Filmverstehen, bei dem es vor allem um die Frage geht, welchen Einfluss narrative Filmstrukturen auf den Rezipienten haben. Ziel der Darstellung ist, grundlegende Erkenntnisse zum audiovisuellen Verstehen zu erläutern, die für die theoretische Modellierung des „Verstehenskonzepts audiovisueller Wissenschaftsfilme“ relevant sind.
4.4.1 Fernsehverstehen Beim Fernsehverstehen stehen den Zuschauern nur begrenzte sensorische und kognitive Kapazitäten für die Informationsverarbeitung zur Verfügung. Allerdings können diese ökonomisch und flexibel eingesetzt werden (vgl. WinterhoffSpurk 2001). Dies führt zu Selektions- und Konstruktionsprozessen, die vor allem durch individuelle Interessen und die persönliche Betroffenheit des Rezipienten, aber auch durch die Medienbotschaft selbst beeinflusst werden können. Fernsehbeiträge werden demnach von den Rezipienten subjektiv verstanden (vgl. Höijer 1989; Schramm/ Hasebrink 2004). Diese Verstehensleistung erfolgt nach dem Konzept der „Interpretive Complexity“ von Schaap, Renckstorf und Wester (2005) auf Basis von Elaborationen und Kohärenzen, die der Rezipient während der Rezeption vornimmt. Die Folge ist, dass die Interpretation einer Fernsehbotschaft von Zuschauer zu Zuschauer variieren kann (vgl. Schaap et al. 2005; 2008). Unter Interpretation verstehen die Autoren die Repräsentation einer Nachrichtenmeldung, die vom Zuschauer konstruiert wird (vgl. Schaap 2004). Diese Konstruktion wird als mentaler Prozess aufgefasst, der auf der Verwendung von Wissen basiert. Das Wissen besteht u.a. aus allgemeinen Kenntnissen über Fakten, Motive, Personen und Normen sowie über medienspezifische Darstellungs- und Rezeptionsformen. Es zeigt sich somit, dass dem Konzept der Interpretive Complexitiy die gleiche Definition zugrunde liegt wie dem Verstehenskonzept dieser Studie (vgl. Kap. 4.1). Der Be-
104
Verstehen von Medieninhalten
griff „Interpretation“ kann daher als Synonym für das „Verstehen“ einer Medienbotschaft aufgefasst werden. Die Annahme des Konzeptes der Interpretive Complexitiy ist, dass das Verstehen einer Fernsehnachricht 1. bei jedem Rezipienten aus individuellen und verschiedenen Interpretationskomponenten besteht, 2. diese Komponenten individuell unterschiedlich verknüpft werden 3. und mitunter zu verschiedenen Kategorien (Topics) zusammengefügt werden (vgl. Schaap et al. 2005: 272). Das Verstehen einer Fernsehnachricht kann sich demnach interindividuell strukturell unterscheiden, wobei hier nicht nur die Eigenschaften des Zuschauers selbst (z.B. Vorwissen, Interesse, Motivation, soziodemographische Eigenschaften), sondern auch die Nachrichtenmeldung und der Rezeptionskontext Einfluss nehmen (vgl. Schaap et al. 2005: 270). Das Konzept befasst sich folglich mit dem Verstehen einer Nachrichtenmeldung durch Differenzierung (bzw. Elaboration; Annahme unter Punkt 1) und Integration (bzw. Kohärenzbildung, Annahmen unter Punkt 2 und 3).66 Als Differenzierung bezeichnen die Autoren den Verwendungsgrad (in Form von Anzahl und Umfang) von unterschiedlichen Interpretationselementen, die gemeinhin auch in sozialen Situationen angewendet werden.67 Diese werden unter den Kategorien Inklusion (z.B. von Akteuren, Zielen, Aktivitäten, Gefühlen etc.), Attribution (z.B. auf Akteure, Objekte), Ursachenzuschreibung (z.B. bei Handlungen, Ereignissen) und Rationalisierung (z.B. von Gefühlen) zusammengefasst. Unter Integration verstehen die Autoren die Verknüpfungen, die ein Zuschauer mit den Interpretationselementen herstellt. Diese Verknüpfungen können auf einer Mikro- und auf einer Makroebene durchgeführt werden. Auf der Mikroebene werden zwei oder mehrere Einzelelemente miteinander verbunden. Die Makroebene beschreibt, inwieweit der Zuschauer einzelne Interpretationselemente zu einer kohärenten Struktur zusammen fügt bzw. daraus Kategorien bildet (vgl. Schaap et al. 2005: 273-280). Die empirische Überprüfung des Konzepts erfolgte unter verschiedenen Bedingungen. Als Erhebungsmethode wurde die Thought-Listing-Technik verwendet.68 Die Ergebnisse zeigen, dass sich die Verstehensleistungen sowohl unter der Bedingung, dass verschiedene Zuschauer denselben Nachrichtenbeitrag sahen, als auch unter der Bedingung, dass dieselben Zuschauer verschiedene Beiträge anschauten, differenzieren. Die Autoren führen dies auf unterschiedliche 66
Die Konzepte Differenzierung und Integration haben ihren Ursprung in der kognitiven Komplexitätstheorie, die auf die Kognitions- und Sozialpsychologie zurück geht (vgl. Schaap et al. 2005: 286; Fußnote 2). 67 Die Systematisierung der Interpretationselemente gehen auf den Ethnologen James Spradley (1979; 1980) zurück (vgl. Schaap et al. 2005; 2008). 68 Die Thought-Listing-Methode erfasst die spontanen Gedanken der Rezipienten während des Rezeptionsvorgangs (vgl. dazu u.a. Heimberg et al. 1987; Cacioppo et al. 1997; Schaap 2004).
Audiovisuelles Verstehen
105
Wissens- und Motivationsvoraussetzungen bzw. auf die jeweilige subjektive Bedeutung der Nachrichtenbeiträge für die Zuschauer zurück (Schaap et al. 2005; 2008). Die Untersuchung liefert demnach Belege dafür, dass Verstehensleistungen von individuellen Aktivierungs- und Verarbeitungsprozessen geleitet und beeinflusst werden, was mit den Annahmen des dynamisch-transaktionalen Ansatzes korrespondiert. So geht auch der DTA davon aus, dass die Verstehensleistungen des Rezipienten auf Intra-Transaktionen zwischen Aktivation und Wissen basieren (vgl. Kap. 2.1). Daher lässt sich das Konzept der Interpretiv Complexitiy als eine Erweiterung der bislang dargestellten kognitionspsychologischen Modelle auffassen, da es sowohl den Einfluss des kognitiven als auch des affektiven Systems des Rezipienten berücksichtigt. Aufgrund der Befunde lässt sich nun auch für die vorliegende Studie annehmen, dass das Verstehen von TV-Wissenschaftsfilmen solchen Aktivierungs- und Verarbeitungsprozessen unterliegt. Allerdings zeigen Studien, dass die Verstehensleistungen beim Fernsehen darüber hinaus an weitere Bedingungen geknüpft sind. Dies belegen die folgenden Abschnitte.
Verarbeitungsprozesse beim Fernsehverstehen Rezipienten stehen für die Verarbeitung von Fernsehinformationen nur begrenzte mentale Ressourcen zur Verfügung. Dieser Grundannahme unterliegt sowohl das Limited-Capacity-Modell von Lang (1995; 2000) als auch das Modell multipler Ressourcen von Basil (1994a; 1994b). Beide Autoren gehen von drei mentalen Subprozessen der Informationsverarbeitung aus, die um kognitive Ressourcen konkurrieren. So unterscheidet Basil zwischen Aufmerksamkeit, Bedeutungsverarbeitung und Speicherung, wobei sich die Aufmerksamkeit zudem modalitätsspezifisch auf den visuellen und auditiven Kanal verteilen kann. Wird nun ein Subprozess beim Fernsehen besonders beansprucht, führt dies mitunter zu Beeinträchtigungen der weiteren Verarbeitungsprozesse. Entsprechende empirische Belege finden sich hierfür auch bei Thorson et al. (1985). Lang (2000) unterscheidet die kognitiven Vorgänge Enkodierung, Speicherung und Abruf, geht jedoch von vergleichbaren Annahmen wie Basil aus. Demnach können einzelne Verarbeitungsstufen darunter leiden, wenn ein Fernsehzuschauer über zu wenige Verarbeitungsressourcen verfügt. In Verbindung mit dem Text-Bild-Verstehensmodell von Schnotz (2005, vgl. Kap. 4.3.3) würde dies bedeuten, dass der Rezipient keine multiplen Repräsentationen der Fernsehbotschaft oder darüber hinaus gehende Elaborationen konstruieren kann. Das Nicht-Verstehen einer Fernsehbotschaft lässt sich oftmals auch auf deren besondere strukturelle oder inhaltliche Darstellungen zurückführen, was selektive und
106
Verstehen von Medieninhalten
spontane Orientierungsreaktionen auslösen kann.69 In diesem Fall werden zu viele mentale Ressourcen in der Enkodierungsphase beansprucht, so dass für die weiteren Subprozesse nur noch wenige Kapazitäten frei sind. Zudem können schwierige Informationen die Suche nach entsprechendem Vorwissen auslösen und damit ebenso Ressourcen binden. Andererseits ist eine nutzungseffiziente und ansprechende Medienpräsentation (z.B. die Darstellung von Emotionen) durchaus auch in der Lage, Kapazitäten für Elaborations- und Speicherungsprozesse frei zu setzen. So können zum Beispiel individuelle Rezeptionsziele die Verarbeitungskapazitäten steigern (vgl. Lang 2000). Die Schlussfolgerung daraus ist nun, dass die Erinnerung an Fernsehinhalte verschiedene Grade annehmen kann. So können entsprechend des LimitedCapacity-Modells einige Informationen einer Botschaft komplett verarbeitet werden und leicht abrufbar sein, während andere zwar encodiert, jedoch nur unzureichend im Langzeitgedächtnis abgelegt werden. Das Ergebnis eines solchen Verarbeitungsprozesses ist, dass ein Zuschauer zwar über eine mentale Repräsentation einer Teilinformation verfügt, jedoch nicht in der Lage ist, sie ohne entsprechende Hinweise abzurufen. Dies führt nach Lang (2000) zu methodischen Konsequenzen der Gedächtnismessung, wobei sie die klassischen Erhebungsmethoden Recognitiontest, Cued Recall und Free Recall vorschlägt.70 So lassen sich damit unterschiedliche Grade der Erinnerung erheben, deren Ergebnisse Aussagen über die mentalen Subprozesse zulassen: Der Recognitiontest, dessen Fragen konkrete Hinweisreize geben, kann zeigen, ob eine bestimmte Teilinformation überhaupt encodiert wurde. Die Ergebnisse des Cued Recalls (also der gestützten Erinnerung) können Hinweise darauf geben, inwieweit eine Information in die bestehende Wissensstruktur integriert und abgespeichert wurde. Je intensiver die Information verarbeitet wird, desto leichter sollte es dem Probanden fallen, die entsprechende Information wieder abzurufen. Der Free Recall (die freie, ungestützte Erinnerung) zeigt, inwieweit Informationen abgerufen werden können. Diese werden als ein Indikator dafür angesehen, ob der Rezipient auf Basis seines Vorwissens die Zusammenhänge einer Information erfassen konnte (vgl. Lang 2000: 56-57). Im Zusammenhang mit der in Kapitel 4.1 formulierten Verstehensdefinition kann somit angenommen werden, dass insbesondere die Cued- und Free Recall69
Vgl. dazu die empirischen Studien von Hawkins et al. (2002) und Hawkins et al. (2005), die aufmerksamkeitsauslösende Prozesse bei der Fernsehrezeption untersuchen. 70 Für die empirische Messung der Orientierungsreaktion in der Enkodierungsphase empfiehlt Lang (2000) physiologische Erhebungsmethoden. Die Messung unterschiedlicher Verarbeitungsressourcen kann u.a. durch die Erhebung von Reaktionszeiten gemessen werden, die Probanden für die Lösung verschiedener Aufgabenstellung benötigen.
Audiovisuelles Verstehen
107
Methode das Verstehen von TV-Wissenschaftsfilmen angemessen messen kann (vgl. dazu auch Schweiger 2007). Zusammenfassend lässt sich auf der Grundlage von Basils (1994a; 1994b) und Langs (1995; 2000) Ansätzen somit davon ausgehen, dass Rezipienten in der Lage sind, die Aufmerksamkeit für einen TV-Wissenschaftsfilm und die für das Verstehen aufzuwendenden Verarbeitungskapazitäten aktiv zu beeinflussen. Allerdings zeigen verschiedene Studien, dass Rezipienten häufig gar nicht bereit dazu sind, zusätzliche Anstrengungen auf sich zu nehmen, um Informationen gründlich und systematisch zu verarbeiten. Vielmehr wird der Verarbeitungsaufwand möglichst gering gehalten, wie der folgende Abschnitt zeigt.
Verarbeitungsaufwand beim Fernsehverstehen Weidenmann (1989) geht beim Fernsehverstehen vom Prinzip der minimalen Verarbeitung aus. Er begründet diese Annahme auf Basis seines BildverstehensModells, in dem er zwischen ökologischem und indikatorischem Verstehen unterscheidet (vgl. dazu auch Kap. 4.3.2, Fußnote 54). Während das indikatorische Verstehen elaborativen Verarbeitungsprozessen unterliegt, fasst er das ökologische Verstehen als reale Erfahrungen mit der Umwelt auf, die in Form von komplexen Schemata und mentalen Modellen im Laufe der Zeit erlernt werden. Da Fernsehen in hohem Maße realitätsanaloge Stimuli präsentiert, kommt es der „realen“ Wahrnehmung nah und erfordert demnach nur einen minimalen Verarbeitungsaufwand. Fernsehverstehen entspricht danach einem ökologischen Verstehensmodus. Dieses scheinbar „mühelose“ Verstehen wird zudem dadurch unterstützt, dass das Fernsehen seine Inhalte in rascher Abfolge präsentiert, so dass der Zuschauer kaum in der Lage ist, sich intensiver mit bestimmten Inhalten auseinander zu setzen. Der minimale mentale Aufwand wird darüber hinaus von den Produzenten unterstützt, da diese i.d.R. darauf abzielen, Bilder und Sprachtexte aufeinander abzustimmen, so dass der Zuschauer einen nur geringen Verarbeitungsaufwand aufbringen muss. Aus kommunikationswissenschaftlicher Perspektive wird die Bereitschaft, einen bestimmten Verarbeitungsaufwand während der Fernsehrezeption zu investieren, häufig mit dem Involvement-Konzept bzw. mit Dual-Process-Theorien der Informationsverarbeitung erklärt (vgl. Donnerstag 1996). Involvement (oder auch Ich-Beteiligung) beschreibt dabei „den Einbindungsgrad des Rezipienten in eine kommunikative Situation“ (Fahr 2006: 113) und beinhaltet sowohl kognitive als auch affektive Prozesse. Das Involvement-Konzept bildet die Grundlage für Dual-Process-Theorien, die sich mit dem Einfluss des Einbindungsgrades auf die Informationsverarbeitung befassen. So unterliegen sie ebenso wie das Ver-
108
Verstehen von Medieninhalten
stehensmodell von Weidenmann (1989) der Annahme vom Prinzip der minimalen Verarbeitung und unterscheiden zwei Modi der Informationsverarbeitung: hohes und niedriges Involvement. Eine der bekanntesten Dual-Process-Theorien ist neben dem ElaborationLikelihood-Model von Petty und Cacioppo (1986) und dem HeuristicSystematic-Model von Chaiken (1980) das Modell der Alltagsrationalitäten von Brosius (1995). So geht Brosius davon aus, dass Rezipienten häufig weder dazu neigen, aktiv nach subjektiv relevanten Informationen zu suchen, noch diese aufmerksam und involviert verfolgen (vgl. Brosius 1995: 305). Zwar wird eine (im Sinne einer wissenschaftlichen Rationalität) aufmerksame und möglichst vollständige Rezeption nicht vollkommen ausgeschlossen. Brosius (1995) nimmt jedoch mehrheitlich eine unsystematische, unvollständige und somit heuristische und schemageleitete Verarbeitung an (vgl. auch Brosius 1998). Heuristiken lassen sich als kognitive Prozesse der Informationsverarbeitung beschreiben.71 Sie stellen Entscheidungshilfen zur Verfügung, die den Rezipienten helfen, in schwierigen oder unsicheren Situationen schnell zu einer Entscheidung oder Bewertung zu gelangen. Dabei handelt es sich um Verallgemeinerungen, „die auf individuellen Erfahrungen beruhen und deswegen besonders anfällig gegenüber Verzerrungen sind“ (Brosius 1995: 107-108). Rezipienten wählen somit bestimmte Informationen auf Basis vorhandener Wissensstrukturen (Schemata) aus und ergänzen diese durch Verallgemeinerungen, Schlussfolgerungen oder Stereotype. Hierbei greifen sie insbesondere auf Erfahrungen zurück, die sich im Alltag bewährt haben. Brosius (1995) stellt jedoch heraus, dass die Selektion und Verarbeitung der Informationen häufig auch von den Merkmalen der Botschaft abhängig sind. So belegen die empirischen Ergebnisse, dass lebhafte und auffällige Informationen in Form von bebilderten Meldungen besser behalten werden als Sprechermeldungen (vgl. auch Renckstorf 1980). Darüber hinaus steuern emotionale Bilder und Fallbeispiele die Wahrnehmung, so dass die Bedeutung solcher Informationen mitunter überschätzt wird, was wiederum Einfluss auf die Erinnerung hat (vgl. auch Brosius 1993). Somit unterliegt auch das Modell der Alltagsrationalität der Annahme, dass Journalisten Einfluss darauf haben können, wie und welche Informationen vom Rezipienten verarbeitet werden (vgl. Brosius 1995: 305). Ein weiterer, mit dem Involvement-Konzept verwandter Ansatz, ist das Lernmodell von Salomon (1983; 1984). Er beschreibt darin die Verarbeitung von Fernsehstimuli als einen vom Rezipienten aktiv steuerbaren Prozess, der insbesondere durch die Einstellung zum Medium bzw. Medieninhalt beeinflusst wird. Dazu entwickelte er ein Lernmodell, das die folgenden drei Komponenten enthält: PDC-Wert, PSE-Wert und AIME. Obwohl es sich hier um ein Lernmo71
Das Heuristik-Konzept geht insbesondere auf Tversky und Kahneman (1973) zurück.
Audiovisuelles Verstehen
109
dell handelt, wird die Wirksamkeit der einzelnen Komponenten auch für das Verstehen angenommen, da Lernen und Verstehen in enger Beziehung zueinander stehen (vgl. dazu Kap. 4.1). Salomon geht davon aus, dass das fernsehbedingte Lernen vor allem davon abhängig ist, welche mentalen Anstrengungen ein Zuschauer bereit ist zu investieren. Er verwendet hierfür die Bezeichnung „amount of invested mental effort“, kurz AIME. Diese Bereitschaft hängt wiederum vom PDC- und PSE-Wert ab: Der PDC-Wert (perceived demand characteristic) beschreibt die wahrgenommene Aufgabencharakteristik. Je höher ein Rezipient die Anforderungen einer Fernsehinformation einschätzt, desto höher ist der erforderliche mentale Aufwand. Wird jedoch die Anforderung als zu schwierig bewertet, sinkt der AIME-Wert, da in der Folge keine weiteren mentalen Anstrengungen investiert werden. Der PSE-Wert beschreibt hingegen die „perceived self-efficacy“, also die wahrgenommene Selbstwirksamkeit bzw. den persönlichen Gewinn durch die Fernsehinhalte. Auch hier besteht kein linearer Zusammenhang zwischen PSE-Wert und der mentalen Anstrengung. Wird eine Aufgabe als zu leicht erachtet, werden keine weiteren mentalen Anstrengungen unternommen, so dass auch hier der AIME-Wert absinken kann. Zwar überprüft Salomon sein Modell vor allem bei Kindern, jedoch nimmt er nicht an, „dass ein genereller Unterschied zwischen den Kognitionen von Erwachsenen und Kindern besteht“ (Salomon 1990: 169). So konnte Salomon (1984) in einer Reihe von Experimenten zeigen, dass im Vergleich zur Rezeption von Texten beim Fernsehen geringere mentale Anstrengungen aufgebracht werden, wodurch es zu schlechteren Behaltens- und Verstehensleistungen kommt. Er begründet das Ergebnis damit, dass das Fernsehen generell negativer bzw. als leichtes Medium wahrgenommen und daher automatisiert rezipiert wird. Werden jedoch verschiedene Formate innerhalb des Fernsehens miteinander verglichen, zeigt sich, dass die Bereitschaft zur mentalen Anstrengung und somit die Behaltensleistung bei Informationsangeboten im Vergleich zu Unterhaltungsangeboten steigt (vgl. im Überblick Dörr 1997). Empirisch gestützt wird Salomons Lerntheorie u.a. von Shoemaker et al. (1989), die zeigen konnten, dass eine positive Einstellung gegenüber dem Medium und den Inhalten einer Fernsehsendung sowie der damit verbundene erhöhte kognitive Verarbeitungsaufwand sich positiv auf die Wissensaneignung auswirken können. Im Zusammenhang mit der Rezeption von TV-Wissenschaftsmagazinen sieht Renner (1994) jedoch ein Problem, das er als das klassische „Dilemma des Salomon-Effekts“ bezeichnet. Dies beschreibt er folgender Maßen:
110
Verstehen von Medieninhalten
„Entweder die Zuschauer finden einen Film gut, dann rezipieren sie ihn nach Unterhaltungskriterien und behalten nur einen Bruchteil der Informationen – sie verstehen ihn nicht -, ist ein Film aber anstrengender gestaltet als sonstige Beiträge, dann finden ihn die Zuschauer schlecht und schalten um.“ (Renner 1994: 62).
Renner bleibt jedoch einen empirischen Beleg für diese These schuldig. Vielmehr fordert er von den Produzenten, den Rezipienten durch eine besonders ansprechende Filmgestaltung zur Beteiligung zu aktivieren. Dies kann in Form eines Witzes, eines Rätsels oder einer Frage-Antwort-Struktur geschehen oder aber durch eine besondere Kameraführung und implizite Sehanweisungen. Sein Resümee ist, dass Filme, die informieren wollen, ihren Zuschauern nicht alles „vorkauen“ dürfen. Diese erschwerte Rezeption muss dann durch die besondere Qualität der Filme ausgeglichen werden (vgl. Renner 1994: 64-68). Es lässt sich somit festhalten, dass das Fernsehverstehen einen eher geringen mentalen Verarbeitungsaufwand beim Rezipienten voraussetzt. Allerdings ist Fernsehverstehen ein aktiv steuerbarer Prozess, der je nach Involviertheit des Rezipienten variieren kann. Die Involviertheit des Rezipienten wird dabei insbesondere durch die Einstellung zum Medium, durch die wahrgenommene Aufgabencharakteristik und durch die subjektive Rezeptionsmotivation beeinflusst. Jedoch hängt Involviertheit nicht nur vom Rezipienten selbst ab, sondern kann ebenso durch die Merkmale der Fernsehbotschaft beeinflusst werden. Die Annahme des dynamisch-transaktionalen Ansatzes ist, dass sich diese Variablen wiederum wechselseitig beeinflussen. Allerdings wird dies in den Modellen nicht explizit erläutert. Vielmehr wird Fernsehverstehen als innerpsychischer Verarbeitungsprozess beschrieben, bei dem der mentale Aufwand durch die Rezipienteninvolviertheit und die Merkmale der Fernsehbotschaft bestimmt wird. Ein Modell, das die Inter- und Intra-Transaktionen stärker als bislang hervorhebt und die einzelnen Variablen in Beziehung setzt, ist das Verstehensmodell von Augst et al. (1985). Es handelt sich dabei um ein psycholinguistisches Modell, das vor allem die Wechselwirkungen zwischen Medieninhalt und Rezipient in den Mittelpunkt der Betrachtungen stellt.
Fernsehverstehen als Wechselwirkung zwischen Rezipient und Medium Das Verstehensmodell von Augst et al. (1985) wurde als Dreiecksmodell des Verstehens konzipiert und basiert auf der Annahme einer Rezipient-TextInteraktion. Daher wird das Modell sowohl zur Erklärung von Verstehensprozessen beim Rezipienten als auch zur Bewertung der Verständlichkeit von Fernsehsendungen oder einzelnen Beiträgen verwendet. Empirisch geprüft wurde das
Audiovisuelles Verstehen
111
Modell mit TV-Wissenschaftsmagazinen. Wissenschaftsmagazine werden dabei im semiotischen Sinne als „Fernsehtexte“ verstanden, in denen visuelle, verbale und akustische Informationen eine integrative Einheit bilden, die von den Zuschauern über den optischen und auditiven Kanal entschlüsselt werden müssen (vgl. Augst et al. 1985: 20). Die Grundannahme des Modells ist, dass bei der Rezeption eines Magazins Sachkompetenz, Interessen und sprachliche Fähigkeiten des Zuschauers auf die kognitive, motivationale und sprachliche Textstruktur eines Fernsehbeitrags treffen. Verständlichkeit wird dabei als eine Modalität des Verstehens angesehen, wobei die Autoren Verstehen „als die Integration der im Text objektivierten Wissensstruktur in das Vorwissen des Rezipienten“ (Augst et al. 1982: 19) definieren. Demnach trifft ein bestimmtes Verstehensniveau des Zuschauers auf ein bestimmtes Verständlichkeitsniveau der Fernsehsendung. Das Verstehensniveau des Zuschauers basiert auf dessen Themeninteresse, seinem thematischen Vorwissen sowie auf zuvor gemachten Fernseherfahrungen (vgl. Abb. 8, folgende Seite). Wie die gestrichelte Linie in Abbildung 8 symbolisiert, stehen die Variablen miteinander in Beziehung. Dem gegenüber steht das Verständlichkeitsniveau des Fernsehtextes, dessen Variablen sich ebenfalls gegenseitig bedingen. Das Verständlichkeitsniveau des Fernsehtextes kann nun dem Verstehensniveau des Zuschauers entsprechen oder ihn über- oder unterfordern. Beispielsweise enthält der Fernsehtext eine zeitlich-lineare Progression, also eine hierarchische Struktur. Will der Zuschauer die Inhalte verstehen, muss er die Textstruktur nachvollziehen.
112
Verstehen von Medieninhalten
Sachkompetenz
Interesse
kognitive
motivationale
TEXTSTRUKTUR
sprachliche
Sprachliche Kompetenz Verständlichkeitsniveau des Lesers Verständlichkeitsniveau des Textes
Abbildung 8: Das Dreiecksmodell des Verstehens (vgl. Augst et al. 1985: 31)
Die Autoren nehmen zudem an, dass die Spannung und Entspannung des Zuschauers eine weitere wichtige Komponente beim Verstehensprozess darstellt und für die Rezeption motivierend sein kann. Werden also unterhaltende Elemente vernachlässigt, laufen die Fernsehmacher Gefahr, dass die Zuschauer um- oder abschalten (vgl. Augst et al. 1985: 31f). Da das Modell ursprünglich im Rahmen der Verständlichkeitsforschung entwickelt und insbesondere für die Analyse von Wissenschaftsmagazinen verwendet wurde, wird an dieser Stelle auf die Darstellung der empirischen Überprüfung verzichtet. Die Ergebnisse werden später im Kapitel 5.3 „Verständlichkeit von Wissenschaftssendungen“ erläutert. Mit Bezug auf den dynamisch-transaktionalen Ansatz lässt sich das Verstehensmodell jedoch in der folgenden Weise interpretieren: Sowohl die wechselseitige Beziehung zwischen thematischem Vorwissen, Interesse und Einstellungen zum Medium bzw. Medieninhalt auf Rezipientenseit als auch dessen wechselseitige Beziehung mit verständlichkeitsrelevanten und motivationalen Merkmalen der Medienbotschaft bestimmen die Verstehensleistung. Das Dreiecksmodell des Verstehens berücksichtigt demzufolge sowohl intra-transaktionale Vor-
Audiovisuelles Verstehen
113
gänge des Rezipienten als auch die inter-transaktionale Beziehung zwischen Kommunikator und Rezipient. Somit lässt sich Fernsehverstehen wie folgt zusammenfassen und charakterisieren: Fernsehverstehen… → ist ein individueller, konstruktiver und interpretativer Vorgang, der auf Elaborationen und Kohärenzbildung basiert; → unterliegt den drei mentalen Subprozessen Enkodierung, Speicherung und Abruf, die um begrenzte kognitive Ressourcen konkurrieren; → ist ein vom Rezipienten aktiv steuerbarer Prozess; → wird auf Rezipientenseite durch thematisches und medienspezifisches Vorwissen, medien- und medieninhaltsspezifischen Einstellungen, Interessen und Motivationen beeinflusst; → wird auf Kommunikatorseite durch verständlichkeitsrelevante und motivationale Merkmale des Fernsehbeitrags beeinflusst; → ist Ergebnis eines wechselseitigen Prozesses zwischen verstehens- und verständlichkeitsrelevanten Variablen auf Rezipienten- und Kommunikatorseite.
Um die intra- und inter-transaktionalen Beziehungen der Rezipienten und des Kommunikators für das „Verstehensmodell audio-visueller Wissensvermittlung“ noch weiter konkretisieren zu können, befasst sich das folgende Kapitel mit einer Forschungsrichtung, die im Sinne des DTA beide Transaktionen berücksichtigt. Es handelt sich dabei um Modelle des Filmverstehens, die im Rahmen der kognitiven Filmpsychologie entwickelt wurden. Sie erweisen sich im Zusammenhang mit der theoretischen Modellierung von Verstehensprozessen der TVWissenschaftsvermittlung als besonders geeignet.
4.4.2 Filmverstehen Die Untersuchungen zum Filmverstehen stellen eine relativ neue Forschungsrichtung dar, die sich sowohl international als auch in Deutschland erst Ende der 1980er Jahre etablierte. Dabei gehen die deutschen Forschungsbemühungen insbesondere von Peter Wuss (1992; 1993), Peter Ohler (1994; 1996) und Stephan Schwan (1995; 2001) aus. International lassen sich z.B. Arbeiten von Bordwell (1985), d’Ydewalle/ Vanderbeeken (1990), Kraft (1991), Kraft et al.
114
Verstehen von Medieninhalten
(1991) sowie Magliano et al. (1996) nennen (vgl. im Überblick Ohler/ Nieding 2002). Den theoretischen Rahmen der Arbeiten bildet die kognitive Filmpsychologie, die in laborexperimentellen Untersuchungen der Frage nachgeht, welche kognitiven Prozesse bei der Informationsverarbeitung narrativer Filme ablaufen.72 Aufgrund der noch jungen Forschungsdisziplin sind empirische Studien allerdings selten (vgl. Ohler/ Nieding 2002: 34-35). Die kognitive Filmpsychologie unterliegt der Prämisse, dass die Produktion von Filmen bestimmten Herstellungskonventionen unterliegt, die als „Verstehensanleitung“ beim Rezipienten wirksam werden kann (vgl. Nieding/ Ohler 2004: 356; ebenso Wulff 1999). Daher beschreibt Schwan (2001) Medieninhalte als „kognitive Werkzeuge“ (ebd. 2001: 174), die im direkten Zusammenhang zu den kognitiven Fertigkeiten des Rezipienten stehen (vgl. ebd.). Diese Auffassung entspricht der dynamisch-transaktionalen Vorstellung von Inter-Transaktionen zwischen Kommunikator und Rezipient. So setzt Schwan (2001) in seinem Modell zum Beispiel die filmische Darstellung von Ereignis- und Handlungsabläufen mit der Bildung einer kohärenten Repräsentation dieses Ereignisablaufes beim Zuschauer in Beziehung. Die grundlegende Annahme ist dabei, dass filmische Ereignisdarstellungen strategischen Entscheidungen der Filmemacher unterliegen. So kann der Ereignisablauf (Story) durch entsprechende Planung und Inszenierung in eine Ereignisdarstellung (Plot) überführt werden. Dadurch wird der Filmemacher in die Lage versetzt, mit der Darstellung eines Ereignisses auf die perzeptuellen und kognitiven Verarbeitungsprozesse des Zuschauers einzugehen. Die Ereignispräsentation weist somit strukturelle Zusammenhänge mit der Ereignisrepräsentation beim Zuschauer auf, was Schwan (2001: 62; 174) als „Repräsentationsäquivalenz“ bezeichnet. Eine filmische Ereignisdarstellung entspricht demnach einer unmittelbaren Beobachtung. Eine weitere, aus filmtheoretischer Sicht abgeleitete Grundannahme ist, dass formale filmische Mittel und inhaltliche Darstellungen untrennbar zusammen hängen. Dies hat insofern Konsequenzen für die experimentelle Versuchsplanung, da diese Prämisse gegen die klassische Experimentallogik verstößt. So wird in der Regel versucht, audiovisuelles Material anhand von formalen oder inhaltlichen Merkmalen unabhängig voneinander zu variieren, um mögliche Konfundierungen zu minimieren. Filmpsychologen gehen jedoch davon aus, dass die Variation einer dieser Merkmalsklassen die andere automatisch mit verändert. Daher fordern sie, das „natürliche“ Zusammenspiel von Form und Inhalt zu beachten (vgl. Nieding/ Ohler 2004: 357). Auf der Grundlage beider Prämissen wird für den Kommunikationsprozess nun angenommen, dass sowohl die am Produktionsprozess des Films beteiligten 72
Einen guten Überblick über die kognitiven Ansätze der Filmpsychologie gibt auch Gehrau (2001) im Kapitel 4.2.
Audiovisuelles Verstehen
115
Personen (z.B. Filmemacher) als auch die Rezipienten kognitiven Systemen entsprechen, die miteinander kommunizieren (vgl. Schwan/ Hesse 2004). Die kognitiven Systeme unterliegen dabei den internen Funktionen der Informationsaufnahme, Abspeicherung und des Wiederaufrufs bzw. Erinnerns, wobei zwischen Input und Output unterschieden wird. So entwickelt ein Filmproduzent auf Basis seines Umwelt-Inputs einen Film bzw. audiovisuellen Text, dessen fertig gestellte Version den Output darstellt. Dieser Output wird wiederum vom kognitiven System des Rezipienten als Input rezipiert, wobei der audiovisuelle Text während der Rezeption einer Reihe von kognitiven Transformationen unterworfen ist, die im Ergebnis den Output darstellen (vgl. Ohler/ Nieding 2002: 9-11). Die Modelle des Filmverstehens setzen somit sowohl auf Kommunikator- als auch auf Rezipientenseite inter- und intra-transaktionale Vorgänge miteinander in Beziehung. Darüber hinaus berücksichtigen sie Kontextmerkmale, die insbesondere bei der Produktion von Filmen wirksam werden. Ohler (1994) führt ein Modell ein, das sich an den Modellen und Operationalisierungen der Textverstehensforschung narrativer Texte orientiert (vgl. dazu Kap. 4.3.1.2 insbesondere zur Geschichtengrammatik). Mit seinem „allgemeinen Prozessmodell der Verarbeitung filmischer Information“ stellt er die einzelnen Instanzen dar, die ein Rezipient bei der Verarbeitung von Filmen durchläuft. Im Mittelpunkt des schematheoretischen Prozessmodells steht ein Situationsmodell, das sich aus dem mentalen Repräsentat eines Films bildet (vgl. Abb. 9, siehe auch Kap. 4.3.1.2).
116
Verstehen von Medieninhalten
Abbildung 9: Allgemeines Prozessmodell der Filmverarbeitung (Ohler 1994: 33)
Das Modell lässt sich in der folgenden Weise von links nach rechts beschreiben: Nachdem auf der ersten Stufe die filmischen Stimulusinformationen auf den sensorischen Kurzzeitspeicher treffen, werden sie in den zentralen Prozessor weiter geleitet. Da der zentrale Prozessor über eine begrenzte Verarbeitungskapazität verfügt73, kann er nur eine bestimmte Menge an Informationen innerhalb eines bestimmten Zeitraums verarbeiten. Daher werden die am stärksten im Vordergrund stehenden Informationen (wie etwa der jeweilige Stand der präsentierten Geschichte, der Filmverlauf, auftretende Protagonisten, Handlungsräume und Ereignisse) in ein Situationsmodell überführt und dort mental repräsentiert. Der zentrale Prozessor und das Situationsmodell tauschen laufend Informationen aus, so dass das Situationsmodell ständig aktualisiert wird. Das Situationsmodell wiederum lädt Organisationsstrukturen in den zentralen Prozessor, so dass dieser die einkommenden Filminformationen effizienter strukturieren kann. Somit postuliert das Modell ständige Wechselwirkungen im kognitiven System des Rezipienten, die in dieser Form auch als Intra-Transaktionen aufgefasst werden können. 73
Vgl. dazu auch das Limited Capacity Model of Mediated Message Processing von Lang (2000) in Kap. 4.4.1. in diesem Buch.
Audiovisuelles Verstehen
117
Das Situationsmodell wird durch Wissensbestände unterstützt, die im Gedächtnis abgespeichert sind. Diese können durch die Filmrezeption erweitert oder modifiziert werden. Ohler unterscheidet hier zwischen narrativem Wissen, generellem Weltwissen und dem Wissensbestand über filmische Darbietungsformen. 1. Das narrative Wissen umfasst Kenntnisse darüber, wie Filme eines bestimmten Genres typischer Weise inhaltlich aufgebaut sind und basiert auf der hierarchischen Organisation von Story-Grammatiken, die sich aus dem Wissen über einen typischen Beginn, Verlauf und Ende eines Filmes zusammensetzen. 2. Das generelle Wissen befähigt die Rezipienten dazu, schemageleitet von gezeigten Szenen auf nicht gezeigte zu schließen und diese inhaltlich zu füllen. Die Modellannahme ist, dass das generelle Wissen mit dem narrativen Wissen verknüpft ist und beide Wissensbestände aufeinander bezogen sind bzw. sich gegenseitig ergänzen können. 3. Der Wissensbestand über filmische Darstellungsformen bezieht sich auf formale Darstellungsmittel wie Einstellungen, Schnitte, Kameraperspektiven, Farbgebung, Toneffekte oder Musik etc., die als Cues das Verständnis des Rezipienten unterstützen und narrationsbezogene Erwartungen generieren können.74 Ohler (1994; sowie Ohler/ Nieding 2002) geht davon aus, dass der Wissensbestand über filmische Darstellungsformen ebenfalls mit dem narrativen Wissen verknüpft ist, woraus sich ein narratives Form-Inhalt-Korrespondenzgitter bildet. So nehmen sowohl narrative Schemata oder Subschemata als auch filmische Darbietungsformen Einfluss auf die Erwartung, wie eine filmische Handlung fortgesetzt wird. Zur Validierung seines Modells führte Ohler (1994) eine Reihe von Experimenten durch, mit denen er belegen konnte, dass Rezipienten in der Tat über ein Wissen um filmische Darbietungsformen verfügen. Zudem konnte er seine Annahme empirisch stützen, „[…] dass das narrative Wissen und das Wissen um filmische Darbietungsformen im Informationsverarbeitungsprozess funktional miteinander verknüpft sind“ (Ohler/ Nieding 2002: 15), so dass aus beiden Wissensbeständen Erwartungen über den Fortgang der Filmhandlung generiert werden können. Zudem zeigt sich, dass die verschiedenen Ebenen der strukturellen Organisation von narrativen Filmen vom Rezipienten zur Optimierung seines Informationsverarbeitungsprozesses herangezogen werden. Diese Ergebnisse stützt auch Schwan (1995; 2001). Er belegt im Zusammenhang mit genrebezogenen Schemata sowie Story-Schemata, dass das entsprechende Wissen hilfreich dabei ist, verstehensrelevante Elemente zu selektieren und fehlende Informatio74
So kann beispielsweise dramatische Musik zu Beginn einer Filmszene zu der Rezeptionserwartung führen, dass im weiteren Verlauf etwas Unerwartetes oder Bedrohliches passieren wird.
118
Verstehen von Medieninhalten
nen zu inferieren. Diese Informationen werden wiederum miteinander verknüpft und schließlich in bestehende Wissensstrukturen integriert (vgl. Schwan 1995: 37). In einer Nachfolgestudie geht Schwan (2001) der Frage nach, ob Medieninhalte tatsächlich das Potenzial besitzen, Informationen so zu systematisieren, dass sie die perzeptuellen und kognitiven Verarbeitungs- und Verstehensprozesse des Zuschauers gestalten können. Dazu führte er wiederum eine Reihe von Experimenten durch, mit denen er die Wirkung der Repräsentationsäquivalenz anhand von Filmschnitten und Filmellipsen75 generell bestätigt: Ein Ereignisverlauf, der bestimmten Eigenschaften der kognitiven Repräsentation entspricht, unterstützt in entsprechender Weise die kognitive Informationsverarbeitung und Repräsentation des Zuschauers (vgl. auch Schwan et al. 2000). Für die experimentelle Überprüfung von Verstehensprozessen bei der Rezeption von audiovisuellen Filmen orientieren sich Filmpsychologen an den etablierten Methoden der Textverstehensforschung. Dabei besteht der Anspruch, Methoden zu verwenden, die den Aufbau von Situationsmodellen während und nach der Rezeption der audiovisuellen Filme messbar machen können. Insgesamt werden drei unterschiedliche Messverfahren vorgeschlagen: Online, Offline und Quasi-Online. Online- und Quasi-Online-Verfahren werden rezeptionsbegleitend erhoben, wobei die Rezeption für das Quasi-Online-Verfahren unterbrochen werden muss. Beide Verfahren zielen darauf, die Prozesse der Enkodierung während der Rezeption zu analysieren (vgl. Nieding/ Ohler 2004). Um überprüfen zu können, ob bei der Verarbeitung von Filmen mentale Situationsmodelle aufgebaut worden sind, werden hingegen Off-Line-Verfahren empfohlen, die nach der Rezeption durchgeführt werden. Dazu kann auf klassische Methoden der freien und selektiven Rekonstruktion zurückgegriffen werden, deren Fragestellungen sich in Form von Warum- und Wie-Fragen an der Struktur der Geschichten orientieren sollten (vgl. Nieding/ Ohler 2004: 370-371). Im Zusammenhang mit den Annahmen des dynamisch-transaktionalen Ansatzes lassen sich die Modellannahmen zum Filmverstehen nun in der folgenden Weise einordnen: 1. Die Auffassung, dass sowohl der Kommunikator als auch der Rezipient kognitive Systeme darstellen, entspricht der Vorstellung, dass auf beiden Seiten der Kommunikationsprozess durch innerpsychische Vorgänge beeinflusst wird. Allerdings vernachlässigt die kognitive Filmpsychologie die Wechselwirkung mit dem affektiven System, wie sie bereits in Kapitel 4.4.1 zum Fernsehverstehen herausgestellt wurde. Somit lassen sich die Verarbeitungsprozesse im kognitiven System als Teilaspekte von Intra-Transaktionen interpretieren, decken diese jedoch nicht vollständig ab. 75
Als Filmellipsen werden Auslassungen von Ereignisabschnitten in der Filmpräsentation bezeichnet (vgl. Schwan 2001: 176).
Audiovisuelles Verstehen
119
2.
Zudem wird hervorgehoben, dass beide kognitiven Systeme aufeinander bezogen sind und sich aneinander orientieren, was der Vorstellung der InterTransaktion entspricht. Der Kommunikator tut dies, indem er seine Filme nach strategischen Gestaltungsprinzipien plant und am Rezipienten ausrichtet. Dies entspricht den Grundannahmen der im „Verstehensmodell audiovisueller Wissenschaftsvermittlung“ konzipierten Vermittlungskonzepte (vgl. Kap. 3.5). Der Rezipient aktiviert wiederum auf den Kommunikator gerichtet Wissensbestände in Form von narrativem Wissen und Wissen über filmische Darstellungsformen. Insbesondere diese Wissensbestände helfen dem Rezipienten, bestimmte Vorannahmen und Erwartungen an die Rezeption eines Films heranzutragen. 3. Filmverstehen wird nicht als ein statisches Konstrukt angesehen, sondern entspricht einem dynamischen Modell, da das Situationsmodell während der Rezeption ständig aktualisiert wird. Demnach berücksichtigt das Modell die dynamische Komponente des DTA, da es ebenfalls davon ausgeht, dass der Rezipient während der Rezeption die Informationen aus der Medienbotschaft fortwährend selektiert, interpretiert, vergisst und ergänzt. Es zeigt sich somit, dass sich die Modelle des Filmverstehens für die theoretische Modellierung des „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ in besonderer Weise eignen, da sie sowohl die inter- und intra-transaktionalen Beziehungen von Kommunikator und Rezipient als auch die dynamische Perspektive integrieren. Somit lassen sich die Annahmen und Befunde zum Filmverstehen wie folgt zusammenfassen: Filmverstehen… → unterliegt zwei zentralen Annahmen: (1) Filmemacher und Rezipienten sind kognitive Systeme, die über die Medienbotschaft miteinander kommunizieren; (2) formale filmische Mittel und inhaltliche Darstellungen hängen untrennbar zusammen; → basiert auf Input- und Output-Prozessen beider kognitiven Systeme und auf einer Reihe von kognitiven Transformationen; → erfolgt ganzheitlich in Form der Konstruktion eines Situationsmodells, in dem die am stärksten im Vordergrund stehenden Informationen mental repräsentiert werden; → steht in Wechselbeziehung mit dem Form-Inhalt-Korrespondenzgitter, das aus narrativem Wissen, generellem Weltwissen und Wissen über filmische Darbietungsformen besteht;
120
Verstehen von Medieninhalten
→ lässt sich durch Off-Line-Verfahren messen, indem sich die Fragen an der Struktur der Geschichten orientieren.
Somit lassen sich die Ausführungen zum Verstehen von Medieninhalten abschließen. Aus den vorangegangenen Kapiteln können nun wie zuvor in Kapitel 3.5 Schlussfolgerungen abgeleitet werden, die in das „Verstehensmodell audiovisueller Wissenschaftsvermittlung“ integriert werden. 4.5 Schlussfolgerung II: Verstehen von Vermittlungskonzepten Nachdem im Kapitel 3.5 Wissenschaftsfilme als Vermittlungskonzepte konzipiert wurden, die auf der Grundlage der redaktionellen Kommunikationsziele entwickelt werden, lässt sich das „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ nun auf der rechten Seite um die Verstehensleistungen der Rezipienten erweitern (vgl. Abb. 10). Allerdings handelt es sich hierbei noch nicht um das vollständige Modell, sondern um das Teilmodul 2.
Kommunikationsziele
(Para)-Feedback
Rezipient
Verständlichkeit Attraktivität
Gestaltungsstrategien:
der Wissenschaftsredakteure
Limitierte Kapazität
(formale Gestaltung, motivationale Elemente)
Aufmerksamkeit Selektion Elaboration
Auditives und visuelles Sensorium
TV-Vermittlungskonzept
Wissensformen und -strukturen
SituationsModell Propositionale Repräsentation Kognitives System
Einstellung
Interesse
Motivation
Abbildung 10: Verstehensmodell audio-visueller Wissenschaftsvermittlung (Modul 2)
Schlussfolgerung II: Verstehen von Vermittlungskonzepten
121
Das Modell betrachtet den Rezipienten entsprechend der kognitiven Filmpsychologie als ein kognitives System, das während der Rezeption eines Vermittlungskonzepts eine kohärente mentale Repräsentation der Filminhalte konstruiert. Mit Bezug auf die erläuterten Text-Bild-Verstehensmodelle lässt sich dabei annehmen, dass der Rezipient sowohl eine propositionale Repräsentation des gesprochenen Textes als auch ein Situationsmodell der Visualisierungen der Filminhalte entwickelt (vgl. dazu Kap. 4.3.3). Zudem stehen beide Repräsentationen in einem fortwährenden gegenseitigen Austausch und bilden somit das Kernelement des Verstehensprozesses. Um nun zu einer kohärenten mentalen Repräsentation des Wissenschaftsfilms zu gelangen, werden das Situationsmodell und die propositionale Repräsentation der Filminhalte durch bereits vorhandene Wissensformen und Wissensstrukturen angereichert. Diese Wissensformen bestehen insbesondere aus themenspezifischem und medienspezifischem Vorwissen. Das Ergebnis dieses Konstruktions- und Integrationsprozesses ist die individuelle Verstehensleistung des Rezipienten, die sowohl durch dessen medienspezifische Einstellungen, Interessen und Rezeptionsmotivationen als auch durch Eigenschaften der Medienbotschaft wechselseitig beeinflusst und geleitet wird. Der Verlauf des Verstehensprozesses orientiert sich an der stufenweisen Informationsverarbeitung, wie sie in Kapitel 4.2 erläutert wurde und lässt sich daher in der folgenden Weise beschreiben: 1. Zunächst werden die auditiven und visuellen Informationen des Wissenschaftsfilms über das entsprechende Sensorium Auge und Ohr aufgenommen. 2. Da das kognitive System über nur begrenzte Verarbeitungskapazitäten verfügt, werden aus den wahrgenommenen Reizen diejenigen selektiert und zur zentralen Verarbeitung weitergegeben, die im Vordergrund stehen und die Aufmerksamkeit des Rezipienten binden. 3. Die zentrale Verarbeitung der Filminformationen erfolgt, indem die propositionale Repräsentation und das Situationsmodell fortwährend mit Filminformationen und bereits bestehendem Wissen angereichert werden. Gleichzeitig führen die propositionale Repräsentation und das Situationsmodell dazu, aus den einkommenden Informationen diejenigen zu selektieren und zu strukturieren, die für den weiteren Verstehensprozess relevant zu sein scheinen. 4. Die zentrale Verarbeitung wird gleichzeitig durch individuelle Einstellungen, Interessen und Motivationen des Rezipienten beeinflusst, wobei sich diese Merkmale und die Verstehensleistungen gegenseitig bedingen können. So wird beispielsweise angenommen, dass eine positive Einstellung gegenüber Wissenschaftsmagazinen, das Interesse für wissenschaftliche Inhalte sowie eine hohe Rezeptionsmotivation positive Auswirkungen auf die Verstehensleistung haben können. Gleichzeitig kann erfolgreiches Verstehen wiederum zu einer Steigerung der Rezeptionsmotivation und des Interesses führen.
122
Verstehen von Medieninhalten
Demnach wird hier von einem intra-transaktionalen Prozess zwischen Aktivation und Wissen ausgegangen, wie er auch im dynamisch-transaktionalen Ansatz beschriebenen wird (vgl. Früh 1991: 63-67). 5. Das Ergebnis dieses Verarbeitungsprozesses ist eine ganzheitliche, kohärente mentale Repräsentation des im Film beschriebenen Sachverhalts, die den Rezipienten in die Lage versetzt, darüber hinausgehende Schlussfolgerungen und Bewertungen auf Basis von Elaborationen zu formulieren. Das entwickelte Verstehensmodell unterliegt somit einer Vielzahl von mentalen Wechselwirkungen, die mit Bezug auf den dynamisch-transaktionalen Ansatz als intra-transaktionale Vorgänge interpretiert werden können. Zudem wird Verstehen als ein dynamischer Vorgang aufgefasst, der auf Konstruktions- und Integrationsprozessen basiert. Wird Verstehen also zu einem bestimmten Zeitpunkt während oder nach der Rezeption gemessen, lässt sich auf die jeweils aktuelle (immer jedoch nur vorläufige) Verstehensleistung schließen. Da das Ziel dieser Untersuchung darin besteht zu überprüfen, ob verschiedene Vermittlungskonzepte zu unterschiedlichen Verstehensleistungen führen, kann die Verstehensmessung in dieser Studie im Anschluss an die Rezeption durchgeführt werden. Es wurde bereits mehrfach darauf hingewiesen, dass Verstehen ein Prozess ist, der sowohl durch die Eigenschaften des Rezipienten als auch durch die Eigenschaften der Medienbotschaft determiniert wird. Bislang fehlen jedoch konkrete Hinweise, um welche Eigenschaften es sich bei der Medienbotschaft handelt. Dies soll im folgenden Kapitel erläutert werden. Damit widmet sich das letzte theoretische Kapitel der dritten wichtigen Komponente des dynamischtransaktionalen Ansatzes: der Medienbotschaft. Es soll geklärt werden, welche Gestaltungselemente sich in TV-Wissenschaftsfilmen verständlichkeitsfördernd oder aber verständlichkeitsmindernd auf die Vermittlung wissenschaftlicher Inhalte auswirken können. Grundlage der Ausführungen bildet daher die Verständlichkeitsforschung, die sich mit dieser Frage befasst.
5 Verständlichkeitsforschung
Die traditionelle Verständlichkeitsforschung ist eine Forschungsrichtung, die sich an der Schnittstelle von Psychologie und Linguistik einordnen lässt. Dabei werden Verständlichkeitsanalysen am häufigsten an Texten, aber auch an audiovisuellem Material vorgenommen. Der Begriff „Verständlichkeit“ bezieht sich auf den anwendungsbezogenen Aspekt des Verstehens und lässt sich als eine kommunikatorzentrierte Sichtweise auf den Verstehensprozess charakterisieren, der an der Medienbotschaft ansetzt (vgl. Biere 1995). Die Verständlichkeit einer Medienbotschaft kennzeichnet sich dadurch, dass sie bestimmte Eigenschaftsbündel enthält, die das Rezipientenverstehen unterstützen und verbessern können. Es handelt sich demnach um Optimierungsstrategien, die instruktionalen Charakter haben. Verständlichkeits- und Verstehensforschung stehen somit in einem engen Verhältnis zueinander, wobei die Erkenntnisse der Verstehensforschung oftmals vernachlässigt bzw. nur unzureichend berücksichtigt werden (vgl. Deppert 2001). Verständlichkeitsforschung wird vor allem in solchen Bereichen durchgeführt, in denen der Anspruch besteht, dem Rezipienten bestimmte Informationen verständlich und nachvollziehbar zu vermitteln. So untersucht die Textverständlichkeitsforschung häufig Verwaltungs- und Gesetzestexte (vgl. z.B. Langer et al. 1999), Arzneimittelbeilagen, Gebrauchsanweisungen und technische Sachverhalte (vgl. z.B. Gotzmann 1996; Christmann/ Groeben 1996; Berg-Schmitt 2003), Schulbuch- und Lehrtexte (vgl. z.B. Langer 1993; Ballstaedt 1997; Langer et al. 1999) oder wissenschaftliche Fachtexte bzw. Wissenschaftstexte für den Laien (vgl. z.B. Schulz von Thun et al. 1974; Schulz von Thun 1981; Springer 1996; Niederhauser 1999; Ballod 2001; Deppert 2001). Beim Fernsehen interessieren sich die Forscher vor allem für wissens- oder informationsvermittelnde Formate wie Nachrichten (vgl. z.B. Findahl 1981; Graber 1990; Goertz/ Schönbach 1998; Grabe et al. 2000; Grabe et al. 2003; Machill et al. 2006) und Wissenschaftssendungen (vgl. z.B. Augst et al. 1982; Meutsch/ Müller 1988; Freund 1990a; Diedrichs 1994).
124
Verständlichkeitsforschung
In den folgenden Kapiteln werden ein Überblick über die beiden genannten Forschungsbereiche gegeben und zentrale Befunde erläutert. Ziel der Darstellung ist es, das „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ um die Einflüsse der Medienbotschaft zu vervollständigen. Zudem sollen auf der Grundlage der Befunde methodische Implikationen für die Verständlichkeitsanalyse der TV-Wissenschaftsfilme abgeleitet werden, die im empirischen Teil dieser Arbeit durchgeführt wird. Kapitel 5.1 befasst sich daher mit der Textverständlichkeitsforschung. Im Kapitel 5.2 folgt dann die Darstellung der Verständlichkeitsforschung von Wissenschafts- und Magazinsendungen, deren Befunde um die der Nachrichtenforschung ergänzt werden. Abschließend lassen sich in Kapitel 5.3 wiederum Schlussfolgerungen formulieren, die in das „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ integriert werden. 5.1 Textverständlichkeitsforschung Die Textverständlichkeitsforschung entwickelte sich aus der Lesbarkeitsforschung, deren Anfänge auf Thorndike (1921) zurückgehen.76 Der Lesbarkeitsforschung liegt die Annahme zugrunde, dass die Verständlichkeit gesteigert werden kann, indem Texte modifiziert und verbessert werden. Verständlichkeit wird also als Charakteristikum des Textes selbst angesehen, ohne Bezug auf Verstehensprozesse des Rezipienten zu nehmen. Im Rahmen der Lesbarkeitsforschung wurden Lesbarkeitsformeln entwickelt, die Indizes liefern, mit denen der Grad der Verständlichkeit eines Textes vorhersagt werden kann. Dabei wurde zunächst die „Wortschwierigkeit“ (Wortlänge) und „Satzschwierigkeit“ (Satzlänge) in Beziehung gesetzt. Weiter entwickelte Formeln arbeiten mit einer Type-Token-Ratio, mit der unterschiedliche Wörter zur Gesamtwortzahl des Textes ins Verhältnis gesetzt werden. Der bekannteste Index ist der „Reading-Ease-Score“ von Flesch (1948) (vgl. Biere 1991; Rickheit 1995). Die Lesbarkeitsforschung legt nahe, möglichst kurze Worte und keine Fremdworte sowie kurze und grammatikalisch einfache Sätze zu verwenden (vgl. Meutsch 1992). Der Vorteil der Lesbarkeitsformeln liegt darin, dass ihre Anwendung einfach, objektiv und reliabel ist. Andererseits werden ausschließlich sprachlich-stilistische Textmerkmale auf Satzebene beachtet. Inhaltliche und strukturelle Aspekte der Texte bleiben ebenso unbeachtet wie Merkmale und Verarbeitungsaktivitäten des Rezipienten (vgl. Biere 1991; Meutsch 1992; Rickheit/ Strohner 1993; Rickheit 1995). Daher erweisen sie sich im Rahmen dieser Arbeit als theoretisch unzureichend. 76
Einen ausführlichen Überblick über die Entwicklung der Lesbarkeitsforschung gibt Klare (1963; 1984).
Textverständlichkeitsforschung
125
Aufschlussreicher sind dagegen Konzepte, die die inhaltlichen und strukturellen Aspekte stärker berücksichtigen und zudem motivationale Elemente der Texte beachten. Die zwei am meisten beachteten Ansätze werden im Folgenden vorgestellt. Dabei handelt es sich um das „Hamburger Verständlichkeitskonzept“ von Langer, Schulz von Thun und Tausch (1974) sowie um den „Heidelberger Ansatz“ von Groeben (1978). Beide Verständlichkeitsansätze gehen aus einem in den 1970er Jahren in Deutschland entstandenen Forschungsprogramm hervor, deren Ziel darin bestand, „auf möglichst breiter Ebene verständlichkeitsfördernde Textmerkmale zu identifizieren und deren Effektivität empirisch zu überprüfen“ (Christmann/ Groeben 1999: 180). Während das von Langer, Schulz von Thun und Tausch (1974) entwickelte „Hamburger Verständlichkeitskonzept“ auf einer empirisch-induktiven Vorgehensweise basiert, wählte Groeben (1978) mit seinem Heidelberger Ansatz eine theoretisch-deduktive Variante. Ebenso wie die Lesbarkeitsforschung orientieren sich beide Konzepte stark an praktischen Fragestellungen (vgl. Rickheit/ Strohner 1993).
(1) Das Hamburger Verständlichkeitskonzept von Langer, Schulz von Thun und Tausch (1974) Der Hamburger Verständlichkeitsansatz (vgl. Langer et al. 1974; Schulz von Thun et al. 1974) erfasst die Verständlichkeit von Texten anhand von vier Textstrukturmerkmalen. Um diese Textstrukturmerkmale zu identifizieren, gingen die Autoren induktiv-empirisch mit einem Ratingverfahren vor. Entwickelt wurden die Textstrukturmerkmale, indem Lehrer und Psychologen zunächst mehrere unterschiedlich schwere Sachtexte zu gleichen Themen verfassten, die anschließend von Experten anhand von achtzehn Eigenschaftspaaren beurteilt wurden. Die Bewertungen wurden dann mittels Faktorenanalyse auf die folgenden vier Dimensionen reduziert: „Einfachheit“, „Gliederung/ Ordnung“, „Kürze/ Prägnanz“ und „Anregende Zusätze“. Zur Validierung ihrer Textverständlichkeitsdimensionen ließen Langer et al. Schüler und Schülerinnen die Texte lesen und anschließend Behaltens- und Verstehensfragen beantworten. In Folgestudien wurden die Verständlichkeitsdimensionen mit einer Vielzahl von Texten aus unterschiedlichsten Bereichen auch mit Erwachsenen getestet (vgl. Schulz von Thun 1981; Langer et al. 1999). Dabei wurde die Verständlichkeit von Texten mittels einer fünfstufigen bipolaren Schätzskala auf jeder der vier Dimensionen bestimmt, deren resultierende Kennwerte das quantitative Ausmaß der Textverständlichkeit angeben (vgl. Christmann/ Groeben 1999).
126
Verständlichkeitsforschung
Die vier Verständlichkeitsdimensionen lassen sich wie folgt beschreiben: 4. Die Dimension „Einfachheit“ bezieht sich auf die sprachliche Formulierung. Als einfach werden Texte bewertet, die kurze Sätze und geläufige, anschauliche Wörter enthalten. Fremdwörter und Fachausdrücke sollten erklärt werden. Den Gegenpol der „Einfachheit“ bildet die „Kompliziertheit“. 5. Die Dimension „Gliederung/ Ordnung“ bezieht sich auf die innere Ordnung und äußere Gliederung eines Textes. So sollten Sätze folgerichtig aufeinander bezogen und die Informationen in einer sinnvollen Reihenfolge präsentiert werden. Absätze und Zwischenüberschriften helfen, den Text übersichtlich zu gestalten. Um auf wesentliche Inhalte aufmerksam machen zu können, sollten wichtige Wörter durch Hervorhebungen gekennzeichnet werden. Werden diese Eigenschaften nicht erfüllt, kommt es zur „Ungegliedertheit/ Zusammenhangslosigkeit“. 6. Bei der Dimension „Kürze/ Prägnanz“ vs. „Weitschweifigkeit“ eines Textes sind zwei Extreme denkbar: einerseits kann der Text zu kurz und gedrängt oder aber weitschweifig und umständlich formuliert werden. In beiden Fällen sinkt die Verständlichkeit. Ziel sollte also sein, die Länge des Textes in einem angemessenen Verhältnis zum Informationsziel zu halten. 7. Mit der vierten Dimension „Anregende Zusätze“ können beim Leser oder Zuhörer Interesse und Anteilnahme hervorgerufen werden. Dazu eignen sich wörtliche Rede, rhetorische Fragen, lebensnahe Beispiele, auftretende Menschen, witzige Formulierungen oder aber die Einbettung der Information in eine Geschichte. Den Gegenpol bilden hier „Keine anregenden Zusätze“ (vgl. Langer et al. 1999). Die Untersuchungen zum Hamburger Verständlichkeitskonzept ergaben, dass verständlichkeitsoptimierte Texte signifikant besser verstanden werden als die entsprechenden Texte in der Originalversion (vgl. Schulz von Thun 1981; Langer et al. 1999). Die Autoren bewerten die „Einfachheit“ als die wichtigste Dimension, gefolgt von der Dimension „Gliederung/ Ordnung“, „Kürze/ Prägnanz“ und „Anregende Zusätze“. Eine optimale Textverständlichkeit wird erreicht, wenn die Dimensionen „Einfachheit“ und „Gliederung/ Ordnung“ hohe und die beiden Dimensionen „Kürze/ Prägnanz“ und „Anregende Zusätze“ mittlere Ausprägungen aufweisen (vgl. Schulz von Thun 1981; Langer et al. 1999). Ein Beurteilungsfenster optimal verständlicher Texte lässt sich demnach wie folgt darstellen (vgl. Abb. 11):
Textverständlichkeitsforschung
127
Einfachheit
Gliederung/ Ordnung
++
++
Kürze/ Prägnanz
Anregende Zusätze
0 oder +
0 oder +
Abbildung 11: Beurteilungsfenster optimal verständlicher Texte (nach Langer et al. 1999: 27)
Da die Verständlichkeitsdimensionen und deren Rangfolge empirisch-induktiv ermittelt wurden, können Langer et al. ihre Ergebnisse nicht erklären. Und darin liegt auch der Hauptvorwurf der Kritiker. So berücksichtigt das Konzept weder die Befunde der Kognitionspsychologie noch die der Psycholinguistik. Groeben bezweifelt (1982: 197) daher, dass die Einfachheit eines Textes den wichtigsten Faktor darstellt, da dies den experimentellen Ergebnissen der Sprachpsychologie widerspricht. Außerdem kritisiert er, dass die Bestimmung der Textmerkmale durch intuitive Einschätzungen von Experten erfolgte. Im Zusammenhang mit den motivationalen Variablen merkt er an, dass sie zu einfach erhoben wurden und damit die Validität der Untersuchung erheblich eingeschränkt sei (vgl. dazu auch Groeben/ Christmann 1989; Biere 1991; Christmann/ Groeben 1996; 1999). Der Vorteil des Ansatzes ist allerdings, dass er eine ökonomische Erfassung der Textverständlichkeit ermöglicht. Zudem scheinen die in dieser Form definierten Verständlichkeitsfaktoren tatsächlich einen Einfluss auf die Behaltens- und Verstehensleistung zu haben. Demnach weisen die vier Verständlichkeitsdimensionen trotz aller Kritik einen praktischen Erklärungswert auf (vgl. Christmann/ Groeben 1996: 174). Etwa zur gleichen Zeit wie Langer et al. (1974) entwickelte Groeben (1978; 1982) im Rahmen seiner „Leserpsychologie“ ein theoretischdeduktives Verständlichkeitskonzept, das große Ähnlichkeit mit dem „Hamburger Verständlichkeitskonzept“ aufweist.
(2) Der Heidelberger Verständlichkeitsansatz von Groeben (1978; 1982) Groeben geht von einem Verstehensbegriff aus, der eine Prozess- und eine Produktdimension enthält. Verstehen kann demnach sowohl Vorgang als auch Endprodukt beim Rezipienten sein. Er definiert Textverständnis bzw. Textverständlichkeit als einen zweistelligen Relationsbegriff, bei dem ein Zusammenhang
128
Verständlichkeitsforschung
zwischen der Text- und Leser-Instanz besteht. Dabei geht es ihm nicht um das Sinnverstehen von sprachlichem Material, sondern um die Sinnkonstruktion des Rezipienten. Groebens Theorierahmen setzt demnach an einer kognitivkonstruktivistischen Erklärungsperspektive des Textverständnisses an, das aus einer Wechselwirkung zwischen Textinformation und Rezipientenwissen entsteht. Diese Text-Leser-Interaktion besteht demnach darin, sprachlich vermittelte Informationen und Informationen des Kontextes zu verknüpfen und diese mit dem Vorwissen des Rezipienten in Verbindung zu bringen und zu integrieren. Während unter dem Konzept „Textverständnis“ die Anpassung des Lesers an den Text verstanden wird, geht er beim Konzept der „Textverständlichkeit“ von der Anpassung des Textes an den Leser aus. Beide Konzepte verhalten sich also komplementär zueinander und bilden je nach Fragestellung die jeweils veränderliche Größe (vgl. Groeben 1978; 1982). Groebens Textverständlichkeitskonzept basiert wie das Hamburger Verständlichkeitskonzept auf vier Dimensionen. Im Gegensatz zu den Hamburgern erklärt Groeben die Dimensionen jedoch anhand sprachpsychologischer, lerntheoretischer und motivationspsychologischer Modelle zur Textrezeption und leitet daraus Merkmale verständlicher Texte ab. Seine Dimensionen der Textverständlichkeit sind (1) Stilistische Einfachheit, (2) Semantische Redundanz, (3) Kognitive Strukturierung und (4) Konzeptueller Konflikt (vgl. Groeben 1978; 1982; Groeben/ Christmann1989): 1. Die Dimension „Stilistische Einfachheit“ wurde aus den Ergebnissen der Lesbarkeitsforschung, der hermeneutischen Stilforschung sowie den psycholinguistischen Befunden zur Satzverarbeitung abgeleitet. Demnach sind verständlichkeitsfördernde Textmerkmale „kurze Satzteile“, „aktive Verben“, „aktiv-positive Formulierungen“, „keine Nominalisierungen“, „persönliche Wortformulierungen“ sowie „keine Satzverschachtelungen“. 2. Mit Bezug auf die Informationstheorie leitet Groeben für die Dimension „Semantische Redundanz“ die Merkmale „keine wörtliche Wiederholung wichtiger Inhaltselemente“ sowie „keine Weitschweifigkeit“ ab. 3. Ausgehend von der Theorie des bedeutungsvollen Lernens von Ausubel (1963; 1968) hält Groeben die „kognitive Strukturierung“ eines Textes und damit dessen inhaltliche Struktur für den wichtigsten Verständlichkeitsfaktor. Ausubels kognitive Lerntheorie unterliegt der Annahme, dass der Rezeptionsprozess ein Subsumtionsprozess sei, bei dem die Informationsaufnahme gleichsam von der kognitiven Struktur des Rezipienten und den Merkmalen des Lernmaterials abhängt. Dabei wird der Rezeptionsprozess als Eingliederungsprozess von Informationen in die kognitive Struktur des Rezipienten begriffen. Der Subsumtionsprozess lässt sich demnach durch eine adäquate inhaltliche und organisatorische Textgestaltung erleichtern. Im Sinne der
Textverständlichkeitsforschung
129
postulierten Text-Leser-Interaktion bezieht Groeben die kognitive Strukturierung des Textes also auf die kognitiven Voraussetzungen des Lesers (vgl. Groeben 1978; 1982; Biere 1991; Rickheit 1995). Besonders verständnisfördernd sind dabei das sequenzielle Arrangieren sowie die inhaltliche Strukturierung mittels „advance organizer“, „concurrent organisation“ und „post organisation“. Die Sequenzierung eines Textes erfolgt, indem einzelne Aspekte des Textes in eine zeitliche Abfolge gebracht werden. „Advance organizer“, „concurrent organisation“ und „post organisation“ dienen als Strukturierungshilfen, die folgende Funktionen erfüllen: „Advance organizer“ ist eine vorangestellte Strukturierungshilfe, die die übergeordneten Konzepte des Textes kurz erläutert. Sie dienen der Hinführung zum Thema und geben einen ersten Überblick über das Darauffolgende. Damit sollen beim Lernenden bereits vorhandene und verankerte Ideen im Vorwissen aktiviert werden (vgl. auch Schnotz 2006). „Concurrent organisation“ bezeichnet die Hervorhebung der wichtigsten Begriffe oder Aussagen eines Textes, die das übergeordnete kognitive Konzept betreffen. Als „Post organisation“ wird die Zusammenfassung der wichtigsten Punkte am Ende eines Textes charakterisiert (vgl. Groeben/ Christmann 1989). 4. Die vierte Verständlichkeitsdimension „Konzeptueller Konflikt“ geht auf die Neugiermotivationstheorie von Berlyne (1960) zurück. Kognitive Konflikte können beim Leser durch Textmerkmale wie „Neuheit und Überraschung von Konzepteigenschaften“, „Einfügen von inkongruenten Konzepten“ oder „alternativen Problemlösungen und Fragen“ ausgelöst werden. Für die empirische Überprüfung fasste Groeben (1982) die Dimensionen „Kognitive Strukturierung“ und „Konzeptueller Konflikt“ zu einem Faktor „Inhaltliche Strukturierung“ zusammen und entwickelte einen varianzanalytischen Versuchsplan von 18 inhaltlich identischen Texten, der die drei Verständlichkeitsdimensionen miteinander kombinierte. Als abhängige Variablen erhob Groeben Verstehen, Behalten und Interesse. Mit einer Varianzaufklärung von 86% belegt Groeben (1982), dass die Dimension „Inhaltliche Strukturierung“ als die wichtigste Verständlichkeitsdimensionen anzusehen ist. Zwar zeigte die „Sprachliche Einfachheit“ mit 3,5% Varianzaufklärung einen signifikanten Einfluss, jedoch auf wesentlich geringerem Niveau. Die Dimension „Semantische Redundanz“ beeinflusst die Verständlichkeit nur in Verbindung mit einer sprachlich einfachen Textgestaltung. In Bezug auf die Behaltensleistungen zeigt sich nur die „Inhaltliche Strukturierung“ als relevanter Faktor, wobei Texte mit einer Kombi-
130
Verständlichkeitsforschung
Verständlichkeitsdimensionen
nation der Dimensionen „Kognitive Strukturierung“ und „Konzeptueller Konflikt“ am besten behalten wurden. Groeben kommt zu dem Schluss, dass die Textverständlichkeit einerseits und Behalten bzw. Interesse andererseits in einer kurvilinearen Beziehung zusammenhängen. Nicht eine maximale, sondern eine mittlere Verständlichkeit ist optimal für das Lernen mit Texten. Ein solches Ergebnis zeigt sich auch in der Studie von Früh (1980). Ein Text sollte also nicht vollends optimal strukturiert werden, da er dadurch keine kognitiven Anforderungen mehr an den Rezipienten stellt. Wichtiger sind motivationale Anreize, die gleichzeitig eine kognitive Strukturierung ermöglichen (vgl. Groeben 1982; Groeben/ Christmann 1989; Christmann/ Groeben 1999). Trotz unterschiedlicher Herangehensweisen stimmen die Verständlichkeitsdimensionen der beiden vorgestellten Verständlichkeitskonzepte weitestgehend überein. Die Verständlichkeitsdimensionen Groebens lassen sich dabei den entsprechenden Dimensionen des „Hamburger Verständlichkeitskonzeptes“ zuordnen (vgl. Tab. 4). Groeben schlussfolgert daraus, dass die Dimensionen „Sprachliche Einfachheit“, „Kognitive Gliederung/ Ordnung“, „Kürze/ Prägnanz“ sowie „Motivationale Stimulanz“ zu den bedeutendsten Merkmalsdimensionen verständlicher Texte zählen (vgl. Groeben 1982). Hamburger Verständlichkeitskonzept (Langer et al. 1974)
Heidelberger Verständlichkeitskonzept (Groeben 1978; 1982)
Einfachheit
Stilistische Einfachheit
Gliederung/ Ordnung
Kognitive Strukturierung
Kürze/ Prägnanz
Semantische Redundanz
Anregende Zusätze
Konzeptueller Konflikt
Tabelle 4: Vergleich der Verständlichkeitsdimensionen
Beide Konzepte verweisen darauf, dass die Gliederung eines Textes von großer Bedeutung ist. Allerdings unterscheiden sie sich hinsichtlich der Merkmalsdimension „Einfachheit“. Während die „Einfachheit“ im induktiven Konzept als die wichtigste angesehen wird, stellt sie in Groebens Konzept die am wenigsten bedeutsamste dar. Groeben schlussfolgert nach einer Re-Analyse der jeweiligen methodischen Vorgehensweisen, dass das Hamburger Verständlichkeitskonzept
Die Verständlichkeit von Fernsehsendungen
131
die Relevanz dieser Dimension vermutlich überschätzt, während Groebens Verständlichkeitskonzept diese unterschätzt. Die unterschiedliche Gewichtung der Dimensionen ist seiner Ansicht nach auf die Versuchstexte zurückzuführen (vgl. Groeben 1981; Ballstaedt 1999). Während das „Hamburger Verständlichkeitskonzept“ zwar häufig angewendet, nicht jedoch weiterentwickelt wurde, erweiterten Christmann und Groeben (1996; 1999) das Heidelberger Konzept auf Basis neuerer kognitionspsychologischer Befunde. So erhielten motivationale Faktoren mehr Gewicht, wobei die ursprüngliche Dimension „Kognitiver Konflikt“ nun anhand der Dimension „Interessantheit“ abgebildet wird (vgl. Christmann/ Groeben 1996: 159-165; Ballstaedt 1999: 104). So zeigt sich, dass interessant gestaltete, aber unwichtige Informationen die Lernzeit erhöhen und das Verstehen somit erschwert wird. Daher sollten wichtige Textinformationen möglichst interessant gestaltet werden (vgl. Christmann/ Groeben 1996). Insgesamt stellen beide Verständlichkeitskonzepte ökonomisch und pragmatisch handhabbare Indikatoren zur Messung der Verständlichkeit bereit, die auch für die Verständlichkeitsanalyse der TV-Wissenschaftsfilme bedeutsam sein können. Allerdings handelt es sich um rein textbezogene Verständlichkeitsmessungen, so dass ihre Übertragbarkeit auf Fernsehsendungen überprüft werden muss. Daher befasst sich das folgende Kapitel mit Studien zur Verständlichkeitsforschung von Wissenschaftssendungen, die an die Text-Verständlichkeitskonzepte anknüpfen. 5.2 Die Verständlichkeit von Fernsehsendungen Die Verständlichkeitsforschung von Fernsehformaten befasst sich vor allem mit beratenden und wissensvermittelnden Formaten und legt ihren Fokus am häufigsten auf Wissenschaftssendungen. Ein weiterer zentraler Forschungsbereich ist die Nachrichtenforschung. Dabei geht es allgemein um die Frage, welche Gestaltungsmerkmale die Erinnerungs- und Verstehensleistung der Rezipienten fördern oder aber behindern. Das Ziel dieser Untersuchungen ist, Sendungen oder Fernsehbeiträge so zu verbessern, dass deren Vermittlungsleistungen optimiert werden können. Allerdings besteht zwischen der Verständlichkeitsforschung von Wissenschaftssendungen und Nachrichtenformaten ein wesentlicher Unterschied. Während sich die Nachrichtenforschung oftmals auf die Untersuchung einzelner, isolierter Merkmale wie z.B. das Text-Bild-Verhältnis konzentriert,77 wird bei Wissenschaftssendungen ein ganzheitliches Konzept verfolgt. So 77
Einen kurzen Überblick über die Verständlichkeitsforschung von Nachrichten geben Unz/ Schwab (2004: 507-509) sowie Machill et al. (2006).
132
Verständlichkeitsforschung
versuchen die Forscher ähnlich der Textverständlichkeitsforschung, die Wirkungen verschiedener Merkmale herauszuarbeiten und deren Relevanz im Zusammenwirken mit anderen Merkmalen zu beurteilen. Zudem liegt der Fokus der Nachrichtenforschung häufig auf denjenigen Merkmalen, die die Aufmerksamkeit der Rezipienten besonders auf sich ziehen. Die Verständlichkeitsforschung von Wissenschaftssendungen interessiert sich hingegen für Merkmale, die die Verstehens- und Lernleistung unterstützen. Diese müssen jedoch nicht zwingend die Aufmerksamkeit des Zuschauers auf sich lenken. Aus diesen Gründen liegt im Folgenden der Schwerpunkt der Betrachtungen auf den Erkenntnissen der Verständlichkeitsforschung von Wissenschafts- und Magazinsendungen. Diese werden jedoch um die Befunde der Nachrichtenforschung ergänzt. Die Verständlichkeitsforschung von TV-Wissenschaftssendungen stellt sich als ein relativ unüberschaubares Forschungsfeld dar. Auffallend ist, dass sich verschiedene Wissenschaftsdisziplinen mit dieser Thematik befassen. Diese lassen sich in psycholinguistische und lernpsychologische sowie kognitionspsychologisch und kommunikationswissenschaftlich orientierte Studien klassifizieren. Die Verständlichkeitsforschung von Wissenschaftssendungen scheint vor allem in Deutschland auf größeres Forschungsinteresse gestoßen zu sein. So ließen sich keine internationalen Studien finden, die sich dem Thema in dieser Form widmen. Die Mehrzahl der deutschen Studien entstand im Zeitraum von Anfang der 1980er bis Mitte der 1990er Jahre. Zwei der umfangreichsten Forschungsprojekte stammen von Augst et al. (1982; 1985) und Köck (1990). Während sich Augst et al. mit der Verständlichkeit von Wissenschaftssendungen auf Basis psycholinguistischer bzw. lernpsychologischer Modelle befassten, basieren die Arbeiten von Köck auf kognitionspsychologischen Annahmen.78
5.2.1 Psycholinguistische und lernpsychologische Befunde Die psycholinguistischen und lernpsychologischen Verständlichkeitsstudien basieren häufig auf den in Kapitel 5.1 erläuterten Konzepten der Textverständlichkeit und leiten aus den dort entwickelten Verständlichkeitsfaktoren Annahmen zur empirischen Überprüfung von Wissenschaftssendungen ab. Die umfangreichsten Verständlichkeitsstudien dazu legten Augst et al. (1982; 1985) vor.
78
Beide Projekte wurden an der Universität Siegen durchgeführt.
Die Verständlichkeit von Fernsehsendungen
133
(1) Die Verständlichkeitsstudien von Augst, Simon und Wegner (1982; 1985) Augst et al. (1982, 1985) führten zwei aufeinander aufbauende Studien durch, mit denen sie die Anwendbarkeit des bereits in Kapitel 4.4.1 erläuterten „Dreiecksmodells des Verstehen“ sowie des Heidelberger Textverständlichkeitskonzepts von Groeben (vgl. Kap. 5.1) auf das Fernsehen überprüfen wollten. Die erste Studie aus dem Jahr 1982 verbindet eine Strukturanalyse mit einer experimentellen Befragung. Ziel der Strukturanalyse war, eine reale, im Fernsehen ausgestrahlte Wissenschaftssendung mit dem Titel „Der Jupiter-Effekt“ auf ihre kognitive Struktur und Text-Bild-Beziehungen zu analysieren. So wurde angenommen, dass die Verständlichkeit der Filmbeiträge unter anderem von deren makrostruktureller Organisation, den emotionalen bzw. motivationalen Elementen und der komplementären visuellen Darbietung abhängt. Die Befunde der Strukturanalyse zeigen, dass die Sendung weder optimal strukturiert war noch das übergreifende Konzept deutlich wurde. Die Text-Bild-Beziehungen sind bis auf wenige Ausnahmen gelungen, jedoch enthält die Sendung einige überflüssige Bildstrecken. Dies führte zu den folgenden forschungsleitenden Annahmen: (1) Rezipienten behalten und verstehen eher die Einzelinformationen der Sendung, nicht aber die Beweisführung; (2) Personen mit höherem Bildungsabschluss werden eher von der Sendung angesprochen als Personen mit niedrigem Bildungsabschluss, da viele Fachbegriffe und Fremdwörter verwendet werden (vgl. Augst et al. 1982). An der anschließenden experimentellen Befragung nahmen 93 Probanden teil, die auf drei Gruppen verteilt wurden. Eine Gruppe wurde am Vortag instruiert, die Sendung im laufenden, realen Fernsehprogramm anzuschauen. Die zweite Gruppe bildeten „natürliche“ Zuschauer, die die Sendung ohne Aufforderung sahen. Die Kontrollgruppe setzte sich aus Studenten der Universität Siegen zusammen. Für die Befragung wurde ein standardisierter Fragebogen entwickelt, mit dem das Verstehen der Inhalte anhand einer dreistufigen Verstehenshierarchie erhoben wurde. Die unterste Ebene erfasst die Erinnerung von allgemeinen Fakten und Informationen. Die zweite, nächst höhere Ebene beinhaltet das Erkennen und Verstehen von Zusammenhängen und Relationen. Die dritte Ebene bezieht sich auf das Nachvollziehen der Argumentationskette (vgl. Augst et al. 1982: 40). Augst et al. (1982) sehen ihre Annahmen durch die Datenlage bestätigt, da die Beispielsendung von der Mehrheit der Probanden als wenig verständlich empfunden wurde. Zudem konnte ein bildungsbedingter Einfluss auf das Verstehen belegt werden. Auch die Verwendung der vielen Fachbegriffe und die fehlende Sendungsstruktur waren für die Verstehensschwierigkeiten verantwortlich. Bezüglich der motivationalen Faktoren resümieren die Forscher, dass das Ver-
134
Verständlichkeitsforschung
stehen der Sendung eher von der formal-verständlichen Darstellung abhängig war und unterhaltende Elemente eher im Hintergrund standen. Für die Folgestudie produzierten Augst et al. (1985) eigens eine Magazinsendung mit dem Titel „Fortschritt der Technik – Rückschritt der Menschen?“. Zielsetzung war, eine Sendung zu entwickeln, mit der die Behaltens- und Verstehensleistungen im Vergleich zur Vorstudie optimiert werden konnten. Dazu wurden drei Sendungsvarianten A, B, und C entwickelt, die jeweils drei Beiträge enthalten. Einzig die verbindenden Moderationen wurden experimentell variiert. Die Beiträge unterscheiden sich thematisch und gestalterisch und berücksichtigen jeweils unterschiedliche Theorieelemente der Verständlichkeitsforschung: Beitrag 1 „Waldsterben“ wurde mittels „advance organizers“, Zwischentiteln und Zusammenfassungen stark strukturiert. Akteure treten in dem Beitrag nicht auf. Es wurde darauf geachtet, Erklärungen, Begründungen und die Darstellung von Zusammenhängen mit Bildern entsprechend zu visualisieren. Als Lernhilfen wurden Trickdarstellungen eingesetzt, die komplexe Sachverhalte visualisieren sollten. Fremdwörter und Fachausdrücke wurden weitestgehend weggelassen. Beitrag 2 erläutert sein Thema „Humanisierung von Arbeitsplätzen“ anhand eines konkreten Fallbeispiels. Die Form des Beitrags entspricht der einer Reportage. Durch den Reportagestil erhält der Beitrag ein sequenzielles Anordnungsschema, dass sich in Form des Ordnungsmusters 1) Darstellung der Symptome, 2) Diagnose, 3) Beratung und 4) Lösung untergliedert. In Beitrag 3 wird das Thema „neuropsychologische Diagnose von Gehirnverletzungen“ anhand einer Spielhandlung umgesetzt. Der Beitrag stellt die Neuropsychologie damit nicht als abstrakte Wissenschaft dar, sondern bezieht sie auf alltagsrelevante Situationen. Ziel dieser Spielhandlung war, ein relativ „trockenes“ wissenschaftliches Thema durch motivationale Elemente anzureichern. Die Verständlichkeitsanalyse der Sendungsvarianten erfolgte mit einem aufwendigen Methodendesign, das sich aus der Auswertung von Teleskopie-Daten79, der eingegangenen Zuschauerpost, einer schriftlichen Befragung, qualitativen Interviews und einer Videotext-Dokumentation zusammensetzt. Nach Auswertung der Daten kommen die Forscher zu dem Ergebnis, dass die drei Sendungsvarianten von den Zuschauern insgesamt verständlicher eingeschätzt wurden als die Sendung „Der Jupiter-Effekt“. Während jedoch bei den Abiturienten und Realschülern kaum eine Verstehenssteigerung erreicht werden konnte, kommen die Sendungen den Verstehensmodalitäten der Hauptschüler mehr entgegen. 79
Teleskopie führte von 1975 bis 1984 im Auftrag von ARD und ZDF die kontinuierliche Fernsehzuschauerforschung in Deutschland durch. Mit dem Messgerät Telemetron konnten sie als erstes Institut die personenbezogene Fernsehnutzung abbilden (vgl. AGF 2008).
Die Verständlichkeit von Fernsehsendungen
135
Die Verständlichkeitsauswertungen der Einzelbeiträge zeigen, dass der erste Beitrag „Waldsterben“ im Vergleich zu den beiden anderen Beitragsvarianten am besten abschnitt. Augst et al. nehmen daher an, dass eine dem Inhalt angepasste Bildgestaltung und der Einsatz filmischer Lernhilfen den Verstehensprozess am ehesten fördern. Allerdings zeigen beispielsweise Goertz und Schönbach (1998), dass ein unangemessener Einsatz von unterstützenden Lernhilfen die Erinnerungs- und Verstehensleistung auch mindern kann. Der Einsatz von möglichst vielen Lernhilfen führt demnach nicht automatisch zu einer Verbesserung der Verstehensleistung, vielmehr müssen sie überlegt eingesetzt werden. Allerdings fehlen bislang konkrete Hinweise darauf, was als angemessen anzunehmen ist. Die Darstellung des Fallbeispiels im zweiten Beitrag stand dem Verstehensprozess der Zuschauer indes entgegen. Es zeigte sich, dass der Transfer vom Einzelbeispiel auf die Arbeitswissenschaft als Ganzes nicht gelang. Am schlechtesten schnitt die Spielfilmvariante des dritten Beitrags ab. Hier konzentrierten sich die Zuschauer offenbar ausschließlich auf die Spielhandlungen. Insgesamt sehen es Augst et al. als bestätigt an, dass sich sowohl ihr Dreiecksmodell des Verstehens als auch das Textverständlichkeitskonzept von Groeben (1982) auf das Fernsehen übertragen lässt. So resümieren sie, „daß es möglich ist, die Erkenntnisse und Verfahren auf Fernsehsendungen als Fernsehtexte zu übertragen aber auch, daß diese Theorien noch sehr weit und grobmaschig sind, wenn es um die konkrete Gestaltung einer Sendung geht.“ (Augst et al. 1985). Obwohl die Studien demnach aufschlussreiche Implikationen für die Untersuchung von Verständlichkeitsaspekten von Wissenschaftssendungen enthalten, weisen sie einige methodische Mängel auf, die die Gültigkeit und Interpretation der Ergebnisse einschränken. So erfolgte die Stichprobenziehung in der ersten Untersuchung „Der Jupiter-Effekt“ willkürlich, so dass keine Vergleichbarkeit der Gruppen gewährleistet und die Probanden mit überdurchschnittlich hoher formaler Bildung überrepräsentiert waren. Zudem wird weder theoretisch noch methodisch begründet, warum die Stichprobe aus instruierten und „natürlichen“ Zuschauern gebildet wurden, zumal der Einfluss der Instruktionen auf das Rezeptionsverhalten nicht kontrolliert wird. So zeigen bereits die Studien von Strittmatter et al. (1988), dass vorab formulierte Instruktionen zu besseren Erinnerungswerten bei Rezipienten führen können. Problematisch ist auch, dass in beiden Studien weder statistische Kennwerte zur Beurteilung der unterschiedlichen Verstehensleistungen ausgewiesen, noch Kontrollvariablen wie z.B. Vorwissen oder Themeninteressen berücksichtigt werden. Darüber hinaus unterscheidet sich die Testsendung der zweiten Studie durch unterschiedliche Themenbeiträge, was zu Konfundierungen geführt haben dürfte.
136
Verständlichkeitsforschung
Trotz dieser Mängel wurde die Verständlichkeitsforschung von Wissenschaftssendungen auf psycholinguistischer Grundlage vereinzelt weiter fortgeführt, wie im folgenden Abschnitt gezeigt werden kann.
(2) Folgestudien zur Verständlichkeit von Wissenschaftssendungen Eine der Folgestudien zur Verständlichkeit von Wissenschaftssendungen wurde von Türer (1989) durchgeführt. Seine Verständlichkeitsanalyse unterliegt der These, dass Verständlichkeitsunterschiede bei Wissenschaftsformaten zwischen Sendeteilen und Sendungen auf Basis von Inhaltsanalysen vorhersagbar sind. So sieht er die Bedingungen des Verständlichmachens wissenschaftlicher TVInhalte durch die Faktoren „Gliederung“, „Vereinfachung“ und „Veranschaulichung“ weitestgehend erfüllt. Die Gliederung eines Fernsehtextes operationalisiert Türer anhand des Verständlichkeitskonzeptes von Langer et al. (1974). Als zentrale Merkmale definiert er dabei die „Folgerichtigkeit“ und „Übersichtlichkeit“, die Unterscheidung von „Wesentlichem“ und „Unwesentlichem“ sowie das „Sichtbarbleiben des roten Fadens“. Die Faktoren „Vereinfachung“ und „Veranschaulichung“ leitet er aus der allgemeinen Didaktik zum Schulunterricht ab. Mit der Vereinfachung sollen dem Lernenden grundlegende Prinzipien eines Sachverhaltes sichtbar gemacht werden, was in einem Wissenschaftsmagazin anhand von Modellen, Schemata oder Demonstrationsexperimenten eingelöst werden kann. Ausdrucksstarke und bedeutungsvolle Aufnahmen dienen der Veranschaulichung wissenschaftlicher Themen. Türer erachtet es als wichtig, dass die Veranschaulichung in längeren Zeitintervallen aufeinander folgen, damit der Zuschauer Zeit zum Anschauen und Verstehen hat. Dabei sollen Wort und Bild sinnvoll aufeinander bezogen werden. Die Annahme ist, dass eine größtmögliche Verständlichkeit erreicht wird, wenn die Bedingungen erfüllt werden. Verstehensunterschiede führt Türer demzufolge auf die unterschiedliche Gestaltung von Sendungen zurück. Für die Überprüfung der Hypothese wählte Türer die Sendung „Alternative Energiequellen“ der Sendereihe „Bilder der Wissenschaft“ aus dem Jahr 1982 aus. Die Einzelbeiträge der Sendung wurden anhand der drei Verständlichkeitsfaktoren inhaltsanalytisch ausgewertet und in eine Verständlichkeitsrangfolge gebracht. Die Beiträge wurden dann an 92 männlichen Berufsschülern im Alter von 15 bis 20 Jahren getestet. Aufgrund der Untersuchungsergebnisse sieht Türer seine These bestätigt: es scheint generell möglich zu sein, anhand inhaltsanalytischer Befunde Prognosen über Verständlichkeitsunterschiede zu formulieren.
Die Verständlichkeit von Fernsehsendungen
137
In einer Studie von Diedrichs (1994) wurden fünf Wissenschaftssendungen nach formalsprachlichen, paraverbalen und argumentativen Strukturen sowie nach audiovisuellen Merkmalen analysiert. Mittels eines Lautes-Denken-Experiments erfasst sie anschließend von 73 Versuchspersonen subjektive Einschätzungs- und Beurteilungsdaten zur Verständlichkeit der Sendungen. Aus den Ergebnissen der Studie leitet sie Vorschläge ab, die bei der rezipientengerechten Gestaltung von Wissenschaftssendungen berücksichtigt werden sollten. Sie verweist im Rahmen dieser Vorschläge darauf, dass ein erfolgreicher Wissenschaftstransfer nur im Zusammenhang mit den individuellen Bedürfnissen der Zuschauer gesehen werden sollte. Folgende Instruktionen werden formuliert: Satzbau und die Satzlänge sollten relativ einfach bzw. kurz gehalten werden; besonders wichtig ist der „Advance Organizer“ zu Beginn der Sendung, da er integrative Funktion hat und zu einer transparenten Argumentationsstruktur verhilft; eine Text-Bild-Inferenz sollte vermieden werden; Trickfilme oder Graphiken sollten gezielt zur Veranschaulichung komplizierter Sachverhalte eingesetzt werden; konkrete Beispiele sind hilfreich, wenn abstrakte Inhalte verdeutlichet werden sollen. Zusammenfassend lässt sich aufgrund der dargestellten Befunde folgendes festhalten: Die Verständlichkeitsfaktoren der Textverständlichkeitsforschung scheinen auf das Fernsehen übertragbar zu sein, da eine entsprechende Gestaltung die Verstehensleistung der Rezipienten durchaus positiv beeinflussen kann. Die Verständlichkeit von Wissenschaftssendungen wird demnach von einer Reihe von Gestaltungsmerkmalen determiniert, die in einer bestimmten Kombination zu einer höheren Verständlichkeit führen können. Diese Gestaltungsmerkmale sind: eine nachvollziehbare Strukturierung und Sequenzierung, eine kohärente Darstellung der Inhalte, übergeordnete Konzepte müssen deutlich gemacht werden, komplexe Sachverhalte sollten mit entsprechenden Visualisierungen unterstützt werden (z.B. durch Trickfilme, Grafiken, Animationen), Bild und Text sollten sich aufeinander beziehen, Einfache Sprache (möglichst kurze Sätze, keine Verwendung von Fachausdrücken oder Fremdwörtern), konkrete Beispiele, mitunter auch personalisiert. Hinderlich scheinen dagegen Gestaltungsmerkmale zu sein, die Anleihen aus anderen TV-Genres vornehmen. So zeigte sich in der Studie von Augst et al. (1985), dass reelle Spielhandlungen die Verstehensleistung der Rezipienten beeinträchtigten.
138
Verständlichkeitsforschung
Während die dargestellten Studien auf der Textverständlichkeitsforschung basieren, berücksichtigen kognitionspsychologische und kommunikationswissenschaftliche Arbeiten mehrheitlich den Einfluss von Wahrnehmungs- und Bewertungsdimensionen der Rezipienten. Diese werden mit deren Verstehensleistungen in Beziehung gesetzt, wobei geprüft wird, inwieweit das Verstehen von Fernsehsendungen von den Bewertungen abhängig ist.
5.2.2 Kognitionspsychologische und kommunikationswissenschaftliche Befunde Wie einleitend bereits erwähnt wurde, stellt das Forschungsprojekt zum „Wissenschaftstransfer durch Fernsehen“ von Köck (1990) neben den Arbeiten von Augst et al. (1982; 1985) eine weitere umfangreiche Verständlichkeitsstudie dar. Im Rahmen dieses Projektes entstand eine Reihe von Publikationen. Zum einen wurde der (damalige) Forschungsstand zur Wissenschaftsvermittlung durch Fernsehen aufgearbeitet (vgl. Meutsch et al. 1990; Meutsch/ Freund 1990; Meutsch 1992; Freund/ Köck 1994), zum anderen erschienen einige Arbeiten, die sich mit den Vermittlungsintentionen der Wissenschaftsjournalisten (vgl. Freund 1990a; 1990b) und der kognitiven Wirkung von Wissenschaftssendungen beim Rezipienten befassen (vgl. Meutsch/ Müller 1988). So zielt die Untersuchung von Meutsch und Müller (1988) darauf ab, Faktoren zu ermitteln, die die „Informativität“ und „Attraktivität“ von Wissenschaftssendungen verbessern können. Dazu wurde untersucht, ob sich anhand der psychologischen Merkmale kognitive Erregung (z.B. Überraschung, Neugier, Spannung, Interesse, Handlungsrelevanz etc.), Unterhaltungswert und subjektive Bewertung der Machart (z.B. Verständlichkeit, Informativität, Anschaulichkeit etc.) die Verständlichkeit einer Wissenschaftssendung vorhersagen lässt. Zudem interessierten sich die Forscher dafür, ob diese psychologischen Merkmale mit verschiedenen Ausprägungen der Text-Bild-Beziehungen zusammenhängen (vgl. Meutsch/ Müller 1988).80 Als Erhebungsmethode wählten die Autoren eine Quasi-Online-Befragung. Dabei trugen die Rezipienten nach jeder Sendungssequenz ihre Erfahrungswerte mit dem zuvor gesehenen Ausschnitt auf einer Bewertungsskala ein. Die Ergebnisse belegen folgendes: (1) Es zeigt sich, dass sowohl die kognitive Erregung als auch die subjektiv empfundene Machart einer Sendung verlässliche Prädiktoren für die Lernwirksamkeit von Wissenschaftssendungen sind, der Unterhaltungswert hingegen nicht; (2) Je anschaulicher und verständlicher eine Sendungssequenz bewertet wird, desto weniger störten abundante (nicht aufeinander bezogene) Text-Bild-Beziehungen. Abundante Text-Bild-Beziehungen 80
Die Autoren beziehen sich dabei auf die Klassifikation der Text-Bild-Beziehungen von Ballstaedt et al. (1989) und Ballstaedt (1990).
Die Verständlichkeit von Fernsehsendungen
139
führen demnach nicht in jedem Fall zu einem negativen Lerneffekt. Dieses Ergebnis erklären die Forscher mit der Wemberschen Text-Bild-Schere und dem Vorwissensstand der Probanden, der dazu führt, dass der mentale Aufwand im Sinne Salomons (1983; 1984; vgl. auch Kap. 4.4.1) und somit auch die Erinnerung an Text-Bild-Scheren gering gehalten werden. Die von Wember (1983) formulierte Text-Bild-Schere beschreibt die Unvereinbarkeit von Text und Bild in Fernsehnachrichten und deren negativen Einfluss auf die Erinnerungsleistung. Der Einfluss der Text-Bild-Schere konnte auch in anderen Studien nicht immer repliziert werden. So zeigten sich insbesondere bei der Rezeption von Fernsehnachrichten häufig keine signifikanten Verschlechterungen bei der Behaltensleistung (vgl. Winterhoff-Spurk 1983; 1990; Boemak/ Ohler 1986, Drescher 1997; Fox 2004). Basil (1994a) führt dies darauf zurück, dass Fernsehformate, die ihre Informationen vor allem über den Text vermitteln, dazu führen, dass Zuschauer die Informationen bevorzugt aus dem Text entnehmen und Bilder (ob komplementär oder Text-Bild-Schere) weitestgehend ignorieren (vgl. Drescher 1997). Ähnliche Ergebnisse zeigen sich auch für andere Genres wie Dokumentationen oder Talkshows. Krimis transportieren hingegen ihre Informationen hauptsächlich über den visuellen Kanal (vgl. Woodall et al. 1983), so dass davon auszugehen ist, dass unterschiedliche Fernsehgenres modalitätsspezifisch wahrgenommen werden (vgl. Basil 1994a). Für TV-Wissenschaftsfilme kann daher angenommen werden, dass sie vor allem über den Text aufgenommen werden, da sie ihre Informationen bevorzugt über den verbalen Kanal vermitteln. In einer Verständlichkeitsstudie von Hamm (1990, vgl. auch Hamm/ Koller 1989) befasst sich die Autorin mit dem dramaturgischen Aufbau von Filmberichten in Verbraucher- und Wirtschaftssendungen. Es wird danach gefragt, welche Strukturelemente den Rezipienten zur Informationsaufnahme motivieren und diese erleichtern können. Die Grundannahme ist, dass die Informationen nicht einfach übernommen werden, sondern auf Basis persönlicher Interessen, Vorkenntnisse und internalisierter Bezugssysteme zu subjektiven Informationen organisiert werden. Dazu wurden vorab auf der Grundlage des Verständlichkeitskonzeptes von Groeben (1982, vgl. auch Kap. 5.1) die entsprechenden Strukturmerkmale „kognitive Struktur“, „äußerer Aufbau“ und „innere Ordnung“ des Filmbeitrags analysiert. Insbesondere von der „kognitiven“ Filmstruktur wird angenommen, dass sie Anreize und Hilfestellungen bei der Informationsaufnahme bereit stellen kann. Die Analyse der Wechselwirkungen zwischen Filmstruktur und Verstehen erfolgte anhand von Datenmaterial, das mit offenen Fragen und freien Reproduktionen der Filminhalte erhoben wurde. Hamm kommt zu folgenden Ergebnissen: Mängel im Filmaufbau (z.B. aneinander gereihte Einzelbeispiele) führen zu sehr schwachen Erinnerungsleistungen.
140
Verständlichkeitsforschung
Spontane Aufmerksamkeit wird überwiegend über das Bildmaterial generiert, was dem von Nelson (1979) formulierten Bild-Überlegenheits-Effekt entgegenkommt (vgl. auch Engelkamp 1998). Dies führt bei sich ergänzenden Text-Bild-Beziehungen zu einer leichteren, fast automatischen Aufnahme der Informationen. Fehlt allerdings die semantische Verknüpfung, sinken die Erinnerungswerte. Füllbilder haben keinen Einfluss auf das Verständnis – weder positiv noch negativ. Optische Strukturierungshilfen (z.B. Grafiken) unterstützen die Erinnerung. Die Mehrzahl der Probanden erinnerte die dargestellten Sachverhalte allerdings als verbale Informationen, nicht als Bildinformationen. Diagramme oder Piktogramme wirken auf die Zuschauer schnell „anstrengend“, „sachlich“, „statisch“ und „emotionslos“. Als anschaulich werden Bild und Text vielfach nur dann angesehen, wenn es „etwas zu sehen gab“, das sich bewegte. Konkrete Beispiele führen häufig dazu, dass wichtige und allgemeine Sachverhalte nicht erinnert wurden. Persönlich betroffene Personen ziehen häufig besondere Aufmerksamkeit auf sich (noch vor Experten, Professoren etc.). Aussagen von Betroffenen bleiben besonders gut in Erinnerung, werden als glaubwürdig wahrgenommen und führen verstärkt zur „parasozialen“ Identifikation. Filmbeiträge, die als Story umgesetzt wurden und Spielhandlungen enthielten, führten (ähnlich wie in der Studie von Augst et al. 1985) zu schlechteren Erinnerungswerten (vgl. Hamm 1990: 215-220). In einer weiteren Verständlichkeitsstudie von Ploch (2003) zeigt sich, dass verschiedene Gestaltungsformen zu unterschiedlichen Zuschauerreaktionen führen. Dazu untersuchte sie fünf Gestaltungselemente, die sie als konstituierende Merkmale der Faktoren „Attraktivität“, „Glaubwürdigkeit“ und „Verständlichkeit“ definiert. Allerdings fokussiert die Studie hauptsächlich auf die Dimension „Attraktivität“. Eines der zentralen Ergebnisse ist, dass Zuschauer vor allem solche Beiträge bevorzugen, die das Thema anhand eines Fallbeispiels erläutern. Diese Beiträge werden im Vergleich zu „unpersönlichen“ Darstellungen als unterhaltender und spannungsreicher wahrgenommen. Gleichwohl sind sie in der Lage, die Zuschauer emotional zu berühren. Diese Art der Darstellung hat allem Anschein nach eine höhere Zuschauerattraktivität als TV-Beiträge mit unpersönlichen Schilderungen, was sich positiv auf die Lernleistung auswirkt. Ähnliche Befunde führt auch Graber (1990) an. Allerdings muss ein entsprechendes Maß der Emotionalisierung gefunden werden. So konnten Schultheiss und Jenzowsky (2000) zeigen, dass sich eine allzu emotionalisierende Darstellung negativ auf die Glaubwürdigkeit und damit auch auf die Wissensvermittlung auswirken kann
Die Verständlichkeit von Fernsehsendungen
141
(vgl. auch Grabe et al. 2000; Grabe et al. 2003). Beiträge, die ein medizinisches Thema positiv konnotieren, werden tendenziell als attraktiver wahrgenommen. Unbehagen und Beunruhigung rufen hingegen solche Filme hervor, die reale und detailgenaue Operationsbilder verwenden. Für den Faktor „Verständlichkeit“ zeigt sich, dass insbesondere eine hohe Informationsdichte zu Verständnisschwierigkeiten führen kann: Bei zu vielen aufeinander folgenden Informationen konnten einige Probanden dem Fernsehbeitrag schon nach wenigen Sätzen nicht mehr folgen (vgl. Ploch 2003). Ob nun ein Zusammenhang zwischen wahrgenommener Attraktivität und Verständlichkeit besteht, wurde nicht näher untersucht. Früh und Wirth (1997) interessieren sich im Rahmen ihrer InfotainmentStudie dafür, welchen Einfluss die Dynamik einer Darstellung auf die Erinnerungs- und Verstehensleistung der Rezipienten hat. Unter Dynamik fassen die Autoren die Merkmale „schnelle Schnitte“, „Kamerabewegung“, „viele bewegte Objekte“, „Musikeinsatz“ und „Spezialeffekte“ zusammen (vgl. Früh/ Wirth 1997: 370-371). Dazu wurden dreizehn Fernsehbeiträge aus Politikmagazinen inhaltsanalytisch untersucht und anschließend in vier Dynamikgruppen klassifiziert. Darüber hinaus wurden Nachrichtenwert, Informationsgehalt, Informationskomplexität und Text-Bild-Diskrepanz als zu kontrollierende Merkmale erfasst. Die Untersuchung führte zu folgenden Ergebnissen: Mit ansteigender Dynamik steigt auch die wahrgenommene Informationsqualität und Verständlichkeit der Magazinbeiträge. Erreicht allerdings die Dynamik ein bestimmtes (hohes) Niveau, kehrt sich die Wahrnehmung ins negative um. Somit liegt für die Wahrnehmung der Informationsqualität ein kurvilinearer Zusammenhang vor. Ein ähnlicher Effekt wird auch beim Wissenserwerb beobachtet, wobei sich der Wissenserwerb auf den ersten drei Dynamikstufen kaum veränderte. Die höchste Dynamikstufe führt allerdings zu einem starken Abfall des Wissenserwerbs. Insgesamt zeigt sich somit, dass die Dynamik von Magazinbeiträgen Einfluss auf die Verstehensleistung haben kann. Dabei handelt es sich allerdings um einen kurvilinearen Zusammenhang. Sowohl ein sehr ruhiger als auch ein sehr dynamischer Beitrag kann negative Effekte auf den Wissenserwerb hervorrufen. So führen z.B. ein schneller Schnitt und häufige plötzliche visuelle Effekte zu einem verminderten Wissenserwerb (vgl. Früh/ Wirth 1997: 379). Die Befunde belegen insgesamt, dass die Verständlichkeitsforschung eine recht unüberschaubare Anzahl von Gestaltungsmerkmalen identifiziert hat, die sich förderlich oder auch mindernd auf die Verständlichkeit von TV-Beiträgen auswirken können. Sie lassen sich jedoch in der folgenden Weise zusammenfassend darstellen:
142
Verständlichkeitsforschung
Die Verständlichkeit von Wissenschaftssendungen… → basiert auf den Textverständlichkeitsdimensionen Einfachheit, Gliederung/ Ordnung, Kürze/ Prägnanz und Anregende Zusätze; → wird gefördert durch: eine nachvollziehbare, kohärente Struktur und Sequenzierung, visuelle Lernhilfen, einfache Sprache, Text-BildRedundanz bzw. Komplementarität, angemessene Emotionalisierung, angemessene Dynamik sowie personalisierte und konkrete Beispiele, sofern sie abstrakte Inhalte verdeutlichen; → wird gehemmt durch: Spielhandlungen, zu starke Emotionalisierung, zu hohe Informationsdichte, zu hohe Dynamik und die Darstellung von Einzelbeispielen, da sie häufig den Transfer auf allgemeine Sachverhalte behindern; → wird beeinflusst durch die kognitive Erregung (z.B. Überraschung, Neugier, Spannung, Interesse, Handlungsrelevanz) und subjektiven Bewertungen (z.B. der Verständlichkeit, Informativität, Anschaulichkeit) auf Seiten der Rezipienten.
Im folgenden Kapitel können nun die erläuterten Annahmen und Befunde der Verständlichkeitsforschung vor dem Hintergrund des dynamisch-transaktionalen Ansatzes auf ihre Relevanz für das „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ geprüft werden. 5.3 Schlussfolgerung III: Verständlichkeit von Vermittlungskonzepten In den vorangegangenen Kapiteln konnte gezeigt werden, dass die Verständlichkeit von Wissenschaftssendungen durch eine Vielzahl von Merkmalen der Medienbotschaft beeinflusst werden kann. Diese lassen sich auf die vier Dimensionen zurückführen, die die Textverständlichkeitsforschung entwickelt hat. In einer Reihe von Studien wurden die Verständlichkeitsdimensionen auf ihre Anwendbarkeit für das Fernsehen getestet und um medienspezifische Merkmalskategorien erweitert. Dabei zeigen die Befunde, dass (1) die Konzepte auf das Fernsehen übertragbar zu sein scheinen und (2) entsprechend verständlich gestaltete Fernsehsendungen die Verstehensleistung der Rezipienten positiv beeinflussen können. Kognitionspsychologische Verständlichkeitsstudien belegen, dass die vom Rezipienten empfundene „kognitive Erregung“ z.B. in Form von Spannung, Interesse, Neugier, Handlungsrelevanz etc. und subjektiven Bewertungen über die „Ma-
Schlussfolgerung III: Verständlichkeit von Vermittlungskonzepten
143
chart einer Sendung“ verlässliche Prädiktoren für die Verstehensleistungen darstellen. Sie lassen sich demnach als relevante Faktoren intra-transaktionaler Prozesse zwischen Aktivation und Wissen auffassen, die sich während der Rezeptionsphase bilden und die Verstehensleistung beeinflussen (vgl. Früh 1991: 6465). Zudem zeigt sich, dass beide Merkmale mit den vier Dimensionen der Textverständlichkeitsforschung von Langer et al. (1974) und Groeben (1978; 1982) korrespondieren. So lässt sich die „kognitive Erregung“ auf die Dimension „anregende Zusätze“ beziehen, da beide Kategorien mit den motivationalen Eigenschaften des Medienangebots zusammenhängen. Die Bewertungen zur „Machart einer Sendung“ korrespondieren wiederum mit den Dimensionen „Einfachheit“, „Gliederung/ Ordnung“ und „Kürze/ Prägnanz“, da es sich hier um die Beurteilung formaler Verständlichkeitsmerkmale der Medienbotschaft handelt. Beide Rezipientenmerkmale entsprechen demnach den relevanten Verständlichkeitsdimensionen – sie können daher als subjektive Verständlichkeitsbewertungen aufgefasst werden. Demnach beschreibt die Verständlichkeitsforschung im Rahmen des dynamisch-transaktionalen Ansatzes diejenigen Eigenschaften des Medienstimulus, die ursächlich für die kognitiv-affektiven Verstehensvorgänge des Rezipienten zu sein scheinen. Zugleich weist die kognitionspsychologische Verständlichkeitsforschung auf die Wechselwirkung zwischen kognitiver Erregung, subjektiven Bewertungen und Verstehensleistungen hin, die demzufolge als Intra-Transaktionen des Rezipienten aufgefasst werden können. Somit lässt sich die Verständlichkeitsforschung gut mit den multi-kausalen Wirkungsvorstellungen des DTA vereinbaren. Dies führt zu zwei zentralen Schlussfolgerungen, die in Form von Thesen formuliert werden und die für die Entwicklung des „Verstehensmodells audiovisueller Wissenschaftsvermittlung“ von Bedeutung sind: 1. Ein Vermittlungskonzept enthält bestimmte Konstellationen von formalen und motivationalen Gestaltungselementen, die sich auf den Rezipienten verständlichkeitsfördernd oder aber verständlichkeitsmindernd auswirken können, wobei diese Merkmalskonstellationen auf den vier Verständlichkeitsdimensionen der Textverständlichkeitsforschung basieren. 2. Die subjektiven Verständlichkeitsbewertungen des Rezipienten intratransagieren mit seinem individuellen Wissenstand und beeinflussen seine Verstehensleistungen. Daher ist auf Basis der subjektiven Verständlichkeitsbewertungen eine Aussage über die Verstehensleistung möglich. Auf der Grundlage dieser Schlussfolgerungen lässt sich das Verstehensmodell audio-visueller Wissenschaftsvermittlung nun um die theoretischen Erkenntnisse der Verständlichkeitsforschung vervollständigen. Da es sich hier um das letzte Teilmodul des Modells handelt, wird im folgenden Kapitel 6 das Gesamtmodell erläutert.
6 Das Verstehensmodell audio-visueller Wissenschaftsvermittlung
Das „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ basiert auf der bereits in Kapitel 4.1 formulierten Verstehensdefinition: Verstehen heißt, eine kohärente mentale Repräsentation der Medienbotschaft aufzubauen und auf Basis elaborativer Prozesse darüber hinausgehende Bewertungen und Schlussfolgerungen der Inhalte formulieren zu können. Verstehen wird demnach als ein konstruktiver und interpretierender Prozess aufgefasst, der im kognitiven System des Rezipienten abläuft. Dieser Verstehensprozess steht in einer ständigen Wechselbeziehung mit der Medienbotschaft – eine Wirkungsvorstellung, wie sie auch der dynamisch-transaktionale Ansatze begründet (vgl. u. a. Früh/ Schönbach 1982; 2005 sowie Kap. 2.1). Kommunikator und Rezipient sind somit zugleich aktive und passive Teilnehmer am Kommunikationsprozess. Wird das Verstehensmodell nun um die Erkenntnisse der Verständlichkeitsforschung vervollständigt, lässt sich das Gesamtmodell auf der Grundlage der Definition in der folgenden Weise darstellen: Die linke Seite des Modells bildet die TV-Vermittlungskonzepte (1) und die rechte Seite die Verstehensvorgänge des Rezipienten (2) ab (vgl. Abb. 12).
(1) TV-Vermittlungskonzepte: TV-Vermittlungskonzepte lassen sich als redaktionelle Gestaltungsentscheidungen beschreiben, die das Resultat von Inter-Transaktionen in Form von Feedback und Para-Feedbackprozessen zwischen Redakteuren und Publikum darstellen. Je nach Kommunikationsziel werden dabei die intendierten Informations- und Wissensinhalte nach formalen und motivationalen Kriterien gestaltet und in ein dramaturgisches Gesamtkonzept umgesetzt. Diese sollen den Verstehensprozess des Rezipienten unterstützen. Je nach redaktionellen Publikumsvorstellungen und eingesetzten Gestaltungsformen können sie diesen aber auch behindern. Demnach sind Vermittlungskonzepte potenziell in der Lage, Medienwirkungen in Gang zu setzen und zu verursachen. Für die (verständlichkeitsfördernde) Umsetzung der Vermittlungskonzepte werden unterschiedliche Gestaltungsmöglichkei-
146
Das Verstehensmodell audio-visueller Wissenschaftsvermittlung
ten eingesetzt. Dies sind z.B. einfache Sprache, dramaturgische Filmkonzepte, unterschiedliche Bildmotive und Visualisierungsformen oder Personalisierungen.
Kommunikationsziele
(Para)-Feedback
Rezipient Subjektive Verständlichkeitsbewertungen des Vermittlungskonzepts
Verständlichkeit Attraktivität
Gestaltungsstrategien:
der Wissenschaftsredakteure
Wissensformen und -strukturen
(formale Gestaltung, motivationale Elemente)
Verstehensfördernd/ -mindernd
Limitierte Kapazität
TV-Vermittlungskonzept
Auditives und visuelles Sensorium
Aufmerksamkeit Selektion Elaboration
SituationsModell Propositionale Repräsentation Kognitives System
Einstellung
Interesse
Motivation
Abbildung 12: Verstehensmodell audio-visueller Wissenschaftsvermittlung (vollständiges Modell)
(2) Verstehensvorgänge des Rezipienten: Den zentralen Kern des Verstehensprozesses bilden das kognitive System des Rezipienten und seine innerpsychischen Intra-Transaktionen. Hier werden die Vermittlungskonzepte zunächst über das auditive (Ohr) und visuelle (Auge) Sensorium wahrgenommen und in den Arbeitsspeicher weitergeleitet. Da das kognitive System nur über limitierte Verarbeitungskapazitäten verfügt, werden aus den Informationsangeboten diejenigen selektiert, die am stärksten im Vordergrund stehen und somit die Aufmerksamkeit des Rezipienten auf sich ziehen. Dazu zählen z.B. Stand des präsentierten Filmverlaufs, auftretende Akteure oder Ereignisse. Während der Informationsverarbeitung werden die sprachlichen Erläuterungen des Films fortwährend propositional repräsentiert und angerei-
Das Verstehensmodell audio-visueller Wissenschaftsvermittlung
147
chert. Zugleich wird ein Situationsmodell auf Basis der visuellen Darstellungen konstruiert. Beide Repräsentationen übernehmen wiederum die Aufgabe, die Verarbeitung der neu herein strömenden Informationen effizienter zu organisieren und strukturieren. Zudem interagieren beide mentalen Repräsentationen fortlaufend miteinander, so dass es zu einer auf Wissensformen und Wissensstrukturen (insbesondere durch thematisches Vorwissen, medienspezifisches Vorwissen und Weltwissen) basierenden kohärenten Vorstellung des medialen Sachverhalts kommt. Im Sinne des dynamisch-transaktionalen Ansatzes bedeutet dies, dass die Filminformationen „erst im Verlauf des Kommunikations- bzw. Wirkungsprozesses ihre Bedeutung erhalten und die Medienbotschaft als Stimulus keine fixe Identität besitzt“ (Früh 1991: 124). Gleichzeitig finden IntraTransaktionen zwischen der im kognitiven System ablaufenden Informationsverarbeitung und den subjektiven Verständlichkeitsbewertungen statt, wie sie im Kapitel 5.3 beschrieben wurden. Es handelt sich hier demnach um die im Modell zentrale intra-transaktionale Beziehung von Aktivation und Wissen. Für den Verstehensprozess ebenfalls relevant sind die wechselseitigen Beeinflussungsprozesse zwischen der Informationsverarbeitung und den medien- und formatspezifische Einstellungen, thematischen Interessen sowie allgemeinen Rezeptionsmotivationen. So kann beispielsweise eine positive Ausprägung der Motivation zu besseren Verstehensleistungen führen, gleichzeitig kann eine gute Verstehensleistung aber auch rezeptionsmotivierend sein. Es handelt sich somit auch an dieser Stelle um intra-transaktionale Beziehungen des Rezipienten. Zusammenfassend lässt sich festhalten, dass dem „Verstehensmodell audiovisueller Wissenschaftsvermittlung“ die Annahme zugrunde liegt, dass Wissenschaftsfilme in Form von Vermittlungskonzepten „kognitive Werkzeuge“ sind, die mit dem kognitiven System der Rezipienten in einer inter-transaktionalen Beziehung stehen. Sowohl das Vermittlungskonzept als auch die Verstehensprozesse des Rezipienten können Ursache für Medienwirkung sein und sind multikausal miteinander verbunden. Dabei unterliegt der Verstehensprozess einer Vielzahl von innerpsychischen, d.h. intra-transaktionalen Prozessen. Als besonders relevant wird hier die Intra-Transaktion zwischen der Verstehensleistung und den subjektiven Verständlichkeitsbewertungen erachtet. Somit basiert das „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ auf der Vorstellung eines fortwährend wechselseitig ablaufenden und mitunter auch zirkulär verlaufenden Prozesses der Wissenschaftsvermittlung, bei dem Kommunikator und Rezipient sowohl eine aktive als auch eine passive Rolle einnehmen. Auf dieser theoretischen Grundlage können nun im folgenden Kapitel Forschungsfragen formuliert und ein für die empirische Überprüfung geeignetes Untersuchungsdesign entwickelt werden.
7 Forschungsfragen und Untersuchungsdesign
Es werden vier Forschungsfragen mit entsprechenden Unterfragen formuliert, an deren Reihenfolge sich die methodische und empirische Systematik der Untersuchung orientiert.
(1) Forschungsfragen Auf der Grundlage der theoretischen Modellannahmen beziehen sich die Forschungsfragen auf a. die Vermittlungskonzepte, b. das Verstehen von Vermittlungskonzepten und c. die subjektiven Verständlichkeitsbewertungen von Vermittlungskonzepten. Da die theoretische Modellierung dieser Arbeit jedoch auf einer Vielzahl von Detailbefunden unterschiedlicher wissenschaftlicher Disziplinen basiert, lassen sich kaum konkrete Aussagen in Form von Arbeitshypothesen zur Verständlichkeit und zum Verstehen von Vermittlungskonzepten formulieren. Zudem werden in den Studien häufig unterschiedliche Verständlichkeitsniveaus variiert, selten jedoch verschiedene Variablenkonstellationen miteinander verglichen. Daher versteht sich die vorliegende Arbeit als eine explorative Studie zur Hypothesenentwicklung. Aus diesem Grund werden im Folgenden Forschungsfragen formuliert, die auf allgemeinen Annahmen basieren und die für die empirische Überprüfung forschungsleitende Funktion haben.
a. Forschungsfrage: Vermittlungskonzepte Die grundlegende Annahme im Zusammenhang mit den beschriebenen Vermittlungskonzepten ist, dass eine Reihe von Gestaltungsmerkmalen verwendet wird, um ein wissenschaftliches Thema verständlich und ansprechend darzustellen. Diese variieren je nach Zielsetzung, kreativen und institutionellen Möglichkeiten der Redakteure (vgl. auch Kap. 3). Daher lässt sich folgende Forschungsfrage formulieren:
150
FF1:
Forschungsfragen und Untersuchungsdesign
Welche Vermittlungskonzepte lassen sich in Wissenschaftsfilmen identifizieren und unterscheiden?
Es wird angenommen, dass Vermittlungskonzepte formale und motivationale Gestaltungselemente variabel einsetzen und sich somit verschiedene Vermittlungskonzepte differenzieren lassen. Für die unterschiedliche Gestaltung werden formale und dramaturgische Elemente, verschiedene Bildmotive und Visualisierungsformen oder personalisierende Darstellungen verwendet, die in je spezifischer Konstellation einen Filmtyp bilden (vgl. auch Kap. 3.3). Die Befunde der Verständlichkeitsforschung (vgl. Kapitel 5) zeigen, dass die vier Verständlichkeitsdimensionen der Textverständlichkeitsforschung nach Langer et al. (1974) und Groeben (1978; 1982) für die Bewertung von Wissenschaftssendungen relevant sind. Unklar ist bislang jedoch, welche Faktoren wie in den Vermittlungskonzepten umgesetzt werden. Daher lässt sich Forschungsfrage 1 in die folgenden zwei Fragen differenzieren. FF1a: Welche Verständlichkeitsfaktoren werden in den Vermittlungskonzepten berücksichtigt bzw. wie werden sie umgesetzt? FF1b: Welche Konstellationen von Verständlichkeitsmerkmalen lassen sich identifizieren? Die Annahme ist, dass sowohl die Verständlichkeitsfaktoren als auch die Verständlichkeitsmerkmale in unterschiedlichen Vermittlungskonzepten variieren, so dass sich der strukturelle Aufbau der Filminhalte systematisch unterscheidet. Die jeweilige Konstellation bildet dann den jeweiligen Typ des Vermittlungskonzepts.
b. Forschungsfrage: Verstehen von Vermittlungskonzepten Das entwickelte Verstehensmodell unterliegt der Annahme, dass das Verstehen von TV-Vermittlungskonzepten sowohl durch das jeweilige Vermittlungskonzept als auch durch die individuellen Verstehensprozesse der Rezipienten determiniert wird. Dies soll empirisch geprüft werden. Im Vordergrund steht dabei die Frage, wie stark der Einfluss der verschiedenen Vermittlungskonzept-Typen auf die Verstehensleistungen ist. Daher lautet Forschungsfrage 2: FF2:
Welchen Einfluss haben die jeweiligen Vermittlungskonzepte auf die Verstehensleistungen der Rezipienten?
Da Verstehen als ein zweistufiger Prozess definiert wird, der a) aus der Kohärenzbildung der Filminhalte und b) der Fähigkeit zu weiterführenden Bewertun-
Forschungsfragen und Untersuchungsdesign
151
gen und Schlussfolgerungen besteht, lässt sich Forschungsfrage 2 wie folgt differenzieren: FF2a: Welchen Einfluss haben die jeweiligen Vermittlungskonzepte auf die Kohärenzbildung der Rezipienten? Auf der Grundlage der Befunde aus der Verstehens- und Verständlichkeitsforschung wird erwartet, dass die zuvor ermittelten und klassifizierten Vermittlungskonzepte die Kohärenzbildung je nach Vermittlungstyp unterschiedlich beeinflussen. Hier wird demnach ein eher kommunikatororientiertes Verstehen analysiert. Verstehen wird zugleich auch als ein individueller, konstruktiver und interpretativer Prozess aufgefasst, der durch subjektive Wissensbestände beeinflusst wird. Bewertungen und Schlussfolgerungen stellen demnach das Ergebnis des wechselseitigen Prozesses zwischen Medieninhalt und individuellen Verstehensleistungen dar. Daher interessiert sich die Studie dafür, ob und wie stark die verschiedenen Typen von Vermittlungskonzepten Bewertungen und Schlussfolgerungen anregen. Somit lässt sich Forschungsfrage 2b wie folgt formulieren: FF2b: Welchen Einfluss haben verschiedene Typen von Vermittlungskonzepten auf Bewertungen und Schlussfolgerungen der Rezipienten? Es wird erwartet, dass die verschiedenen Vermittlungskonzepte zu unterschiedlichen Wissensaktivation führen und sich die Verstehensleistungen somit in spezifischer Weise unterscheiden. Es handelt sich hier demnach um ein eher rezipientenorientiertes Verstehen. Bestätigen sich die formulierten Thesen, können Aussagen darüber getroffen werden, welches Vermittlungskonzept je nach redaktioneller Zielsetzung für die Wissenschaftsvermittlung gut bzw. weniger gut geeignet ist.
c. Forschungsfrage: subjektive Verständlichkeitsbewertungen Die Befunde der Verständlichkeitsforschung belegen, dass verschiedene Darstellungsweisen zu unterschiedlichen Bewertungen durch die Rezipienten führen, was wiederum Einfluss auf die Rezeptionsmotivation und den Verstehensprozess haben kann. Daher interessiert sich die Studie für die subjektiven Verständlichkeitsbewertungen. So wird angenommen, dass die verschiedenen Typen der Vermittlungskonzepte unterschiedlich wahrgenommen und bewertet werden. Dies soll empirisch geprüft werden und führt daher zu folgender Forschungsfrage 3:
152
FF3:
Forschungsfragen und Untersuchungsdesign
Wie werden die Vermittlungskonzepte von den Rezipienten wahrgenommen und bewertet?
Insbesondere die Verständlichkeitsstudie von Meutsch und Müller (1988) belegt, dass die subjektiven Verständlichkeitsbewertungen der Rezipienten deren Verstehensleistungen beeinflussen und somit einen geeigneten Prädiktor für die Messung der Verständlichkeit einer Wissenschaftssendung darstellen (vgl. auch Kap. 5.2.2). Daher lässt sich die vierte Forschungsfrage wie folgt formulieren: FF4:
Besteht ein Zusammenhang zwischen den subjektiven Verständlichkeitsbewertungen und den Verstehensleistungen der Rezipienten?
Es wird erwartet, dass der Zusammenhang zwischen den subjektiven Verständlichkeitsbewertungen und den Verstehensleistungen der Rezipienten empirisch belegt werden kann, was die Ergebnisse der Verständlichkeitsstudie von Meutsch und Müller (1988) stützen würde.
(2) Untersuchungsdesign Die empirische Analyse der Forschungsfragen erfordert ein Zwei-MethodenDesign, das eine Verständlichkeitsanalyse (Untersuchungsphase I) und eine Verstehensanalyse (Untersuchungsphase II) einschließt. Der Aufbau des Studiendesigns lässt sich in der folgenden Weise darstellen (vgl. Abb. 13): Untersuchungsphase I
Untersuchungsphase II
Verständlichkeitsanalyse
Verstehensanalyse
1. Inhaltsanalyse 2. Sequenzanalyse • Formal-gestalterische Analyse • Strukturanalyse
Ziel: Ermittlung der Vermittlungskonzepte
Abbildung 13: Gesamtdesign der Untersuchung
Experimentelle Befragung
Ziel: Ermittlung der Verstehensleistungen und Verständlichkeitsbewertungen
Forschungsfragen und Untersuchungsdesign
153
Untersuchungsphase I: Verständlichkeitsanalyse Das Erkenntnisinteresse der Verständlichkeitsanalyse liegt darin, anhand exemplarischer und konkreter Filmbeispiele zu untersuchen, inwieweit TVWissenschaftsfilme als Vermittlungskonzepte konzeptualisiert sind. Die Verständlichkeitsanalyse widmet sich somit der Beantwortung der Forschungsfrage 1. Die Grundlage der Verständlichkeitsanalyse bilden TV-Magazinbeiträge, die im Vorfeld im Rahmen eines Forschungsprojektes auf ihre inhaltliche und argumentative Struktur inhaltsanalytisch ausgewertet wurden. Bei den Magazinbeiträgen handelt es sich um Wissenschaftsfilme aus TV-Wissenschaftsmagazinen zum Themenbereich „Molekulare Medizin“. Die Stichprobe umfasst 203 Filmbeiträge. Anhand der ermittelten Datenstruktur konnten drei Beitragstypen identifiziert werden (vgl. ausführlich Milde/ Ruhrmann 2006). Für die Verständlichkeitsanalyse wird nun aus diesen Beitragstypen jeweils ein prototypischer Wissenschaftsfilm ausgewählt und auf Basis verständlichkeitstheoretischer Konzepte sequenzanalytisch ausgewertet. Das methodische Vorgehen orientiert sich dabei an der Filmanalyse (vgl. Hickethier 2001; Mikos 2003). Dazu werden Sequenzlisten und Einstellungsprotokolle angefertigt, die die formal-gestalterischen Merkmale und die Filmstruktur erfassen. Auf der Grundlage der Sequenzanalyse lassen sich die Wissenschaftsfilme abschließend hinsichtlich der Verständlichkeitsmerkmale auswerten und charakterisieren, wobei die vorgefundenen spezifischen Konstellationen der Verständlichkeitsmerkmale als Vermittlungskonzepte interpretiert werden.
Untersuchungsphase II: Verstehensanalyse Die Verstehensanalyse widmet sich den Forschungsfragen 2 bis 4. Dazu wird eine Befragung im experimentellen Design durchgeführt. Ziel der Befragung ist, die Verstehensleistungen und subjektiven Verständlichkeitsbewertungen der teilnehmenden Probanden zu messen und miteinander zu vergleichen. Dabei bilden die drei ausgewählten prototypischen Wissenschaftsfilme das Treatment der laborexperimentellen Befragung. Die Ergebnisse der Verstehensanalyse lassen sich abschließend mit denen der Verständlichkeitsanalyse in Beziehung setzen. Die Beschreibung der Untersuchung und die Darstellung der Ergebnisse orientiert im nachfolgenden empirischen Teil am Studiendesign bzw. an den zwei Untersuchungsphasen. Kapitel 8 befasst sich daher mit der Vermittlung von Wissenschaft im Fernsehen in Form der Verständlichkeitsanalyse, in Kapitel 9 und 10 folgt die Verstehensanalyse.
8 Verständlichkeitsanalyse der Wissenschaftsfilme
Das Ziel der Verständlichkeitsanalyse ist, typische Merkmalskombinationen in TV-Wissenschaftsfilmen zu identifizieren, die sich anhand ihrer spezifischen Ausprägungen als Vermittlungskonzepte interpretieren lassen. Entsprechend den Beschreibungen in Kapitel 7 wird in Kapitel 8.1 die quantitative Inhaltsanalyse vorgestellt, auf deren Grundlage dann prototypische Wissenschaftsfilme ausgewählt werden können. Kapitel 8.2 erläutert die methodische Vorgehensweise der Sequenzanalyse, deren Ergebnisse in Kapitel 8.3 vorgestellt werden. 8.1 Auswahlverfahren der Wissenschaftsfilme Die Auswahl der Wissenschaftsfilme erfolgt in vier Analyseschritten: Analyseschritt 1: quantitative Inhaltsanalyse; Analyseschritt 2: die mit der Inhaltsanalyse erhobenen Variablen werden einer Faktorenanalyse unterzogen; Analyseschritt 3: die mit der Faktorenanalyse ermittelten Faktorwerte werden anhand einer Clusteranalyse typisiert und beschrieben; Analyseschritt 4: auf Basis der Faktorwerte wird je Beitragstyp ein prototypischer Wissenschaftsfilm für die nachfolgende Sequenzanalyse ausgewählt.
Analyseschritt 1 Die quantitative Inhaltsanalyse ist Bestandteil des Forschungsprojektes „Molekulare Medizin und Fernsehen“, das über den Zeitraum 2003 bis 2005 an der Universität Jena durchgeführt wurde. Das Ziel der Inhaltsanalyse von TVWissenschaftsmagazinen war, die Darstellung der Molekularen Medizin in Magazinbeiträgen zu untersuchen. Dazu wurden die inhaltlichen und argumentativen Strukturen auf Beitrags- und Akteursebene erfasst und ausgewertet. Da das Vorgehen und die Ergebnisse der Inhaltsanalyse bereits 2006 publiziert wurden, wird im Rahmen dieser Arbeit auf eine ausführliche Darstellung verzichtet. Ein kurzer Studiensteckbrief stellt die Eckdaten des Forschungsprojektes sowie die
156
Verständlichkeitsanalyse der Wissenschaftsfilme
erhobenen Variablen im Überblick vor (vgl. Tab. 5). Der interessierte Leser sei auf die ausführliche Darstellung in Milde/ Ruhrmann (2006) verwiesen. Studiensteckbrief Studientitel Studienleiter Gefördert durch
„Molekulare Medizin und Fernsehen“ Georg Ruhrmann, Friedrich-Schiller-Universität Jena Bundesministerium für Bildung und Forschung (BMBF)
Projektlaufzeit
1.1 2003 bis 30.9.2005
Projektumfang
Journalistenbefragung, Inhaltsanalyse von Nachrichten und Wissenschaftsmagazinen, Bevölkerungsbefragung
Stichprobenumfang Wissenschaftsmagazine
203 Fernsehbeiträge aus TV-Wissenschaftsmagazinen Globus, W wie Wissen (ARD/Das Erste); Abenteuer Forschung (ZDF); Quarks & Co. (WDR); Forscher-Fakten-Visionen (BR); Future Trend (RTL)
Erhebungszeitraum
1.1. 1995 bis 31.12.2004
Repräsentativität
Vollerhebung (sofern die Beiträge lizenzfrei zugänglich waren)
Codierebene
Beitrags- und Akteursebene
Variablen
Rahmenvariablen, formale Gestaltungsmerkmale, Ort und Anlass des Ereignisses, Thema, Akteure, Kausalitätsbezüge, Nutzen- und Risikobewertungen auf Akteursebene, Forderungen, Lösungserwartungen, Lösungsvorschläge, Prognosen Tabelle 5: Studiensteckbrief der Inhaltsanalyse
Auswahlverfahren der Wissenschaftsfilme
157
Analyseschritt 2 Um die wesentlichen Darstellungsdimensionen der Molekularen Medizin in Wissenschaftsmagazinen identifizieren zu können, wurden die Variablen einer Faktorenanalyse unterzogen. Die Ergebnisse zeigen, dass die Magazinbeiträge durch die folgenden vier zentralen Inhaltsdimensionen bestimmt werden: 1. Die Darstellung einer Kontroverse, an der viele unterschiedliche gesellschaftliche Akteure beteiligt sind, die mitunter auch Forderungen z.B. nach Regulation formulieren. 2. Die Darstellung eines wissenschaftlichen Nutzens, der oftmals aus der Perspektive von Wissenschaftlern und Forschern formuliert und für die Zukunft prognostiziert wird. 3. Die Darstellung der (Aus-)Wirkungen der Molekularen Medizin und deren Folgen für den Einzelnen oder die Gesellschaft. 4. Die Darstellung der (oftmals genetischen) Ursachen und Gründe von Erkrankungen und der davon betroffenen Menschen bzw. Patienten.
Analyseschritt 3 Die mit der Faktorenanalyse ermittelten standardisierten Faktorwerte wurden anschließend einer hierarchischen Clusteranalyse unterzogen. Dabei sollte untersucht werden, ob die vier Faktordimensionen bestimmte Typen von TVWissenschaftsfilmen charakterisieren. Wie Tabelle 6 zeigt, konnten die folgenden drei Beitragstypen identifiziert werden: Beitragstyp (1) persönlich relevant
(2) wissenschaftsorientiert
Faktordimensionen (Faktormittelwerte) (1) Kontroverse -0.193 -0.262 (2) Wissenschaftlicher Nutzen -0.677 0.657 (3) Wirkungen und Folgen 0.166 -0.170 (4) Ursachen und Betroffene 0.473 -0.473 N 95 94 Tabelle 6: Dimensionsausprägungen der Beitragstypen
(3) ethisch kontrovers
3.074 0.183 0.020 -0.032 14
158
Verständlichkeitsanalyse der Wissenschaftsfilme
Beitragstyp 1 kennzeichnet sich durch einen hohen positiven Faktormittelwert auf der Faktordimension „Ursachen und Betroffene“. Diese Beiträge personalisieren stark. Häufig treten Privatpersonen oder betroffene Patienten auf. Gleichzeitig erläutern Wissenschaftler medizinische und wissenschaftliche Hintergründe über mögliche Folgen und Wirkungen der Molekularen Medizin. Entsprechend dieser Ausprägungen wurde der Beitragstyp als „persönlich relevant“ gekennzeichnet. Beitragstyp 2 nimmt eine „wissenschaftsorientierte“ Haltung ein, da hier die Faktordimension „wissenschaftlicher Nutzen“ besonders ausgeprägt ist. Diese Beiträge fokussieren vor allem auf Erkenntnisse, Akteure und Prognosen aus Forschung und Wissenschaft. Das kleinste Cluster bildet schließlich der Beitragstyp 3 „ethisch kontrovers“. Hier treten viele verschiedene Akteure in Form von Experten und Wissenschaftlern auf, die das Für und Wieder der Molekularen Medizin kritisch und kontrovers diskutieren. Dementsprechend ist vor allem die Faktordimension „Kontroverse“ stark ausgeprägt. Ein weiteres, für die vorliegende Studie wichtiges Ergebnis ist: Anhand der Faktorenanalyse konnte belegt werden, dass die Unterthemen über Molekulare Medizin keinen Einfluss auf deren Darstellung in den verschiedenen Filmtypen haben.81 Dies stützt die Annahme, dass die Umsetzung und Darstellung eines Wissenschaftsthemas eine strategische Entscheidung der Redaktion ist. Daher erscheint die These, dass Wissenschaftsfilme als Vermittlungskonzepte aufgefasst werden können, zumindest für den Themenbereich der Molekularen Medizin plausibel.
Analyseschritt 4 Im letzten Analyseschritt werden drei prototypische Filmbeiträge ausgewählt. Die Auswahl erfolgt auf Basis der Faktorwerte je Beitragstyp. Dabei sollten vier Vorgaben möglichst erfüllt werden, um die Vergleichbarkeit der Filmbeiträge und damit die interne Validität des Experiments zu erhöhen. 1. Die Beiträge wurden auf Basis des Unterthemas und 2. der Dauer vorsortiert, so dass hier größtmögliche Ähnlichkeit besteht. 3. Die Auswahl ist auf Filmbeiträge begrenzt. 4. Die ausgewählten Filmbeiträge sollen Faktormittelwerte aufweisen, die eine ähnliche Gewichtung wie die Faktormittelwerte der Gesamtstichprobe aufweisen. 81
Unterthemen sind z.B. Klonen, Stammzellenforschung oder Grundlagen der Gentechnik etc.
Auswahlverfahren der Wissenschaftsfilme
159
Alle vier Vorgaben konnten weitestgehend realisiert werden. Die ausgewählten Beiträge stammen aus den Wissenschaftsmagazinen „Future Trend“ (RTL), „Abenteuer Forschung“ (ZDF) und „Globus“ (ARD/ Das Erste). Alle drei Beiträge sind Berichtsformate und behandeln ein wissenschaftlich-medizinisches Thema, d.h. sie entsprechen der Definition eines Wissenschaftsfilms und sind somit für die Analyse geeignet (vgl. dazu Kap. 3.3). Die Sendungen wurden Ende 2000 bzw. Mitte 2001 ausgestrahlt. In den Beiträgen geht es thematisch darum, wie Wissenschaftler Organe und Gewebe im Labor nachwachsen lassen bzw. reparieren können. Der Beitragstyp 3 behandelt zusätzlich die Präimplantationsdiagnostik (kurz PID), ein Verfahren, mit dem sich genetische Defekte an Embryonen erkennen lassen (vgl. Tab. 7). Wissenschaftsfilm persönlich wissenschaftsrelevant orientiert
ethisch kontrovers
Faktordimensionen (Faktormittelwerte (1) Kontroverse
-0.393
-0.759
2.114
(2) Wissenschaftl. Nutzen
0.850
0.601
0.950
(3) Wirkungen und Folgen
1.514
0.649
0.378
(4) Ursachen und Betroffene
0.915
-0.722
-0.294
Formale Beschreibung Sender
RTL
ZDF
ARD/Das Erste
Filmdauer (Sek.)
377
363
378
Titel
Organe aus dem Labor
Zell- und Gewebeersatz: Stammzellenforschung
Gentechnik: Fluch oder Segen
Thema
Nachzucht von Zellen und Organen
Nachzucht von Zellen und Organen
PID/ Nachzucht von Zellen und Organen
Sendedatum
02.04.2001
27.09.2000
30.05.2001
Tabelle 7: Faktormittelwerte und formale Beschreibung der Wissenschaftsfilme
160
Verständlichkeitsanalyse der Wissenschaftsfilme
Die folgenden Abschnitte beschreiben jeweils die Inhalte der ausgewählten Wissenschaftsfilme: Wissenschaftsfilm 1: „Organe aus dem Labor“ Das zentrale Kennzeichen dieses Films ist die Darstellung der Krankengeschichte von Dirk Wachholz, anhand derer das Thema Tissue Engineering erläutert wird. Der Beitrag ist mit einer Vielzahl von O-Tönen gestaltet. Sowohl Dirk Wachholz und seine Freundin als auch der behandelnde Arzt sowie zwei Wissenschaftler kommen abwechselnd zu Wort. Ein Off-Sprecher verbindet die einzelnen Sequenzen miteinander. Nach einer kurzen definitorischen Einführung zum Begriff „Tissue Engineering“ werden im zweiten Teil des Films die Krankheitssymptome, der Behandlungsverlauf und der Behandlungserfolg von Dirk Wachholz erläutert. Der Beitrag erklärt ausführlich, wie die Ärzte den angeborenen Herzklappenfehler von Dirk mit Hilfe eines Herzklappentransplantats behandelten. Der dritte Teil befasst sich mit der Frage, wie Wissenschaftler auch andere Organe oder Gewebe mit körpereigenen Zellen nachwachsen lassen können. Die Grundvoraussetzung dafür ist eine Matrix, die dem Organ die Form vorgibt und als eine Art Bauplan funktioniert. Bestand eine solche Matrix bisher aus einem Spenderorgan, versucht man nun, sie künstlich herzustellen. Erste Erfolge zeigen sich beim Nachwachsen lassen eines Ohrs, von Knorpel im Kniegelenk oder Arterien. Diese Beispiele werden detailliert erläutert. Der vierte Teil des Films verweist auf die Vorteile der natürlichen Methode der Organherstellung. So verringern sich neben den zu Beginn des Beitrags genannten Abstoßungsgefahren durch das Immunsystem auch die seelischen Probleme für die Patienten. Die Transplantate werden so als körpereigen wahrgenommen und stellen keine Fremdkörper dar. Abschließend werden einige Probleme bei der Anwendung der neuen Methode hervorgehoben. Man ist sich jedoch sicher, dass diese in den kommenden Jahren überwunden werden.
Wissenschaftsfilm 2:“ Zell- und Gewebeersatz: Stammzellenforschung“ Im Film 2 werden keine O-Töne eingespielt. Hier geht es ausschließlich darum zu erläutern, wie das Forschungsprogramm über embryonale Stammzellen abläuft. Dies wird mit Trickanimationen und Laborbildern unterlegt. Die Erläuterungen werden abwechselnd von einem männlichen und einem weiblichen Off-Sprecher gesprochen. In der Einleitung des Beitrags wird kurz die genetische Entwicklung einer befruchteten Eizelle dargestellt und das Interesse der Forscher für Embryonen erläutert. Daran schließt sich nochmals ein detaillierter Überblick auf die embryonale Entwicklung in den ersten vier Wochen an. Der Beitrag erklärt dann, dass Wissenschaftler versuchen, diese Abläufe experimentell nachzuempfinden mit dem Ziel, Zellen und Organe im Labor nachwachsen zu lassen. Der dritte Teil des Beitrags erläutert den experimentellen Ablauf. Dazu müssen einer Frau zunächst Eizellen entnommen werden, denen man den Kern absaugt. Dann wird das Erbgut eines
Auswahlverfahren der Wissenschaftsfilme
161
erwachsenen Menschen in die entkernte Eizelle eingeführt. Das Ergebnis zeigt, dass sich die eingeführten Zellen des erwachsenen Menschen wieder in ihren Universalzustand zurückversetzen und die Genprogramme von neuem aktiviert werden. Diese Spezialisierung soll nun im Labor nachempfunden werden. Der vierte Teil des Films stellt eine Alternative zur Forschung an embryonalen Zellen vor. Hier geht es um die Forschung mit Stammzellen. Dazu wird kurz erläutert, was Stammzellen sind und an welchen Stellen des menschlichen Körpers sie sich befinden. Im fünften Teil wird darauf verwiesen, dass es zurzeit noch nicht möglich ist, ein ganzes Organ nachwachsen zu lassen. Es besteht jedoch die Möglichkeit, embryonale Zellen direkt in ein Organ zu spritzen, um das umliegende Gewebe zu stimulieren, das sich dann weiterentwickelt. Diese Anwendung bezeichnet man als therapeutisches Klonen. Der Schluss des Beitrags hebt nochmals hervor, dass es bisher eine Zukunftsvision ist, ganze Organe im Labor wachsen zu lassen.
Wissenschaftsfilm 3: „Gentechnik - Fluch oder Segen“ Zentrales Kennzeichen des Films 3 sind drei unterschiedliche Akteure, die jeweils im O-Ton die Vor- und Nachteile sowie Nutzen und Risiken der Präimplantationsdiagnostik und der Stammzellforschung erläutern. Der Beitrag strukturiert sich dabei durch die beiden Beitragsthemen in zwei Teile. Zu Beginn wird auf den aktuellen Anlass des Beitrags verwiesen. Demnach debattiert der Bundestag aktuell über die Chancen und Risiken der Gentechnik, wobei insbesondere die PID und Stammzellenforschung strittig sind. In der Debatte geht es um das Für und Wieder der Gentechnik und um den Schutz menschlicher Embryonen. Der erste Thementeil befasst sich mit der Präimplantationsdiagnostik. Nachdem das Verfahren kurz vorgestellt wird, geht es darum, in welchen medizinischen Fällen es angewendet wird. Es folgen die O-Töne der drei Akteure, die die Vor- und Nachteile der PID aus ihrer jeweiligen beruflichen Perspektive erläutern. Die O-Töne werden durch entsprechende Erläuterungen des OffSprechers miteinander verbunden. Die auftretenden Akteure sind Prof. Hallek von Gentechnik München, der Moraltheologe Prof. Hilpert und die Vorsitzende der Bayerischen Bioethik-Kommission Prof. Marion Kiechle. Der zweite Teil des Beitrags zur Stammzellenforschung strukturiert sich wie der erste. Zunächst wird erläutert, dass Stammzellen noch keine spezialisierten Zellen sind und die Fähigkeit haben, alle möglichen Zellen auszubilden. Auch hier kommen die Akteure mit Pro- und Contra-Argrumenten und Bewertungen abwechselnd zu Wort. So wird die Züchtung von Embryonen für die Forschung abgelehnt. Eine Alternative sei, embryonale Stammzellen durch Embryonen zu gewinnen, die von den Eltern sowieso entsorgt werden. Zum Abschluss des Beitrags geht der Off-Sprecher auf die rechtliche Situation der beiden Anwendungen ein und verweist darauf, dass in Deutschland die Forschung an Embryonen sowohl von Wissenschaftlern abgelehnt wird als auch gesetzlich verboten ist. Da die gesetzlichen Regelungen allerdings im Ausland lockerer zu sein scheinen, reisen viele Patienten in nahe gelegene Länder, um dort Hilfe zu bekommen.
162
Verständlichkeitsanalyse der Wissenschaftsfilme
Nachdem die relevanten Wissenschaftsfilme auf Basis der quantitativen Inhaltsanalyse ausgewählt werden konnten, folgt nun die Sequenzanalyse, die den Kernpunkt der Verständlichkeitsanalyse darstellt. 8.2 Methodik der Sequenzanalyse Das Ziel der Sequenzanalyse ist, die formale und strukturelle Gestaltung der Wissenschaftsfilme unter verständlichkeitstheoretischen Fragestellungen zu analysieren. Die Analyse liefert somit Antworten auf die erste Forschungsfrage, in der es um die Identifikation der Vermittlungskonzepte geht. Dazu wird entsprechend der Forschungsfragen 1a und 1b untersucht, welche Verständlichkeitsfaktoren berücksichtigt werden und welche Verständlichkeitsmerkmale die Vermittlungskonzepte kennzeichnen. Im folgenden Kapitel 8.2.1 werden diese daher zunächst operationalisiert. Anschließend werden im Kapitel 8.2.2 die für die Analyse notwendigen Hilfsmittel und Auswertungsstrategien erläutert.
8.2.1 Operationalisierung Die Verständlichkeitsfaktoren und Verständlichkeitsmerkmale werden auf der Basis der in Kapitel 5 dargestellten Befunde der Verständlichkeitsforschung operationalisiert, da es sich gezeigt hat, dass die Faktoren der Textverständlichkeitsforschung auf das Fernsehen übertragbar zu sein scheinen. Die Analyse orientiert sich somit an den von Langer et al. (1974) und Groeben (1978; 1982) vorgeschlagenen Dimensionen. Allerdings werden diese um die fernsehspezifischen Merkmale der Verständlichkeitsforschung von Wissenschaftsmagazinen und Nachrichten ergänzt. Demnach erfolgt die Verständlichkeitsanalyse der Wissenschaftsfilme anhand der Dimensionen „Einfachheit“, „Gliederung“, „Kürze/ Prägnanz“ und „anregende Zusätze“. Folgende Indikatoren lassen sich den vier Dimensionen zuordnen (vgl. Tab. 8):
Methodik der Sequenzanalyse
Verständlichkeitsdimensionen
163
Indikatoren
Einfachheit
Sprachgebrauch Text-Bild-Bezüge Sequenzielles Arrangieren auf Wortebene Gliederung Inhaltliche Struktur auf Wortebene Filmdauer Kürze/ Prägnanz Sequenzdauer auf Wortebene Personalisierung Anregende Zusätze Visualisierungstechniken Dynamik Tabelle 8: Indikatoren der Verständlichkeitsanalyse
Die Verständlichkeitsdimensionen lassen sich dabei wie folgt beschreiben: Einfachheit: Die Dimension „Einfachheit“ bezieht sich auf die sprachliche und visuelle Umsetzung. Dabei wird die Verwendung von kurzen Sätzen, wenigen Fachausdrücken und Text-Bild-Bezügen als verständlichkeitsfördernd angesehen (vgl. auch Meutsch/ Müller 1988; Diedrichs 1994). Gliederung: Die Dimension „Gliederung“ bezieht sich auf die äußere Gliederung des Films in Form von Sequenzen und die inhaltliche Strukturierung auf der Wortebene. Diese Dimension stellt in der Verständlichkeitsforschung die wichtigste Verstehensdimension dar (vgl. Langer et al. 1974; Groeben 1982; Augst et al. 1985). Kürze/ Prägnanz: Die Dimension „Kürze/ Prägnanz“ bezieht sich auf die Dauer des Films. Als verständlichkeitsfördernd wird ein angemessenes Verhältnis zwischen der Länge des Beitrags und dem Informationsziel angesehen (vgl. Langer et al. 1974; 1999; Groeben 1982). Da jedoch für die Beurteilung der „Angemessenheit“ keine objektiven Indikatoren bereit stehen und dies auch nur anhand der individuellen Urteile der Rezipienten bewertet werden kann, wird diese Dimension über die Beitragsdauer und die Dauer der Hauptsequenzen gemessen. Anregende Zusätze: Die Dimension „Anregende Zusätze“ erfasst motivationale Elemente des Films. Als motivationale Elemente werden insbesondere die Personalisierung und Visualisierungstechniken angesehen, die potenziell Anteilnahme und Interesse beim Zuschauer hervorrufen können (vgl. Hamm 1990; Ploch 2003).
164
Verständlichkeitsanalyse der Wissenschaftsfilme
Auf Basis der beschriebenen Dimensionen und Indikatoren können nun Variablen abgeleitet werden, die für die Verständlichkeitsmessung der Wissenschaftsfilme relevant sind (vgl. Tab. 9). Verständlichkeitsdimensionen Einfachheit
Variablen
Gliederung
-
Kürze/ Prägnanz
- Filmdauer (in Sekunden) - Durchschnittl. Dauer der Haupt-Sequenzen (Wort, ohne Einleitungs- und Schlusssequenz)82
Anregende Zusätze
-
- Durchschnittl. Satzlänge ohne und mit O-Ton - Verwendung und Erläuterung von Fachbegriffen - Globale Kohärenzhilfen: komplementäre bzw. redundante vs. abundante Text-Bild-Bezüge Lokale Kohärenzhilfen (inhaltliche Struktur, Wort) Advance Organizer (Wort) Anzahl der Haupt- und Subsequenzen (Wort) Anzahl der Bildeinstellungen
Personalisierung (Auftreten von Akteuren) Visualisierungstechniken Dynamik der O-Töne Einstellungsdynamik (Verhältnis Wort zu Bild)
Tabelle 9: Variablen der Verständlichkeitsanalyse
Die Sequenzanalyse erfolgt, indem die drei Wissenschaftsfilme jeweils mit jeder der in Tabelle 9 aufgeführten Variablen codiert werden. Allerdings erfordert eine valide Sequenzanalyse bestimmte Hilfsmittel und Auswertungsstrategien, die im folgenden Kapitel erläutert werden.
82
Die „durchschnittliche Dauer der Haupt-Sequenzen“ wird ohne Einleitung und Schluss des Films berechnet, da ausschließlich diejenigen Sequenzen gemessen werden sollen, die die zentralen Informationen vermitteln.
Methodik der Sequenzanalyse
165
8.2.2 Hilfsmittel und Auswertungsstrategie Die Grundlage der Sequenzanalyse bilden Sequenzlisten und Einstellungsprotokolle, die für die drei Filmbeiträge angefertigt wurden (vgl. dazu Hickethier 2001; Korte 2005; vgl. Anhang 2). Während die Sequenzlisten die Haupt- und Subsequenzen der Wissenschaftsfilme darstellen, gibt das Einstellungsprotokoll einen Überblick über die Zeitstruktur und den genauen Handlungsverlauf auf Wort- und Bildebene. Die Wortebene wird wortgetreu erfasst. Das Einstellungsprotokoll stellt somit die detaillierte Fassung der Sequenzliste dar. Da sprachliche Darstellungen und Erklärungen in den ausgewählten Wissenschaftsfilmen dominieren, werden die Sequenzen in den Sequenzlisten über die sprachliche Ebene definiert. Unter dem Begriff „Sequenz“ wird dabei eine Handlungseinheit verstanden, „[…] die zumeist mehrere Einstellungen umfasst und sich durch ein Handlungskontinuum von anderen Handlungseinheiten unterscheidet“ (Hickethier 2001: 38f). Demnach können Sequenzen in Wissenschaftsfilmen als inhaltliche Informationseinheiten aufgefasst werden, die den Filmbeitrag in argumentative Einheiten oder Handlungsabschnitte gliedern. Der Vorteil einer zusätzlichen Sequenzliste liegt darin, dass sie aufgrund ihrer übersichtlichen Gestaltung zugleich ein Ergebnis der Sequenzauswertung darstellt. Die Reliabilität der Analyse wurde sichergestellt, indem über einen Zeitraum von drei Wochen drei Codierdurchgänge von der Autorin durchgeführt wurden. Darüber hinaus wurden die Sequenzlisten von einer zweiten Codiererin auf Plausibilität der „Gliederungsstruktur“ und „anregenden Zusätze“ geprüft. Insgesamt wird davon ausgegangen, dass die beobachteten und gemessenen Ausprägungen einer reliablen und validen Darstellung der Verständlichkeitsmerkmale entsprechen. Zum Abschluss der Sequenzanalyse wird auf Basis der analysierten Verständlichkeitsmerkmale ein zusammenfassender Verständlichkeitsindex gebildet. Dazu werden die jeweiligen Ausprägungen der Filme unter verständlichkeitstheoretischen Annahmen in eine Rangfolge gebracht und mit Punktwerten von 0 bis 3 bewertet. Die jeweils stärkste Ausprägung erhält einen Punktwert von 3, ist das Merkmal nicht vorhanden, wird eine 0 vergeben. Zur Berechnung der Filmindizes gehen die vier Verständlichkeitsfaktoren „Einfachheit“, „Gliederung/ Struktur“, „Kürze/ Prägnanz“ und „anregende Zusätze“ jeweils gleichgewichtig ein. Somit kann maximal ein Durchschnittswert von 3,0 erreicht werden. Dabei gilt: Je höher der erreichte Verständlichkeitsindex, desto verständlicher wird der Wissenschaftsfilm bewertet. Allerdings lässt sich der Verständlichkeitsindex nur als Richtwert auffassen und nicht absolut interpretieren. Wie die Befunde zur Verständlichkeitsforschung gezeigt haben, ist die Verständlichkeit eines Fernsehbeitrags kein rein additiver Prozess von verständlichkeitsfördernden Merkma-
166
Verständlichkeitsanalyse der Wissenschaftsfilme
len. Das heißt: größtmögliche Verständlichkeit wird nicht dadurch erreicht, dass alle Verständlichkeitsdimensionen berücksichtigt werden. Dies kann bei der Rezeption einer Medienbotschaft mitunter zu aversiven Reaktionen des Rezipienten führen (vgl. Früh 1980). Da jedoch aufgrund der Vielzahl der Einzelvariablen keine Gewichtung der Merkmale vorgenommen werden kann, wird der in dieser Form berechnete Verständlichkeitsindex für eine generelle Bewertung der Wissenschaftsfilme zunächst akzeptiert. Es wird somit angenommen, dass sich anhand der Verteilung der Verständlichkeitsmerkmale Aussagen über die Verständlichkeit der drei Wissenschaftsfilme formulieren lassen. 8.3 Verständlichkeitscharakteristik der Wissenschaftsfilme Die folgende Darstellung beschreibt die Verständlichkeitsausprägungen der drei Wissenschaftsfilme, die anhand der Sequenzanalyse ermittelt wurden. Die in dieser Form ermittelten Merkmalskombinationen lassen sich anschließend als Vermittlungskonzepte charakterisieren. Wissenschaftsfilm 1: Wissenschaftsfilm 1 kennzeichnet sich auf der Dimension „Einfachheit“ durch eine verstehensfördernde Darstellung. So werden kaum Fremdwörter und Fachbegriffe verwendet, Text-Bild-Scheren treten so gut wie nie auf und die Sätze sind relativ kurz formuliert. Die „Gliederungsstruktur“ lässt sich als nachgestellte Kohärenzhilfe beschreiben. So beginnt der Film mit der Darstellung eines einzelnen Fallbeispiels und abstrahiert im weiteren Filmverlauf auf allgemeine medizinischwissenschaftliche Erkenntnisse. Diese Gestaltungsvariante wurde bereits in Kapitel 3.3 als „Quasi-Fiction-Plotting“ vorgestellt. Zudem wird zu Beginn des Films das Thema in Form eines Advance Organizers definiert und erläutert, was entsprechende Konzepte beim Rezipienten aktivieren kann. Zwar ist die Anzahl der Hauptsequenzen mit denen der beiden anderen Filme vergleichbar, allerdings sind die Sub-Sequenzen und Bildeinstellungen stark untergliedert. Die Gliederungsstruktur erscheint demnach unter verständlichkeitstheoretischer Perspektive nicht optimal zu sein, da sie vom Speziellen zum Allgemeinen führt. Zudem kann die hohe Anzahl von Sub-Sequenzen und Bildeinstellungen zu einer hohen Dynamik führen, was das Verstehen mitunter behindern kann (vgl. Früh/ Wirth 1997). Die Dimension „Kürze/ Prägnanz“ wurde anhand der Beitragsdauer vorab kontrolliert, so dass sich hier nur geringe Unterschiede zu den beiden anderen
Verständlichkeitscharakteristik der Wissenschaftsfilme
167
Filmen zeigen. Die Dauer der Haupt-Sequenzen liegt im Vergleich zu den beiden anderen Filmen im mittleren Bereich. „Anregende Zusätze“: Das besondere Kennzeichen des Films ist das Fallbeispiel. Darüber hinaus treten Experten auf, so dass hier ein hoher Personalisierungsgrad vorliegt. Der Film enthält viele Interviewsituationen, präsentiert zugleich aber auch viele Detailaufnahmen (so z.B. die Nahaufnahme einer Herzklappe). Darüber hinaus wird einer der medizinischen Vorgänge mit Hilfe einer Animation dargestellt. Entsprechend der zahlreichen Interviewsituationen enthält der Film viele O-Töne, wobei die Interviewsituationen häufig sehr dynamisch visualisiert werden (z.B. durch Kameraschwenks, Kamerafahrten, Bildverwischungen). Insgesamt erreicht der Verständlichkeitsindex einen Wert von 2.7 von maximal 3.0 erreichbaren Punkten, so dass der Wissenschaftsfilm 1 als relativ gut verständlich angesehen werden kann. Durch den hohen Personalisierungsgrad und das Fallbeispiel lässt er sich als „personalisiertes Fallbeispiel“ charakterisieren. Wissenschaftsfilm 2: In der Dimension „Einfachheit“ zeigt sich, dass der Wissenschaftsfilm 2 nicht in allen Aspekten optimal ausgeprägt ist. Zwar enthält er vergleichsweise kurze Sätze, allerdings werden nicht alle verwendeten Fachbegriffen erläutert. Zudem zeigen sich einige Text-Bild-Scheren. Die „Gliederung“ kann hingegen als verständlichkeitsfördernd beschrieben werden. So strukturiert sich der Beitrag vom Allgemeinen zum Besonderen, d.h. es werden zunächst übergeordnete Konzepte erläutert (auch anhand eines Advance Organizers), denen dann Detailinformationen folgen. Obwohl der Film die meisten Haupt-Sequenzen enthält (7 Haupt-Sequenzen), sind diese im Vergleich zu den beiden anderen Filmen in weniger Sub-Sequenzen untergliedert (10 Sub-Sequenzen). Gleichzeitig ist die durchschnittliche Dauer der Hauptsequenzen im Vergleich zu den beiden anderen Filmen am geringsten. Dabei zeigt sich, dass die Dauer der Sequenzen relativ gleichmäßig verteilt ist, so dass in den einzelnen Abschnitten ein vergleichbarer Informationsumfang enthalten ist. Die Dimension „Kürze und Prägnanz“ des Films ist demnach ebenfalls verständlichkeitsfördernd optimiert. Allerdings verzichtet der Film weitestgehend auf „anregende Zusätze“. Akteure treten nicht auf und die Visualisierung beschränkt sich auf klassische Laborbilder, Mikroskopaufnahmen und Animationen. Im Vergleich zu den beiden anderen Filmen zeigt sich, dass der Film wenig Dynamik enthält, was sich mitunter jedoch auch verständlichkeitsfördernd auswirken kann.
168
Verständlichkeitsanalyse der Wissenschaftsfilme
Der zusammenfassende Verständlichkeitsindex des Wissenschaftsfilms 2 ist mit 2.1 im Vergleich zum „personalisierten Fallbeispiel“ niedriger, so dass eine geringere Verständlichkeit angenommen werden kann. Da sich Aufbau und Gestaltung des Films an klassischen Lehrfilmkonzepten orientieren, wird er hier als Vermittlungskonzept „klassischer Lehrfilm“ charakterisiert. Wissenschaftsfilm 3 Die Dimension „Einfachheit“ ist im Wissenschaftsfilm 3 am geringsten ausgeprägt. Die durchschnittliche Satzlänge ist mit 18 Wörtern im Vergleich zu den beiden anderen Filmen am höchsten. Zudem lassen sich wesentlich mehr Text-Bild-Scheren feststellen. Von den verwendeten Fachbegriffen wird nur rund die Hälfte erläutert. Die Kohärenzhilfen gliedern den Film in zwei gleich strukturierte Teile bzw. Blöcke. Dabei behandelt der erste Teil das Thema Präimplantationsdiagnostik, der zweite erläutert die Stammzellforschung. Die innere Struktur der beiden Filmteile ist jeweils identisch und verläuft von einer allgemeinen Einführung zu speziellen Beispielen. Der Film enthält im Vergleich zu den beiden anderen Filmen die wenigsten Haupt-Sequenzen (5 Haupt-Sequenzen), die Anzahl der Sub-Sequenzen liegt im mittleren Bereich. Insgesamt unterscheidet sich somit die „Gliederung“ vor allem in der inneren Struktur des Films. Die Dauer der Haupt-Sequenzen ist vergleichsweise länger als bei den beiden anderen Filmen, was zu relativ umfangreichen Informationen führt. Daher kann davon ausgegangen werden, dass die „Kürze bzw. Prägnanz“ des Films im unteren Bereich der Verständlichkeit liegt. Als „anregende Zusätze“ können hier die auftretenden Experten angesehen werden, die sich zu den Filmthemen äußern. Als Visualisierungstechniken werden Interviewsituationen, Labor- und Mikroskopaufnahmen verwendet. Die Einstellungsdynamik von Wort und Bild ist ähnlich zu der des Films 1 „personalisiertes Fallbeispiel“. Diese relativ hohe Dynamik wird vor allem in den Filmsequenzen erzeugt, in denen keine Experten auftreten. Mit einem Indexwert von 2.0 liegt die Verständlichkeitsbewertung auf ähnlichem Niveau wie beim „klassischen Lehrfilm“, so dass hier ein vergleichbares Verständlichkeitsniveau angenommen werden kann. Aufgrund der diskursiven Äußerungen der Experten und der Darstellungsstruktur lässt sich Wissenschaftsfilm 3 als Vermittlungskonzept „Experten-Diskurs“ charakterisieren.
Verständlichkeitscharakteristik der Wissenschaftsfilme
169
In der folgenden Tabelle 10 werden die Ergebnisse der Verständlichkeitsanalyse nochmals zusammenfassend dargestellt. Die Übersicht enthält sowohl die „allgemeinen Angaben“ wie Titel, Sender und Sendedatum als auch die ermittelten „inhaltlichen Dimensionen“ und „Verständlichkeitsdimensionen“. Die Ausprägungen der „inhaltlichen Dimensionen“ werden dabei nicht wie zuvor in Kapitel 8.1 als Faktormittelwerte ausgewiesen, sondern anhand von „+“ und „-“ gekennzeichnet. Vermittlungskonzepte: Personalisiertes Fallbeispiel
Klassischer Lehrfilm
ExpertenDiskurs
Organe aus dem Labor
Gentechnik – Fluch oder Segen
02.04.2001
Zell- und Gewebeersatz: Stammzellforschung ZDF Abenteuer Forschung 27.09.2000
Inhaltliche Dimensionen Kontroverse
-
-
+++
Wissenschaftlicher Nutzen
+
+
+
Allgemeine Angaben Titel
Sender Magazin Sendedatum
Wirkungen und Folgen Ursachen und Betroffene
RTL Future Trend
ARD/Das Erste Globus 30.05.2001
++
+
+
+
-
-
Verständlichkeitsdimensionen und Merkmalsausprägungen Einfachheit Ø Satzlänge ( Wörter ohne O-Ton) (mit O-Ton) Anzahl der Fachbegriffe Erläuterung Fachbegriffe Globale Kohärenzhilfen: Wort-Bild-Komplementarität/ Redundanz Wort-Bild-Abundanz
10 14
13 -
13 18
2 100%
9 56%
5 60%
93.5%
85.3%
62.2%
6.5%
14.7% 37.8% Fortsetzung folgt auf der nächsten Seite
170
Verständlichkeitsanalyse der Wissenschaftsfilme
Vermittlungskonzepte: Personalisiertes Fallbeispiel
Klassischer Lehrfilm
ExpertenDiskurs
Vom Speziellen zum Allgemeinen (Nachgestellte Kohärenzhilfe)
Vom Allgemeinen zum Speziellen (Vorgestellte Kohärenzhilfe)
Blockweise (Eingefügte Kohärenzhilfe) (Im Block: vorgestellte Kohärenzhilfe)
Ja 6
Ja 7
Ja 5
20 46
10 35
16 36
Filmdauer
377 Sek.
363 Sek.
378 Sek.
Ø Dauer der Haupt-Sequenzen (ohne Einleitung & Schluss)
85.5 Sek.
57.4 Sek.
109.3 Sek.
Fallbeispiel Experten
-
Experten
Interview Detailaufnahmen Animation
Labor Mikroskop Animationen
Interview Labor Mikroskop
ja 0.43
-/0.29
ja 0.44
2.7
2.1
2.0
Gliederung/ Struktur Lokale Kohärenzhilfen
Advance Organizer Anzahl der Hauptsequenzen (Wort) Anzahl der Sub-Sequenzen (Wort) Anzahl der Bildeinstellungen Kürze/ Prägnanz
Anregende Zusätze Personalisierung Visualisierungstechniken
Dynamik (O-Töne) Einstellungsdynamik (Verhältnis Wort/Bild) Verständlichkeitsindex
Tabelle 10: Verständlichkeitscharakteristik der Vermittlungskonzepte
Bezogen auf Forschungsfrage 1a und 1b zeigt die Übersicht, dass sich die Vermittlungskonzepte in allen vier Verständlichkeitsdimensionen unterscheiden und spezifische Merkmalskombinationen aufweisen. Am deutlichsten tritt der Unterschied jedoch in der „Gliederungsstruktur“ und den „anregenden Zusätze“ hervor. Während sich die Struktur des „personalisierten Fallbeispiels“ von der Darstellung eines speziellen Krankheitsverlaufs zu einer allgemeinen Darstellung des Forschungsbereichs entwickelt, gliedert sich der „klassische Lehrfilm“ vom Allgemeinen zum Speziellen. Zudem treten in diesem Film keine Akteure auf.
Verständlichkeitscharakteristik der Wissenschaftsfilme
171
Der „Experten-Diskurs“ kennzeichnet sich wiederum dadurch, dass die Mehrheit des Films aus O-Tönen mehrerer Wissenschaftler besteht und ein Off-Sprecher die einzelnen Aussagen zu einer Einheit zusammenfügt. Dabei gliedert sich der Film in zwei identische Blöcke, die jeweils durch eine allgemeine Darstellung des Sachverhalts eingeleitet werden. Die daran anschließenden Statements der Experten argumentieren dann überwiegend anhand spezieller Beispiele. Forschungsfrage 1 lässt sich somit in der folgenden Weise beantworten: Welche Vermittlungskonzepte lassen sich in Wissenschaftsfilmen identifizieren und unterscheiden? → Drei Vermittlungskonzepte werden identifiziert: „Personalisiertes Fallbeispiel“, „Klassischer Lehrfilm“ und „Experten-Diskurs“; → Die Vermittlungskonzepte unterscheiden sich in den vier Verständlichkeitsdimensionen anhand unterschiedlicher Merkmalskonstellationen; → am deutlichsten unterscheiden sie sich durch die „Gliederungsstruktur“ und „anregenden Zusätze“; → Auf Basis des Verständlichkeitsindex wird das „personalisierte Fallbeispiel“ als gut verständlich bewertet. Die Verständlichkeit des„klassischen Lehrfilms“ und des „Experten-Diskurses“ liegt auf einem vergleichbaren, jedoch niedrigeren Niveau.
Damit kann Untersuchungsphase I abgeschlossen werden. Die folgenden Kapitel 9 und 10 widmen sich nun der Verstehensanalyse, die den Annahmen zum kognitiven System des Rezipienten unterliegt, wie sie im „Verstehensmodell audiovisueller Wissenschaftsvermittlung“ entwickelt wurden. Die Befunde der Verstehensanalyse werden demnach als Ergebnis der Verarbeitungsprozesse interpretiert. Die zentrale Fragestellung der Untersuchungsphase II ist, welchen Einfluss die Vermittlungskonzepte auf die Verstehensleistung der Rezipienten haben (Forschungsfrage 2) und wie die Rezipienten die Verständlichkeit der Filme bewerten (Forschungsfrage 3). Für die Untersuchung dieser Forschungsfragen wurde ein experimentelles Untersuchungsdesign entwickelt, das im folgenden Kapitel 9 beschrieben wird. Im Kapitel 10 werden dann die Ergebnisse der Verstehensanalyse vorgestellt.
9 Methodik der Verstehensanalyse
In den folgenden Kapiteln werden die Planung und Durchführung der Verstehensanalyse vorgestellt. Kapitel 9.1 befasst sich mit der Operationalisierung der zentralen Variablen, im Kapitel 9.2 wird die Untersuchungsanlage vorgestellt und Kapitel 9.3 widmet sich den Gütekriterien Reliabilität und Validität. Um die Verstehensanalyse angemessen und valide durchführen zu können, müssen bestimmte Voraussetzungen der Datenaufbereitung erfüllt werden. Diese werden im Kapitel 9.4 erläutert. 9.1 Operationalisierung Die in Kapitel 7 formulierten Forschungsfragen interessieren sich sowohl für das Verstehen (1) als auch für die subjektiven Verständlichkeitsbewertungen (2) eines Vermittlungskonzepts durch die Rezipienten. Auf der Grundlage des „Verstehensmodells audio-visueller Wissenschaftsvermittlung“ sollen beide Begriffe in den folgenden Abschnitten operationalisiert und somit messbar gemacht werden.
(1) Operationalisierung „Verstehen“ Die Grundlage für die Operationalisierung und Messung der Verstehensleistungen bildet die in Kapitel 4.1 formulierte Verstehensdefinition: Verstehen heißt, eine kohärente mentale Repräsentation der Medienbotschaft aufzubauen und auf Basis elaborativer Prozesse darüber hinausgehende Bewertungen und Schlussfolgerungen der Inhalte formulieren zu können. Dieser Definition entsprechend sind somit für die Messung von Verstehen a) die Kohärenzbildung und b) darüber hinaus gehende Interpretationen in Form von Bewertungen und Schlussfolgerungen von Bedeutung. Beide Prozesse basieren auf der Verwendung von Vorwissen, das auf der Grundlage von Inferenzen mit den Inhalten der Medienbotschaft verknüpft wird. Inferenzen helfen demnach
174
Methodik der Verstehensanalyse
dabei, eine kohärente mentale Repräsentation der Filminhalte zu konstruieren, und neues, darüber hinausgehendes Wissen zu erschließen. Diese Verstehensprozesse laufen nach dem „Verstehensmodell audio-visueller Wissenschaftsvermittlung“ im kognitiven System des Rezipienten ab. Dazu werden der gesprochene Text auf propositionaler Ebene und die Visualisierungen in Form eines Situationsmodells repräsentiert, wobei beide Ebenen während des Verstehensprozesses miteinander transagieren. Das Resultat dieses Prozesses ist eine ganzheitliche und zusammenhängende Vorstellung des im Wissenschaftsfilm präsentierten Sachverhalts. Dabei lässt sich die Kohärenzbildung als kommunikatororientiertes Verstehen auffassen, da diese nahe an die Filminhalte angelehnt ist und in besonderer Weise durch die Gestaltung des Films beeinflusst werden kann. Bewertungen und Schlussfolgerungen lassen sich hingegen als rezipientenorientiertes Verstehen auffassen, da diese stärker auf individuellen Interpretationsprozessen des Rezipienten basieren. Beide Verstehenspositionen bilden demnach das Gesamtverstehen ab.
a. Kohärenzbildung Die Kohärenzbildung basiert auf dem wechselseitigen Verarbeitungsprozess zwischen der propositionaler Repräsentation und dem Situationsmodell. Entsprechend der Theorie der mentalen Modelle wird dabei angenommen, dass der Sachverhalt nicht in allen Einzelheiten abgebildet wird, sondern vor allem diejenigen Informationen enthält, durch die der Rezipient eine ausreichend kohärente Struktur des Films konstruieren kann (vgl. dazu Johnson-Laird 1980; 1983; 1989; Kintsch 1989; 1998). Somit geht es im Rahmen dieser Arbeit nicht um den Abruf möglichst detailgenauer Informationen, vielmehr bezieht sich das kommunikatororientierte Verstehen auf die zentralen Konzepte der Filme. Folglich setzt es sich aus drei Erinnerungsleistungen zusammen: die zentralen Konzepte sollen (1) möglichst vollständig reproduziert, (2) angemessen verdichtet und (3) zu einem sinnvollen Ganzen zusammengefügt werden können. Es lassen sich für die Messung der kommunikatororientierten Kohärenzbildung daher folgende Indikatoren ableiten: Vollständigkeit der Erinnerung: Die Vollständigkeit der Erinnerung gibt Auskunft darüber, welche Konzepte des Wissenschaftsfilms für die individuellen Verstehensleistungen relevant sind. Abstraktionsgrad der Erinnerung: Der Abstraktionsgrad der Erinnerung gibt Auskunft darüber, auf welcher Abstraktionsebene Verstehen stattfindet. Abruforganisation der Erinnerung: Die Abruforganisation gibt Auskunft darüber, wie die Verstehensleistung strukturiert sind.
Operationalisierung
175
Der Grad der Kohärenzbildung wird demnach mit den Inhalten der Vermittlungskonzepte in Beziehung gesetzt und deshalb als Vermitteltes Verstehen bezeichnet.
b. Interpretationen Die Interpretation der Rezipienten in Form von thematischen Bewertungen und Schlussfolgerungen bildet die rezipientenorientierte Verstehensperspektive ab. Hier wird angenommen, dass die Kohärenzbildung zwar die Grundlage der Interpretation darstellt, der Einfluss des Vermittlungskonzepts hingegen sehr viel geringer ist. Vielmehr kennzeichnen sich die Interpretationsprozesse durch die Aktivation von subjektivem Wissen, die sich dann in der Fähigkeit äußern, Bewertungen und Schlussfolgerungen abzuleiten. Damit geht das rezipientenorientierte Verstehen über die bloße Kohärenzbildung der Filminhalte hinaus. Im Rahmen dieser Arbeit ist es von Interesse, welche Formen des subjektiven Wissens durch die Vermittlungskonzepte aktiviert werden und wie sich dies auf das Verstehen auswirkt. Dazu wird zwischen vier Wissenstypen unterschieden, die sich hierarchisch unterscheiden lassen: (1) „Rezeptionsurteil“, (2) „inhaltsspezifische Interpretation“, (3) „Meinungsäußerung“ und (4) „Elaboration“.83 Da dieser Verstehensbegriff somit stärker das subjektive Wissen des Rezipienten berücksichtigt, wird es nachfolgend als Integratives Verstehen bezeichnet.
c. Gesamtverstehen Laut der Verstehensdefinition bildet erst die Verknüpfung von Kohärenzbildung und Interpretation das hier entwickelte Verstehenskonzept vollständig ab. Daher wird ein dritter Verstehenstyp gebildet, dessen höchste Ausprägung ein gänzliches Verstehen beschreibt und somit als Gesamtverstehen bezeichnet wird.
(2) Operationalisierung „subjektive Verständlichkeitsbewertungen“ Die Operationalisierung der subjektiven Verständlichkeitsbewertungen der Vermittlungskonzepte erfolgt auf der Grundlage der vier Verständlichkeitsdimensionen nach Langer et al. (1974; 1999). Daher enthalten sie sowohl Aussagen über die „kognitive Erregung“ als auch Bewertungen über die „Machart des Wissen83
Die Operationalisierung der Wissensaktivation orientiert sich an dem Wissenskonzept von Wirth (1997).
176
Methodik der Verstehensanalyse
schaftsfilms“ (vgl. dazu Meutsch/ Müller 1988). Die „Bewertungen über die Machart der Filme“ lassen sich anhand solcher Merkmale identifizieren, die den Verständlichkeitsdimensionen „Einfachheit“, „Gliederung/ Struktur“ und „Kürze/ Prägnanz“ entsprechen. Es handelt sich z.B. um Merkmale zum Sprachgebrauch, Wort-Bild-Verhältnis oder zur Struktur des Films. Die „kognitive Erregung“ wird wiederum über die Verständlichkeitsdimension „anregende Zusätze“ operationalisiert, indem Bewertungen zur Personalisierung, Handlungsrelevanz oder zu den Visualisierungstechniken erhoben werden (vgl. Kap. 8.3 sowie Meutsch/ Müller 1988). Die in der beschriebenen Form vorgenommenen Operationalisierungen für die Verstehensanalyse führen somit zu fünf Analysestufen, die sich wie folgt darstellen lassen (vgl. Abb. 14): Analysestufe I Vermitteltes Verstehen
Indikatoren: Vollständigkeit, Abstraktionsgrad und Abruforganisation der Erinnerung
Analysestufe II
Analysestufe III
Analysestufe IV
Verstehen (Gesamt)
Subjektive Verständlichkeitsbewertung
Indikatoren: Vermitteltes plus Integratives Verstehen
Analysestufe V
Indikatoren: Kognitive Aktivation Bewertung der Machart
Integratives Verstehen
Indikatoren: Inferenzen zwischen beitragsvermittelten Inhalten und subjektiven Wissen
Abbildung 14: Analysestufen und Indikatoren der Verstehensanalyse
Analysestufe I bis IV widmen sich demnach den einzelnen Indikatoren. Die fünfte Stufe befasst sich abschließend mit der Frage, welcher Zusammenhang zwischen dem Gesamtverstehen und den subjektiven Verständlichkeitsbewertungen besteht. Im Folgenden kann nun die Untersuchungsanlage und das Untersuchungsdesign vorgestellt werden.
Untersuchungsanlage
177
9.2 Untersuchungsanlage Für die Untersuchung der Forschungsfragen wurde ein laborexperimentelles Untersuchungsdesign entwickelt, an dem 99 Probanden teilnahmen. Das experimentelle Treatment besteht aus den drei Vermittlungskonzepten, die zuvor in Kapitel 8 inhalts- und sequenzanalytisch erfasst und ausgewertet wurden. Die Experimente wurden über den Zeitraum vom 1. Februar bis 26. Juli 2007 von drei zuvor geschulten Interviewerinnen und der Versuchsleiterin in den Räumen der Friedrich-Schiller-Universität Jena durchgeführt. Die folgenden Abschnitte stellen die zentralen Elemente des Untersuchungsdesigns vor und erläutern (1) den Versuchsaufbau, (2) die Stichprobe und (3) die Darstellung der Fragebogenkonstruktion. Die beiden letzten Abschnitte widmen sich (4) dem Verlauf der Befragung und (5) der Aufbereitung und Analyse der ermittelten Verbaldaten und offenen Nennungen.
(1) Versuchsaufbau Der Versuchsaufbau orientiert sich an einem einfaktoriellen Experimentaldesign, bei dem die unabhängige Variable (UV) „Vermittlungskonzept des Wissenschaftsfilms“ auf drei Stufen variiert wird. Die Variation erfolgt über die in Kapitel 7 analysierten Verständlichkeitsdimensionen. Da es sich hier um „natürliches“ Filmmaterial handelt, lassen sich die streng experimentellen Bedingungen nicht in jeder Beziehung erfüllen. Das heißt, es werden zwar die Filmkonzepte als Bündel von Faktoren variiert, nicht jedoch die einzelnen Faktoren, die sich zu einem Vermittlungskonzept zusammenfügen. Es handelt sich demnach genau genommen um ein mehrfach unvollständiges Design. Zudem besteht die Möglichkeit, dass verständlichkeitstheoretische und inhaltliche Variablen konfundieren. Diese genannten Nachteile der Untersuchungsanlage werden jedoch zugunsten eines zentralen Vorteils akzeptiert. So zielt die Untersuchung nicht darauf ab, einzelne Wirkfaktoren herauszulösen und deren Einfluss auf die Verständlichkeit der Filmvarianten zu untersuchen. Vielmehr soll untersucht werden, wie verschiedene Variationen von TV-Wissenschaftsfilmen wahrgenommen, bewertet und verstanden werden. Mit der Verwendung des natürlichen Filmmaterials erhöht sich somit die externe Validität, da die reale Rezeption näherungsweise simuliert werden kann (vgl. dazu auch Kap. 9.3). Ziel der Studie ist demnach, die psychologische Realität der Zuschauer zu erfassen. Ein solches Design ermöglicht somit besser verallgemeinerbare Aussagen über kurzfristige kognitive Effekte von Wissenschaftsfilmen als Experimente, deren Filmvarianten künstlich erstellt und variiert wurden. Unnatürliche Filmvarianten würden zwar die interne
178
Methodik der Verstehensanalyse
Validität erhöhen, hätten jedoch kaum etwas mit den Wissenschaftsfilmen gemein, wie sie typischerweise im Fernsehen präsentiert werden, Der Versuchsaufbau vergleicht die drei Experimentalgruppen EG 1, EG 2 und EG 3 anhand der abhängigen Variablen (AV). Auf eine Kontrollgruppe wurde verzichtet, da sich die Experimentalgruppen in diesem Fall gegenseitig kontrollieren (vgl. Brosius/ Koschel 2003). Als abhängige Variablen werden Vermitteltes Verstehen, Integratives Verstehen und subjektive Verständlichkeitsbewertungen gemessen. Als Kontrollvariablen werden das themenspezifische Vorwissen, das Themeninteresse für die Filmthemen, die individuelle Relevanz der Filmthemen sowie die Fernsehnutzung (insbesondere auch von Wissenschaftsmagazinen) berücksichtigt (vgl. Tab. 11). Experimentalgruppe (EG)
Vermittlungskonzept (UV)
Messung der AV
EG 1
Personal. Fallbeispiel
9
9
EG 2
Klassischer Lehrfilm
9
9
EG 3
Expertendiskurs
9
9
Vermitteltes Verstehen Integratives Verstehen Subjektive Verständlichkeitsbewertungen
Kontrollvariablen
Vorwissen Themeninteresse Themenrelevanz Fernsehnutzung
Tabelle 11: Experimenteller Versuchsplan
Das experimentelle Treatment bilden die drei Vermittlungskonzepte „personalisiertes Fallbeispiel“, „klassischer Lehrfilm“ und „Experten-Diskurs“ zum Thema Molekulare Medizin. Das Thema wird aus zwei Gründen für die Untersuchung als geeignet erachtet: erstens handelt es sich um ein eher unaufdringliches Thema. Zwar ist es immer mal wieder Gegenstand der Medienberichterstattung, allerding befindet es sich häufig nur über einen kurzen Zeitraum auf der Medienagenda. Daraus resultiert zweitens, dass die in den Wissenschaftsfilmen behandelten Themen keine hohe Publizität haben. Daher wird angenommen, dass die Informationen den Probanden häufig unbekannt sind.
Untersuchungsanlage
179
(2) Stichprobe An der Studie nahmen 99 Studenten und Studentinnen der Friedrich-SchillerUniversität Jena teil, die über Aushänge und mündliche Ansprache auf dem Universitätscampus rekrutiert wurden. Die Aushänge enthielten allgemeine Hinweise über den Verlauf der Experimente. Bei der mündlichen Rekrutierung wurden die gleichen Informationen gegeben. Die genaue Zielsetzung der Befragung wurde den Teilnehmern nicht mitgeteilt. Als Teilnahme-Inscentive wurde die Verlosung von Büchergutscheinen angekündigt. Die Teilnahmetermine wurden dann individuell mit den Studenten vereinbart. Tabelle 12 gibt einen Überblick über die Verteilung soziodemographischer Merkmale der Probanden in den drei Experimentalgruppen: EG 1
EG 2
EG 3
Gesamt
48.6 51.4
50.0 50.0
50.0 50.0
49.5 50.5
23.1
23.3
23.1
23.1
32
32
99
Geschlecht (in %) männlich weiblich Ø-Alter (Jahre)
Gesamt (n) 35 Tabelle 12: Merkmalsverteilung der Probanden
Die Stichprobe setzt sich aus Studenten der Sozial-, Geistes- und Naturwissenschaften zusammen. Das durchschnittliche Alter liegt bei 23.1 Jahren. Die Zuordnung der Probanden in die Experimentalgruppen erfolgte zufällig, indem sie bei der ersten Terminabsprache der Reihe nach EG1, EG2 und EG3 zugeordnet wurden. Konnten Probanden ihre Termine nicht einhalten, blieb es auch zu einem späteren Zeitpunkt bei der Zuordnung in die jeweilige Gruppe. Das Ziel war, die Gruppen nach Alter und Geschlecht gleichmäßig zu verteilen. Dies konnte realisiert werden.
(3) Fragebogenkonstruktion Für die Untersuchung wurde ein Fragebogen entwickelt, der aus einem mündlichen und zwei schriftlichen Teilen besteht. Der mündliche Teil der Befragung erhebt die Verstehensleistungen der Probanden. Mit dem schriftlichen Teil wer-
180
Methodik der Verstehensanalyse
den die „subjektiven Verständlichkeitsbewertungen“ und Kontrollvariablen erfasst.
a. Fragekonstruktion zur Erhebung der Verstehensleistungen Nach Lang (2000) sind insbesondere der Free Recall und Cued Recall in der Lage, das Verstehen einer Nachricht zu messen (vgl. dazu Kap. 4.4.1). Daher werden für die Messung des Vermittelten Verstehens diese Methoden verwendet. Während der Free Recall ein Erinnern ohne Abrufhilfe darstellt (vgl. Anhang, Fragebogenfragen 5), werden beim Cued Recall Abrufhilfen vorgegeben (vgl. Fahr 2006; Anderson 2007). Die Fragen des Cued Recalls beziehen sich auf jeweils vier zentrale Konzepte der Wissenschaftsfilme und orientierten sich an der Struktur des Filmverlaufs (vgl. Anhang, Fragebogenfrage 6 bis 9). So wird insbesondere nach Zusammenhängen gefragt, die im Film dargestellt werden (vgl. Nieding/ Ohler 2004). Dies entspricht dem methodischen Vorgehen der Filmverstehensforschung, wie es in Kapitel 4.4.2 vorgestellt wurde. Mmit dieser Methode lässt sich prüfen, ob bei der Verarbeitung der Filminhalte ein mentales Situationsmodell konstruiert wurde. Das Integrative Verstehen wird über Fragen erhoben, die die Rezipienten auffordern, Bewertungen und Schlussfolgerungen abzugeben. Es handelt sich demnach um die Messung der zweiten Verstehensebene. Dazu werden die Probanden zunächst gebeten zu begründen, welche der Filminformationen für sie am relevantesten sind (Begründung). Dann werden sie gebeten, ihre persönliche Meinung zum Thema des Films zu formulieren und schließlich sollen sie ihre Einschätzung zu möglichen gesellschaftlichen Folgen der dargestellten Forschungsdisziplin abgeben (vgl. Anhang, Fragebogenfrage 10 bis 12).
b. Fragekonstruktion zur Erhebung der „subjektiven Verständlichkeitsbewertungen“ Die Grundlage für die Untersuchung der subjektiven Verständlichkeitsbewertungen bilden die Verständlichkeitsskalen von Augst et al. (1982; 1985), die sich auf Verständlichkeitsfaktoren von Groeben (1978; 1982) und Langer et al. (1974) beziehen. Die Skalen wurden entsprechend der Fragestellungen dieser Studie zu einem semantischen Differenzial und einer Likert-Skala weiter entwickelt.84 Die Verwendung von zwei unterschiedlichen Skalen begründet sich dar84
Vgl. zur Skalenkonstruktion Möhring/ Schlütz 2003.
Untersuchungsanlage
181
in, dass bestimmte Items im semantischen Differenzial nicht als bipolare Adjektive formuliert werden konnten (vgl. Anhang, Fragebogenfrage 15). Die Items der Likert-Skala erheben insbesondere Bewertungen zur Gliederungsstruktur, zum Verhältnis von Bild und Sprache sowie zur wahrgenommenen thematischen Relevanz (vgl. Anhang, Fragebogenfrage 18). Das semantische Differenzial enthält 21 bipolare Adjektive und die Likert-Skala 15 Statements, so dass insgesamt 36 Bewertungsitems abgefragt wurden. Beide Skalen sind fünffach gestuft. Zusätzlich zu den Skaleneinschätzungen wurden die Probanden durch eine offenen Abfrage gebeten zu erläutern, was sie „gut“ bzw. „schlecht“ (vgl. Anhang, Fragebogenfrage 16) und was sie „verständlich“ bzw. „nicht verständlich“ empfanden (vgl. Anhang, Fragebogenfrage 14). Mit dieser offenen Abfrage soll (1) getestet werden, ob die theoretisch hergeleiteten Indikatoren auch für die Vermittlungskonzepte relevant sind und (2) ob sich aus dem Material weitere, neue Bewertungsdimensionen ergeben, die bislang nicht berücksichtigt wurden.
c. Fragekonstruktion zur Erhebung der Kontrollvariablen Für die Erfassung der Kontrollvariablen konnten weitestgehend standardisierte Skalen verwendet werden, die gemäß dem Untersuchungsziel leicht modifiziert wurden. So wurden zur Erfassung des Themeninteresses (vgl. Anhang, Fragebogenfrage 1) und der Mediennutzung (vgl. Anhang, Fragebogenfrage 4, 19 bis 22) Skalen der Media-Analyse für elektronische Medien, der Langzeitstudie Massenkommunikation sowie Fragen aus den Allbus-Umfragen der Gesis/ZUMA verwendet. Allerdings musste die Skala zum Interesse an Sendungsthemen neu entwickelt werden (vgl. Anhang, Fragebogenfrage 2). Die Items entsprechen realen Magazinthemen, die über die Online-Archive der Wissenschaftsmagazine recherchiert wurden. Drei der Items beziehen sich auf die Themen des Treatments. So lautet z.B. eines der Items: „Wie können Wissenschaftler Organe im Labor nachwachsen lassen?“ Für die Messung des themenspezifischen Vorwissens wurde der „Wissenstest zur Gentechnik“ von Peters (1999) verwendet (vgl. Anhang, Fragebogenfrage 3). Dabei handelt es sich um Faktenaussagen, deren Wahrheitsgehalt auf einer dreistufigen Skala beurteilt werden muss. Items zur grünen Gentechnik wurden im Vorfeld ausgeschlossen, so dass die Skala ausschließlich Aussagen zur roten Gentechnik und damit zum Gegenstandsbereich der Molekularen Medizin enthält.85 Darüber hinaus wurden drei Aussagen hinzugefügt, die sich auf die 85
Als „Grüne Gentechnik“ werden gentechnische Verfahren bezeichnet, die in der Landwirtschaft und an Pflanzen angewendet werden. „Rote Gentechnik“ betrifft den humanenmedizinischen Bereich der Gentechnologie.
182
Methodik der Verstehensanalyse
konkreten Inhalte der Treatment-Filme beziehen. Die Skala erfasst somit insbesondere Grundlagenkenntnisse. Diese helfen dem Rezipiente dabei, bestimmte Filminformationen schneller und besser einordnen zu können und stellen daher eine wichtige Voraussetzung für das Verstehen der Filminhalte dar. Für die Messung der individuellen Themenrelevanz wurde eine Fragestellung entwickelt, die die persönliche Wichtigkeit des Filmthemas erhebt (vgl. Anhang, Fragebogenfrage 17).
(4) Ablauf der Befragung Die Experimente wurden in Einzelsitzungen durchgeführt, deren Verlauf sich aus den folgenden vier Teilen zusammensetzt: a) erster Teil der schriftlichen Fragebogenerhebung, b) Rezeption der Vermittlungskonzepte, c) Free Recall, Cued Recall und offene Fragen sowie d) zweiter Teil der schriftlichen Fragebogenerhebung (vgl. Abb. 15).
Film 1
− Free Recall − Cued Recall − Subj. Verständlichkeitsbewertung
Film 2
− Free Recall − Cued Recall − Subj. Verständlichkeitsbewertung
Film 3
− Free Recall − Cued Recall − Subj.Verständlichkeitsbewertung
Fragebogenteil 1 EG 1
EG 2
EG 3
− Allgemeines und spezielles Themeninteresse − Vorwissensstand − TV-Genrenutzung
Fragebogenteil 2 − Beitragsbewertung I − Persönliche Themenrelevanz − Beitragsbewertung II − Allgemeine Mediennutzung − TV-Nutzung − Bekanntheit und Nutzung TV-Wissenschaftsmagazine − Soziodemographisches
Zeitachse
Abbildung 15: Ablaufplan des Experiments
Nach einer kurzen einleitenden Phase, in der eine vertrauensvolle, offene und entspannte Atmosphäre geschaffen werden sollte, folgt der erste Teil der Fragebogenerhebung. Dieser enthält Fragen zu Themeninteressen, Interesse für bestimmte Sendungsarten sowie einen Wissenstest über molekularmedizinischen Grundlagen und Anwendungsgebiete. Nach Beendigung des ersten Fragebogenteils wurde den Probanden jeweils eines der Vermittlungskonzepte auf dem Fernseher vorgeführt. Instruktionen
Untersuchungsanlage
183
erhielten die Probanden nicht, sie wurden lediglich gebeten, den Fernsehbeitrag anzusehen. Nach der Rezeption der Vermittlungskonzepte folgten ein mündlicher Free Recall und Cued Recall. Die Fragen des Cued Recalls beziehen sich auf zentrale Sinneinheiten des jeweiligen Films. Anschließend wurden die Probanden nach ihren individuellen Bewertungen und Schlussfolgerungen zum Filmthema befragt. Der letzte Teil der mündlichen Befragung bezieht sich auf die subjektiv empfundene Verständlichkeit des Films. Dazu wurden die Probanden gebeten, die Verständlichkeit des Films auf einer fünfstufigen Skala zu bewerten und ihre Einschätzung anschließend mündlich zu begründen. Nach Beendigung der mündlichen Befragung wurde der zweite Teil des Fragebogens ausgehändigt. Darin wird in geschlossener Form nach den subjektiven Verständlichkeitsbewertungen, der persönlichen Themenrelevanz, Medien- und Fernsehnutzung sowie nach soziodemographischen Angaben gefragt.
(5) Datenaufbereitung der Verbaldaten und offenen Nennungen Der mündliche Teil der Befragung (Free Recall, Cued Recall, Bewertungen, Schlussfolgerungen, subjektive Verständlichkeitsbewertungen) wurde auf Tonband aufgezeichnet und im Anschluss an die Erhebung wörtlich transkribiert. Sämtliche Verbaldaten wurden anschließend inhaltsanalytisch kategorisiert und codiert.
a. Verbaldaten des Free und Cued Recalls Zur Bildung der Indikatoren zum Vermittelten Verstehen (Analysestufe 1) wurden Referenzantworten formuliert, die die zentralen Inhalte der Filme zusammenfassen. Diese gelten als Vergleichsmaßstab für die Beurteilung der Verstehensleistungen. Die Grundlage für die Referenzantworten bilden die Sequenzlisten und Einstellungsprotokolle der Verständlichkeitsanalyse (vgl. Kap. 8.2). Sie stellen eine adäquate Basis für die Bildung der Referenzantworten zur Verfügung, da über die Gruppen hinweg Antworten mit vergleichbarem Abstraktionsniveau formuliert werden konnten. Für die Codierung des Vermittelten Verstehens wurde dann ein Codierbuch entwickelt, mit dem die Antworten der Probanden auf der Grundlage der Referenzantworten auf Vollständigkeit, Abstraktionsgrad, Reproduktionsorganisation und Reproduktionsverknüpfung geprüft und beurteilt werden (vgl. Anhang, Codierbuch). Da angenommen wird, dass sich im Free und Cued Recall nicht nur
184
Methodik der Verstehensanalyse
Vermitteltes, sondern auch Integratives Verstehen äußern kann, enthält das Codierbuch zwei Kategorien zur Wissensaktivation, die die Antworten danach beurteilen, ob und welches Integrative Wissen angewendet wurde.
b. Verbaldaten der thematischen Bewertungen und Schlussfolgerungen Die Fragen nach den Bewertungen und Schlussfolgerungen stellen die zentralen Indikatoren für das Integrative Verstehen dar. Für die Auswertung wurde ein Codierbuch entwickelt, das die Antworten auf Aussagenebene codiert und eine Einteilung und Beschreibung des aktivierten Wissens vornimmt (vgl. Anhang, Codierbuch). Dabei wird zunächst die generelle Art der Wissensaktivation beurteilt, bei der eine der Ausprägungen das integrative Wissen darstellt. Aktiviert der Proband dieses integrative Wissen, wird es in einem weiteren Codierschritt weiter differenziert und schließlich anhand eines thematischen Stichworts inhaltlich erfasst.
c. Subjektive Verständlichkeitsbewertungen und Offene Nennungen Die Verbaldaten zu den subjektiven Verständlichkeitsbewertungen des Treatments („gut verständlich war“ vs. „nicht gut verständlich war“) und die Antworten auf die offene Frage („gut war“ vs. „nicht gut war“) wurden entsprechend des Untersuchungsziels ausgewertet. Dazu wurde ein Codierbuch entwickelt, das teils deduktiv und teils induktiv hergeleitete Kategorien enthält. Somit bildet das Codierbuch einerseits die zentralen Merkmale der Verständlichkeitsforschung ab. Zugleich wurden aber auch anhand eines regelgeleiteten und prozesshaften Vorgehens Kategorien gebildet, die sich an den Antworten der Probanden orientieren. So wurden die Antworten in ihre Einzelaussagen aufgegliedert, paraphrasiert und anschließend weiter verdichtet, so dass die jeweilige Aussage auf einen zentralen und charakteristischen Begriff reduziert werden konnte. Diesen Begriffen wurden abschließend numerische Codes zugewiesen (vgl. dazu Mayring 2007). Sämtliche Daten wurden auf ihre Güte geprüft und nach Beendigung der Codierung mit Hilfe der Statistiksoftware SPSS erfasst.
Überprüfung der Gütekriterien
185
9.3 Überprüfung der Gütekriterien Das Ziel einer Untersuchung ist, möglichst exakte und fehlerfreie Messwerte zu erhalten und Messfehler zu minimieren.86 Daher wurden auf Basis der klassischen Testtheorie eine Reihe von Kriterien entwickelt, die die Güte einer Messung beurteilen. Zwei der Gütekriterien werden in der Kommunikationswissenschaft am häufigsten verwendet: überprüft werden Reliabilität und Validität (vgl. Brosius/ Koschel 2003).
Reliabilität Mit der Reliabilität wird die Zuverlässigkeit einer Messung überprüft. Eine Messung wird dann als reliabel angesehen, wenn die wiederholte Messung mit dem Messinstrument zu gleichen Ergebnissen führt. Um die Reliabilität einer Messung überprüfen zu können, wurden eine Reihe unterschiedlicher KontrollKoeffizienten entwickelt. Einer der gebräuchlichsten Koeffizienten für die Reliabilitätsanalyse von Fragebogenskalen ist Cronbachs Alpha. Der Koeffizient misst die interne Konsistenz einer Skala und kann Werte zwischen 0 und 1 annehmen, wobei Werte ab 0.8 als hinreichend betrachtet werden. In den meistens Fällen werden aber auch Werte ab 0.7 akzeptiert (vgl. Brosius 2006: 800). Cronbachs Alpha wird für diejenigen Skalen ermittelt, aus deren Einzelitems eine Gesamtskala berechnet werden soll. Dies gilt im Rahmen dieser Studie für die beiden Bewertungsskalen zur subjektiven Verständlichkeit (semantisches Differenzial und Likert-Skala) sowie für die Skalen zur Messung des Vorwissens und der Nutzungshäufigkeiten von TV-Wissenschaftsmagazinen. Dazu wurden aus den beiden Bewertungsskalen zunächst diejenigen Items ausgeschlossen, die für die Analyse weniger geeignet waren. Letztendlich reduziert sich die Gesamtskala von vormals 36 Items auf 21 Items, deren -Wert nun 0.89 beträgt.87 Die -Werte der Vorwissensskala und der Nutzungshäufigkeiten von TV-Wissenschaftsmagazinen liegen jeweils bei 0.70, so dass davon auszugehen ist, dass die Skalen hinreichend zuverlässig sind. Die Reliabilitätsanalyse der Recall- und Cued-Recall-Codierungen sowie die Codierungen der thematischen Bewertungen und Schlussfolgerungen erfolgt 86
Messfehler sind Differenzen zwischen „wahren Werten“ und beobachteten Werten (vgl. Schnell et al. 2005). 87 Die Reliabilitätsanalysen der beiden Verständlichkeitsskalen ergaben bereits für die Originalskalen einen guten Cronbachs-Alpha-Wert: das semantische Differenzial weist einen Cronbachs-AlphaWert von 0,79 und die Likert-Skala einen Wert von 0,72 aus. Damit können die Skalenitems für die Messung der „subjektiven Verständlichkeitsbewertungen“ als hinreichend zuverlässig angesehen werden (vgl. Schnell et al. 2005: 153).
186
Methodik der Verstehensanalyse
mit dem Koeffizienten nach Holsti (vgl. Neuendorf 2002; Rössler 2005). Holstis Reliabilitätskoeffizient eignet sich insbesondere für die Reliabilitätsanalyse von zwei Codierern und wird berechnet, indem übereinstimmende Codierungen in Beziehung zur Gesamtzahl aller Codierungen gesetzt werden. Die Codierübereinstimmungen werden als Koeffizient zwischen 0 und 1 ausgewiesen. Im vorliegenden Fall wird die Forscher-Codierer-Reliabilität überprüft, die den Vorteil birgt, gleichzeitig auch die Validität einer Studie zu kontrollieren (vgl. Früh 2007). Insgesamt wurden jeweils 20 Prozent aller Codiereinheiten sowohl von der Forscherin als auch vom Codierer doppelt codiert. Die Reliabilitätsberechnungen wurden dann für jede Variable durchgeführt, deren Werte in Tabelle 13 dargestellt sind. C R* )
Variable
Anzahl der Ausprägungen
Reproduktion der Informationseinheiten
0.80
5, 6, 7
Vollständigkeit der Reproduktion
0.69
4
Abstraktionsgrad der Reproduktion
0.67
4
Reproduktionsorganisation
0.82
4
Reproduktionsverknüpfung
0.82
4
Wissensaktivation
0.77
4
Integratives Wissen
0.87
6
0.66
4
0.83
22
0.81
28
Themenbewertung Allgemeine Beitragsbewertung (gut/ schlecht)*
)
)
Verständlichkeit (gut vs. schlecht)* )
* Der Wert gibt die übereinstimmenden Codierentscheidungen der Einzelvariablen an.
Tabelle 13: Reliabilitätskoeffizienten (nach Holsti)
Insgesamt können die Reliabilitätskoeffizienten als gut bis akzeptabel bewertet werden. Die im Vergleich zu den übrigen Variablen relativ niedrigen Werte der Variablen „Vollständigkeit der Reproduktion“ (CR=0,69) „Abstraktionsgrad der Reproduktion“ (CR=0,67) und „Themenbewertung“ (CR=0,66) konnten trotz mehrmaliger Codierernachschulung nicht weiter verbessert werden.
Überprüfung der Gütekriterien
187
Validität Die Überprüfung der Validität ist im Vergleich zur Reliabilitätsanalyse wesentlich schwieriger. Unter Validität versteht man die Gültigkeit einer Messung. Es geht um die Frage, ob tatsächlich das gemessen wird, was gemessen werden soll. Ein Messinstrument ist dann valide, wenn das Ergebnis der Messung einen unmittelbaren und fehlerfreien Rückschluss auf den Ausprägungsgrad des zu erfassenden Merkmals zulässt (vgl. Schnell et al. 2005). Bei der Validitätsprüfung geht es aber nicht nur um das Messinstrument, sondern auch um inhaltliche Richtigkeit und sachlogische Gültigkeit, für die keine direkten Koeffizienten ermittelt werden können (vgl. Brosius/ Koschel 2003). Daher wird der Begriff Validität auch zur Beurteilung kommunikationswissenschaftlicher Experimente insgesamt verwendet. Bezogen auf die Skalen des Fragebogens zur subjektiven Verständlichkeitsbewertung wird von einer Inhaltsvalidität ausgegangen, da die Items sowohl theoretisch hergeleitet als auch in vorangegangenen Verständlichkeitsstudien verwendet wurden. Daher wird angenommen, dass das zu messende Konstrukt erschöpfend erfasst wurde. Dem Free und Cued Recall sowie den thematischen Bewertungen und Schlussfolgerungen wird ebenfalls Inhaltsvalidität bescheinigt, da die Fragen das zu interessierende Merkmal augenscheinlich repräsentieren (vgl. Bortz/ Döring 2006). Da die Antworten allerdings inhaltsanalytisch erfasst wurden, müssen die Codierkategorien ebenfalls geprüft werden. Dies geschieht u.a. über die Forscher-Codierer-Validität, wie sie Früh vorschlägt (vgl. Früh 2007). Wie bei der Reliabilitätsanalyse geht es auch hier darum, den Grad der übereinstimmenden Codierungen zu messen. Die Annahme ist, dass übereinstimmende Codierungen des Codierers das theoretische Konstrukt des Forschers validieren.88 Somit kann auf Basis der in Tabelle 12 dargestellten Reliabilitätskoeffizienten davon ausgegangen werden, dass die Codierkategorien valide sind. Da sich allerdings mit der Forscher-Codierer-Validität keine InferenzInterpretationen überprüfen lassen, müssen die Ergebnisse der Studie mit Ergebnissen vergleichbarer Studien auf ihre Validität geprüft werden. Ein weiteres Validitätskriterium, das insbesondere bei experimentellen Untersuchungen zum tragen kommt, ist die Prüfung der internen und externen Validität. Während eine hohe interne Validität Kausalaussagen darüber zulässt, ob die abhängigen Variablen „subjektive Verständlichkeitsbewertungen“ und „Ver88
Dieser Validitätsbegriff unterscheidet sich von klassischen Validitätsdefinitionen. Diese eher konstruktivistische Sichtweise geht davon aus, dass es einen unmittelbaren Zugang zur Realität nicht gibt und jeder über ein eigenes Realitätsmodell verfügt. Die theoretische Auseinandersetzung des Forschers mit dem Forschungsgegenstand führt zu einem kognitiven Realitätsmodell, das sich wiederum in dem von ihm konzipierten Codiersystem niederschlägt (vgl. Früh 2007).
188
Methodik der Verstehensanalyse
stehen“ auf die unabhängige Variable „Vermittlungskonzept“ zurückgeführt werden können, sagt die externe Validität etwas darüber aus, inwieweit sich die Ergebnisse generalisieren lassen (vgl. Brosius/ Koschel 2003). Allerdings gelingt es kaum, beide Gütekriterien perfekt zu erfüllen, da sich die Veränderung der einen Validität in der Regel auf die Veränderung der anderen Validität auswirkt (Bortz/ Döring 2006). Im vorliegenden Experiment wurde der externen Validität mehr Gewicht gegeben, da die verwendeten Treatments natürliche, nicht manipulierte TV-Wissenschaftsfilme darstellen. Gleichzeitig wurde aber auch versucht, die interne Validität weitestgehend zu sichern, in dem die Variablen der Vermittlungskonzepte kontrolliert werden. Darüber hinaus werden Kovariaten wie Vorwissen, Themeninteresse, Themenrelevanz und Fernsehnutzung in die Analysen einbezogen, was die interne Validität nochmals steigert (vgl. Wirth 1997; Trepte/ Wirth 2004). Insgesamt kann somit angenommen werden, dass die erhobenen Daten den Kriterien der Reliabilität und Validität entsprechen und die Ergebnisse der Studie angemessen interpretiert werden können. Bevor jedoch die erhobenen Daten ausgewertet werden können, müssen einige Auswertungsvoraussetzungen erfüllt werden, die im folgenden Kapitel erläutert werden. 9.4 Voraussetzungen der Datenauswertung Wie die Ergebnisse der Verständlichkeitsanalyse aus Kapitel 8.3 gezeigt haben, enthalten die drei Wissenschaftsfilme eine unterschiedliche Anzahl von Hauptund Subsequenzen. Das bedeutet, dass die Experimentalgruppen bei der Rezeption der Filme mit unterschiedlichen Informationsmengen konfrontiert werden. Unter der Annahme, dass viele Informationen schwieriger zu erinnern sind als wenige, führt dies dazu, dass der Schwierigkeitsgrad der Erinnerung und damit auch das Vermittelte Verstehen variiert. Um diesen Einfluss zu minimieren, werden die Reproduktionsleistungen der Experimentalgruppen im Free und Cued Recall anhand der durchschnittlichen Informationsmenge gewichtet. Damit kann sichergestellt werden, dass sich die Treatments hinsichtlich ihrer Vermittlungskonzepte unterscheiden, nicht jedoch im Schwierigkeitsgrad der erinnerbaren Informationen. Um einen adäquaten Vergleichsmaßstab zur Beurteilung der Reproduktionsleistungen zu erhalten, wurden für den Free Recall und Cued Recall (wie bereits in Kapitel 9.2 dargestellt) entsprechende Referenzantworten der erwartbaren Antworten formuliert. Dabei beziehen sich die Referenzantworten des Free Recalls auf die Inhalte der filmischen Hauptsequenzen, deren Summe die erwartete ideale Zusammenfassung der Filme durch die Probanden bildet. Die Refe-
Voraussetzungen der Datenauswertung
189
renzfassungen entsprechen also dem im Kapitel 9.1 beschriebenen kommunikatororientierten Verstehensbegriff. Die Gewichtung der Reproduktionsleistungen des Free Recalls erfolgt nun über die durchschnittliche Anzahl der Free RecallReferenzantworten, die in diesem Fall 6 beträgt. Daraus ergibt sich, dass im Vergleich zur Experimentalgruppe 1 (EG 1) die Erinnerungsleistungen der EG 2 nach oben und die der EG 3 nach unten gewichtet werden (vgl. Tab. 14). EG 1 EG 2 EG 3 Personal. Klassischer ExpertenFallbeispiel Lehrfilm Diskurs (Film 1) (Film 2) (Film 3) 6 7 5 Anzahl Referenzantworten 6/6 7/6 5/6 Gewichtungsberechnung Gewichtungsfaktor 1 1.17 0.83 Tabelle 14: Gewichtungsfaktoren der Reproduktionsleistungen im Free Recall
Mit dem Cued Recall wird das Vermittelte Verstehen anhand vier zentraler Informationseinheiten (IE) der Filme erfasst, wobei sich die definierten Informationseinheiten thematisch nicht nur auf eine, sondern auf mehrere Subsequenzen beziehen. Für jede Informationseinheit wurde ebenfalls eine Referenzfassung erwarteter Antworten verfasst, deren Umfang in allen drei Filmvarianten ähnlich verteilt ist: das „personalisierte Fallbeispiel“ enthält 11, der „klassisches Lehrfilm“ 10 und der „Experten-Diskurs“ 12 Referenzantworten (vgl. Tab. 15). Auf Basis der ungewichteten Verteilung der Informationsmenge ist somit davon auszugehen, dass der „klassische Lehrfilm“ am leichtesten und der „ExpertenDiskurs“ am schwierigsten zu erinnern ist. Das „personalisierte Fallbeispiel“ stellt den Durchschnitt dar.
190
Methodik der Verstehensanalyse
Die Gewichtung der Erinnerungsleistung im Cued Recall erfolgt nun für jede Informationseinheit getrennt, wobei sich der Gewichtungsfaktor aus dem Quotienten Gewichtungsfaktor =
Anzahl der Referenzantworten in einer Informationseinheit durchschnittliche Anzahl der Referenzantworten über alle Informationseinheiten
ergibt. Die durchschnittliche Anzahl der Referenzantworten über alle Informationseinheiten hinweg entspricht dem Wert 2.75. Die Gewichtungsfaktoren für die Erinnerungsleistungen verteilen sich demnach wie folgt (vgl. Tab. 16):
Voraussetzungen der Datenauswertung
191
Gewichtungsfaktoren der Referenzantworten Personal. Fallbeispiel (Film 1) 0.73 1.45 1.09 0.73
Klassischer Lehrfilm (Film 2) 0.73 0.73 1.09 1.09
ExpertenDiskurs (Film 3) 0.73 1.82 0.73 1.09
Informationseinheiten IE 1 IE 2 IE 3 IE 4 Gewichtungsfaktor 1 0.91 1.09 (gesamt) Tabelle 16: Gewichtungsfaktoren der Referenzantworten pro Informationseinheit beim Cued Recall
Die in dieser Form gewichteten Daten des Free und Cued Recalls sind intervallskaliert und weisen unterschiedliche Wertebereiche auf. Um die Ergebnisse jedoch vergleichen zu können, werden die Wertebereiche daher auf den einheitlichen Wertebereich 0 bis 9 normiert. Dabei verändern sich die gemessenen Werte in der Relation zueinander nicht. Insgesamt kann durch die Gewichtung der Informationsmenge sicher gestellt werden, dass etwaige Unterschiede der Ergebnisse zum Vermittelten und Integrativen Verstehen auf das jeweilige Vermittlungskonzept zurückgeführt werden können. Somit sind die wesentlichen Voraussetzungen für die Datenauswertung erfüllt. Daher können nun im folgenden Kapitel 10 die Ergebnisse der Studie vorgestellt werden.
10 Ergebnisse der Verstehensanalyse
Die Darstellung der Ergebnisse orientiert sich an den in Kapitel 9.1 beschriebenen Analysestufen und unterteilt sich in die Bereiche „Verstehen von Wissenschaftsfilmen“ (vgl. 10.1) und „Subjektive Verständlichkeitsbewertungen der Wissenschaftsfilme“ (vgl. Kap. 10.2). Kapitel 10.3 widmet sich abschließend dem „Zusammenhang zwischen Verstehen und subjektiven Verständlichkeitsbewertungen“. 10.1
Das Verstehen von Wissenschaftsfilmen
Verstehen wurde in Kapitel 9.1 als ein Konzept beschrieben, dass sich aus Vermitteltem und Integrativen Verstehen zusammenfügt. Während dem Vermittelten Verstehen ein kommunikatororientierter Verstehensbegriff zugrunde liegt, entspricht das Integrative Verstehen einem rezipientenorientierten Verstehensbegriff. Beide Verstehenstypen lassen sich anhand von Indikatoren kennzeichnen, die in den folgenden Kapiteln analysiert und schließlich zusammengefügt werden. Dabei wird untersucht, welchen Einfluss die Vermittlungskonzepte auf die beschriebenen Verstehensleistungen der Rezipienten haben. Die Ergebnisdarstellung widmet sich somit der Forschungsfrage 2. Kapitel 10.1.1 stellt dazu die Ergebnisse zum Vermittelten Verstehen dar, im Kapitel 10.1.2 folgen die Befunde zum Integrativen Verstehen. Abschließend wird aus beiden Verstehenstypen eine Gesamtverstehensleistung ermittelt und mit den Vermittlungskonzepten in Beziehung gesetzt (vgl. Kap. 10.1.3).
10.1.1 Vermittlungskonzepte und Vermitteltes Verstehen Um den Einfluss der Vermittlungskonzepte auf das Vermittelte Verstehen und damit auf die Kohärenzbildung der drei Experimentalgruppen analysieren zu können, wurde ein mündlicher Free Recall und Cued Recall durchgeführt. Während im Free Recall keine Abrufhilfe gegeben wurde, enthält der Cued Recall insgesamt vier stützende Fragen zu zentralen Informationseinheiten der Wissenschaftsfilme.
194
Ergebnisse der Verstehensanalyse
Wie in Kapitel 9.1 erläutert, lässt sich das Vermittelte Verstehen anhand der drei Dimensionen Vollständigkeit, Abstraktionsgrad und Abruforganisation der Reproduktion beschreiben. Mit der Vollständigkeit der Reproduktion wird gemessen, welche und wie viele der Filminhalte von den Probanden erinnert werden. Der Abstraktionsgrad gibt Auskunft darüber, in wie weit die Filminhalte bei der Reproduktion verdichtet werden. So können die Informationen relativ ausführlich oder aber auf einer sehr allgemeinen Ebene reproduziert werden, bei der u.U. zentrale Informationen verloren gehen. Die dritte Dimension bildet die Abruforganisation. Dabei geht es einerseits darum, inwieweit die Vermittlungskonzepte Einfluss auf die Reproduktionsstruktur nehmen und andererseits, ob die Reproduktionen semantisch verknüpft werden. In den folgenden Kapiteln werden die Ergebnisse des Vermittelten Verstehens anhand dieser drei Dimensionen vorgestellt. Dabei erfolgt die Analyse des Free Recalls und Cued Recalls zunächst getrennt voneinander, da es sich hierbei um unterschiedliche Reproduktionsleistungen der Probanden handelt. Die Befunde des Free Recalls zeigen, inwieweit Informationen abgerufen werden können. Der Cued Recall gibt hingegen Hinweise darauf, ob die Filminformationen in die bestehende Wissensstruktur integriert und abgespeichert wurden (vgl. Lang 2000). Anschließend werden die drei Dimensionen zu einem Gesamtindex des Vermittelten Verstehens zusammengeführt, um den Einfluss der Vermittlungskonzepte auf das Vermittelte Verstehen in einem Gesamtmodell analysieren zu können.
10.1.1.1 Vollständigkeit der Reproduktionen Die Vollständigkeit der Erinnerungsleistung der drei Experimentalgruppen wurde sowohl beim Free Recall als auch beim Cued Recall auf fünf Stufen codiert und analysiert.89 Die Grundlage der Vollständigkeitsbewertung bilden die jeweiligen Referenzfassungen der Referenzantworten. Die höchste Stufe der Vollständigkeit mit der Ausprägung „vollständig reproduziert“ wird erreicht, wenn die Reproduktion der Probanden den Referenzantworten entspricht. Es folgt die Stufe der „Auslassungen 1. Grades“ mit mindestens einer entsprechenden Referenzantwort. Reproduktionen, die nur untergeordnete Details wiedergeben, wurden mit „Auslassungen 2. Grades“ codiert. Die unterste Stufe bildet falsche oder fehlende Reproduktion. Mit der Codierung wurde jeder Stufe ein Punktwert zugewiesen, der die Ausprägungen entspre89
Während die Auswertungen beim Free Recall auf n=99 basieren, beträgt die Stichprobengröße beim Cued Recall n=98, da aufgrund von Aufzeichnungsproblemen der Cued Recall eines Probanden der Experimentalgruppe 2 nicht berücksichtigt werden konnte.
Das Verstehen von Wissenschaftsfilmen
195
chend ihrer Vollständigkeit gewichtet. So erhält „vollständig reproduziert“ 4 Punkte, „Auslassungen 1. Grades“ 2 Punkte und „Auslassungen 2. Grades“ einen Punkt. Falsche bzw. keine Reproduktionen erhalten jeweils 0 Punkte. Während im Cued Recall für jede der vier gestützten Informationseinheiten die Reproduktionen getrennt codiert wurden, erhält der Free Recall einen Gesamtwert. Daraus ergeben sich für jeden Probanden fünf Punktwerte, die mit den in Kapitel 9.4 dargestellten Gewichtungsfaktoren gewichtet werden.90 Aus den vier gewichteten Punktwerten des Cued Recalls wird anschließend ein additiver Index gebildet, so dass jeder Proband abschließend einen Gesamtpunktwert für den Free Recall und einen für den Cued Recall erhält. Da sich die Wertebereiche beider Recalls unterscheiden, werden sie in einem letzten Schritt jeweils auf einen gemeinsamen Wertebereich von 0 bis 9 normiert, um die Reproduktionsleistungen vergleichbar zu machen. Die Ergebnisse beim Free Recall zeigen, dass sich die Vollständigkeit der Erinnerung in der Gruppen hochsignifikant unterscheidet (H(2) = 22.351, p