Mark Trappmann · Hans J. Hummell · Wolfgang Sodeur Strukturanalyse sozialer Netzwerke
Studienskripten zur Soziologie ...
29 downloads
971 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Mark Trappmann · Hans J. Hummell · Wolfgang Sodeur Strukturanalyse sozialer Netzwerke
Studienskripten zur Soziologie Herausgeber: Prof. Dr. Heinz Sahner, Dr. Michael Bayer und Prof. Dr. Reinhold Sackmann begründet von Prof. Dr. Erwin K. Scheuch †
Die Bände „Studienskripten zur Soziologie“ sind als in sich abgeschlossene Bausteine für das Bachelor- und Masterstudium konzipiert. Sie umfassen sowohl Bände zu den Methoden der empirischen Sozialforschung, Darstellung der Grundlagen der Soziologie als auch Arbeiten zu so genannten Bindestrich-Soziologien, in denen verschiedene theoretische Ansätze, die Entwicklung eines Themas und wichtige empirische Studien und Ergebnisse dargestellt und diskutiert werden. Diese Studienskripten sind in erster Linie für Anfangssemester gedacht, sollen aber auch dem Examenskandidaten und dem Praktiker eine rasch zugängliche Informationsquelle sein.
Mark Trappmann Hans J. Hummell Wolfgang Sodeur
Strukturanalyse sozialer Netzwerke Konzepte, Modelle, Methoden 2., überarbeitete Auflage
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
1. Auflage 2005 2., überarbeitete Auflage 2011 Alle Rechte vorbehalten © VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH 2011 Lektorat: Frank Engelhardt VS Verlag für Sozialwissenschaften ist eine Marke von Springer Fachmedien. Springer Fachmedien ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.vs-verlag.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Druck und buchbinderische Verarbeitung: Ten Brink, Meppel Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in the Netherlands ISBN 978-3-531-16964-4
Vorwort zur ersten Auflage
Der vorliegende Text ist eine systematische Einführung in die Konzepte, Modelle und Methoden der Netzwerkanalyse als einem Instrumentarium der Analyse sozialer Strukturen. Dabei liegt der Schwerpunkt eindeutig auf den Methoden. Diese sollen möglichst verständlich dargestellt werden. Zu diesem Zwecke kann man auf Formeln nicht verzichten; wir haben uns aber bemüht, Formeln durchgehend ausführlich zu erläutern und deren Motivation verständlich zu machen. Sämtliche der vorgestellten Methoden werden konsequent an demselben Beispiel illustriert und die Berechnung von Indizes entweder per Hand oder unter Angabe aller Einzelheiten mit der frei verfügbaren Software UCINET IV ausführlich dargestellt. Somit hoffen wir, dass methodisch interessierte Sozialwissenschaftler in die Lage versetzt werden, die Verfahren der Netzwerkanalyse zu verstehen und die einschlägigen Berechnungen selbst durchführen zu können, ohne sich in die Grundlagen mathematischer Teildisziplinen wie die Graphentheorie einarbeiten zu müssen. Als Einführung kann dieser Text nicht den Anspruch erheben, eine vollständige Übersicht über Begriffe, Modelle und Methoden der Netzwerkanalyse zu sein. Für die von uns behandelten einzelnen Begriffe gilt jedoch immer, dass diese zunächst erläutert und verschiedene Methoden zur Messung entsprechender Eigenschaften geschildert werden. Dann werden die eingeführten Begriffe und Messkonzepte durchgehend an einem einheitlichen Datensatz illustriert, der einer in der Netzwerkanalyse sehr bekannten Längsschnittstudie des Sozialpsychologen Theodore M. Newcomb über die Entstehung eines Beziehungsnetzes unter Studienanfängern entnommen ist. Somit bietet der Text für die Anwendung der Netzwerkanalyse keine unterschiedlichen oder ad hoc konstruierten Beispiele, sondern die konsequente Arbeit am gleichen Datensatz. Da wir uns in unserer Darstellung auf nur ein inhaltliches Beispiel beschränken, findet man im Kapitel 7 eine ergänzende Literaturliste mit ausgewählten Studien zur Netzwerkanalyse. Des Weiteren findet man ein Glossar zur Erläuterung wichtiger graphen- und netzwerktheoretischer Begriffe sowie sämtliche von uns verwandten empirischen Daten einschließlich wichtiger Datentransformationen. Damit können fast alle der von uns durchgeführten Analysen in allen Einzelheiten mit UCINET IV nachvollzogen werden.
6
Vorwort
Den Autoren von UCINET IV danken wir, dass sie der Verwendung ihres Software-Pakets durch uns zugestimmt haben.
Mark Trappmann Hans J. Hummell Wolfgang Sodeur Duisburg, Essen und Konstanz August 2005
7
Vorwort zur zweiten Auflage
Auch die zweite Auflage des hier vorgelegten Lehrbuches behandelt ausschließlich die theoretischen Konzepte, Modelle und Methoden einer strukturellen Analyse sozialer Netzwerke, und zwar im Sinne von Gesamtnetzwerken. Dies impliziert, dass sowohl auf die Darstellung der Probleme einer Analyse Egozentrierter Netze verzichtet wird als auch auf die Behandlung einschlägiger Strategien zur Datenerhebung. Für die Drucklegung wurde der Text durchgesehen. Neben der Beseitigung offensichtlicher Fehler und sachlicher Ungenauigkeiten wurden an etlichen Stellen Reformulierungen und Ergänzungen vorgenommen, um die Verständlichkeit zu verbessern. Des Weiteren wurden die Software- und Literaturhinweise aktualisiert. Schließlich wurde auf möglichst vollständige Berücksichtigung der einschlägigen englischen Fachausdrücke im Text, Glossar und Register geachtet. Was die Gliederung in Kapitel und deren Abfolge betrifft, so haben wir keine Umstellung vorgenommen, obwohl wir zunehmend zur Überzeugung gelangt sind, dass eine sachliche Konzentration auf die beiden großen Themenbereiche „Identifikation kohäsiver Teilgruppen aufgrund der Verbundenheit der Akteure“ und „Klassifikation von Akteuren aufgrund der Ähnlichkeit ihrer strukturellen Einbindung“ angemessener wäre. Dies hätte eine Zusammenführung von Kapitel 2 über „Prestige und Zentralität“ mit Kapitel 4 über „Positionen und Rollen“ nahegelegt. Einen Hinweis hierzu geben wir am Ende von Kapitel 2. Dennoch folgen wir weiterhin der in der herrschenden Lehrbuchliteratur üblichen Gliederung, damit die vorliegende Darstellung an diese Literatur anschlussfähig bleibt. Schließlich haben wir uns entschlossen, wie in der 1. Auflage so gut wie alle Analysen unverändert mit dem unter dem Betriebssystem DOS laufenden Programm UCINET IV durchzuführen 1, obwohl das in Zeiten von Windows antiquiert anmuten könnte. Dafür spricht die freie Verfügbarkeit von UCINET IV. 1
S.P. Borgatti, M.G. Everett und L.C. Freeman 1994. Die freie DOS-Version ist im Internet unter www.analytictech.com/free_software.htm zugänglich. Einen Link zur Seite von UCINET IV und zu weiterer, insbesondere freier Software zur Netzwerkanalyse findet man unter http://www.uni-duisburg-essen.de/hummell/sna/ bzw. http://www.uni-duisburg-essen.de/sodeur/sna/. Diese und alle anderen Internetadressen sind auf dem Stand vom 31. Mai 2010.
8
Vorwort
Im Übrigen dürfte UCINET IV auch in der DOS-Box vieler Linux-Varianten (wie z.B. OpenSuse, Ubuntu) laufen. Falls unter neueren Windows-Versionen UCINET IV nicht mehr (wie unter Windows XP) problemlos im DOS-Fenster läuft, sollte man es mit einem Programm versuchen, das unter Windows eine DOS-Umgebung zur Verfügung stellt 2 und UCINET IV in dieser Umgebung ausführen. Nutzer der Windows-Version 3 von Ucinet finden die zur Analyse mit dieser Version erforderlichen Hinweise ebenfalls im vorliegenden Text. Hinweise zu Datenformaten der von uns verwandten Programme findet man im Anhang. Mark Trappmann Hans J. Hummell Wolfgang Sodeur Duisburg und Nürnberg Juli 2010
2
Z.B. das frei verfügbare Programm „DosBox Portable“ (aktuelle Version 0.73) Studierende können die aktuelle Version Ucinet 6 for Windows (S.P. Borgatti, M.G. Everett und L.C. Freeman 2002) unter http://www.analytictech.com/ für 40 US$ beziehen oder 60 Tage lang kostenlos nutzen. 3
Inhalt Überblick Vorwort zur ersten Auflage ......................................................... 5 Vorwort zur zweiten Auflage....................................................... 7 1 Einleitung ............................................................................. 15 2 Prestige, Zentralität und Zentralisierung .......................... 27 3 Kohäsive Teilgruppen.......................................................... 73 4 Positionen und Rollen ........................................................ 101 5 Stochastische Modelle für Dyaden und Triaden ............. 181 6 Fazit ..................................................................................... 217 7 Empfehlungen zur Vertiefung .......................................... 223 Literaturverzeichnis ................................................................. 239 Glossar (Fachbegriffe der Netzwerkanalyse) ......................... 251 Anhang A (Datensätze der Newcomb Fraternity) ................. 269 Anhang B (Hinweise zu den Datenformaten von UCINET, PAJEK, VISONE, NETZDIAL) ............................................. 281 Anhang C (Matrix-Algebra-Befehle in UCINET) ................. 285 Personenregister ....................................................................... 287 Sachregister ............................................................................... 293
Inhaltsverzeichnis Vorwort zur ersten Auflage ......................................................... 5 Vorwort zur zweiten Auflage....................................................... 7 1 Einleitung.............................................................................. 15 1.1 1.2
2
3
Netzwerkanalyse in den Sozialwissenschaften 15 T.M. Newcombs Studie zur Entstehung von Freundschaftsnetzen unter Studienanfängern .....................................19 1.2.1 Die erhobenen Daten ..................................................................19 1.2.2 Bisherige Auswertungen von Newcombs Datensatz ..................20 1.3 Das Ziel dieses Textes ........................................................................21 1.3.1 Zur Verwendung von UCINET ..................................................21 1.3.2 Grundlegendes zu den folgenden Analysen des Newcomb-Datensatzes ...............................................................23
Prestige, Zentralität und Zentralisierung .......................... 27
2.1 Prestige in der Newcomb Fraternity ...................................................28 2.1.1 Degree-Prestige in der Newcomb Fraternity und seine zeitliche Entwicklung .................................................................32 2.1.2 Prestige in der 14. Woche ...........................................................36 2.1.3 Rank-Prestige in der Newcomb Fraternity .................................38 2.2 Zentralität in der Newcomb Fraternity ...............................................45 2.2.1 Closeness Centrality (für symmetrische Beziehungen) ..............48 2.2.2 Betweenness Centrality (für symmetrische Beziehungen) .........54 2.2.3 Betweenness Centrality für gerichtete Beziehungen ..................61 2.2.4 Zusammenfassung zur Zentralität...............................................63 2.3 Zentralisierung der Newcomb Fraternity............................................66 2.4 Zusammenfassung zu Prestige, Zentralität und Zentralisierung .........70 2.5 Schlussbetrachtung .............................................................................72
Kohäsive Teilgruppen.......................................................... 73
3.1 Cliquen ...............................................................................................73 3.1.1 Cliquenanalyse im Zeitverlauf....................................................77 3.1.2 Exkurs zu Signifikanztests in sozialen Beziehungsnetzen ..........81 3.1.3 Cliquenanalyse für die 14. Woche ..............................................83 3.2 n-Cliquen und n-Clans ........................................................................84 3.2.1 2-Clans im Zeitverlauf ................................................................87 3.2.2 2-Clans in Woche 14 ..................................................................88
12
4
Inhaltsverzeichnis
3.3 k-Plexe ................................................................................................89 3.3.1 2-Plexe im Zeitverlauf ................................................................90 3.3.2 2-Plexe in Woche 14...................................................................91 3.4 Komponenten .....................................................................................92 3.5 Übersicht über Teilgruppenkonzepte ..................................................93 3.6 Einige weitere Teilgruppenkonzepte für gerichtete Graphen .............95 3.7 Zusammenfassung der Teilgruppenanalyse ......................................100
Positionen und Rollen ........................................................ 101
4.1 Äquivalenzen in sozialen Netzwerken..............................................105 4.1.1 Strukturelle Äquivalenz ............................................................106 4.1.2 Automorphe Äquivalenz...........................................................107 4.1.3 Reguläre Äquivalenz ................................................................111 4.1.4 Die Äquivalenzkonzepte in ihren logischen Beziehungen zueinander ...........................................................112 4.2 Ähnlichkeiten in sozialen Netzwerken .............................................114 4.2.1 Ähnlichkeitsverfahren für strukturelle Äquivalenz ..................115 4.2.1.1 Der Algorithmus CONCOR ................................................115 4.2.1.2 Ähnlichkeit von Profilen (profile similarity) und hierarchisches Klassifizieren........................................117 4.2.2 Ähnlichkeitsverfahren für automorphe Äquivalenz..................127 4.2.2.1 Geodesic Equivalence ..........................................................128 4.2.2.2 Maxsim ................................................................................132 4.2.2.3 Positionen in triadischen Umgebungen ................................135 4.2.3 Ähnlichkeitsverfahren für reguläre Äquivalenz........................139 4.2.3.1 Positionen in triadischen Umgebungen ................................141 4.2.3.2 Ein Ähnlichkeitsverfahren für reguläre Äquivalenz: REGE 143 4.3 Zusammenfassung: Entscheidungen bei einer Positionsanalyse ......146 4.4 Blockmodelle und Bildmatrizen .......................................................147 4.5 Ein Blockmodell für die Struktur der Newcomb Fraternity in der 14. Woche ..............................................................................151 4.6 Rollenstruktur in der 14. Woche.......................................................158 4.7 Kritischer Rückblick auf die Analyse von Positionen und Rollen für die 14. Woche..................................................................165
Inhaltsverzeichnis
13
4.8
Exkurs: Positionen in triadischen Umgebungen unter inhaltlich begründeter Auswahl „bedeutsamer“ Struktureigenschaften ....166 4.8.1 Positionen in triadischen Umgebungen ....................................167 4.8.2 Beispiele inhaltlich begründeter Äquivalenzregeln für Positionstypen .....................................................................169 4.8.3 Positionenzensus für die Newcomb Fraternity für Woche 14 ..175
5
6
7
Stochastische Modelle für Dyaden und Triaden ............. 181 5.1 Untersuchung der Freundschaftsbeziehung auf Symmetrie .............182 5.1.1 Häufigkeiten der Dyadentypen im Zeitverlauf .........................184 5.1.2 Stabilität der verschiedenen Dyadentypen ................................185 5.1.3 Vergleich der beobachteten Häufigkeiten mit den von einem Zufallsmodell vorhergesagten Häufigkeiten ..................190 5.2 Der Triadenzensus ............................................................................192 5.3 Triadenzensus für die Newcomb Fraternity .....................................199 5.4 Testen von Hypothesen über die Gruppenstruktur mit Hilfe des Triadenzensus ...................................................................202 5.4.1 Testen auf Transitivität .............................................................202 5.4.1.1 Transitivität einer Relation...................................................202 5.4.1.2 Transitivität von Freundschaftsbeziehungen ........................203 5.4.1.3 Konfigurationen ...................................................................204 5.4.1.4 Transitivität in der Newcomb Fraternity ..............................205 5.4.1.5 Eine Statistik für das Testen von Hypothesen auf der Ebene von Triaden ...................................................206 5.4.1.6 Testen der Transitivitätshypothese für die Newcomb Fraternity ............................................................209 5.4.2 Testen der Wahlen mutueller Freunde auf Übereinstimmung .212 5.4.3 Testen aller Wahlen auf Übereinstimmung ..............................214 5.5 Zusammenfassung zur Analyse von Dyaden und Triaden ...............216
Fazit ..................................................................................... 217
6.1 6.2 6.3
Struktur der Newcomb Fraternity in Woche 14................................217 Die zeitliche Entwicklung der Struktur ............................................220 Grundsätzliche Anmerkungen zu den Schlussfolgerungen ..............220
7.1 7.2 7.3
Lehrbücher, Kompendien und Zeitschriften zur Netzwerkanalyse ..230 Einige ausgewählte Netzwerkstudien ...............................................232 Software zur Analyse sozialer Netzwerke ........................................234
Empfehlungen zur Vertiefung .......................................... 223
14
Inhaltsverzeichnis
Literaturverzeichnis ................................................................. 239 Glossar (Fachbegriffe der Netzwerkanalyse) ......................... 251 Anhang A (Datensätze der Newcomb Fraternity)................... 269 Anhang B (Hinweise zu den Datenformaten von UCINET, PAJEK, VISONE und NETZDIAL) ..................... 281 Anhang C (Matrix-Algebra-Befehle in UCINET) ................. 285 Personenregister ....................................................................... 287 Sachregister ............................................................................... 293
1
1.1
Einleitung
Netzwerkanalyse in den Sozialwissenschaften
Anfang der dreißiger Jahre des vergangenen Jahrhunderts entwickelte der Sozialpsychologe J.L. Moreno mit Unterstützung durch H.H. Jennings einen wichtigen Vorläufer der Netzwerkanalyse: die Soziometrie (J.L. Moreno 1934). Ziel der Soziometrie war es, die (insbesondere affektive) Struktur von Gruppen von Personen aufzudecken. Mittel hierzu war das Soziogramm, in dem die Mitglieder einer Gruppe als Punkte und die zwischen ihnen bestehenden Beziehungen als Linien zwischen den Punkten dargestellt wurden. Dabei wurden auch einfache Indizes für die Stellung einzelner Personen innerhalb dieser Soziogramme von J.L. Moreno entwickelt (J.L. Moreno und H.H. Jennings 1938) 4. In den folgenden Jahrzehnten erweiterten Wissenschaftler unterschiedlicher Disziplinen (Anthropologen, Politikwissenschaftler, Soziologen, Biologen, Psychologen, Physiker) – teilweise in Zusammenarbeit mit Mathematikern – in ihrem Feld dieses Rahmenwerk (S. Wasserman und K. Faust 1994: 10ff). Sie nutzten eine mathematische Theorie, die Graphentheorie, um aus den beobachteten sozialen Beziehungen zwischen einzelnen sozialen Akteuren (das können wie bei J.L. Moreno Individuen sein, aber auch soziale Gebilde, etwa Gruppen oder Organisationen) komplexere Indizes für die Stellung der Akteure
4
Einen sehr gründlichen Überblick über die Geschichte der Netzwerkanalyse gibt L.C. Freeman (2005). L.C. Freeman weist darauf hin, dass einige soziometrische bzw. netzwerkanalytische Konzepte bereits vor J.L. Moreno entwickelt worden waren, würdigt J.L. Moreno jedoch als – neben der weniger bekannt gewordenen Gruppe um W.L. Warner in Harvard - ersten, bei dem alle vier definierenden Elemente der Netzwerkanalyse, nämlich eine strukturelle Intuition, die Verwendung systematisch gesammelter empirischer Daten, graphischer Verfahren und mathematischer Modelle vorhanden waren. Die mathematischen Modelle wurden allerdings erst in einer späteren Arbeit in Zusammenarbeit mit H.H. Jennings und P.F. Lazarsfeld (J.L. Moreno und H.H. Jennings 1938) entwickelt (vgl. L.C. Freeman 2005, 39).
M. Trappmann et al., Strukturanalyse sozialer Netzwerke, DOI 10.1007/978-3-531-92656-8_1, © VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH 2011
16
1 Einleitung
sowie Strukturmerkmale 5 des gesamten Netzes zu konstruieren, und diese wiederum als erklärende oder zu erklärende Variablen in Erklärungsmodellen ihrer jeweiligen Disziplin zu verwenden. Als soziales Netzwerk 6 bezeichnet man dabei eine zuvor genau definierte Menge von Akteuren und eine (oder mehrere) zwischen ihnen bestehende Beziehung. Gegen Ende der 1970er Jahre war es gelungen, die Bemühungen in den einzelnen Disziplinen zu einer „vereinheitlichten und anerkannten Perspektive“ zusammen zu führen (L.C. Freeman 2005, 163), die seitdem unter dem Namen „Social Network Analysis“ bekannt ist 7. In der deutschen Übersetzung ist der Begriff der Netzwerkanalyse gebräuchlich; eine dem englischen Begriff nähere alternative Bezeichnung lautet „Analyse sozialer Netzwerke“. Obwohl das Hauptaugenmerk der theoretischen Sozialwissenschaften schon immer auf den sozialen Strukturen gelegen hatte, konzentrierten sich die Datenanalysemethoden der empirischen Sozialwissenschaften vor der Entwicklung der Netzwerkanalyse auf die Akteure und deren Eigenschaften. Die Eigenschaften einer Gruppe von Akteuren wurden oft als durchschnittliche Werte der individuellen Eigenschaften der Akteure oder durch andere Aggregationsverfahren berechnet. Mit Hilfe der Netzwerkanalyse gelang es dann endlich, das theoretische Erkenntnisinteresse an sozialen Strukturen in Analysemethoden umzusetzen. Linton C. Freeman beschreibt das in einer Würdigung der Netzwerkanalyse: “ […] the social networks perspective explicitly focuses on the truly social part of behavior - on the patterns of social relations that link individual actors together into structures. Social network analysis is the study of how such structures emerge, evolve and exhibit consequences for behavior.” (L.C. Freeman 1984: 343)
Der Begriff des sozialen Netzwerks als einer spezifischen Menge von Beziehungen zwischen einer klar definierten Menge von Personen (vgl. J.C. Mitchell 1969: 2) macht es der Analyse durch mathematische Methoden zugänglich. Dies hat den Vorteil: “ [...] the form of the argument can be stated separately, the axioms can be set down and the theorems explicitly derived. The reasoning is 5
Ein Strukturmerkmal eines Kollektivs soll dabei nach P.F. Lazarsfeld und H. Menzel als ein Merkmal verstanden werden, das auf Daten über Beziehungen zwischen den Elementen des Kollektivs basiert (P.F. Lazarsfeld und H. Menzel 1961: 503). 6 Alle im Glossar ausführlich erläuterten Terme werden beim jeweils ersten Auftreten in einem Kapitel fett gedruckt. 7 Dieser Name verbirgt ein wenig das große Ausmaß an Transdisziplinarität und Interdisziplinarität der Netzwerkanalyse. Weiterhin stammen zahlreiche Beiträge von Biologen, Physikern und Informatikern und beschäftigen sich mit Netzwerken, die höchstens im weitesten Sinne als sozial zu bezeichnen sind (beispielsweise Netzwerke von Körper- oder Pflanzenzellen oder Computern).
1 Einleitung
17
clear and concise and the possibility of getting bogged down in the complexity of the argument or having the logic contaminated by the substance of the application is removed.” (L.C. Freeman 1984: 345). Es gelang infolgedessen, mit Hilfe der Netzwerkanalyse Begriffe, die bis dahin vage geblieben waren und teils metaphorisch benutzt wurden, genau zu definieren und als “Forschungswerkzeuge” (“research tools”, L.C. Freeman 1984) nutzbar zu machen. Dazu gehören wichtige soziologische Begriffe wie Rolle, Position, Prestige oder Clique. Seit den neunziger Jahren ist sowohl die Verwendung des Netzwerkbegriffs, der zu großen Teilen immer noch lediglich metaphorisch gebraucht wird, als auch die Zahl der Anwendungen und Gegenstandsbereiche der Netzwerkanalyse geradezu explodiert. Inhaltlich beschäftigen sich diese Anwendungen mit so unterschiedlichen Themengebieten wie der Untersuchung von Unternehmensverflechtungen (u.a. F.N. Stokman, R. Ziegler und J. Scott 1985), Weltwirtschaftsbeziehungen (u.a. D. Smith und D. White 1992), der Struktur von Verwandtschaftsbeziehungen (H.C. White 1963), Sozialkapital und sozialer Unterstützung (u.a. B. Wellman und S. Wortley 1990), Auswirkungen der Gruppenstruktur auf Gruppenergebnisse (u.a. A. Bavelas 1950, H. Leavitt 1951, H.J. Hummell und W. Sodeur 2004), Diffusion und Innovation (u.a. J.S. Coleman, E. Katz und H. Menzel 1966), Politik- und Entscheidungsnetzwerken (u.a. B. Bueno de Mesquita und F.N. Stokman 1994), Zitationsnetzwerken von Wissenschaftlern (u.a. P. Doreian und T.J. Fararo 1985), Ansteckungen mit Krankheiten (u.a. A.S. Klovdahl u.a. 2001, J.A. Levy und B.A. Pescosolido 2002), Online Gruppen (u.a. U. Matzat 2001) und Terroristennetzwerken (u.a. V.E. Krebs 2002, M. Sageman 2004). Da wir uns in diesem Buch entschieden haben, alle Methoden durchgängig nur an einem Beispiel einzuführen, folgt in Kapitel 7 eine ergänzende Literaturliste mit ausgewählten Studien zur Netzwerkanalyse. Voraussetzung für die Anwendung der Graphentheorie auf soziale Netzwerke ist die Darstellung des sozialen Netzwerkes als Graph. Ein Graph besteht aus einer Menge von Knoten und einer Menge von Kanten zwischen Paaren von Knoten. Kanten sind ungeordnete Paare von Knoten. In der Anwendung auf soziale Netzwerke werden Akteure als Knoten repräsentiert. Die zu untersuchende Beziehung zwischen den Akteuren repräsentiert man als Kanten: Ist eine Beziehung zwischen zwei Akteuren a und b vorhanden, so nimmt man das ungeordnete Paar (a, b) in die Menge der Kanten des Graphen auf. Außer in Ausnahmefällen betrachtet man bei der Analyse sozialer Beziehungsnetze nur sogenannte schleifenfreie Graphen. Eine Schleife (auch Schlinge) in einem Graphen ist eine Kante (a,a). Dem würde eine Beziehung eines Akteurs zu sich selbst
18
1 Einleitung
entsprechen. Obwohl es in einzelnen Fällen sinnvoll sein kann, diese zu berücksichtigen, werden solche Beziehungen meist nicht zugelassen. In den wenigen Fällen, in denen wir in diesem Buch Schleifen ausnahmsweise zulassen, werden wir dies explizit erwähnen. Ein solcher (ungerichteter) Graph kann Beziehungen darstellen, bei denen es auf eine Richtung nicht ankommt oder bei denen die gerichteten Verbindungen immer symmetrisch sind. Ist eine Beziehung jedoch nicht symmetrisch, so ist sie als gerichteter Graph darzustellen. In einem gerichteten Graphen sind die ‚Kanten’ geordnete Paare von Knoten und man bezeichnet sie auch als Pfeile. Existiert eine Beziehung von Akteur a zu Akteur b, aber nicht von Akteur b zu Akteur a, so wird das Paar (a, b) in die Menge der Pfeile des Graphen aufgenommen, nicht aber das Paar (b, a). Der Pfeil (a, b) ist dann für Akteur a ein ausgehender Pfeil und für Akteur b ein eingehender Pfeil 8. Haben die erhobenen Beziehungsdaten mehr als zwei Ausprägungen, so kann das soziale Netzwerk als bewerteter Graph dargestellt werden. Hierbei wird jeder Kante ein Wert zugewiesen. Der bewertete Graph besteht dann aus einer Menge von Knoten, einer Menge von Kanten und einer ebenso großen Menge von Werten. Schließlich gibt es noch die Möglichkeit, eine Beziehung, die sowohl bewertet als auch gerichtet ist, als bewerteten und gerichteten Graphen darzustellen 9. Neben der Darstellung als Graph sind noch zwei weitere Darstellungen eines sozialen Netzwerkes in der Netzwerkanalyse üblich. Ein soziales Netzwerk kann algebraisch als Relation dargestellt werden. Dies ist aber nur für dichotome Beziehungen 10 möglich. Ist die Beziehung R von einem Akteur a zu einem Akteur b vorhanden, so bezeichnet man das mit aRb (= a steht in Relation R zu b). Darüber hinaus kann ein soziales Netzwerk als Matrix dargestellt werden. Dabei steht für dichotome Beziehungen in der i-ten Zeile an j-ter Stelle eine Eins, falls die Beziehung von Akteur i zu Akteur j vorhanden ist, und eine Null, falls nicht. Eine solche Matrix heißt Adjazenzmatrix (auch Soziomatrix), da man zwei Knoten i und j in einem Graphen als „adjazent“ bezeichnet, wenn die 8
Statt von Pfeilen spricht man sehr oft auch von „gerichteten“ Kanten. Mit dem Sonderfall bewerteter (gerichteter) Graphen, in denen die Beziehungen eine „positive“ bzw. „negative“ Bedeutung haben können, werden wir uns nicht separat beschäftigen. Diese Beziehungen werden oft mit „+“ bzw. “-„ (alternativ: „+1“ bzw. „-1“) kodiert; der betreffende Sonderfall eines bewerteten (gerichteten) Graphen wird im Englischen i.a. als ‚signed (directed) graph’ bezeichnet. 10 Beziehungen, die nur zwei Werte annehmen können; üblicherweise: (gerichtete) Beziehung anwesend = 1, (gerichtete) Beziehung abwesend = 0. 9
1 Einleitung
19
Kante (i, j) zur Menge der Kanten des Graphen gehört (die beiden Knoten also durch eine Kante miteinander verbunden sind). Für bewertete Beziehungen steht in i-ter Zeile an j-ter Stelle der Wert der Beziehung von Akteur i zu Akteur j. Eine solche Matrix nennt man ebenfalls Soziomatrix. Die Darstellung sozialer Netzwerke als Matrizen gewann mit der Entwicklung von Computern an Bedeutung. Die Verbreitung immer schnellerer Computer hat dafür gesorgt, dass die Netzwerkanalyse seit den siebziger Jahren des vergangenen Jahrhunderts einen besonderen Aufschwung mit einer Vielzahl von Publikationen und neuen Konzepten genommen hat. Es können nun auch komplizierte Rechenverfahren für große Netze mit vertretbarem Zeitaufwand durchgeführt werden. 1.2
T.M. Newcombs Studie zu r Entstehung von Freundschaftsnetzen unter Studienanfängern
Der Sozialpsychologe Theodore M. Newcomb führte 1954-1956 eine Studie zur Entstehung von Freundschaftsnetzwerken unter insgesamt 34 Studenten durch (vgl. T.M. Newcomb 1961, P. Nordlie 1958). In zwei aufeinanderfolgenden Jahren wählte T.M. Newcomb aus einer Schar von Bewerbern jeweils 17 männliche Studenten aus, die in einem eigens für dieses Projekt angemieteten Haus mietfrei wohnen durften, dafür jedoch 4 bis 5 Stunden pro Woche für Befragungen und Diskussionen zur Verfügung stehen mussten. Auswahlkriterium war dabei, dass die Studenten sich vorher nie begegnet sein durften, also völlige Fremde sein sollten. T.M. Newcomb versuchte dieses Ziel zu verwirklichen, indem er Studenten nur aus unterschiedlichen Städten auswählte. So sammelte T.M. Newcomb in jedem der beiden Jahre in einer natürlichen Umgebung über einen Zeitraum von jeweils 16 Wochen Daten, die Aufschluss geben sollten über den Ablauf des Kennenlernprozesses einander vormals unbekannter Individuen. Die Gruppen aus T.M. Newcombs Studie wurden als “Newcomb Fraternities” bekannt.
1.2.1
Die erhobenen Daten
Im Verlauf der Studie erhob T.M. Newcomb eine Vielzahl unterschiedlicher Daten über Einstellungen, Beliebtheit und Einschätzungen von Einstellungen anderer. Im Folgenden soll jedoch nur einer dieser Datensätze (Jahr 2) behandelt
20
1 Einleitung
werden. Dieser Datensatz wurde erstellt, indem jeder Student jeden anderen Studenten wöchentlich auf einer Skala von null bis hundert hinsichtlich der “favourableness” einschätzen sollte 11. Die Studenten wurden gebeten, keine Wertung doppelt zu vergeben, so dass T.M. Newcomb im Nachhinein für jeden Studenten aus seinen Antworten eine vollständige Rangfolge jeweils aller übrigen von ihm bewerteten Studenten erstellen konnte. Eine solche Rangfolge existiert für 15 von 16 Wochen, in denen die Studenten zusammenlebten. Die Wochen, für die Daten existieren, sind bei T.M. Newcomb und P. Nordlie nummeriert von null bis acht und von zehn bis fünfzehn. Für Woche neun existieren aufgrund von Ferien keine Daten. Die hier beschriebenen Rangfolgen liegen der folgenden Analyse als Datensatz zugrunde. Der Datensatz befindet sich in Anhang A.
1.2.2
Bisherige Auswertungen von Newcombs Datensatz
Der oben beschriebene Datensatz wurde seit seiner Erhebung bereits vielfach mit unterschiedlicher Zielsetzung ausgewertet. T.M. Newcomb selbst (1961) und P. Nordlie (1958) nutzten den Datensatz, um Hypothesen im Zusammenhang mit F. Heiders Balance Theory (F. Heider 1958) und den daraus entwickelten Erweiterungen T.M. Newcombs, der Theory of Communicative Acts (T.M. Newcomb 1953) und der Individual Systems of Orientation (T.M. Newcomb 1959), zu testen. Dabei interessierte beide hauptsächlich, wie sich die von Individuen angestrebte Ausgeglichenheit kognitiver Strukturen (cognitive balance) auf interpersonelle Beziehungen auswirkt. Die dabei benutzten Methoden sind jedoch nicht spezifisch netzwerkanalytisch, sondern es handelt sich um Standardmethoden und -statistiken wie etwa die Korrelation von Rangfolgen verschiedener Studenten oder verschiedener Wochen. In den nachfolgenden Jahren benutzten Netzwerkanalytiker den Datensatz häufig, um neue Konzepte und Methoden der Netzwerkanalyse an ihm zu illustrieren. P. Arabie, S.A. Boorman, R.L. Breiger, P.R. Levitt und H.C. White (R.L. Breiger, S.A. Boorman und P. Arabie 1975, S.A. Boorman und H.C. White 11 Da die Beziehungen eines jeden Befragten aus der gewählten Untersuchungspopulation zu allen anderen Befragten erhoben wurden, haben wir es mit einer Vollerhebung (aller Akteure und der betreffenden Beziehungen) zu tun. Solche Netze wie die der Newcomb Fraternity werden auch als „Gesamtnetzwerke“ bezeichnet im Unterschied zu „Ego-zentrierten Netzen“, die bei einer Auswahl einzelner Akteure anfallen (s. Kap. 7).
1 Einleitung
21
1976, H.C. White, S.A. Boorman und R.L. Breiger 1976 und P. Arabie, S.A. Boorman und P.R. Levitt 1978) nutzten den Datensatz, um ihre Algorithmen zum Klassifizieren von Beziehungsdaten zu erläutern und die Konzepte des Blockmodells und der Rollenstruktur einzuführen. S. Wasserman (1980) sowie A. Sanil, D. Banks und K. Carley (1995) demonstrierten anhand der NewcombDaten stochastische Modelle zur Veränderung von Netzwerken. T.A.B. Snijders (1990) nutzte die Daten als Beispiel für die Anwendung des von ihm entwickelten Tests auf Änderung eines gerichteten Graphen zwischen zwei Zeitpunkten, bei jeweils gegebenem Innengrad und Außengrad und gegebener Zahl mutueller Dyaden, asymmetrischer Dyaden und Nulldyaden. H.J. Hummell und W. Sodeur demonstrierten an den Daten ihre auf dem Triplettzensus basierenden Strategien zum Testen auf Transitivität (H.J. Hummell und W. Sodeur 1990, 1991) und ihre Strategie zur Integration von Netzwerk- und Mehrebenenanalyse (H.J. Hummell und W. Sodeur 1997, 2010). 1.3
1.3.1
Das Ziel dieses Textes
Zur Verwendung von UCINET
Dieser Text soll eine Einführung in zentrale Begriffe der Netzwerkanalyse bieten, ohne jedoch den Anspruch zu erheben, in dieser Hinsicht vollständig zu sein. Dabei werden die einzelnen Begriffe zunächst erläutert und verschiedene Methoden zu ihrer Messung vorgestellt. Dann werden die eingeführten Begriffe und Messkonzepte durchgehend am Datensatz der Newcomb Fraternity illustriert, so dass der Text nicht nur jeweils ad hoc konstruierte Beispiele für die Anwendung bietet, sondern die konsequente Arbeit an einem Datensatz mit Hilfe der Netzwerkanalyse vorstellt. Wichtige Begriffe der Netzwerkanalyse werden zudem im Glossar erläutert. Taucht ein Begriff zum ersten Mal auf, so weist die Tatsache, dass er fett gedruckt ist darauf hin, dass der entsprechende Begriff im Glossar zu finden ist. Hinzu kommt, dass es mit UCINET IV 12 ein frei verfügbares Software-Package gibt, mit dem fast alle hier durchgeführten Analysen nachvollzogen werden können. Daher wird im Folgenden jeweils auch dokumentiert, mit welchen Routinen aus diesem Programm das möglich ist und 12
S.P. Borgatti, M.G. Everett und L.C. Freeman 1994. Die freie Version, die unter dem Betriebssystem DOS läuft, ist im Internet unter www.analytictech.com/free_software.htm zugänglich.
22
1 Einleitung
welche Parameter dazu wie gewählt werden müssen. Die Dokumentationen findet man meist im Anschluss an die Vorstellung eines theoretischen Konzepts in Petit-Schrift. Während der Arbeiten an diesem Text wurde der Vertrieb der jeweils aktuellen Version von Ucinet vereinfacht und deutlich vergünstigt 13. Die aktuelle Version bietet einige zusätzliche Analyseroutinen und eine nutzerfreundlichere Oberfläche. Außerdem bietet Version 6 vor allem durch die Integration des Visualisierungsprogramms NetDraw (S.P. Borgatti 2002a) und die Konvertierung von Daten und Ergebnissen in die von Pajek (V. Batagelj und A. Mrvar 2003, 2005, s.u.) und Mage (D.C. Richardson 2003) – zwei weiteren Programmen zur Visualisierung von Netzwerken – verwendeten Formate deutlich mehr Nutzerkomfort. Dennoch stellen wir alle Verfahren für die kostenlose Version UCINET IV vor, da wir Einsteigern die Möglichkeit bieten möchten, sich ohne großen Kostenaufwand in die Netzwerkanalyse einzuarbeiten. In fast allen Fällen können diese Beschreibungen bei Verwendung von Ucinet 6 ohne Einschränkung genutzt werden. Falls es Abweichungen gibt, haben wir diese angemerkt. UCINET IV ist ein Programm, das eine große Anzahl von Routinen zur Analyse von Netzwerken sowie insgesamt 24 netzwerkanalytische Datensätze zur Auswertung anbietet. Der Anwender kann Netzwerke mit Hilfe der Routine SPREADSHEET selbst erstellen, er kann aber auch die von UCINET IV angebotenen Netzwerke nutzen und umgestalten sowie nach verschiedenen Kriterien Zufallsnetze konstruieren. Eines der Netzwerke, die UCINET IV anbietet, ist der diesem Text zugrunde liegende Datensatz der zweiten Newcomb Fraternity. Dieser Datensatz ist unter ...\DATA\NEWFRAT zu finden (in Ucinet 6 unter ...\DataFiles\NEWFRAT). Abweichend von Newcombs und unserer Nummerierung entspricht jedoch in UCINET der Woche 0 die Matrix 1 usw., bis nach den Ferien dann Woche 10 auch Matrix 10 entspricht und damit Wochen- und Matrixnummer übereinstimmen. Für diese Netzwerke bzw. für die zugehörigen Matrizen bzw. Dateien gibt es zunächst eine Reihe von Transformationsroutinen, mit denen die Netze in die bevorzugte Form gebracht werden können (TRANSPOSE, MERGE, PERMUTE, EXTRACT, SYMMETRIZE, DICHOTOMIZE, RECODE, REVERSE, STANDARDIZE, COLLAPSE etc.). Die meisten Auswertungsroutinen findet man bei dem Menupunkt NETWORKS. Hier kann man unter anderem Zentralität, Teilgruppen und Positionen analysieren. Darüber hinaus bietet das Programm univariate und multivariate Standardstatistiken sowie die Möglichkeit, im Menupunkt MATRICES>ALGEBRA eigene Analyseschritte zu programmieren (in Ucinet 6 unter Tools>Matrix Algebra).
13 Studierende können die jeweils aktuelle Version Ucinet 6 for Windows (S.P. Borgatti, M.G. Everett und L.C. Freeman 2002) unter http://www.analytictech.com/ für 40 US$ beziehen oder 60 Tage lang kostenlos nutzen.
1 Einleitung
23
Für graphische Darstellungen der Beziehungsnetze sowie der jeweils behandelten Eigenschaften ihrer Struktur nutzen wir das Programm PAJEK (V. Batagelj und A. Mrvar 2003, 2010) 14.
1.3.2
Grundlegendes zu den folgenden Analysen des Newcomb-Datensatzes
Allen bisherigen Veröffentlichungen zu T.M. Newcombs Datensatz ist gemeinsam, dass sie einen jeweils speziellen Aspekt der Netzwerkstruktur auswählen und analysieren. Eine systematische Anwendung des netzwerkanalytischen Standardinstrumentariums insgesamt auf die Newcomb-Daten wurde jedoch noch nicht durchgeführt. Dies soll im Folgenden geschehen. Neue Informationen sollen mit Hilfe der Netzwerkanalyse auf verschiedenen Ebenen gewonnen werden. Auf der untersten Ebene können relationale Eigenschaften der Akteure (oder aus anderer Sichtweise: Eigenschaften von Paaren von Akteuren) analysiert werden. Eine relationale Eigenschaft eines Akteurs ist eine Eigenschaft, die sich auf sein Verhältnis bzw. seine Beziehungen zu anderen Akteuren bezieht (P.F. Lazarsfeld und H. Menzel 1961: 507). Strukturelle Eigenschaften der gesamten Gruppe erhält man dann “ [...] by performing some operation on data about the relations of each member to some or all of the others” (P.F. Lazarsfeld und H. Menzel 1961: 504). Ein Beispiel für eine strukturelle Eigenschaft ist der Grad, zu dem sich alle Wahlen auf einen oder wenige Akteure der Gruppe konzentrieren. Dabei müssen “members” aber nicht zwangsläufig einzelne Akteure sein. Strukturelle Eigenschaften der Gruppe können auch auf den Beziehungen von Teilgruppen zueinander basieren. Eine strukturelle Eigenschaft des gesamten Netzes kann dann beispielsweise sein “Zerfallen” in hierarchisch angeordnete Cliquen sein. Wenn also auch letztendlich das Hauptaugenmerk der Analyse den strukturellen Eigenschaften der gesamten Gruppe gilt, so werden wir doch auf dem Weg zu Aussagen über diese strukturellen Eigenschaften immer wieder auch auf Aussagen über Eigenschaften von Akteurspaaren und Teilgruppen treffen. Unter einer systematischen Anwendung des Instrumentariums der Netzwerkanalyse ist zu verstehen, dass Ergebnisse, die auf einer der Ebenen gewonnen wurden, zum besseren Verständnis der Ergebnisse auf anderen Ebenen genutzt werden.
14 Zum Zeitpunkt des Abschlusses der Arbeiten an diesem Buch (Mai 2010) war Version 1.27 aktuell. Pajek konnte zu diesem Zeitpunkt kostenlos aus dem World Wide Web bezogen werden unter http://pajek.imfm.si/doku.php
24
1 Einleitung
Das Netzwerk der Newcomb Fraternity soll im Folgenden untersucht werden auf Prestige, Zentralität und Zentralisierung (Kapitel 2), kohäsive Teilgruppen (Kapitel 3), Positionen und Rollen (Kapitel 4), und mit Hilfe stochastischer Analysen von Dyaden und Triaden (Kapitel 5). Dabei kann jede dieser Analysen auf verschiedene Arten durchgeführt werden. Man kann die Analysemethoden zweifach differenzieren: (i)
(i)(a)
(i)(b)
Die Daten gehen entweder in ihrer von T.M. Newcomb berichteten Form als Rangfolgedaten, d.h. als Daten über bewertete, gerichtete Beziehungen, direkt in die entsprechenden Berechnungsverfahren ein oder sie werden zuvor (a) in dichotome Daten verwandelt, die nur noch die beiden Ausprägungen ‘1 = anwesend’ und ‘0 = abwesend’ haben; und eventuell (b) zusätzlich symmetrisiert. Um die Daten in dichotome Daten zu verwandeln, kann man den ersten k Rängen (mit k als „Schwellenwert“) die Zahl Eins und den übrigen Rängen die Zahl Null zuordnen. In einigen Fällen kann auch die umgekehrte Kodierung sinnvoll sein; man erhält dann anstelle einer Freundschaftsbeziehung eine Abneigungsbeziehung. Es wird später auch eine kompliziertere Kodierung eingeführt, in der für unterschiedliche Akteure, abhängig von ihrer eigenen Beliebtheit, unterschiedliche Schwellenwerte k zur Kodierung benutzt werden. Diese Daten können anschließend durch Symmetrisierung in ungerichtete Beziehungen transformiert werden, indem man entweder entscheidet, dass die ungerichtete Beziehung genau dann den Wert 1 erhält, wenn beide gerichteten Beziehungen den Wert 1 haben (“und”-Verknüpfung), oder indem man entscheidet, dass die ungerichtete Beziehung genau dann den Wert 1 annimmt, wenn mindestens eine der beiden gerichteten Beziehungen den Wert 1 hat (“oder”-Verknüpfung).
Diese Verfahren der Dichotomisierung und Symmetrisierung sind teilweise notwendig, damit bestimmte Indizes berechnet werden können, da diese Indizes bzw. die ihnen zugrunde liegenden Algorithmen dichotome oder sogar dichotome und ungerichtete Eingaben verlangen. In anderen Fällen kann es wichtig sein zu beobachten, ob die Ergebnisse bei Dichotomisierung und Symmetrisierung beziehungsweise bei der Wahl unterschiedlicher Schwellenwerte k stabil bleiben.
1 Einleitung (ii)
25
Die Daten können (a) separat zu einem festen Zeitpunkt t analysiert werden, wenn man die Struktur der Gruppe zu diesem Zeitpunkt beschreiben möchte, sie können aber auch (b) als Zeitreihe analysiert werden. Dabei kann es interessant sein herauszufinden, ob sich der Entwicklungsprozess über Zeit einem Gleichgewichtszustand nähert oder nicht. In jedem Fall ist zu erwarten, dass sich die Struktur des Freundschaftsnetzwerks zu Beginn des Kennenlernprozesses von der am Ende des Kennenlernprozesses unterscheidet. Die nachfolgenden Analysen sollen aufdecken, in welcher Hinsicht dies der Fall ist.
Ein Ergebnis vorheriger Arbeiten an dem Datensatz soll jetzt schon vorweggenommen werden: K. Nakao und A.K. Romney (1993) berechneten als Maß für strukturelle Stabilität Goodman-Kruskals Gamma-Koeffizienten 15 zwischen allen möglichen Paaren der 15 Matrizen des Datensatzes (K. Nakao und A.K. Romney 1993: 113). Sie analysierten die so konstruierte Gamma-Matrix mit Hilfe der multidimensionalen Skalierung. Sie fassen zusammen: “We find that the interpoint distance between consecutive weeks is greater in the early stages than the later stages of acquaintance, which indicates that the subjects’ choices as a whole change with time but seem to stabilize. It is interesting to observe that the direction of change is almost always away from the starting point towards a point of stability.” (K. Nakao und A.K. Romney 1993: 115)
Später stellen sie ergänzend fest: “ [...] the 15th week showed a little distraction [...] ” (K. Nakao und A.K. Romney 1993: 122). Die Daten der 14. Woche scheinen somit am ehesten geeignet zu sein, die Struktur am Ende des Kennenlernprozesses zu analysieren. Daher sollen auch in dieser Arbeit die Daten der 14. Woche dazu dienen, Struktureigenschaften des entwickelten Freundschaftsnetzes aufzuzeigen. Zur Wahl der Newcomb-Daten ist an dieser Stelle sicherlich ein Kommentar angebracht. Die Daten der Newcomb Fraternity besitzen für die Verwendung in einem Einführungsbuch eine Vielzahl von Vorteilen. So handelt es sich um einen Längsschnittdatensatz mit gerichteten und bewerteten Beziehungen, so dass nahezu alle Methoden an ein- und demselben Datensatz eingeführt und illustriert werden können. Zudem weist der Datensatz über alle Wochen hinweg keinerlei Ausfälle von Befragten oder sonstige fehlende Werte auf. Fehlende Werte haben bei Netzwerkdaten besonders schwerwiegende Konsequenzen, da 15
Goodman-Kruskals Gamma = (C-D)/(C+D), mit C = Anzahl konkordanter Paare und D = Anzahl diskordanter Paare.
26
1 Einleitung
ihre Auswirkungen auf die Ergebnisse nur schwer abschätzbar sind und schon der Ausfall eines Akteurs zu einem völlig verzerrten Bild eines Netzwerkes führen kann, wenn es sich beispielsweise um die einzige Verbindungsperson zwischen ansonsten getrennten Teilpopulationen handelt. Auch eine weitere Schwierigkeit bei der Analyse von Netzwerken, nämlich die Grenzziehung (wer gehört noch dazu, wer schon nicht mehr?), ist hier weniger schwierig. Selbstverständlich unterhalten alle Bewohner des Wohnheims Beziehungen über die Newcomb Fraternity hinaus nach außen (dieses Argument gilt wohl für beinahe jedes Netzwerk), dennoch handelt es sich um eine vergleichsweise abgeschlossene Gruppe mit einem leicht angebbaren Kriterium, das die Mitgliedschaft definiert und im Alltag von großer Relevanz ist. Einen Mangel hat der Datensatz jedoch. Eine Netzwerkanalyse ist nämlich in vielen Fällen mit der Analyse und Visualisierung der Gruppenstruktur und der Einbettung der Akteure in diese nicht abgeschlossen. Ein weiteres Anliegen ist es häufig, die ermittelte Struktur oder Art der Einbettung der Akteure als (erklärende oder abhängige) Variable in sozialwissenschaftlichen Erklärungsmodellen zu verwenden. Wie wirkt sich eine bestimmte Form der Einbettung in ein Netzwerk auf das Handeln oder das Wissen eines Akteurs, z.B. die Übernahme eines neuen Medikaments durch Ärzte (J.S. Coleman, E. Katz und H. Menzel 1957, 1966), aus? Wie beeinflussen Struktureigenschaften einer Gruppe deren Leistung (A. Bavelas 1950)? Unter welchen Bedingungen entstehen bestimmte Strukturen (J.A. Davis 1967) und unter welchen Bedingungen erreicht ein Akteur eine bestimmte Art der Einbettung (R.K. Merton 1949)? Zur Illustration solchen Vorgehens eignet sich der Newcomb-Datensatz nur wenig, da er in der verfügbaren Form keine weiteren Variablen enthält, mit denen man die Ergebnisse der Netzwerkanalyse in Verbindung bringen könnte. Andererseits kann man das auch als einen (didaktischen) Vorteil sehen: Der NewcombDatensatz zwingt, ausschließlich in netzwerkanalytischen Begriffen zu denken und (kausale) Abhängigkeiten ausschließlich zwischen netzwerkanalytisch definierten Variablen zu untersuchen. Wir werden in Kapitel 7 auf Studien verweisen, in denen die Kenntnisse von Gruppenstrukturen und Akteurseinbindung für über die Netzwerkanalyse hinausgehende Analysen genutzt werden. Hier sei darauf verwiesen, dass sich die Verwendung von Variablen, die mithilfe der Netzwerkanalyse gewonnen wurden, nicht von der Verwendung anderer Variablen in Erklärungsmodellen unterscheidet (H.J. Hummell und W. Sodeur 1992, 2010).
2
Prestige, Zentralität und Zentralisierung
Verfahren zur Messung von Zentralität wurden entwickelt, um die “wichtigsten” Akteure in einem Netzwerk zu lokalisieren. Dabei gibt es in Abhängigkeit von den unterschiedlichen Vorstellungen, wann ein Akteur für ein Netzwerk wichtig oder zentral ist, unterschiedliche Maße. So kann man einen Akteur zentral nennen, falls er direkte Beziehungen zu besonders vielen anderen Akteuren hat. Um diese Art von Zentralität zu messen, wurde das Konzept der degree centrality entwickelt. Beim Konzept der closeness centrality hingegen geht es darum festzustellen, welche Akteure hinsichtlich der gemessenen Beziehung besonders nah an allen anderen Akteuren liegen. Ein drittes Konzept von Zentralität beruht auf der Vorstellung, dass ein Akteur für ein Netzwerk dann zentral ist, wenn viele Verbindungen zwischen je zwei anderen Akteuren „über ihn laufen”, d.h. wenn er häufig auf den kürzesten oder sogar den einzigen Verbindungen zwischen den anderen liegt (betweenness centrality, information centrality). Nach einem vierten, komplizierteren Konzept ist ein Akteur in dem Ausmaß zentral, wie er Beziehungen (direkt oder auch indirekt, je nach Konzept) zu Akteuren hat, die selbst wiederum eine zentrale Lage (in einer der drei genannten Bedeutungen) im Netzwerk haben. Bei ungerichteten Beziehungen spricht man allgemein von Zentralität, wenn man die Akteure hinsichtlich eines dieser vier Kriterien charakterisieren will. Bei gerichteten Beziehungen unterscheidet man jedoch zwei Arten von Akteuren: diejenigen, die zentral sind hinsichtlich der ausgehenden Beziehungen, und diejenigen, die zentral sind hinsichtlich eingehender Beziehungen. In diesen Fällen gerichteter Beziehungen verwendet man den Begriff der Zentralität oft nur für den ersten Fall ausgehender Beziehungen 16, während man im zweiten Fall gerichteter eingehender Beziehungen oft von Prestige 17 spricht (S. Wasserman und K. Faust 1994: 174).
16 Manchmal ist auch die Rede von „Aktivitäts-„ oder „Kontaktvolumen“ oder (z.B. in der sozialpsychologischen Literatur) von „Expansivität“ o.ä. 17 In der sozialpsychologischen Literatur spricht man auch von „Attraktivität“, „Popularität“ o.ä.
M. Trappmann et al., Strukturanalyse sozialer Netzwerke, DOI 10.1007/978-3-531-92656-8_2, © VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH 2011
28
2 Prestige, Zentralität und Zentralisierung
Wenn wir für den Newcomb-Datensatz Zentralität für die gerichteten Wahlen ermitteln, sollten wir uns erinnern, dass das Untersuchungsdesign vorsieht, dass jeder der 17 Akteure in der gleichen Weise ausgehende Beziehungen zugewiesen bekommt, nämlich jeder Akteur insgesamt 16 Beziehungen mit jeweils einem der Werte 1 bis 16. Das Untersuchungsdesign lässt also keine Differenzierungen bezüglich dieser (auf den ausgehenden Beziehungen basierenden) Art von Zentralität zu. Zentralisierung schließlich ist eine Eigenschaft, die nicht einzelnen Akteuren, sondern dem Netzwerk als ganzem (oder einem Teil) zukommt. Man nennt ein Netzwerk zentralisiert, wenn mindestens ein Akteur sehr zentral (bzw. prestigereich) ist, während die anderen Akteure weniger zentral sind. Ein maximal zentralisiertes Netzwerk ist somit eines, in dem ein einziger Akteur zu allen anderen Akteuren eine Beziehung hat, während alle anderen untereinander keine Beziehung haben 18. In einem minimal zentralisierten Netzwerk hat jeder Akteur die gleiche Zentralität. Im Folgenden werden zunächst einige Indizes für Prestige, Zentralität und Zentralisierung vorgestellt. Sie werden dann exemplarisch für einen Akteur ausführlich berechnet. Danach werden die Indizes für alle Akteure präsentiert und im Hinblick auf die Gruppenstruktur interpretiert. 2.1
Prestige in der Newcomb Fraternity
Die Berechnung von Prestige-Indizes ist für freundschaftliche Beziehungen, wie wir sie in der Newcomb Fraternity finden, besonders sinnvoll, da Prestige für solche Beziehungen eine klare Interpretation besitzt. Hohes Prestige entspricht für Freundschaftsbeziehungen einem hohen Beliebtheitsgrad. Prestige bezeichnet die Wichtigkeit eines Akteurs bezüglich der eingehenden Wahlen. Es ist also nur für gerichtete Beziehungen sinnvoll berechenbar. Einfache Maße für Prestige sind nur für dichotome Beziehungen entwickelt worden. Daher soll zunächst entschieden werden, auf welche Weise die Daten dichotomisiert werden. Ziel ist es, die Daten so zu transformieren, dass die dichotomisierten Daten auch eine theoretische Interpretation zulassen. Daher ist es sinnvoll, nur solche Beziehungen als vorhanden zu kodieren (und damit als ‘Eins’ zu bewerten), bei denen man davon ausgehen kann, dass sie ein Gefühl freundschaftlicher Zuneigung darstellen. Eine Beziehung vom Wert 1 von Ak18
Ein solches Netzwerk nennt man einen Stern.
2 Prestige, Zentralität und Zentralisierung
29
teur i zu Akteur j in dem transformierten (d.h. hier: dichotomisierten) Netzwerk lässt sich dann interpretieren als “i wählt j als Freund”. Die ersten zwei bis vier Wahlen eines jeden Akteurs scheinen geeignet zu sein, einer solchen Anforderung zu genügen. Lässt man noch mehr Wahlen als Freundschaftsbeziehungen zu, kann man sich des freundschaftlichen Gehaltes dieser Beziehungen nicht mehr sicher sein; lässt man jedoch jeweils nur die erste Wahl als Freundschaftsbeziehung zu, so wird das Netzwerk sehr “dünn”. In der nachfolgenden Analyse soll der Schwellenwert für die Definition einer Freundschaftsbeziehung zunächst auf die drei ersten Wahlen (d.h. Rangplätze 1 bis 3) festgelegt werden. Später wird dann überprüft, wie sich eine Veränderung dieses Schwellenwertes auf die Resultate auswirkt. Den für die ersten drei Wahlen dichotomisierten Datensatz der Newcomb Fraternity bezeichnen wir kurz als DICH3 (=Kodierung A). Die für die drei ersten Wahlen dichotomisierte Matrix für die 14. Woche befindet sich in Anhang A als DICH3_14 (=Kodierung A, Woche 14). UCINET IV enthält den Datensatz der Newcomb Fraternity als Datei “NEWFRAT” im Unterverzeichnis DATA (Ucinet 6: DataFiles). Um diesen Datensatz in einen dichotomen Datensatz zu verwandeln, wählt man die Routine MATRICES>TRANSFORM>RECODE: 1 to 3 as 1; 4 to 16 as 0 (Ucinet 6: Transform>Recode. Hier gibt es inzwischen zwei Registerkarten: Auf der ersten wählt man die Eingabedatei und den Namen der Ausgabedatei und gibt an, dass man die Rekodierung auf alle Zeilen, Spalten und Matrizen angewandt haben möchte (das enstpricht der Voreinstellung), auf der zweiten gibt man die Rekodierungsvorschrift an (1 to 3 are recoded as 1; 4 to 16 are recoded as 0)). Näher liegend ist die Umformung mit MATRICES>TRANSFORM>DICHOTOMIZE (CUTOFF OPERATOR “LT” (= less than), CUTOFF VALUE = 4) (Ucinet 6: Transform>Dichotomize). Allerdings wird in UCINET IV die Diagonale von dieser Operation nicht ausgeschlossen, so dass auch die Nullen in der Diagonale, die ja die Bedingung „LESS THAN 4“ erfüllen, (ungewollt) in Einsen umkodiert werden. Das (Zwischen-) Ergebnis muss daher noch mit der Routine MATRICES>TRANSFORM>DIAGONAL bearbeitet werden, indem man dort die Werte der Diagonale explizit gleich Null setzt. In Ucinet 6 wird dieses Problem schon bei der Dichotomisierung durch die Frage „Diagonal OK?“ (Antwort: „No“) behoben. Man erhält so eine gewünschte Umkodierung für alle 15 Wochen als Ausgabedatei, für die man einen Dateinamen wählen kann. Als Name für die Datei mit Kodierung A wurde hier DICH3 gewählt 19. Die Datei wird im folgenden Text daher als DICH3 (=Kodierung A) bezeichnet. Einzelne Wochen hieraus werden als DICH3_00 (Woche 0) bis DICH3_15 (Woche 15) bezeichnet.
Nimmt man den Originaldatensatz der Newcomb Fraternity, ist es nicht sinnvoll, diesen zu visualisieren, da von den 17 Akteuren jeder mit jedem verbunden 19 In UCINET IV sind Dateinamen nach den DOS-Konventionen auf acht Buchstaben beschränkt. Nutzer von Ucinet 6 können längere Dateinamen verwenden, die eindeutiger auf den zugrunde liegenden Datensatz und die durchgeführte Transformation verweisen.
30
2 Prestige, Zentralität und Zentralisierung
wäre und nur die Stärke der Verbindung variieren würde. Bei weniger dicht verbundenen Netzwerken dagegen liefert die Visualisierung häufig einen Eindruck von der Struktur des Netzwerks. Dabei erfolgt die Anordnung der Akteure keineswegs willkürlich: Es gibt inzwischen eine Vielzahl von Ansätzen theoriegeleiteter Visualisierung von Netzwerken (u.a. V. Batagelj, S.P. Borgatti, U. Brandes, D. Krackhardt, L. Krempel). Wir wollen das Thema Visualisierung von Netzwerken nicht systematisch behandeln, werden aber exemplarisch das Netzwerk der Newcomb Fraternity immer wieder unter dem jeweils gerade behandelten theoretischen Gesichtspunkt darstellen und auf die zugehörige Literatur bzw. Software verweisen. Ein weit verbreiteter Ansatz zur Visualisierung verwendet so genannte “spring embedders” (T.M. Fruchterman und E.M. Reingold 1991, T. Kamada und S. Kawai 1989). Hier werden Graphen als dynamische Systeme modelliert, in denen sich Knoten gegenseitig abstoßen und Kanten als “Federn” fungieren, die für gegenseitige Anziehung sorgen. Adjazente Knoten ziehen sich über diese Federn an und es entsteht Nähe zwischen ihnen. Für ein „schönes“ Layout sorgen oft zusätzliche Bedingungen wie die Minimierung der Anzahl sich schneidender Kanten (z.B. T.M. Fruchterman und E.M. Reingold 1991). Wir stellen das dichotomisierte Netzwerk (DICH3_14 (=Kodierung A, Woche 14)) nach dem Verfahren von T.M. Fruchterman und E.M. Reingold in Abbildung 2.1 vor 20. Erstellt wurde der Graph wie auch fast alle weiteren mit dem frei verfügbaren Programm-Paket PAJEK 21. Ein Pfeil von einem Akteur zu einem anderen entspricht einer 1 in der Matrix-Darstellung dieses Netzwerks. In der Matrix zu DICH3_14 (=Kodierung A, Woche 14) (Anhang) sieht man beispielsweise, dass Akteur 14 Beziehungen zu den Akteuren 6, 7 und 9 hat (Einsen in den entsprechenden Spalten der 14. Zeile), die in dieser Abbildung als Pfeile von Akteur 14 zu den Akteuren 6, 7 und 9 auftauchen. Mit beiden Versionen von Ucinet kann man mit Hilfe der Routine DATASETS>EXPORT>DL die Datensätze in das von PAJEK (und weiteren Netzwerkprogrammen) lesbare DL-Format konvertieren. (DL-Dateien sind reine ASCII-Textdateien, die ggf. mit einem ASCII-Editor editiert werden können; s.u. Anhang B). Nutzt man die in Ucinet 6 auch mögliche direkte Übergabe an Pajek, dann wird lediglich die erste Ucinet-Matrix in das PAJEK-Format konvertiert. Mit dem in Ucinet 6 integrierten NETDRAW, das über eine große Anzahl von Visualisierungskonzepten verfügt, zu denen auch das Konzept der spring embedders zählt, sind ebenfalls Visualisierungen möglich. 20 Da der Algorithmus mit zufälligen Startwerten arbeitet, wird sich das Resultat durch den Leser evtl. nicht exakt replizieren lassen. Dies betrifft vor allem die Richtung, in die weniger zentrale Knoten vom Zentrum aus angeordnet werden. 21 V. Batagelj und A. Mrvar 2003, 2010; erhältlich unter http://pajek.imfm.si/doku.php
2 Prestige, Zentralität und Zentralisierung
31
Abbildung 2.1: DICH3_14 (=Kodierung A, Woche 14) Für Prestige gibt es ein sehr einfaches Messkonzept. Prestige eines Akteurs lässt sich sinnvoll messen als relativer Innengrad dieses Akteurs. Dieses Prestige wird als degree prestige bezeichnet (S. Wasserman und K. Faust 1994: 202). Der Innengrad ist die Anzahl eingehender Beziehungen. Der relative Innengrad eines Akteurs (P d (n j )) wird berechnet, indem man die Anzahl eingehender Beziehungen durch g-1 teilt, wobei g die Anzahl der Akteure im Netzwerk ist 22. Der Wert g-1 kennzeichnet also die höchst mögliche Zahl eingehender Wahlen aus einer Gruppe der Größe g 23. Somit erhält man als relativen Innengrad von Akteur j den Anteil der Akteure (ausgenommen Akteur j), die Akteur j wählen. 22 Analog ist der relative Außengrad eines Akteurs gleich der Anzahl von ihm ausgehender Beziehungen geteilt durch “Netzwerkgröße (g) minus 1”. In symmetrischen Netzwerken sind Innen- und Außengrad identisch; man spricht daher einfach von Grad und relativem Grad: Der relative Grad eines Akteurs ist die Menge seiner Beziehungen geteilt durch g-1. 23 Der größtmögliche Wert ist nur in Graphen ohne Schleifen gleich g-1. Sind Schleifen zugelassen, so sind maximal g eingehende Wahlen möglich und man sollte diese und alle folgenden Normierungen anpassen, indem man die Terme g-1 durch g und ggf. g-2 durch g-1 ersetzt etc. Wie bereits erwähnt kommen Graphen mit Schleifen aber nur in Ausnahmefällen vor. In Kapitel 4.4 stellen wir eine solche Ausnahme vor.
32
2 Prestige, Zentralität und Zentralisierung
In der Adjazenzmatrix entspricht der Innengrad des j-ten Akteurs der Spaltensumme der j-ten Spalte. Also ist der relative Innengrad eines Akteurs 24:
(2.1) Pd (n j )
x j ( g 1)
mit n j = Knoten j bzw. Akteur j x +j = ¦ x ij i
x ij g
= Eintrag der Adjazenzmatrix in i-ter Zeile und j-ter Spalte = Anzahl der Knoten im Netzwerk
Der relative Innengrad ist ein standardisierter Index für Prestige, da er nicht mehr direkt von der Gruppengröße abhängt. Eine indirekte Abhängigkeit bleibt jedoch insofern, als die Kontaktkapazitäten von Akteuren sicher nicht proportional mit der jeweiligen Gruppengröße wachsen.
2.1.1
Degree-Prestige in der Newcomb Fraternity und seine zeitliche Entwicklung
Zunächst wird exemplarisch das Prestige von Akteur 17 in Woche 14 berechnet. Kodiert man die ersten drei Wahlen eines jeden Akteurs als Freundschaftsbeziehung (DICH3_14 (=Kodierung A, Woche 14)), so erhält Akteur 17 in Woche 14 von insgesamt acht Personen eine Freundschaftswahl. Acht ist die Spaltensumme der 17. Spalte der Matrix für DICH3_14 (=Kodierung A, Woche 14). Da für die Newcomb Fraternity g = 17 gilt, muss 8 durch 17 - 1 = 16 geteilt werden. Der standardisierte Index für das Prestige von Akteur 17 in Woche 14 beträgt damit 8/16 = 0,5. Die Ergebnisse einer Analyse des Prestiges der Akteure sind über Zeit äußerst stabil. Akteur 17 und Akteur 9 25 belegen in 12 von 15 Wochen die beiden ersten Plätze einer Ordnung nach Prestige und sind damit mit Abstand die beliebtesten Akteure. In der ersten Woche ist Akteur 9 noch nicht außergewöhnlich beliebt. Danach verdrängt nur noch Akteur 12 in den Wochen 4 und 10 die beiden von den höchsten Beliebtheitsrängen. Dabei schwankt Akteur 9 ab 24 Wir weichen an dieser Stelle von der üblichen Indizierung (hier j statt sonst i) ab, um zu verdeutlichen, dass es auf die Eingänge der Spalten der Adjazenzmatrix ankommt. 25 Nummerierung der Akteure wie bei P. Nordlie (1958, Appendix A). Diese entspricht der Nummerierung in UCINET.
2 Prestige, Zentralität und Zentralisierung
33
Woche 2 zwischen einem Prestige von 0,375 und 0,563 26 mit einem Durchschnitt von 0,454. Es ist über Zeit kein Trend zu steigender oder abnehmender Beliebtheit von Person 9 zu erkennen. Genauso verhält es sich für Akteur 17, der auf leicht höherem Niveau ebenfalls nur leichten Schwankungen ausgesetzt ist (Prestige von 0,438 bis 0,625 bei einem Durchschnitt von 0,521). Beide behaupten sich mit großem Abstand vor allen anderen. Der im Durchschnitt drittbeliebteste Akteur 12 erzielt ein durchschnittliches Prestige von 0,317. Tabelle 2.1 gibt Aufschluss über maximales, minimales und durchschnittliches Prestige jedes Akteurs und die dazugehörigen Wochen. Tabelle 2.1: Maxima, Minima und Durchschnitt des Prestiges der 17 Gruppenmitglieder im Verlauf der 15 Wochen (berechnet nach Gleichung (2.1)) Akteur 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
Minimales Prestige (in Woche) 0,125 (0) 0,063 (0,1) 0,000 (3-6,8,12-15) 0,063 (12) 0,063 (0,8,12-14) 0,125 (0,1,13) 0,063 (4) 0,000 (1,2) 0,250 (0) 0,000 (4-8,10-15) 0,000 (5,6,8,14) 0,125 (1,2) 0,125 (0,6,8) 0,000 (0) 0,000 (6,8,10,12,15) 0,000 (1,2,11,14) 0,438 (4)
Maximales Prestige (in Woche) 0,313 (8,10,13) 0,250 (2,3) 0,188 (1) 0,500 (15) 0,250 (4) 0,438 (12) 0,250 (0,1) 0,188 (8,14) 0,563 (6,8,13) 0,188 (0) 0,500 (0) 0,500 (4) 0,313 (1,14) 0,188 (13) 0,125 (0,2) 0,063 (0,3-8,10,12,13,15) 0,625 (5)
Durchschnitt 0,238 0,150 0,033 0,283 0,121 0,246 0,171 0,108 0,454 0,025 0,100 0,317 0,217 0,108 0,050 0,046 0,521
In UCINET IV erhält man die Degree-Prestige-Indizes, indem man die Routine NETWORKS>CENTRALITY>DEGREE (Ucinet 6: Network>Centrality>Degree) wählt und den entsprechenden Datensatz eingibt (hier DICH3 (=Kodierung A)). Die Routine gibt 26
Alle Indizes sind auf drei Stellen nach dem Komma gerundet.
34
2 Prestige, Zentralität und Zentralisierung
zwar die Ergebnisse für alle 15 Wochen auf dem Bildschirm aus, speichert aber nur die der ersten Woche. (Will man die Ergebnisse für eine andere Woche speichern, muss man zuerst die entsprechende Matrix extrahieren; s.u. S. 50) Wichtig ist, dass man beim Menupunkt “TREAT DATA AS SYMMETRIC” mit NO antwortet, da der Datensatz sonst symmetrisiert wird. Der Degree-Prestige-Index erscheint unter “NrmInDeg” (=normalized indegree). Der Wert jedes Akteurs ist hier eine Prozentangabe und muss noch durch 100 geteilt werden.
Die Schlussfolgerung aus dieser Analyse ist, dass es in der Gruppe zwei “Stars” (Akteure mit extrem hohem Prestige) gibt. Diese beiden Akteure werden schon am Ende der ersten Woche von den anderen Mitgliedern als sehr beliebte Akteure ausgemacht und schwanken danach nur geringfügig in ihrem Prestige. Ihr hohes Prestige kann also durch spezifische Ereignisse einzelner Wochen nicht in Frage gestellt werden. Grundsätzlich ist festzustellen, dass über Zeit weder auffällige “Absteiger” noch auffällige “Aufsteiger” im Prestige auszumachen sind. Die wenigen Personen, die in ihrem Prestige starken Schwankungen unterworfen sind, erreichen einen ihrer Extremwerte oft nur als einmaligen “Ausreißer” (meist in Woche 0), und schwanken dann von Woche zu Woche eher gering und ohne erkennbare Tendenz. Der Korrelationskoeffizient für das Prestige zwischen Woche 3 und Woche 14 liegt bei 0,924 27. Die Entscheidung darüber, wer ein hohes Prestige in der Gruppe erlangen kann, fällt also bereits in den ersten Wochen. Die Ergebnisse, die man erhält, wenn man als Freundschaftsbeziehung nur die Nennungen auf den beiden ersten Plätzen der Rangfolge eines jeden Akteurs gelten lässt bzw. wenn man die ersten vier Nennungen zulässt, sind den oben genannten Ergebnissen äußerst ähnlich. Bildet man für diese unterschiedlichen Schwellenwerte für jeden der Akteure das durchschnittliche Prestige über alle 15 Wochen und korreliert dann das durchschnittliche Prestige jedes Akteurs für zwei Freundschaftswahlen mit dessen durchschnittlichem Prestige für drei Freundschaftswahlen, so korrelieren beide mit 0,977. Die entsprechende Korrelation zwischen der Wahl von drei Freunden und der Wahl von vier Freunden liegt sogar bei 0,984. Die Berechnung der Degree-Prestige-Indizes ist also sehr robust gegenüber Variationen in der Anzahl von Wahlen, die man als Freundschaft interpretiert. Dieses Ergebnis rechtfertigt im Nachhinein das angewandte Verfahren, die drei ersten Wahlen als Freundschaftsbeziehung anzusehen. Auch für jeweils einzelne Wochen ist der Degree-Prestige-Index sehr robust gegenüber Veränderungen in der Anzahl der Wahlen. Für die im Folgenden im Detail analysierte Woche 14 liegt die Korrelation zwischen Prestige mit zwei und mit 27
Bei allen Korrelationen wurde der Pearson Produkt-Moment Korrelationskoeffizient r berechnet.
2 Prestige, Zentralität und Zentralisierung
35
drei Freundschaftswahlen bei 0,88 und zwischen Prestige mit drei und mit vier Freundschaftswahlen bei 0,96. Tabelle 2.2 zeigt die Korrelationen für jede der 15 Wochen. Sie sind durchweg recht hoch: Die kleinste Korrelation liegt bei 0,83; außer in fünf Fällen ist die Korrelation immer größer als 0,9. Tabelle 2.2: Korrelation der Degree-Prestige-Indizes für 3 Freundschaftswahlen mit denen für 2 und für 4 Freundschaftswahlen für jede der 15 Wochen. 0
1
2
3
4
56781
0
11
12
13
14
15
2 0,92 0,90 0,83 0,90 0,94 0,93 0,93 0,95 0,93 0,92 0,87 0,96 0,93 0,88 0,86 4 0,93 0,95 0,94 0,91 0,93 0,93 0,96 0,98 0,94 0,96 0,97 0,90 0,86 0,96 0,96
Auch solche Standardstatistiken lassen sich mit UCINET IV berechnen. Eine Möglichkeit zur Berechnung der Korrelationen über alle 15 Wochen ist folgende: 1.) Man wählt die Routine MATRICES>ALGEBRA, in der man selbst Befehle eingeben kann (Ucinet 6: Tools>Matrix Algebra). Der Befehl TOTDICH3 = TOT(DICH3,COLS) erstellt dabei einen neuen Datensatz mit Namen TOTDICH3, der nur noch 17 Einträge enthält, nämlich die Summe der 17 Spalten über alle 15 Matrizen des Datensatzes. Für jeden Akteur gibt dieser Datensatz die Summe aller erhaltenen Wahlen über alle 15 Wochen an. (Zu den im vorliegenden Text verwandten Routinen des Tools „MatrixAlgebra“ siehe Anhang C). 2.) Man kann nun analog zur Erstellung des Datensatzes DICH3 (=Kodierung A) Datensätze DICH2 und DICH4 erstellen, in denen jeweils die ersten zwei bzw. vier Nennungen als Freundschaftswahlen gewertet werden. 3.) Nun kann man die Datensätze TOTDICH2 und TOTDICH4 erstellen, indem man mit den neuen Datensätzen aus 2.) verfährt wie in 1.). Diese Datensätze enthalten die Summe der eingehenden Wahlen jedes Akteurs für den Fall von zwei bzw. vier Freunden. 4.) Diese Summen unterscheiden sich nur durch die nicht vorhandene Normierung vom durchschnittlichen degree prestige der Akteure. Man könnte alle Werte noch durch 15·16 teilen, wobei 15 die Anzahl der Wochen und 16 die Netzwerkgröße minus 1 ist. Für die Korrelation spielt es jedoch keine Rolle, ob die Daten normiert sind oder nicht. 5.) Man kann nun die drei Dateien TOTDICH2, TOTDICH3 und TOTDICH4 mit der Routine DATASETS>MERGE zu einem Datensatz verbinden (Ucinet 6: Data>Join). Dabei muss man als zu verbindende Dimension ROWS wählen. Der neue Datensatz hat 3 Zeilen (Merkmale), die der Zahl eingehender Wahlen bei 2, 3 bzw. 4 Freundschaftswahlen entsprechen. 6.) Den Ausgabedatensatz MERGED (Ucinet 6: Voreinstellung des Namens ist “Joined”) kann man nun in die Routine MATRICES>MULTIVARIATE>SIMILARITIES eingeben (Ucinet 6: Tools>Similarities). Als MEASURE wählt man CORRELATION und man wählt SIMILARITIES AMONG ROWS. Als Ausgabe erhält man eine 3u3-Matrix mit allen paarweisen Korrelationen zwischen den 3 Merkmalen.
36
2 Prestige, Zentralität und Zentralisierung
2.1.2
Prestige in der 14. Woche
Der Degree-Prestige-Index der 17 Akteure für Woche 14 wird in Abbildung 2.2 auf dieser Seite wiedergegeben. In der 14. Woche finden wir die beiden “Stars” der Gruppe mit einem Prestige von jeweils 0,5 deutlich an der Spitze. Sie werden also jeweils von der Hälfte der anderen auf einen der drei ersten Rangplätze gesetzt. Im Gegensatz dazu erkennen wir vier Außenseiter mit einem Prestige von 0. Sie wurden also von niemandem (auch nicht von anderen Außenseitern) auf einen der ersten drei Rangplätze gesetzt. Dieses außerordentliche Popularitätsgefälle legt bereits eine Vermutung nahe, die in späteren Abschnitten genauer untersucht wird: Die Gruppe scheint nicht in eine Menge von Teilgruppen mit hoher innerer Zuneigung (und damit zwangsläufig geringer Zuneigung nach außen, da jeder nur eine beschränkte Anzahl von ersten Rangplätzen bei seinen Nennungen zu vergeben hat) zu zerfallen. Dazu ist die Beliebtheit der beiden „Stars“ zu groß, und es gibt zu viele Außenseiter. Es scheint vielmehr ein hierarchisches Gefälle in der Gruppe zu geben. Diese Vermutung wird in Kapitel 4 genauer untersucht. Prestige 0,6 0,5 0,4 0,3 0,2 0,1 0
1
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17
Abbildung 2.2: Das Prestige der 17 Akteure in Woche 14 (Degree-PrestigeIndex).
2 Prestige, Zentralität und Zentralisierung
37
An dieser Stelle wollen wir wiederum eine Visualisierung des Netzwerks nach DICH3_14 (=Kodierung A, Woche 14) einführen und dabei zusätzlich die Beliebtheitshierarchie der Gruppe im Graphen kennzeichnen. In Abbildung 2.3 gibt die y-Koordinate (die “Höhe”) das Prestige in Woche 14 wieder. Die beiden Akteure mit dem höchsten degree prestige bilden die oberste Ebene, die mit dem zweithöchsten prestige die zweite und so weiter bis zu den vier Akteuren mit Prestige 0. Man kann nun jeder Kante zusätzlich ansehen, ob sie in der “Hierarchie” nach oben oder nach unten gerichtet ist oder auf gleicher Ebene verläuft. (Etwas unübersichtlich wird die Darstellung allerdings, da miteinander in Beziehung stehende Akteure jetzt weit auseinander stehen können und damit Kanten sehr lang werden und sich häufiger kreuzen.)
Abbildung 2.3: DICH3_14 (=Kodierung A, Woche 14): Visuelle Darstellung der Beliebtheitshierarchie
38 2.1.3
2 Prestige, Zentralität und Zentralisierung Rank-Prestige in der Newcomb Fraternity
Das im vorigen Abschnitt gewählte Maß für Prestige ist sehr einfach und berücksichtigt nur einen speziellen jener Aspekte soziometrischer Wahlen, die in Gruppen zu hohem Prestige führen. So ist oft nicht nur die reine Anzahl erhaltener Wahlen für das Prestige von Bedeutung, sondern auch, von wem man diese Wahlen erhält. Ein Akteur, der drei Wahlen von den prestigereichsten anderen erhält, hat sicherlich eine bedeutendere Stellung in der Gruppe als jemand, der drei Wahlen von Außenseitern erhält. Die Idee, dass derjenige hohes Prestige hat, der von Akteuren gewählt wird, die selbst wiederum hohes Prestige haben, wird nun im Konzept des Rank-Prestige berücksichtigt. Das Prestige jedes Akteurs ist hierbei eine Funktion des Prestiges der Akteure, die ihn wählen, und deren Prestige ist wiederum eine Funktion des Prestiges derer, von denen sie gewählt werden. Wir haben es somit im Prinzip mit einem unendlichen Regress zu tun. Ein derartiges Problem ließe sich eventuell iterativ lösen. Das heißt, man beginnt mit einem Anfangsvektor für das Prestige der Akteure (hierfür könnte deren relativer Innengrad eine sinnvolle Wahl sein), mit denen man die Werte der ersten Iteration berechnet. Diese dienen wiederum als Eingabevektor für die zweite Iteration usw.. Im Regelfall gibt es aber eine elegantere, nicht auf Iterationen beruhende Lösung. Betrachten wir die Situation zunächst für einen Akteur in unserem Datensatz für Woche 14. Akteur 7 wird von drei anderen Akteuren gewählt, nämlich von den Akteuren 10, 12 und 14 (siehe siebte Spalte der Matrix zu DICH3_14 (=Kodierung A, Woche 14) in Anhang A). Damit ergibt sich, wenn wir RankPrestige mit P R abkürzen, die Gleichung
(2.2) PR (n7 ) (1/ O ) ( PR ( n10 ) PR ( n12 ) PR (n14 )). Das O ist ein Parameter, der garantieren soll, dass das System von 17 simultanen Gleichungen, die wir in diesem Fall schließlich erhalten, wenn wir alle Akteure gleichzeitig betrachten, auch lösbar ist. Ohne einen solchen Parameter käme es leicht zu unerwünschten Lösungen. Wenn wir allein die Akteure vier und fünf betrachten, gelangen wir bereits zu einer unbefriedigenden Lösung. Akteur 5 wird nur von Akteur 4 gewählt, Akteur 4 dagegen von Akteur 5 und zusätzlich von den Akteuren 2, 8, 16 und 17. Ohne den Parameter O ergäben sich nun die beiden Gleichungen:
2 Prestige, Zentralität und Zentralisierung
(2.3) (i ) PR (n5 ) (ii ) PR (n4 )
39
PR ( n4 ) PR ( n5 ) PR (n2 ) PR ( n8 ) PR ( n16 ) PR ( n17 ).
Zum einen wäre nun Akteur 5 genauso prestigereich wie Akteur 4 (wegen (i)), obwohl Akteur 4 neben der gegenseitigen Wahl mit Akteur 5 noch vier weitere Wahlen erhält, die Akteur 5 nicht erhält. Zum anderen müsste sich nun wegen (ii) notwendigerweise das Prestige der Akteure 2, 8, 16 und 17 zu 0 summieren, damit das System lösbar bleibt. Es wird sich zeigen, dass die Vereinbarkeit von Gleichungen der Art (i) und (ii) ein Faktor (hier 1/O) sicherstellt, der sinnvollerweise zwischen 0 und 1 liegen sollte. Schreibt man für eine Menge von Akteuren die entsprechenden Gleichungen auf, so lässt sich das resultierende Gleichungssystem kurz in MatrixSchreibweise darstellen:
(2.4) P (1/ O ) AT P. Dabei ist P der (zu suchende) Spaltenvektor mit den Rank-Prestige-Indizes und A die (gegebene) Matrix mit den soziometrischen Wahlen der Gruppe, also mit den Einträgen: a ij = 1, falls Akteur i Akteur j wählt; sonst a ij = 0. AT bezeichnet die zu A transponierte Matrix, das heißt die Matrix, die die Zeilen von A als Spalten und die Spalten von A als Zeilen hat, also mit a ij =1, falls j i wählt (i von j gewählt wird); sonst a ij =0. Gleichung (2.4) lässt sich auch schreiben als:
(2.5) O P
AT P.
P ist die Unbekannte, die wir suchen. Eine Lösung P einer solchen Matrizengleichung, die im übrigen nicht eindeutig ist, und die für reelle Matrizen nicht einmal existieren muss („zum Glück“ existiert sie jedoch in den meisten Fällen), nennt man einen Eigenvektor von AT. Das zu dem Eigenvektor gehörige O nennt man den zu diesem Eigenvektor gehörenden Eigenwert. Ein solches System hat im Normalfall viele Lösungen für P (d.h. viele Eigenvektoren) zu jeweils unterschiedlichen Werten für O. Nicht jede dieser Lösungen ist sinnvoll als PrestigeIndex interpretierbar, und es ist nicht garantiert, dass unter den verschiedenen Lösungen überhaupt eine existiert, die sinnvoll als Prestige-Index interpretiert werden kann. Als ungeeignet darf man all die Lösungsvektoren betrachten, die mindestens einen negativen Eintrag besitzen. Negativ bewertete Akteure würden negative Beiträge zum Prestige derer liefern, an die sie ihre Wahlen vergeben, so dass schließlich nicht mehr gewährleistet wäre, dass der Empfang von Wahlen das Prestige erhöht (oder aber zumindest gleich lässt). Man sucht also nach
40
2 Prestige, Zentralität und Zentralisierung
einem Eigenvektor, in dem alle Einträge größer oder gleich 0 sind. Um die Existenz eines solchen Eigenvektors zu garantieren, muss man bestimmte Bedingungen an die Soziomatrix stellen. P. Bonacich (1972b) hat nun für symmetrische Matrizen nachgewiesen, dass der Eigenvektor zum größten Eigenwert eine Lösung ist, in der alle Einträge positiv oder 0 sind, solange alle Einträge in der Soziomatrix positiv oder 0 sind (P. Bonacich 1972b:115). Diese Lösung ist somit sinnvoll als Vektor von Prestige-Indizes interpretierbar (P. Bonacich 1972b:115). Der resultierende Eigenvektor mit der Lösung ist jedoch noch nicht normiert und es sind unterschiedliche Normierungen für ihn möglich. P. Bonacich benötigt für den Beweis, dass es eine solche nicht beliebige Lösung für P gibt, die Symmetrie der Matrix A. Für nicht-symmetrische Matrizen wie zum Beispiel Adjazenzmatrizen gerichteter Graphen ist es dagegen mit diesem Verfahren nicht sicher, dass eine wünschenswerte Lösung existiert. Für das Prestige sind aber nicht-symmetrische (gerichtete) Beziehungen von Bedeutung. Gerade nicht erwiderte Freundschaftswahlen geben darüber Aufschluss, wer in der Hierarchie der Gruppe über wem steht. Im nicht symmetrischen Fall garantiert uns das Perron-FroebeniusTheorem (siehe etwa J.P. Keener 1993), dass es einen Eigenvektor mit nur nicht-negativen Einträgen gibt, so lange alle Einträge in der Soziomatrix nichtnegativ sind. Allerdings garantiert das allein nicht, dass diese Lösung sinnvoll interpretierbar ist. Wir wissen nicht, ob diese Lösung eindeutig ist und zu welchem Eigenwert sie gehört. Außerdem kann diese Lösung einige unerwünschte Ergebnisse enthalten. So erhalten Akteure, die keine eingehenden Beziehungen haben, das Prestige 0. Somit ist ihr Beitrag zum Prestige derer, an die sie ihre ausgehenden Beziehungen richten, auch wieder 0. Damit haben alle Akteure, die nur von nicht gewählten Akteuren gewählt werden, ein Prestige von 0 und damit tragen auch sie wiederum nichts zum Prestige derer bei, die sie wählen. In einem hierarchischen Netzwerk kann sich dieser Effekt immer weiter fortsetzen. Die Nicht-Negativität der Matrix allein reicht also nicht aus, um ein interpretierbares Resultat zu gewährleisten. Falls die Matrix zusätzlich irreduzibel 28 ist, gibt es genau einen Eigenvektor, in dem alle Einträge positiv sind. Dieser Eigenvektor ist der Eigenvektor zum größten Eigenwert (J.P. Keener 1993: 81). In diesem Falle liefert das Eigenvektor-Verfahren auch für nicht symmetrische Matrizen sinnvolle Ergebnisse. Dennoch bearbeitet die Routine zur Bestimmung des Eigenvektor-Prestiges in UCINET nur symmetrische Matrizen. 28
Irreduzibilität heißt, dass je zwei Akteure i und j füreinander über das Netzwerk erreichbar sind: es gibt also für alle Akteure i, j aus dem Netzwerk sowohl einen Weg von Akteur i zu Akteur j als auch von Akteur j zu Akteur i. Das Netzwerk ist also stark verbunden (s.u. S. 96ff.).
2 Prestige, Zentralität und Zentralisierung
41
Das Verfahren hat aber auch einen Vorteil. Es ist nicht nur für dichotome Beziehungen anwendbar, sondern die Einträge in der Beziehungsmatrix A können beliebige (nicht-negative) Werte sein. Für die Newcomb Fraternity bedeutet dies, dass wir mit den ursprünglichen Rangfolgedaten enger am Originaldatensatz arbeiten können 29. Bei den Rangfolgen bedeuten kleine Zahlen Zuneigung und große Zahlen Abneigung. Sinnvoll ist die Anwendung des Rank-Prestige-Indexes nach P. Bonacich (1972b) nur, wenn die Einträge der Soziomatrix die Stärke der Beziehung ausdrücken. Wenn wir also nicht geringe Prestige-Werte für beliebte und hohe Prestige-Werte für unbeliebte Akteure erhalten wollen, müssen wir die Werte für alle Beziehungen umkehren. Wir wollen hier diese Umkehrung durchführen, indem wir erste Plätze zu einer 16 umkodieren, zweite Plätze zu einer 15 usw., bis schließlich sechzehnte Plätze zu einer 1 umkodiert werden. Die so entstandene Matrix drückt jetzt die Stärke der Zuneigung aus. In dem von dieser Matrix beschriebenen Netzwerk ist jeder Akteur mit jedem anderen verbunden, allerdings mit unterschiedlichen Stärken: Jeder Akteur hat zu jedem anderen eine Beziehung vom Wert 1 bis 16. Die Matrix dieses Netzwerkes ist somit nicht-negativ (und auch irreduzibel) und wir können das Eigenvektor-Verfahren auf sie anwenden. In UCINET IV erstellt man diesen Datensatz, indem man die Routine MATRICES>TRANSFORM>REVERSE wählt (Ucinet 6: Transform>Reverse). Als INPUT DATASET wählt man wiederum NEWFRAT und die Frage INCLUDE DIAGONAL VALUES? beantwortet man mit NO. Als Name für die Ausgabedatei wurde hier REVERSE gewählt. Die Datei wird im Folgenden so bezeichnet.
Da UCINET den Eigenvektor nur für symmetrische Matrizen berechnet, müssen wir an dieser Stelle Ergebnisse präsentieren, die nicht mit UCINET berechnet wurden. Wir könnten das Netzwerk zwar symmetrisieren und dann UCINET benutzen, doch kommt es beim Prestige ja gerade auf die eingehenden Beziehungen an. Wir wollen die Daten daher nicht symmetrisieren und benutzen stattdessen das Programm VISONE 30. Alternativ könnte man die Berechnung mit Mathematik-Software ausführen, insofern in dieser Matrix-Algebra implementiert ist. Wie bereits erwähnt ist der Eigenvektor zum größten Eigenwert, 29
Dabei ist allerdings zu bedenken, dass wir die Rangfolgedaten der Newcomb Fraternity in Rechenprozeduren (Addition, Multiplikation) einsetzen, die nur für Daten auf metrischem Messniveau zugelassen sind. Da die Newcombdaten lediglich ordinales Niveau besitzen, ist das Vorgehen methodisch nicht unumstritten. 30 U. Brandes und D. Wagner 2003; M. Baur 2008. Das Programm kann für Studienzwecke kostenlos aus dem Internet bezogen werden (http://visone.info).
42
2 Prestige, Zentralität und Zentralisierung
der die Prestige-Indizes enthält, nicht normiert und es sind verschiedene Normierungen denkbar; VISONE standardisiert die Indizes, indem die PrestigeWerte der einzelnen Akteure in Prozent der Summe des Prestiges aller Akteure angegeben werden. Ergebnisse der Analyse Das “Eigenvektor-Prestige” wurde für Woche 14 ausgewertet, was einen Vergleich mit dem degree prestige möglich macht. Die Ergebnisse sind in Abbildung 2.4 wiedergegeben Rank-Prestige ("Eigenvektor"-Prestige) 10 9 8 7 6 5 4 3 2 1 0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
Abbildung 2.4: Rank-Prestige (‚Eigenvektor-Prestige’) der 17 Akteure für Woche 14 mit dem Datensatz REVERSE (Berechnung mit VISONE; version 1.1.1) Die Analyse führt zu einem differenzierteren Bild als das mit Hilfe des degree prestige gewonnene. Das liegt zum einen daran, dass nun alle Rangplätze berücksichtigt werden und nicht nur die ersten drei, zum anderen an der besonderen Gewichtung, die das Eigenvektor-Prestige bei den Wahlen vornimmt. In wichtigen Punkten ergeben sich jedoch bei beiden Prestige-Indizes Übereinstimmungen. Die Akteure 9 und 17 bleiben die beliebtesten, die Akteure 3, 10 und 16 finden sich am Ende der Beliebtheitsskala wieder. Vergleicht man Ak-
2 Prestige, Zentralität und Zentralisierung
43
teure 11 und 15 miteinander, so kehrt sich ihre Reihenfolge um. An diesem Beispiel kann man gut analysieren, was das Eigenvektor-Prestige im Gegensatz zum degree prestige beachtet: Auch wenn Akteur 15 eine Freundschaftswahl mehr erhält als Akteur 11 (nämlich 1 statt 0), wenn man nur die drei ersten Rangplätze berücksichtigt, so bekommt er doch insgesamt eher schlechtere Bewertungen (Durchschnitt aller Rangplätze: Akteur 11: 9,625; Akteur 15: 11,125). Außerdem erhält Akteur 11 viel bessere Rangplätze von den prestigereichen Akteuren 9 und 17 (Platz 9 bzw. 7) als Akteur 15 (Platz 13 bzw. 12). Das Eigenvektor-Verfahren gewichtet gerade diese Beziehungen höher als andere. Umgekehrt wird die Freundschaftswahl von Akteur 3 an Akteur 15 (Rangplatz 2) sehr gering gewichtet, da Akteur 3 geringes Prestige hat. Ähnlich lässt sich erklären, dass Akteur 12 leicht geringeres EigenvektorPrestige hat als Akteur 6, obwohl der erste fünf, der andere jedoch nur vier direkte Wahlen gemäß DICH3_14 (=Kodierung A, Woche 14) erhält und obwohl Akteur 12 im Durchschnitt einen leicht besseren Rangplatz als Akteur 6 erhält (Akteur 12: 6,19, Akteur 6: 6,25). Akteur 6 erhält aber einen wesentlich besseren Rangplatz vom prestigereichen Akteur 9 als Akteur 12 (Platz 1 gegenüber Platz 7) und die Wahlen (bzw. vorderen Rangplätze), die Akteur 12 erhält, kommen sämtlich von prestigearmen Akteuren: 3, 7, 11, 15 und 16 wählen ihn. Das sind die fünf prestigeärmsten Akteure der gesamten Gruppe. Wir weisen noch einmal darauf hin, dass die sinnvolle Berechnung von Eigenvektor-Prestige strenge Anforderungen an das Netzwerk voraussetzt. Diese Bedingungen haben wir geschaffen, indem wir die Rangfolgedaten in umgekehrter Reihenfolge benutzt haben. Mit den dichotomisierten Daten aus DICH3 (=Kodierung A) wäre die Analyse mit dem Eigenvektor-Prestige nicht sinnvoll gewesen, da die zugehörigen Adjazenzmatrizen nicht immer irreduzibel sind, denn einige Akteure haben in einigen Wochen keine eingehenden Beziehungen und können daher von niemanden im Netzwerk erreicht werden. Zum Abschluss der Analyse mit dem Eigenvektor-Prestige sollte noch angemerkt werden, dass P. Bonacichs Lösung des Problems, dass die Gleichung OP = AT P keine eindeutige Lösung besitzt (also die Wahl des Eigenvektors zum größten Eigenwert O), nicht die einzige ist, die in der Netzwerkanalyse angewandt wird. Seit J.R. Seeley (1949) die Idee des unendlichen Regresses zur Berechnung von Zentralität und Prestige, die dem Rank-Prestige zugrunde liegt, veröffentlichte, hat es eine Vielzahl von Abwandlungen dieses Ansatzes gegeben (u.a. L. Katz 1953, C.H. Hubbell 1965, M. Taylor 1969, P. Bonacich 1972b und 1987, M.S. Mizruchi u.a. 1986, T. Tam 1989). Dabei erzwingen manche
44
2 Prestige, Zentralität und Zentralisierung
Autoren eine Lösung des Systems P = AT P (ohne Parameter O), indem sie Normierungen an der Soziomatrix A vornehmen. Weitere Abwandlungen dieses Ansatzes eignen sich besser zur Messung von Informiertheit bzw. Einfluss in entsprechenden Netzwerken (L. Katz 1953, M. Taylor 1969) 31 oder zur Messung von Macht in Verhandlungssituationen (P. Bonacich 1987) als zur Messung von Popularität in soziometrischen Netzwerken. Wieder andere Variationen des Ansatzes erfordern zusätzlich externe Kriterien, die in Anfangswerte für das Prestige eines Akteurs umgesetzt werden können (C.H. Hubbell 1965). M.S. Mizruchi u.a. (1986) verwenden P. Bonacichs Eigenvektor-Ansatz, unterscheiden aber zwischen abgeleiteter und reflektierter Zentralität 32, wobei reflektierte Zentralität diejenige ist, die man von sich selbst auf dem Umweg über andere erhält. Ein Beispiel hierzu: Akteur 9 und Akteur 17 wählen sich gegenseitig. Akteur 9 bewirkt mit seiner Wahl, dass Akteur 17 zentraler wird. Indirekt wertet er damit jedoch auch die Wahl von Akteur 17 an sich (Akteur 9) auf. Die Zentralität, die man auf diesem Umweg erhält, nennen M.S. Mizruchi u.a. reflektierte Zentralität, während die übrige Zentralität abgeleitete Zentralität genannt wird. M.S. Mizruchi u.a. betrachten nur die in zwei Schritten reflektierte Zentralität. Eine Überarbeitung und Verallgemeinerung dieses Ansatzes auf in n-Schritten reflektierte Zentralität findet man bei T. Tam (1989). Eine neuere Methode, die auch von der Suchmaschine Google zum Ranking der Suchergebnisse genutzt wird (S. Brin und L. Page 1998), der PageRank, berücksichtigt gegenüber dem Eigenvektor-Prestige auch feine Unterschiede zwischen prestigearmen Akteuren. Ein eventueller Nachteil des Gleichungssystems (2.5) OP = AT P zur Bestimmung von Eigenvektor-Prestige besteht – wie bereits erwähnt – für Netzwerke, in denen manche Akteure keine Wahlen erhalten (wie z.B. in DICH3_14 (=Kodierung A, Woche 14) die Akteure 3, 10, 11 und 16). Die Akteure, die keine Wahlen erhalten, bekommen aufgrund dieser Gleichung das Prestige 0. Damit tragen sie aber im nächsten Schritt auch nichts zum Prestige derer bei, an die sie ihre Wahlen vergeben, so dass Akteure, die nur von solchen gewählt werden, die ihrerseits gar nicht gewählt werden, auch das Prestige 0 erhalten. Diese Akteure können dann im nächsten 31 Hier gehen direkte und indirekte Verbindungen zwischen Akteuren in die Berechnung des Einfluss- bzw. Informiertheitsindexes ein, wobei Wege der Länge m mit einem Gewicht Wm gewichtet werden, das mit zunehmendem m immer kleiner wird. 32 Wir erinnern an die zu Beginn des Kapitels gemachten Ausführungen, nach denen es sich bei „Zentralität“ um den allgemeineren Begriff handelt, wobei zunächst keine Rolle spielt, ob wir es mit einem ungerichteten oder gerichteten Graphen zu tun haben. „Rang“, „Prestige“, „Popularität“ etc. sind Spezialisierungen, die sich auf die eingehenden Verbindungen in gerichteten Graphen beziehen.
2 Prestige, Zentralität und Zentralisierung
45
Schritt auch kein Prestige weitergeben usf. In einer perfekten Hierarchie setzt sich dieser Prozess sogar über das komplette Netzwerk fort. Beim Page-Rank wird dieser Mechanismus durch Einführung von Zufallsprozessen, durch die auch nicht gewählte Akteure geringes Prestige bekommen können, außer Kraft gesetzt. Man benötigt damit im Vergleich zum reinen Eigenvektor-Verfahren nicht mehr die Bedingung der Irreduzibilität der Matrix. Es reicht, wenn die Matrix keine negativen Einträge enthält. 2.2
Zentralität in der Newcomb Fraternity
Zunächst soll noch einmal wiederholt werden: Mit Zentralität bezeichnet man die Wichtigkeit der Lage eines Akteurs sowohl in ungerichteten Netzwerken als auch – bezüglich der ausgehenden Wahlen eines Akteurs – in gerichteten Netzwerken. Zunächst untersuchen wir die Newcomb Fraternity auf Zentralität im ungerichteten Sinne. Um die Zentralität im ungerichteten Sinne zu untersuchen, müssen wir aus den asymmetrischen Originalrangfolgedaten eine symmetrische und dichotome Beziehung “Freundschaft” konstruieren. Für das Konzept der Freundschaft setzen wir üblicherweise wechselseitige Zuneigung (wechselseitiges „Mögen“) voraus: Somit handelt es sich im Grunde um ein symmetrisches Konzept: Akteur a kann Akteur b noch so hoch einschätzen, wir werden nur dann von einer Freundschaft reden, wenn auch a von b hoch eingeschätzt wird. Es scheint ratsam, die Bedingung des “Hoch-Einschätzens” nicht ganz so streng zu definieren wie bei der Dichotomisierung der gerichteten Beziehung (DICH3 (=Kodierung A)). Dafür verlangen wir nun, dass beide Akteure sich auf dem noch zu definierenden Niveau “mögen”. Von einer Freundschaft zwischen Akteur i und Akteur j wollen wir daher genau dann reden, wenn jeder der beiden den jeweils anderen unter die ersten fünf wählt. Die durch diese Beziehung definierte Matrix bezeichnen wir als DI5SY (=Kodierung B); für die 14. Woche befindet sie sich im Anhang A als DI5SY_14 (=Kodierung B, Woche 14). In UCINET IV lässt sich dieser Datensatz leicht erstellen. Wie bereits bei der Erstellung von DICH3 (=Kodierung A) dichotomisiert man den Datensatz zunächst, indem man den Wahlen 1 bis 5 den Wert 1, den Wahlen 6 bis 16 den Wert 0 zuordnet (mit MATRICES>TRANSFORM>DICHOTOMIZE oder (besser, weil man bewusster kontrollieren kann, was mit den Einträgen auf der Diagonale geschieht) MATRICES>TRANSFORM> RECODE (s.o. S. 29)). Den so entstandenen dichotomen Datensatz gibt man nun in die Routine MATRICES>TRANSFORM>SYMMETRIZE ein (Ucinet 6: Transform>Symmetrize). Wichtig ist, dass man als Symmetrisierungsmethode MINIMUM
46
2 Prestige, Zentralität und Zentralisierung
(dies bezeichnet hier die “und”-Verknüpfung; s.o. S. 24) wählt. So erhält der symmetrische Datensatz nur dann eine 1 in i-ter Zeile und j-ter Spalte, wenn a ij = 1 und a ji = 1 (das heißt, wenn das Minimum beider Werte gleich 1 ist). Den dabei entstehenden Datensatz bezeichnen wir mit DI5SY.
Abbildung 2.5: Graphische Darstellung von DI5SY_14 (=Kodierung B, Woche 14), spring embedders Dieser Ansatz hat einen eindeutigen Nachteil darin, dass er die Zahl möglicher Freundschaften jedes Akteurs auf maximal fünf beschränkt und daher besonders große Unterschiede in der Zentralität von vornherein ausschließt. Ein alternativer Ansatz, der dieses Problem ausschaltet, wird daher ebenfalls zur Berechnung der Zentralität herangezogen. Die Idee dieses zweiten Ansatzes ist es, in einem ersten Durchgang zunächst einmal die ersten drei Wahlen eines jeden Akteurs als 1 und die restlichen Wahlen als 0 zu kodieren. Nun schauen wir auf die Anzahl eingehender Beziehungen eines jeden Akteurs. Wir nehmen an, dass bei Akteuren, die bis zu drei Wahlen erhalten haben, auch nur die ersten drei eigenen Wahlen von hoher Zuneigung zeugen. Personen, die von mehr als drei Personen gewählt wurden, gestehen wir jedoch zu, eine ebenso große Anzahl von Personen als Freunde zu wählen wie die Zahl der Personen, von denen sie
2 Prestige, Zentralität und Zentralisierung
47
gewählt wurden. Bei einer Person mit i>3 eingehenden Wahlen werden also alle ersten i ausgehenden Wahlen als Freundschaftsbeziehung kodiert. Damit haben alle Personen drei oder mehr ausgehende Beziehungen; und in letzterem Fall genauso viel wie eingehende. Die so entstandene Matrix wird wiederum durch die “und”-Bedingung symmetrisiert. Dieses Verfahren sorgt dafür, dass die Anzahl der Freundschaften einzelner Akteure nur noch durch die Größe der Gruppe beschränkt wird. Die dadurch entstehende Matrix bezeichnen wir als DIMSY (=Kodierung C). Für die 14. Woche befindet sie sich im Anhang A als DIMSY_14 (=Kodierung C, Woche 14).
Abbildung 2.6: Graphische Darstellung von DIMSY_14 (=Kodierung C; Woche 14), spring embedders Zur Erstellung dieser Kodierung bietet UCINET IV keine Routine an. Die von uns erstellte und im Anhang A aufgeführte Matrix (Kodierung C, Woche 14) kann aber mit der Routine DATASETS>SPREADSHEET (Ucinet 6: Data>Spreadsheet Editor) von Hand in UCINET eingegeben werden.
Die Zentralität wird im Folgenden wiederum nur für die 14. Woche untersucht. Wegen seiner nahen Verwandtschaft zum Konzept des degree prestige und
48
2 Prestige, Zentralität und Zentralisierung
seiner Einfachheit soll das der degree centrality nicht weiter erörtert werden. (Bei letzterem wird die Anzahl der Beziehungen jedes Akteurs gezählt und durch die Zahl der übrigen Akteure geteilt, um das Ergebnis über Populationen hinweg vergleichbar zu machen.) Vielmehr soll die Gruppe mit zwei sich von der degree centrality unterscheidenden Konzepten zur Zentralität untersucht werden.
2.2.1
Closeness Centrality (für symmetrische Beziehungen)
Dem Konzept der closeness centrality liegt die Idee zugrunde, dass eine Person dann zentral ist, wenn sie bezüglich der Netzwerkrelation sehr nah bei allen anderen liegt. Eine solche zentrale Lage steigert die Effizienz, mit der ein Akteur im Netzwerk agieren kann. Ein Akteur, der nah bei allen anderen liegt, kann zum Beispiel schnell Informationen verbreiten und empfangen. Für Freundschaftsnetzwerke steckt auch die Idee dahinter, dass, wer sehr zentral in diesem Sinne ist, mit der Unterstützung vieler Netzwerkmitglieder rechnen kann. Das Konzept der closeness centrality geht auf das graphentheoretische Konzept der geodätischen Distanz (Pfaddistanz) zurück, das hier zunächst eingeführt werden soll. Ein Weg in einem Graphen ist eine Sequenz von Knoten und Kanten, die mit einem Knoten beginnt und einem Knoten endet, und in der (bis auf den “ersten” bzw. “letzten” Knoten) jeder Knoten Element der darauffolgenden und der vorhergehenden Kante ist. Ein Weg in DI5SY_14 (=Kodierung B, Woche 14) ist 2-17-9-4-17-4 (siehe Abbildung 2.5). Ein Pfad ist ein Weg, in dem kein Knoten mehr als einmal vorkommt. Das gerade genannte Beispiel für einen Weg stellt also keinen Pfad da, da in ihm die Knoten 17 und 4 mehrfach vorkommen. Ein Pfad ist dagegen: 2-17-9-4-5. Die Länge eines Pfades ist die Anzahl der Kanten in dem Pfad; in dem Beispiel beträgt die Länge also 4. Zwischen zwei Knoten kann es Pfade verschiedener Länge geben. Die Länge des kürzesten Pfades zwischen zwei Knoten n i und n j nennt man die geodätische Distanz (Pfaddistanz 33) zwischen diesen Knoten. Diese wird mit d(n i ,n j ) bezeichnet (S. Wasserman und K. Faust 1994: 105). Der Pfad im Beispiel ist kein kürzester Pfad zwischen den Akteuren 2 und 5, da es ja auch noch die direkte Verbindung 2-5, also einen Pfad der Länge 1 zwischen beiden gibt. 33 Die Pfaddistanz ist keine „Distanz“ im mathematischen Sinne, da im Falle gerichteter Graphen die Symmetrie-Bedingung nicht notwendig erfüllt ist: die Pfaddistanz zwischen zwei Knoten kann in Abhängigkeit von der Richtung unterschiedlich ausfallen.
2 Prestige, Zentralität und Zentralisierung
49
Die geodätische Distanz zwischen Akteur 2 und Akteur 5 ist also 1. Existiert keine Verbindung zwischen zwei Akteuren, so ist die geodätische Distanz zwischen ihnen unendlich 34. Der standardisierte Index für die closeness centrality eines Akteurs i (C c (n i )) wird berechnet, indem man für diesen Akteur zunächst die Summe der geodätischen Distanzen zu allen anderen Akteuren berechnet. Durch Division dieser Summe durch die um 1 verminderte Anzahl der Netzwerkakteure können wir aus der Summe der Distanzen die durchschnittliche Distanz des Akteurs zu den anderen Akteuren berechnen. Diese Zahl ist immer größer oder gleich 1, da alle Distanzen zwischen Akteur i und den anderen Akteuren größer oder gleich 1 sind. Bilden wir den Kehrwert der durchschnittlichen Distanz zwischen Akteur i und allen anderen, so erhalten wir einen Wert, der immer zwischen 0 und 1 liegt, und der umso näher bei 1 liegt, je näher Akteur i bei allen anderen Akteuren liegt. Diese invertierte durchschnittliche Distanz ist damit ein geeigneter standardisierter Index für die closeness centrality (S. Wasserman und K. Faust 1994: 185).
(2.6) Cc (ni ) ( g 1)
g
¦ d (ni , n j ) j 1
Dieser Index hat den Nachteil, dass er für ein unverbundenes Netzwerk 35 nicht sinnvoll berechnet werden kann. In einem unverbundenen Netzwerk hat jeder Akteur zu mindestens einem anderen Akteur die Distanz unendlich. Der Index kann damit nicht mehr berechnet werden, oder er müsste für alle Akteure als 0 definiert werden, was keinerlei Erkenntnisse bringen würde. Eine andere Möglichkeit bestünde darin, die verbundenen Teilstrukturen (falls es solche gibt) maximaler Größe 36, aus denen sich die im ganzen unverbundene Struktur zusammensetzt, jeweils separat zu betrachten. In dem Netzwerk der Newcomb Fraternity für die 14. Woche bleiben sowohl nach DI5SY_14 (=Kodierung B, Woche 14) als auch nach DIMSY_14 34 Alle diese Konzepte sind zunächst nur für ungerichtete Graphen definiert, können aber in geeigneter Weise auch auf gerichtete Graphen übertragen werden 35 Ein Netzwerk ist verbunden, wenn es zu jedem Paar von Knoten einen Pfad gibt, der sie verbindet. Ist diese Bedingung nicht erfüllt, so ist das Netzwerk unverbunden. Zwei Knoten, zwischen denen es einen Pfad gibt, heißen erreichbar; zwei Knoten, zwischen denen es keinen Pfad gibt, sind nicht füreinander erreichbar. 36 Verbundene Teilstrukturen maximaler Größe heißen auch (Zusammenhangs-) Komponenten, wobei in gerichteten Graphen eine Differenzierung in rekursiv, stark, einseitig und schwach verbundene Komponenten vorzunehmen ist. (s.u., S. 98)
50
2 Prestige, Zentralität und Zentralisierung
(=Kodierung C, Woche 14) jeweils vier Akteure isoliert, nämlich 3, 10, 15 und 16. Entfernt man diese Akteure aus dem Netzwerk, so ist das übrige Netzwerk in beiden Fällen verbunden. Die Akteure 3, 10, 15 und 16 wurden daher für die folgende Analyse aus dem Netzwerk entfernt. Ihre Zentralität kann gleich 0 gesetzt werden, da sie “unendliche Entfernungen” zu allen anderen Akteuren haben. Ergebnisse der Analyse Exemplarisch wird zunächst der Closeness-Centrality-Index für Akteur 17 für Woche 14 berechnet. Zunächst muss dazu die Distanz von Akteur 17 zu allen anderen Akteuren berechnet werden. Es gibt formale Rechenverfahren, um diese Distanzen zu berechnen, für kleinere Netzwerke kann man jedoch die Distanz direkt am Graphen ablesen. Der Graph zu DI5SY_14 (=Kodierung B, Woche 14) befindet sich in Abbildung 2.5. Akteur 17 hat folgende Distanzen zu den anderen Akteuren: Distanz 1 zu den Akteuren 1, 2, 4 und 9 (also insgesamt viermal Distanz 1). Distanz 2 zu den Akteuren 5, 6, 8, 12, 13 und 14 (sechsmal). Distanz 3 zu den Akteuren 7 und 11 (zweimal) Da vier Akteure vor der Analyse aus dem Netzwerk entfernt wurden, ist g nur noch 13. Damit ergibt sich als Zähler von Gleichung (2.6): 13 - 1 = 12. Als Nenner ergibt sich 4 · 1 + 6 · 2 + 2 · 3 = 22. Als Index für Akteur 17 ergibt sich damit C c (n 17 ) = 12/22 = 0,545. Für die 13 verbundenen Akteure ergeben sich demnach gemäß Gleichung (2.6) die in Abbildung 2.7 dargestellten Werte für closeness centrality. In UCINET ist die Berechnung der Indizes für alle Wochen leider etwas aufwendig, da die Routine nur die jeweils erste Matrix eines Datensatzes bearbeitet. Man muss daher folgendermaßen vorgehen: 1.) Mit der Routine DATASETS>EXTRACT (Ucinet 6: Data>Extract) muss man zunächst alle 15 Wochen nacheinander extrahieren (mit KEEP: ROWS = ALL, COLS = ALL, MATRICES = zu extrahierende Matrix eingeben). Vorsicht: Woche 0 (bzw. 1, 2 etc.) wird in UCINET als Matrix 1 (bzw. 2, 3 etc.) gezählt. Ab Woche 10 stimmen dann Matrizen- und Wochennummer wieder überein. Die aus dem Datensatz DI5SY so entstehenden Datensätze werden mit DI5SY_00 bis DI5SY_15 bezeichnet. 2.) Um die vier isolierten Akteure in Woche 14 aus dem Netzwerk zu entfernen, kann man ebenfalls die Routine DATASETS>EXTRACT wählen mit den Einstellungen DELETE; ROWS: 3, 10, 15, 16; COLS: SAME AS ROWS. In verschiedenen Wochen muss man natürlich verschiedene Akteure extrahieren. Welche das jeweils sind, ist z.B. über die Ermittlung ihrer Grade festzustellen. 3.) Anschließend muss man die extrahierten Wochen einzeln in die Routine NETWORKS>CENTRALITY>CLOSENESS eingeben (In Ucinet 6 muss man zusätzlich als Type “Freeman (geodesic paths)” wählen. Dies entspricht aber der Voreinstellung).
2 Prestige, Zentralität und Zentralisierung
51
Unter CLOSENESS findet man wiederum eine Angabe aller Werte in Prozent. Die Routine berechnet die Indizes übrigens auch ohne die vorherige Herausnahme isolierter Akteure. Die Ergebnisse sind jedoch dann verfälscht, da die (Pfad-)Distanz zwischen zwei unverbundenen Akteuren gleich der Zahl der Netzwerkmitglieder (hier: 17) gesetzt wird (!). In UCINET gibt es darüber hinaus auch eine Routine, die eine Matrix mit den (Pfad-) Distanzen jedes Akteurs zu jedem anderen ausgibt, nämlich NETWORKS>CONNECTIONS>DISTANCE (Ucinet 6: Network>Cohesion>Distance). Die Distanz zwischen unverbundenen Akteuren wird dabei wiederum gleich der Anzahl der Netzwerkmitglieder gesetzt.
Zentralität (closeness) 0,6 0,5 0,4 0,3 0,2 0,1 0
1
2
4
5
6
7
8
9 11 12 13 14 17
Abbildung 2.7: Closeness-Centrality-Indizes der 13 verbundenen Akteure in Woche 14 nach DI5SY_14 (=Kodierung B, Woche 14) DI5SY_14 (=Kodierung B, Woche 14) führt zu dem Ergebnis, dass die Mitglieder der Gruppe hinsichtlich der Zentralität eng beisammen liegen. Die sieben zentralsten Akteure (Akteure 1, 2, 4, 6, 9, 14, 17) liegen bei einer Zentralität von 0,5 bis 0,571 extrem eng beieinander. Fünf weitere Akteure (Akteure 5, 7, 8, 12, 13) liegen mit einigem Abstand dazu bei Werten von 0,414 bis 0,429 ebenfalls nah beieinander und nur Akteur 11 fällt mit einer Zentralität von 0,308 deutlich zurück (siehe Abbildung 2.7). Viel mehr als die Zentralität einzelner Akteure scheint dabei das Muster der Verteilung der Zentralität interpretierbar. Es gibt ein Zentrum mit sieben untereinander stark verbundenen Akteuren: Von den (7·6)/2 = 21 Paaren des Zentrums haben 10 Verbindungen, in der gesamten Gruppe gibt es (17·16)/2 = 136 Paare und 22 Verbindungen. Damit beträgt die
52
2 Prestige, Zentralität und Zentralisierung
lokale Dichte 37 der Verbindungen im Zentrum 10/21 = 0,476, während sie im gesamten Netzwerk nur 22/136 = 0,162 beträgt. Es gibt zudem eine mittlere Gruppe von sechs Akteuren (falls man Akteur 11 dazuzählt) mit mäßiger Zentralität und die vier isolierten Akteure an der Peripherie der Gruppe. Es fällt auf, dass die beiden Akteure (9 und 17) mit dem deutlich höchsten Prestige sich hinsichtlich der Zentralität von den übrigen Mitgliedern der zentralen Gruppe kaum unterscheiden (Akteur 9 liegt bei 0,522, Akteur 17 bei 0,545). Die Begründung dafür liegt sicherlich auch in der Art der Kodierung, die nur maximal fünf direkte Beziehungen zulässt. Die Existenz direkter Beziehungen wirkt sich natürlich auf die durchschnittliche Distanz zu anderen mindernd aus: zum einen, da eine direkte Beziehung den geringsten möglichen Abstand von 1 bedeutet, zum anderen, da man über viele direkte Beziehungen wiederum die Möglichkeit hat, schnell weitere Akteure zu erreichen. So wird hier Akteur 4 zum zentralsten Akteur. Diesem gelingt es im Gegensatz zu den Akteuren 9 und 17, seine fünf ersten Wahlen an solche zu vergeben, die ihn ebenfalls unter die ersten fünf wählen. Dagegen wählen die Akteure 9 und 17 jeweils eine Person unter die ersten fünf, die sie nicht wählt. D.h. unter DI5SY_14 (=Kodierung B, Woche 14) verfügt Akteur 4 über fünf direkte Beziehungen, die Akteure 9 und 17 lediglich über vier. Wir wollen die Ergebnisse nun mit denen vergleichen, die aus Kodierung C resultieren, die keine Beschränkung in der Zahl möglicher Freundschaften vorsieht. Bei dieser Kodierung haben die Akteure 9 und 17 mit dem höchsten Prestige mit Abstand die meisten direkten Verbindungen (jeweils sieben). Diese vielen direkten Verbindungen bewirken, dass sie das gesamte Netzwerk mit wenigen Schritten durchqueren können. Die Ergebnisse sind in Abbildung 2.8 wiedergegeben. Für Akteur 17 werden alle Akteure in zwei Schritten erreichbar, und er wird mit einem Index von 0,706 zentralster Akteur. Akteur 9 folgt mit 0,667. Die Akteure 12 und 13 steigen dann gegenüber der anderen Kodierung in ein Feld von sechs Akteuren (Akteure 1, 2, 4, 6, 12, 13) auf, die eine Zentralität von 0,522 bis 0,571 erreichen. Dabei profitieren sie davon, dass die Möglichkeit für Akteure 9 und 17, mehr als fünf Freundschaften einzugehen, Akteure 12 und 13 mit dem Zentrum verbunden hat. Für Akteur 12 ist eine Verbindung zu 9 und 17
37 Unter der Dichte eines Netzwerks versteht man die Anzahl der Beziehungen geteilt durch die maximal mögliche Anzahl der Beziehungen (Anzahl der Paare). Die lokale Dichte in einem Teil eines Netzwerkes ist die Dichte bezogen auf alle Paare zwischen Akteuren in diesem Teil: Anzahl der Beziehungen zwischen den Akteuren aus dem angesprochenen Teil des Netzwerkes geteilt durch Anzahl der Paare in diesem Teil des Netzwerkes.
2 Prestige, Zentralität und Zentralisierung
53
entstanden, für Akteur 13 eine zu Akteur 17. Die restlichen fünf Akteure (5, 7, 8, 11, 14) liegen zwischen 0,364 und 0,462. Die Zentralität ist also nicht unabhängig von der Wahl der Kodierung. Für einzelne Akteure ändert sich das Maß an Zentralität deutlich genug, um sie zwischen Vorderfeld und Mittelfeld schwanken zulassen. Die Ergebnisse sind jedoch nicht gänzlich unvereinbar miteinander und führen zusammengenommen zu einer sinnvollen Interpretation. Man gewinnt durch Zuhilfenahme der beiden verschiedenen Kodierungen an Information. Personen, deren Zentralität stark von der Kodierung abhängt, sind auch in der Realität in einer unsicheren Lage, da ihre Zentralität von Beziehungen abhängt, die weder eindeutig Freundschaften noch eindeutig keine Freundschaften sind. Die Zentralitäts-Indizes aus DI5SY (=Kodierung B) und aus DIMSY (=Kodierung C) korrelieren in Woche 14 zu r=0,99 miteinander, wenn man alle 17 Akteure berücksichtigt, aber nur noch zu r=0,54 für die 13 verbundenen Akteure.
Zentralität (closeness) 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
1
2
4
5
6
7
8
9 11 12 13 14 17
Abbildung 2.8: Closeness-Centrality-Indizes der 13 verbundenen Akteure in Woche 14 nach DIMSY_14 (=Kodierung C, Woche 14)
54
2 Prestige, Zentralität und Zentralisierung
2.2.2
Betweenness Centrality (für symmetrische Beziehungen)
Das Konzept der betweenness centrality ist dazu geeignet, solche zentralen Personen aufzuspüren, deren Zentralität weniger offensichtlich ist und die sich nicht unbedingt durch viele direkte Verbindungen auszeichnen. Dieses Konzept von Zentralität lässt sich am besten verdeutlichen, indem man sich die Netzwerkverbindungen als Kommunikationswege vorstellt. “Interaction between two nonadjacent actors might depend on the other actors in the set of actors, especially on the actors who lie on the paths between the two. These “other actors” potentially might have some control over the interactions between the two nonadjacent actors.” (S. Wasserman und K. Faust 1994: 188) Personen, die zwei ansonsten unverbundene Teilpopulationen miteinander verbinden, sind typischerweise Akteure mit hoher betweenness centrality. In einem Graphen nennt man solche Knoten, ohne deren Vorhandensein der Graph in unverbundene Teile zerfallen würde, cutpoints. Solche Personen haben Einfluss auf das Zustandekommen von Interaktion oder Kommunikation zwischen den Teilpopulationen und können den Inhalt von Kommunikation kontrollieren und verändern. Der von L.C. Freeman (1979) entwickelte Index für betweenness centrality beruht auf der vereinfachenden Annahme, dass nur die kürzesten Verbindungen zwischen zwei Akteuren für Kommunikation genutzt werden, alle anderen Verbindungen also vernachlässigt werden können. Der standardisierte Index für einen Akteur i beschreibt die Wahrscheinlichkeit, dass ein Akteur i auf den kürzesten Pfaden zwischen allen anderen Paaren von Akteuren j und k liegt. Rechnerisch erhält man ihn, indem man für jedes Paar von Akteuren j, k z i unter allen kürzesten Pfaden, die j und k verbinden, den Anteil von Pfaden bestimmt, die über Akteur i laufen. Anschließend müssen diese Anteile über alle Paare j, k z i gemittelt werden. Als Formel für die standardisierte betweenness centrality (C b ) ergibt sich somit:
¦
(2.7) Cb (ni )
j k ; j ,k zi
g jk ( ni ) g jk
( g 1) ( g 2) / 2
2 Prestige, Zentralität und Zentralisierung
55
mit: g jk (n i ) g jk
Anzahl der kürzesten Verbindungen zwischen Akteur j und Akteur k, die Akteur i enthalten Anzahl der kürzesten Verbindungen zwischen Akteur j und Akteur k insgesamt
In der Formel wird nur über alle (ungeordneten) Paare mit jEXTRACT gewählt werden (Details s.o. S. 50). Un-
2 Prestige, Zentralität und Zentralisierung
57
verbundene Akteure können dann für jede Woche einzeln vor der folgenden Analyse mit DATASETS>EXTRACT unter Angabe der entsprechenden Zeilen/Spalten, in denen die Akteure zu finden sind, entfernt werden. Die zugehörige Routine ist NETWORKS>CENTRALITY>BETWEENNESS (In Ucinet 6: Network>Centrality>Freeman Betweenness>Node Betweenness). Die normierten Indizes findet man unter “nBetween” in Prozent. Diese Routine berechnet wiederum die Indizes auch für ein unverbundenes Netzwerk. Die Werte werden dann jedoch (im Vergleich zu denen, die man bei Ausschluss der unverbundenen Akteure erhalten würde) alle kleiner, da im Fall g jk = 0 für alle i gesetzt wird: g jk (n i ) / g jk = 0. Somit vergrößern die nicht angebundenen Akteure den Nenner, nicht aber den Zähler von Gleichung (2.7).
Die Ergebnisse der Analyse lassen sich gut interpretieren, wenn man die Darstellung des Netzwerks aus der Abbildung oben (Abb. 2.5) mit Informationen aus der closeness centrality Analyse anreichert. In Abbildung 2.10 spiegelt die Größe der Knoten wieder, wie zentral ein Akteur bei der closeness centrality nach DI5SY_14 (=Kodierung B, Woche 14) ist. Wir unterscheiden dabei drei Klassen: Die sieben zentralsten Akteure, sechs Akteure mit mittlerer Zentralität und vier isolierte Akteure. Das Oval umringt genau das aus den sieben (im Sinne der closeness centrality) zentralsten Akteuren bestehende „Zentrum“.
Abbildung 2.10: DI5SY_14 (=Kodierung B, Woche 14): Größe der Knoten beschreibt die closeness centrality (3 Kategorien)
58
2 Prestige, Zentralität und Zentralisierung
Im Sinne der betweenness centrality sind jedoch Akteur 2 (0,237), Akteur 12 (0,213), Akteur 4 (0,201), Akteur 1 (0,183), Akteur 6 und Akteur 14 (beide 0,144) am zentralsten. Allen diesen sechs Akteuren ist gemeinsam, dass sie die Grenze zwischen Zentrum und Umgebung mit ihren Verbindungen überspannen. Besonders deutlich wird das an Akteur 2, der neben seinen zwei Beziehungen zum Zentrum gleich zu zwei Akteuren der Umgebung Beziehungen unterhält. Er ist daher auf vielen kürzesten Wegen von Akteur 5 enthalten und stellt durch seine Verbindung zu Akteur 12 für die Akteure 7, 11 und 12 die kürzeste Verbindung zum Zentrum dar. Akteur 12 liegt ebenfalls in einer strategisch wertvollen Position außerhalb des Zentrums. Mit nur drei direkten Beziehungen ist er der (im Sinne der betweenness centrality) zweitzentralste Akteur, da ohne ihn Akteur 11 vom Rest der Gruppe und der Rest der Gruppe von Akteur 11 abgeschnitten wäre und da er auch noch auf einem großen Teil der kürzesten Wege von und zu Akteur 7 liegt. Die Akteure 2 und 12 sind also solche, die mit ihren Beziehungen Netzwerkgrenzen überspannen. Beziehungen sind vor allen Dingen dort wertvoll, wo ansonsten nur eine geringe Verbundenheit des Netzwerkes herrscht. Dies wird deutlich an den Zentralitäts-Werten für die Akteure 9 und 17. Sie unterhalten viele Beziehungen zu Akteuren, die allgemein gut erreichbar sind. Im Sinne der betweenness sind sie daher nicht zentral. Ihre Zentralität, die in der Größenordnung der Zentralität von Akteur 7 liegt (Akteur 17: 0,114, Akteur 9: 0,078, Akteur 7: 0,080), liegt in der Nähe des Durchschnitts (0,107) der 13 verbundenen Akteure. Den Akteuren 5, 8, 11 und 13 ordnet der Index die Zentralität 0 zu. Sie liegen am Rande des Netzwerkes und damit nie auf kürzesten Wegen. Sie werden durch diesen Index deutlicher von den zentralen Akteuren getrennt als durch andere Zentralitäts-Indizes. Ergebnisse der Analyse: DIMSY_14 (=Kodierung C, Woche 14) Nimmt man DIMSY (=Kodierung C) als Grundlage, so erhält man das in Abbildung 2.11 dargestellte Ergebnis: Erneut lässt sich das Ergebnis am besten erläutern, indem man eine graphische Darstellung des Netzwerks zu Hilfe nimmt (siehe Abbildung 2.12). Innerhalb des Ovals und vergrößert befinden sich wiederum die Akteure, die sich bei der Analyse der closeness centrality für diese Kodierung als “Zentrum” herausstellten.
2 Prestige, Zentralität und Zentralisierung
59
Zentralität (betweenness) 0,45 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0
1
2
4
5
6
7
8
9 11 12 13 14 17
Abbildung 2.11: Betweenness-Centrality-Indizes der 13 verbundenen Akteure in Woche 14 nach DIMSY_14 (=Kodierung C, Woche 14)
Abbildung 2.12: DIMSY_14 (=Kodierung C, Woche 14): Größe der Knoten beschreibt die closeness centrality (3 Kategorien)
60
2 Prestige, Zentralität und Zentralisierung
Vergleicht man Abbildung 2.12 mit Abbildung 2.10, stellt sich das Muster der Beziehungen anders dar. Akteure 9 und 17 erhalten bei DIMSY_14 (=Kodierung C, Woche 14) selbst Beziehungen zum Umfeld (Akteur 9 zu Akteur 14, Akteur 17 zu Akteur 11). Dies führt gemeinsam mit der großen Zahl ihrer direkten Beziehungen dazu, dass sie nun auch im Sinne der betweenness die deutlich zentralsten Akteure sind (Akteur 17: 0,393, Akteur 9: 0,349). Die Lage von Akteur 12 (dritthöchste Zentralität: 0,145) verliert etwas an Bedeutung, da Akteur 11 ihn nun nicht mehr benötigt, um Verbindungen zum Rest der Gruppe herzustellen. Alle übrigen Akteure liegen hinsichtlich ihrer betweenness centrality weit zurück. Es folgen Akteur 1 und 13 (0,085) und Akteur 6 (0,061). Besonders auffällig ist das Ergebnis für Akteur 2. Er erhält in dieser Analyse die Zentralität 0, wohingegen er nach DI5SY_14 (=Kodierung B, Woche 14) noch zentralster Akteur (im Sinne der betweenness centrality) war. Damit bestätigt sich in dieser Analyse ein Resultat, zu dem J.M. Bolland (1988) bei einem Vergleich von vier Zentralitätsmaßen kommt. Betweenness centrality “ [...] conveys the most unique information.” (J.M. Bolland 1988: 240). Auf der anderen Seite ist dieses Maß jedoch am sensibelsten für sampling error. J.M. Bolland benutzte ein Netzwerk aus “ [...] influence relationships among political participants in the education program in Chillicothe, a city of 25000 people [...] ” (J.M. Bolland 1988: 238) und untersuchte die Stabilität von Zentralitäts-Indizes, indem er sampling errors von 0,02, 0,05, 0,10, 0,15 und 0,20 simulierte. Diese sampling errors erzeugte er, indem er zufällig Beziehungen hinzunahm oder wegfallen ließ. Betweenness centrality verhielt sich schon kleinen Änderungen der Daten gegenüber sehr sensibel. Bei einem Zufallsfehler von 0,05 korrelierten die Ergebnisse nur noch zu etwa 0,7 mit den ursprünglichen, bei einem Fehler von 0,20 nur noch zu etwa 0,4 (J.M. Bolland 1988: 242, Fig. 2). Im hier von uns analysierten Fall werden beim Übergang von DI5SY_14 (=Kodierung B, Woche 14) zu DIMSY_14 (=Kodierung C, Woche 14) fünf der 22 Beziehungen entfernt (das sind ca. 22,7%) und durch sechs neue ersetzt. Dadurch sinkt die Korrelation zwischen betweenness centrality aller 17 Akteure nach DI5SY_14 (=Kodierung B, Woche 14) und betweenness centrality der 17 Akteure nach DIMSY_14 (=Kodierung C, Woche 14) auf 0,24. Für die 13 verbundenen Akteure sinkt die Korrelation sogar auf 0,08. Somit ist also bei der Interpretation der Ergebnisse, die dieser Index liefert, Vorsicht geboten.
2 Prestige, Zentralität und Zentralisierung
2.2.3
61
Betweenness Centrality für gerichtete Beziehungen
R.V. Gould wies in seinem Aufsatz (R.V. Gould 1987) darauf hin, dass L.C. Freemans Index für betweenness centrality, obwohl ursprünglich nicht dafür konzipiert, auch auf gerichtete Beziehungen mit einer im Wesentlichen gleichen Interpretation übertragen werden kann. An Stelle von (ungeordneten) Paaren von Akteuren müssen nun geordnete Paare betrachtet werden. Der Index beschreibt dann nicht die Wahrscheinlichkeit, dass Akteur i auf den kürzesten Pfaden zwischen allen anderen Paaren (j,k) liegt, sondern die Wahrscheinlichkeit, dass er auf den kürzesten Pfaden von j nach k, und zwar für alle geordneten Paare (j,k), liegt. In der Formel für die Berechnung des Indexes ändert sich zweierlei: Man summiert über alle geordneten Paare (nicht nur über alle mit jCENTRALITY>BETWEENNESS berechnet den Index nämlich ohnehin auf der Grundlage geordneter Paare und kann somit bedenkenlos angewandt werden (R.V. Gould 1987:281). In diese Routine gibt man den Datensatz DICH3 (=Kodierung A) ein. In der Spalte “nBetween” kann man die Ergebnisse ablesen. Leider funktioniert die Analyse wieder nur wochenweise, so dass man aus dem Datensatz DICH3 (=Kodierung A) wiederum die zu analysierenden Wochen zunächst mit DATASETS>EXTRACT (KEEP: ROWS = ALL; COLS = ALL; MATRICES = gewünschte Woche eingeben) extrahieren muss.
2.2.4
Zusammenfassung zur Zentralität
Es gibt zwar noch weitere Zentralitäts-Indizes, doch korrelieren diese allgemein und auch für diesen Datensatz jeweils hoch mit einem der hier genutzten Indizes. Eine Anwendung dieser Indizes bringt also kaum noch weitere Informationen. Zunächst wollen wir hier noch einmal die bisher getätigten Analysen zu Prestige und Zentralität systematisieren. Abgesehen vom komplizierteren RankPrestige wurden drei Konzepte behandelt: Das auf der Anzahl direkter Beziehungen basierende Degree-Konzept, das auf durchschnittlicher Distanz basierende Closeness-Konzept und das auf kürzesten Pfaden basierende Betweenness-Konzept. Daneben kann man die Zentralität von Akteuren auch hinsichtlich der Art der jeweils zugrunde gelegten Informationen über die paarweisen Beziehungen unterscheiden, nämlich Zentralität bezüglich eingehender Wahlen (=Prestige), Zentralität bezüglich ausgehender Wahlen und Zentralität bezüglich ungerichteter (symmetrischer) Beziehungen. Man erhält also theoretisch 3 · 3 = 9 Kombinationen von Konzepten und Richtungsinformationen: Zentralität Degree-Konzept Closeness-Konzept Betweenness-Konzept
bzgl. eingehender Wahlen (Prestige) 1 4 7
bzgl. ausgehender Wahlen 2 5 8
in ungerichteten Netzen 3 6 9
1: Wurde in 2.1 untersucht (degree prestige). 2: Durch das Wahldesign bei der Newcomb Fraternity sinnlos, da jeder die gleiche Anzahl ausgehender Beziehungen aufweist. 3: Könnte man berechnen, wurde jedoch hier wegen seiner Einfachheit nicht vorgeführt.
64
2 Prestige, Zentralität und Zentralisierung
4: Mit diesem Konzept wird erfasst, wie schnell ein Akteur von anderen aus erreichbar ist (in wie vielen Schritten). Es ist theoretisch interessant. UCINET IV berechnet jedoch closeness centrality nur für ungerichtete Beziehungen. 5: Mit diesem Konzept wird erfasst, wie schnell ein Akteur alle anderen erreichen kann. Hier gilt gleiches wie bei 4. 6: Wurde in 2.2.1 untersucht (closeness centrality). 7, 8: Diese beiden Fälle sind für betweenness centrality nicht unterscheidbar. In 2.2.3 wurde diese Variante der betweenness centrality für gerichtete Beziehungen untersucht. 9: Wurde in 2.2.2 untersucht (betweenness centrality). Auch wenn man mit der Interpretation der Ergebnisse wegen der starken Zufallsanfälligkeit der betweenness centrality vorsichtig sein muss, vermittelt uns die Analyse wichtige Erkenntnisse über die Lage bestimmter Akteure im Netzwerk. Die Bedeutung der Akteure 9 und 17 liegt hauptsächlich in der Vielzahl ihrer Verbindungen (bewirkt durch ihre Beliebtheit) und damit auch in der Nähe zu allen anderen Netzwerkmitgliedern. Akteur 12 dagegen ist für das Netzwerk wichtig, da er eine Schlüsselposition zwischen verschiedenen, sonst unverbundenen bzw. nur schwach verbundenen Teilpopulationen einnimmt. Die Akteure 1 und 6 gehören in allen Analysen zu den zentralen Akteuren. Die Zentralität anderer Akteure (2, 4 und 13) hängt von der Kodierung ab. Das heißt, dass ihre Zentralität in der Gruppe labil ist, da sie vom Vorhandensein sehr schwacher Freundschaften abhängt. Die Akteure 5, 7, 8, 11 und 14 sind in allen Analysen eher wenig zentral und es gibt vier deutliche Außenseiter, die keine Verbindungen zum restlichen Netzwerk und auch keine Verbindungen untereinander haben (Akteure 3, 10, 15 und 16). So entsteht der Eindruck, dass die Gruppe aus einem Zentrum, ein paar in der Umgebung des Zentrums angesiedelten Akteuren und schließlich aus einer Peripherie von Außenseitern besteht. Nachdem wir nun alle Konzepte anhand der Newcomb Fraternity eingeführt haben, wollen wir sie abschließend nochmals an einem Beispiel verdeutlichen. Das Beispiel stellt ein sehr kleines, ungerichtetes und unbewertetes Netzwerk dar, in dem es zu jedem der vier Zentralitätskonzepte (inkl. EigenvektorPrestige) unterschiedliche zentralste Akteure gibt 39.
39
Dieses Netzwerk wurde im Listserver SOCNET (http://www.insna.org/pubs/socnet.html) von Blyden Potts am 10. Juni 1999 vorgeschlagen.
2 Prestige, Zentralität und Zentralisierung
65
Abbildung 2.14: Graph mit vier unterschiedlichen zentralsten Akteuren Die folgenden Ergebnisse kann man mit UCINET leicht nachrechnen, wenn man unter DATASETS>SPREADSHEET das Netzwerk als Matrix eingibt (Ucinet 6: Data>Spreadsheets>Matrix).
Wie man leicht sieht, hat Akteur 3 als einziger Akteur vier Verbindungen und damit den höchsten degree mit 4/10 = 0,4. Die höchste closeness centrality haben die Akteure 6 und 7 mit einer durchschnittlichen Distanz von 2,1 zu den anderen Akteuren, also mit einer closeness centrality von 10/2,1 = 0,476. Die höchste betweenness centrality hat dagegen Akteur 8 (0,467), der ein cutpoint ist, ohne den nämlich die drei rechten Akteure vom Rest des Netzwerkes getrennt wären. Diese Eigenschaft, cutpoint zu sein, hat sonst nur noch Akteur 3, allerdings schneidet er nur zwei Personen vom restlichen Netzwerk ab und erzielt daher nicht so hohe betweenness (0,378). Die Akteure 4 und 5 (beide 0,211), und 6 und 7 (beide 0,233) erzielen nicht so hohe betweenness, da es zu dem Weg über sie immer noch eine Alternative gibt. Die höchste EigenvektorZentralität schließlich haben die Akteure 4 und 5, die erstens viele Beziehungen besitzen (nämlich drei) und zweitens diese Beziehungen zu sehr zentralen Akteuren unterhalten (nämlich zueinander, zum Akteur mit dem höchsten degree und zu jeweils einem der Akteure mit der höchsten closeness).
66
2.3
2 Prestige, Zentralität und Zentralisierung
Zentralisierung der Newcomb Fraternity
Ein Index der Zentralisierung eines Netzwerkes gibt darüber Auskunft, wie homogen oder heterogen die Akteure hinsichtlich ihrer relationalen Eigenschaft “Zentralität” sind, d.h. wie gleich oder ungleich die individuellen Zentralitäts-Werte in einem Netzwerk verteilt sind. Zentralisierung ist somit im Gegensatz zu den vorher diskutierten relationalen Eigenschaften individueller Akteure (“Zentralität”) eine Eigenschaft einer Gruppe. Sie ist eine strukturelle Eigenschaft der Gruppe, da sie diese durch eine Eigenschaft der Verteilung der individuellen Zentralitäts-Indizes charakterisiert. Ein möglicher Index der Zentralisierung soll hier exemplarisch für die betweenness centrality berechnet und seine Veränderungen über die fünfzehn Wochen betrachtet werden. Die closeness centrality kann nicht über Wochen hinweg verglichen werden, da die Anzahl unverbundener Personen in den einzelnen Wochen variiert. Um einen Index für die Zentralisierung eines Netzwerkes zu erhalten, kann man in folgender Weise die Unterschiede in den individuellen ZentralitätsWerten berücksichtigen: Man berechnet zunächst die Differenzen zwischen der standardisierten Zentralität des zentralsten Akteurs und den standardisierten Zentralitäten aller anderen. So erhält man für jeden der anderen Akteure den “Rückstand” an Zentralität gegenüber dem zentralsten Akteur. Man summiert dann diese Differenzen über alle anderen Akteure. Man erhält so die Summe aller individuellen Rückstände der Zentralitäts-Werte gegenüber dem Zentralitäts-Wert des zentralsten Akteurs. Für einen Index ist es aus Gründen der Vergleichbarkeit wünschenswert, dass er zwischen 0 und 1 variiert. Deshalb sollte der Index am Wert für die maximal mögliche Zentralisierung der Gruppe normiert werden. Dazu wird die Summe aller individuellen Rückstände der Zentralitäts-Werte gegenüber dem Zentralitäts-Wert des zentralsten Akteurs für das betrachtete Netzwerk an der Summe normiert, die sich in einem Netzwerk mit maximaler Zentralisierung ergeben würde. Dieser maximale Wert ist abhängig von der Zahl g der Knoten und ist ansonsten durch eine genau bestimmte Struktur definiert. Für die betweenness centrality liegt der maximal mögliche Wert bei g-1. Er entsteht bei einem Stern mit g Knoten, also genau dann, wenn ein Akteur auf allen kürzesten Pfaden zwischen allen Paaren aller anderen Akteure liegt, mithin eine normierte betweenness von 1 aufweist. Die anderen Akteure liegen dann natürlich umgekehrt auf keinem kürzesten Pfad und weisen eine normierte betweenness von 0 auf, so dass die Summe aller Rückstände g-1 beträgt.
2 Prestige, Zentralität und Zentralisierung
67
Der auf der betweenness beruhende Zentralisierungs-Index C B , den man durch die beschriebene Normierung (Division der Summe aller Rückstände durch deren maximal möglichen Wert, nämlich g-1 40) erhält, liegt daher wie gewünscht zwischen 0 und 1, wobei ein Wert von 0 gleiche Zentralität aller Akteure und ein Wert von 1 maximale Zentralität eines Akteurs und minimale Zentralität aller anderen bedeutet. g
¦ Cb (n*) Cb (ni ) (2.9) CB
mit: C b (n*)
i 1
g 1
= Betweenness-Centrality-Index des zentralsten Akteurs
Dieser Index hat einige Nachteile. Er weist nur dann einen hohen Wert auf, wenn genau ein Akteur maximal zentral ist, weist also wesentlich geringere Werte in einem Netzwerk auf, in dem mehrere Akteure ein Zentrum bilden. Ein Maß für die Zentralisierung ohne diese Eigenschaft ist die Varianz oder die Standardabweichung eines beliebigen standardisierten Zentralitäts-Indexes, sei es nun der für degree, der für closeness oder der für betweenness. Dieses Maß registriert alle Unterschiede in der Zentralität, nicht nur jene zwischen dem zentralsten Akteur und allen anderen. In der Netzwerkanalyse praktisch keine Rolle spielt bisher der ansonsten für das Ausmaß von Konzentration häufig verwendete Gini-Koeffizient 41. Die Zentralitätsmaße lassen jedoch (außer in Extremfällen) kaum eindeutige Aussagen über den Grad der Zentralisierung zu. Ist ein Wert von 0,3 viel oder wenig? Nur der Vergleich zwischen mehreren Gruppen oder der Vergleich von Daten einer Gruppe zwischen mehreren Zeitpunkten erlaubt sinnvoll interpretierbare Aussagen. Dabei sind allerdings nur Gruppen gleicher oder zumindest ähnlicher Größe miteinander vergleichbar. In kleinen Gruppen erreichen zentrale Akteure wesentlich häufiger hohe Zentralitäten als in großen Gruppen: Unmittelbar einleuchtend ist dies für den degree. In kleinen Gruppen kann man noch leicht mit beinahe jedem in Verbindung stehen und eine degree centrality 40 Achtung: Dieser maximal mögliche Wert hängt auch vom jeweiligen Zentralitätsmaß ab. Für betweenness centrality liegt er bei g-1, für closeness centrality ist er jedoch kleiner und liegt bei (g2)·(g-1)/(2g-3), bei der degree centrality liegt er bei g-2. Er definiert jedoch in allen drei Fällen einen Stern der Größe g (L.C. Freeman 1979: 231). 41 Zum Gini-Koeffizienten vgl. A. Diekmann (2002: 566ff.)
68
2 Prestige, Zentralität und Zentralisierung
nahe 1 erreichen, in großen Gruppen kommt das wesentlich seltener vor. Ist die Zentralität des zentralsten Akteurs jedoch gering, so sind damit die möglichen Zentralitätsunterschiede in der Gruppe automatisch begrenzt. Im Hinblick auf die Newcomb-Daten soll nun im Folgenden der Frage nachgegangen werden, ob eine Tendenz zu Zentralisierung oder Dezentralisierung im Zeitverlauf festzustellen ist. Ergebnisse der Analyse Zunächst wird als Datensatz DI5SY (=Kodierung B) zugrunde gelegt und es wird der standardisierte Zentralisierungs-Index aus Gleichung (2.9) für betweenness centrality berechnet. Eine Tendenz zur Zentralisierung oder Dezentralisierung über Zeit ist den Daten nicht zu entnehmen. Die Zentralisierung ist in Woche 0 deutlich höher als in den folgenden Wochen. Nach dem Absinken der Zentralisierung bis zu Woche 2 lässt sich keinerlei Tendenz zum Steigen oder Fallen der Zentralisierung mehr entdecken (siehe Tabelle 2.3 und Abbildung 2.15 auf den folgenden Seiten) 42. Das Fehlen einer Tendenz zur Zentralisierung (oder Dezentralisierung) über Zeit ist nicht allein charakteristisch für die auf betweenness basierende Zentralität. Auch wenn die Zentralisierung der Gruppe auf der Basis anderer Indizes berechnet wird, ergibt sich keine erkennbare Tendenz über Zeit. Berechnet wurden hier noch die Varianz (bzw. Standardabweichung) der betweenness centrality nach DI5SY (=Kodierung B), die Varianz (bzw. Standardabweichung) des relativen Grades (dieser ist ein Maß für die degree centrality) ebenfalls für die ungerichtete Beziehung nach DI5SY (=Kodierung B) und die Varianz (bzw. Standardabweichung) des relativen Innengrades für die gerichtete Beziehung nach DICH3 (=Kodierung A) 43. Stützt man die Zentralisierung nicht auf das Konzept der betweenness, sondern auf die Varianz von Graden, so ist die Zentralisierung in der ersten Woche nicht außergewöhnlich hoch. Die Zentralisierung der Gruppe in ihrer zeitlichen Entwicklung ist in Tabelle 2.3 und in Abbildung 2.15 dargestellt. Nach Belieben können Standardabweichungen und Zentralisierungs-Indizes für alle Zentralitäts-Indizes errechnet werden. Hier beschränken wir uns auf die genannte kleine Auswahl.
42 Für das Absinken zwischen Woche 0 und Woche 2 werden wir übrigens in einem der späteren Kapitel noch eine interessante Erklärung finden. 43 Dieser relative Innengrad ist das Maß für Prestige in 2.1.1. Seine Standardabweichung besagt, wie heterogen die Gruppe hinsichtlich der Beliebtheit ist. Es handelt sich also streng genommen nicht um einen Zentralisierungs-Index, sondern um einen Prestige-Hierarchisierungs-Index.
2 Prestige, Zentralität und Zentralisierung
69
Die Zentralisierungs-Indizes erhält man im UCINET als Beigabe zu den Outputs der bereits benutzten Routinen. Den Zentralisierungs-Index für betweenness findet man als “Network Centralization Index” in Prozent am Ende des Outputs zur betweenness centrality. Die Standardabweichungen findet man jeweils bei den DESCRIPTIVE STATISTICS unter “Std Dev” (hier unter nBetween (=normierte betweenness centrality) bzw. NrmOutDeg (=normierter Außengrad) bzw. NrmInDeg (=normierter Innnengrad), wobei im Falle der ungerichteten Beziehung (DI5SY (=Kodierung B)) Außen- und Innengrad gleich sind).
Tabelle 2.3: Die Entwicklung der Zentralisierung des Netzwerkes während der 15 Wochen (für alle 17 Akteure) Woche
0 1 2 3 4 5 6 7 8 10 11 12 13 14 15
ZentralisieStandardabweichung Standardabweichung Standardabweichung rungsder betweenness centra- des relativen Grades der des relativen InnengraIndex für lity der einzelnen einzelnen Akteure bei des der einzelnen Akteure bei Kodierung betweenness Akteure bei Kodierung Kodierung B (in A (arithm. Mittel für centrality bei B (in Klammern: arith- Klammern: arithmetimetisches Mittel) jede Woche 0,188) Kodierung B sches Mittel)
0,363 0,210 0,113 0,128 0,069 0,154 0,097 0,124 0,238 0,241 0,177 0,125 0,183 0,091 0,210
0,144 (0,136) 0,091 (0,078) 0,050 (0,039) 0,058 (0,048) 0,030 (0,029) 0,050 (0,035) 0,043 (0,037) 0,068 (0,074) 0,073 (0,048) 0,094 (0,073) 0,068 (0,058) 0,051 (0,052) 0,069 (0,053) 0,048 (0,045) 0,069 (0,047)
0,080 (0,162) 0,103 (0,154) 0,107 (0,169) 0,099 (0,177) 0,115 (0,169) 0,099 (0,154) 0,106 (0,140) 0,085 (0,169) 0,105 (0,154) 0,111 (0,169) 0,103 (0,162) 0,107 (0,147) 0,101 (0,162) 0,112 (0,162) 0,115 (0,169)
0,150 0,147 0,137 0,145 0,152 0,160 0,174 0,141 0,177 0,155 0,136 0,170 0,163 0,159 0,153
Zusammenfassend kann also gesagt werden, dass das Freundschaftsnetzwerk in der zeitlichen Entwicklung weder zu zunehmender noch zu abnehmender Zentralisierung neigt. Eine Beurteilung, ob die Gruppe hoch zentralisiert oder weniger hoch zentralisiert ist, lässt sich aufgrund der Indizes kaum treffen, da hierfür
70
2 Prestige, Zentralität und Zentralisierung
ein Referenzpunkt benötigt würde. Allenfalls die Tatsache, dass die Standardabweichung jeweils relativ groß ist im Verhältnis zum arithmetischen Mittel 44, weist darauf hin, dass eine recht hohe Zentralisierung vorliegt. 0,4
Zentralisierung (betweenness)
0,35 0,3
Standardabw. (betweenness centrality)
0,25 0,2
Standardabw. (relativer Grad)
0,15 0,1
Standardabw. (relativer Innengrad)
0,05 0
0
2
4
6
8
11 13 15
Abbildung 2.15: Graphische Darstellung von Tabelle 2.3
2.4
Zusammenfassung zu Prestige, Zentralität und Zentralisierung
Analysen zu Prestige und Zentralität führen zu Aussagen über relationale Eigenschaften einzelner Akteure des Netzwerkes. Die wichtigsten Ergebnisse sollen kurz noch einmal zusammengefasst werden. Wir wissen nun, dass die Akteure 9 und 17 sehr beliebt, die Akteure 3, 10, 15 und 16 dagegen sehr unbeliebt sind. Keiner der Akteure konnte über Zeit seine Beliebtheit nennenswert verändern. Gleichzeitig sind die Akteure 9 und 17 sehr zentral in Bezug auf ihre durchschnittliche Distanz zu den anderen. Dies bedeutet, dass sie sehr effizient kommunizieren können. Akteur 12 ist ein Akteur, dem Bedeutung im Netzwerk dadurch zukommt, dass er verschiedene, sonst unverbundene Teilpopulationen 44
Für die betweenness centrality ist die Standardabweichung für fast jede Woche größer als das arithmetische Mittel.
2 Prestige, Zentralität und Zentralisierung
71
des Netzwerkes miteinander verbindet. Dies gibt ihm Kontrolle über Kommunikation im Netzwerk. Es gibt vier Akteure (3, 10, 15, 16), die zu allen anderen keine freundschaftlichen Kontakte haben. Für die folgenden Analysen ziehen wir aus der Analyse von Prestige und Zentralität den Gewinn, dass wir den bisher anonymen Akteuren, die wir lediglich mit Hilfe von Nummern unterscheiden konnten, nun bereits Eigenschaften zuordnen können, die hilfreich sind, um die Analyseergebnisse der folgenden Kapitel zu interpretieren und zu verstehen. Die bisherigen Ergebnisse sind in Tabelle 2.4 zusammengestellt. Tabelle 2.4: Zentralität und Prestige der 17 Akteure (Woche 14) Akteur 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
Zentralität/Prestige bezüglich aller Dimensionen von Zentralität/Prestige zentral Zentralität (besonders betweenness centrality) hängt von schwachen Freundschaften ab einer der vier Außenseiter Zentralität hängt von schwachen Freundschaften ab, hohes Prestige und hohe closeness centrality eher wenig zentral, keine betweenness bezüglich aller Dimensionen von Zentralität/Prestige zentral eher wenig zentral eher wenig zentral, keine betweenness einer der zwei “Stars” einer der vier Außenseiter eher wenig zentral, keine betweenness verbindet das Zentrum mit dem Umfeld (hohe betweenness centrality) Zentralität (besonders betweenness centrality) hängt von schwachen Freundschaften ab, recht hohes Prestige eher wenig zentral einer der vier Außenseiter einer der vier Außenseiter einer der zwei “Stars”
72
2 Prestige, Zentralität und Zentralisierung
Obwohl die Analysen zu Prestige und Zentralität zunächst nur etwas über relationale Eigenschaften einzelner Akteure aussagen, konnten durch die Betrachtung ihrer Verteilungen bereits Aussagen über strukturelle Eigenschaften des gesamten Netzwerkes getroffen werden: Aus der Isolierung einzelner Akteure ist zu schließen, dass das Netzwerk unverbunden ist. Die Verteilung der Zentralitäts-Indizes der Mitglieder der Gruppe konnte Aufschluss über die Zentralisierung des Netzwerkes geben. Diese verändert sich über Zeit nicht systematisch. Außerdem weist eine über die gesamten fünfzehn Wochen beachtliche Stabilität der Prestige-Indizes bei gleichzeitiger starker Varianz der individuellen Prestige-Werte darauf hin, dass es in der Gruppe allgemein geteilte, stabile Vorstellungen darüber gab, wer beliebt ist und wer nicht. Dies könnte so weit gehen, dass es in der Gruppe eine Norm darüber gab, wen man „mag“ und wen nicht. Auch diese Annahme werden wir später genauer untersuchen. 2.5
Schlussbetrachtung
In Kapitel 4 über Positionen und Rollen werden wir Überlegungen anstellen, wie man Akteure durch die Muster ihrer strukturellen Einbindung in das Beziehungsnetz charakterisieren und Akteure identifizieren kann, die sich hinsichtlich dieser Muster nicht oder „kaum“ unterscheiden, also in einem weiten Sinne als „strukturell äquivalent“ bzw. „strukturell ähnlich“ angesehen werden können. Dabei werden wir darauf hinweisen, dass bei der Betrachtung der Beziehungsmuster der Akteure zum einem unterschiedliche Strukturformen hervorgehoben werden können und zum anderen der Blick auf die Beziehungsumgebungen unterschiedlich weit gefasst werden kann: von den 1-Schritt-Umgebungen bis hin zu den g-1-Schritt-Umgebungen (wenn g die Zahl der Akteure ist.) Spätere Ausführungen vorwegnehmend, können wir sagen, dass bei Degree-Zentralität und Degree-Prestige nur die 1-Schritt-Umgebungen eines Akteurs betrachtet werden und es hier nur auf die Zahl der Verbindungen bzw. der bei ihm eingehenden Verbindungen ankommt. Im Falle von closeness und betweenness (aber auch beim Rank-Prestige) werden alle Umgebungen bis hin zur g-1-Umgebung berücksichtigt, wobei unterschiedliche und teilweise recht komplexe Strukturformen bzw. davon abgeleitete Parameter von Bedeutung sind.
3
Kohäsive Teilgruppen
Nachdem das vorangehende Kapitel sich hauptsächlich mit (relationalen) Eigenschaften einzelner Akteure auseinander setzte, soll nun der Frage nachgegangen werden, ob die Gruppe der 17 Studenten in Teilgruppen „zerfällt“ und welche Teilgruppen dies sind, ob diese Teilgruppen stabil über Zeit sind und ob sich die gemeinsame Zugehörigkeit zu Teilgruppen stabilisierend auf Freundschaftsbeziehungen auswirkt. Teilgruppe soll eine Menge von Akteuren dann genannt werden, wenn sie eine relativ starke „Verbundenheit“ ihrer Akteure untereinander aufweist, die im Gegensatz steht zu einer relativ schwachen „Verbundenheit“ mit dem Rest der untersuchten Population. Teilgruppen können auf zwei verschiedene Weisen definiert werden. Einmal kann man Teilgruppen als Mengen von Akteuren definieren, die besonders nah beieinander liegen, zum anderen kann man eine Menge von Akteuren mit außergewöhnlich vielen (insbesondere direkten) Beziehungen untereinander als Teilgruppe bezeichnen. Bei solchen (relativ) stark verbundenen Teilgruppen wird oft vermutet, dass sie über ein vergleichsweise hohes Maß sozialer Kohäsion verfügen, weshalb man sie auch als „kohäsive Teilgruppen“ bezeichnet. 3.1
Cliquen
Das netzwerkanalytische Konzept der Clique genügt beiden genannten Vorstellungen von einer Teilgruppe im Sinne der Nähe ihrer Mitglieder bzw. der großen Zahl von direkten Verbindungen untereinander. Die Clique ist somit die am strengsten definierte Art einer Teilgruppe. Bevor das Konzept der Clique erläutert werden kann, ist es notwendig, noch einige weitere Begriffe der Graphentheorie einzuführen: Sei G ein Graph, N die Menge seiner Knoten und L die Menge seiner Kanten: 1.) Ein Graph, dessen Menge von Knoten N s eine Teilmenge von N und dessen Menge von Kanten L s eine Teilmenge von L ist, so dass alle Kanten aus L s
M. Trappmann et al., Strukturanalyse sozialer Netzwerke, DOI 10.1007/978-3-531-92656-8_3, © VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH 2011
74
3 Kohäsive Teilgruppen
zwischen Paaren von Knoten aus N s liegen, heißt Teilgraph („subgraph“) G s von G (S. Wasserman und K. Faust 1994: 97). Wir wollen dies zunächst an einem Beispiel deutlich machen: In Abbildung 3.1 befindet sich unter (a) ein Graph bestehend aus vier Knoten und vier Kanten. Die Graphen (b) und (c) sind Teilgraphen von (a), denn ihre Knoten sind eine Teilmenge der Knoten aus (a) und ihre Kanten sind eine Teilmenge der Kanten aus (a). Die Graphen (d) bis (f) sind dagegen keine Teilgraphen von (a). Der Graph in (d) besitzt eine Kante, die (a) nicht besitzt, der Graph in (e) besitzt einen Knoten, den (a) nicht besitzt, und (f) stellt gar keinen Graphen dar, da hier der Knoten C eine Kante aufweist, die zu einem Knoten führt, der nicht zur Menge der Knoten von (f) gehört. Ein Teilgraph wäre für den Graphen aus DI5SY_14 (=Kodierung B, Woche 14) (siehe Abbildung 2.5) etwa: N s = {2, 4, 5, 16, 17}, L s = {(2,4); (4,5)} 45. Bezogen auf unsere konkrete Vorstellung von einem Netzwerk erhält man also immer einen Teilgraphen, wenn man aus der Menge der Akteure eine beliebige Teilmenge nimmt und dazu eine beliebige (!) Teilmenge der zwischen ihnen existierenden Beziehungen. Mit anderen Worten: Wenn man Akteure aus dem ursprünglichen Netzwerk entfernt, so muss man auch alle Beziehungen dieser Akteure untereinander und alle Beziehungen zwischen diesen Akteuren und dem Rest des Netzwerkes entfernen, um einen Teilgraphen zu erhalten. Man darf sogar noch beliebig viele weitere Beziehungen entfernen und das ganze bleibt weiterhin ein Teilgraph. 2.) Ein Graph heißt vollständig, wenn zwischen jedem Paar aus der Menge seiner Knoten eine Kante existiert. So ist in unserem Beispiel (Abbildung 2.5) etwa der Teilgraph bestehend aus N s = {1, 6, 8} und L s = {(1,6); (1,8); (6,8)} vollständig. 3.) Ein Teilgraph eines Graphen G ist maximal bezüglich einer Eigenschaft E, wenn der Teilgraph die Eigenschaft E besitzt, bei Hinzunahme eines beliebigen weiteren Knotens aus G oder einer beliebigen weiteren Kante aus G jedoch diese Eigenschaft verloren geht. So sind etwa die 13 verbundenen Akteure aus DI5SY_14 (Abbildung 2.5) und die Menge aller Kanten zwischen ihnen ein Teilgraph, der maximal ist bezüglich der Eigenschaft der Verbundenheit, da keine weitere Kante mehr in G existiert und bei Hinzunahme eines weiteren Knotens der Teilgraph nicht mehr verbunden ist. 45
Die mengentheoretische Schreibweise Ns = {2,4,5,16,17} steht abkürzend für: Die Teilmenge Ns N enthält die Knoten 2, 4, 5, 16 und 17. Ls = {(2,4);(4,5)} steht für: Die Teilmenge Ls L enthält die Kanten (2,4) und (4,5).
3 Kohäsive Teilgruppen
75
Abbildung 3.1: Graph, Teilgraphen und keine Teilgraphen Der Teilgraph aus dem Beispiel zu 2.), bestehend aus N s = {1, 6, 8} und L s = {(1,6); (1,8); (6,8)}, ist nicht maximal bezüglich der Eigenschaft der Vollständigkeit. Man kann nämlich noch Knoten 13 hinzunehmen sowie die Kanten (1,13), (6,13) und (8,13) und erhält so einen größeren vollständigen Teilgraphen von G (s. Abbildung 2.5). 4.) Ein Teilgraph G s heißt knotengeneriert (“node generated”), wenn alle Kanten, die in G zwischen Knoten aus N s vorhanden sind, auch in G s vorhanden sind (S. Wasserman und K. Faust 1994: 97). Im Folgenden interessieren nur
76
3 Kohäsive Teilgruppen
solche knotengenerierte Teilgraphen. Der Teilgraph im Beispiel zu 1.), bestehend aus N s = {2, 4, 5, 16, 17} und L s = {(2,4); (4,5)} ist nicht knotengeneriert, da in ihm die Kanten (2,5), (2,17) und (4,17) aus dem zugrunde liegenden Graphen fehlen (s. Abbildung 2.5). Nicht knotengenerierte Teilgraphen geben also einen Teil der Information über die Beziehungen ihrer Knoten untereinander im zugrunde liegenden Graphen nicht wieder. Eine Clique ist ein maximaler (knotengenerierter) vollständiger Teilgraph. Innerhalb einer Clique sind also alle Knoten durch einen Pfad der Länge 1, d.h. direkt, verbunden. Bei Hinzunahme eines beliebigen weiteren Knotens geht diese Eigenschaft jedoch verloren. Um triviale Cliquen auszuschließen, die nur aus zwei Knoten und einer Kante zwischen ihnen bestehen, legt man fest, dass eine Clique aus mindestens drei Knoten zu bestehen hat. Das Konzept der Clique lässt sich auf gerichtete und bewertete Graphen erweitern: “A clique at level c is a subgraph in which the ties between all pairs of actors have values of c or greater, and there is no other actor outside the clique who also has ties of strength c or greater to all actors in the clique.” (S. Wasserman und K. Faust 1994: S. 278f). Diese Definition ist nur sinnvoll für eine Relation, bei der große Werte zwischen zwei Akteuren eine enge positive Beziehung bezeichnen. Im Datensatz von Newcomb ist dies genau umgekehrt. Hohe Werte (Rangplätze) bedeuten hier, dass man von jemandem eine wenig bedeutsame (Sympathie-) Wahl erhält. Daher muss hier für eine Clique auf level c sinnvollerweise gelten, dass alle Kanten zwischen Akteuren der Clique einen Wert kleiner als oder gleich c haben. Eine solchermaßen definierte Clique auf level 5 im Originaldatensatz der Newcomb Fraternity ist dann aber nichts anderes als eine Clique in dem durch DI5SY (=Kodierung B) beschriebenen Graphen 46. Die Entscheidung dafür, Cliquen gerade auf dem level 5 zu suchen, bedarf einer inhaltlich begründeten Entscheidung, die z.B. lauten könnte: Cliquen auf höherem level sind theoretisch schlechter interpretierbar, da nicht mehr gewährleistet ist, dass solche Wahlen noch von Freundschaftlichkeit zeugen. Cliquen auf geringerem level sind dagegen in ihrer maximalen Größe zu stark eingeschränkt. Es kann nämlich in unserem Falle, wo durch „c“ Rangplätze zum Ausdruck gebracht werden, auf dem level c nur Cliquen mit maximal c+1 Mitgliedern geben. Diese maximale 46 Eine Kante zwischen zwei Akteuren wird in DI5SY (=Kodierung B) genau dann als vorhanden definiert, wenn jeder der beiden Akteure dem jeweils anderen höchstens den fünften Rangplatz zuweist. Eine Clique in DI5SY (=Kodierung B) ist daher identisch mit einer Clique auf level 5 im Originaldatensatz.
3 Kohäsive Teilgruppen
77
Cliquengröße wird jedoch auch nur dann erreicht, wenn jedes Cliquenmitglied die jeweils anderen c Cliquenmitglieder auf die ersten c Rangplätze setzt. Dies ist eine sehr strenge Bedingung. So scheint level 5 angemessen. Es bringt dazu noch den Vorteil mit sich, dass die Cliquenanalyse sich mit der Zentralitätsanalyse (von Kapitel 2) nach DI5SY (=Kodierung B) vergleichen lässt.
3.1.1
Cliquenanalyse im Zeitverlauf
Zunächst soll wieder an einem Beispiel gezeigt werden, was eine Clique ist. Wenn man Kodierung B verwendet, dann bilden die Akteure 1, 6, 8 und 13 in Woche 14 eine Clique. Wie man in Abbildung 2.5 sieht, ist jeder dieser Akteure mit jedem anderen direkt verbunden. Es gibt aber keinen weiteren Akteur, der mit allen vieren verbunden ist. Somit sind diese vier maximal bezüglich der Eigenschaft, dass jeder mit jedem direkt verbunden ist. Die Newcomb Fraternity zeigt insgesamt nur eine geringe Tendenz dazu, Cliquen zu bilden. Obwohl (wegen c=5) Cliquen mit bis zu sechs Mitgliedern möglich wären, treten nur Cliquen mit maximal vier Mitgliedern auf. Dabei gibt es über alle fünfzehn Wochen hinweg insgesamt nur vier Cliquen der Größe vier. Alle anderen Cliquen haben nur drei Mitglieder. Interessant ist es zu fragen, ob die Neigung zur Cliquenbildung über Zeit zunimmt. Eine solche Neigung wäre im Sinne von T.M. Newcombs Theorie über Systeme von Orientierungen (T.M. Newcomb 1959) durchaus zu erwarten. Mit zunehmender Zeitdauer lernen die Akteure, die Einstellungen der anderen Gruppenmitglieder zueinander immer besser einzuschätzen. Damit nimmt für alle der Druck (“strain”) zu, andere Personen ähnlich zu bewerten, wie ihre Freunde das tun. Ein solches Verhalten würde eine Cliquenbildung begünstigen. Tabelle 3.1 auf der folgenden Seite zeigt, dass es ab Woche 2 deutlich mehr Cliquen gibt als in den ersten beiden Wochen, dass jedoch ab Woche 2 keine Tendenz zur Zunahme der Cliquenanzahl mehr besteht. Einige Cliquen, die in den fünfzehn Wochen entstehen, existieren nur eine Woche lang, andere sind dagegen sehr beständig. Die beständigen Cliquen sind: - Akteure 1, 6, 13 in Wochen 2-12 und 14 (elfmal) - Akteure 6, 8, 13 in Wochen 2-5, 7, 10, 13-15 (neunmal) - Akteure 4, 9, 17 in Wochen 2-4, 6-11, 13-15 (elfmal) - Akteure 5, 9, 17 in Wochen 5-12 (siebenmal).
78
3 Kohäsive Teilgruppen
Tabelle 3.1: Anzahl der Cliquen in den 15 Wochen a Woche Anzahl
0 4
1 2
2 8
3 4 8 *8
5 6
6 3
7 4
8 10 11 12 13 14 15 5 *8 5 3 6 *8 *10
a In den Wochen, in denen die Cliquenanzahl mit ‘*’ gekennzeichnet ist, gibt es zusätzlich zu den sonstigen Cliquen jeweils eine Clique aus vier Personen, die zur besseren Vergleichbarkeit in vier Cliquen zu je drei Personen zerlegt wird. Alle anderen Cliquen haben die Größe 3.
Diese Cliquen sind jedoch keine antagonistischen Gruppierungen mit negativen Beziehungen zwischen ihnen. Die ersten beiden und die letzten beiden Cliquen überschneiden sich jeweils in zweien ihrer Teilnehmer und unterscheiden sich jeweils nur darin, wer als Dritter an ihnen teilnimmt. So scharen sich also je zwei Cliquen um die Akteure 6 und 13 bzw. 9 und 17 (die beiden beliebtesten Akteure). Gerade zwischen den Akteuren 6 und 9 besteht nun aber spätestens ab Woche 5 eine Freundschaft. Von dieser Woche an wählt Akteur 9 den Akteur 6 immer auf den ersten Platz, während Akteur 6 den Akteur 9 immer auf Platz 4 oder „besser“ einstuft. Somit sind also alle vier Cliquen durch Freundschaften einzelner Mitglieder untereinander verbunden. Bei einer weniger strengen Definition einer Teilgruppe (dem 2-Clan, s.u. S.87) wird sich zeigen, dass zu manchen Zeitpunkten alle vier Cliquen zu einer Teilgruppe verschmelzen. UCINET IV bietet hierzu die Routine NETWORKS>SUBGROUPS>CLIQUES> CLIQUE an (Ucinet 6: Network>Subgroups>Cliques). Auch diese Routine wertet die Daten nur wochenweise aus, so dass die zu analysierenden Wochen zunächst mit DATASETS>EXTRACT (Ucinet 6: Data>Extract) aus DI5SY extrahiert werden müssen, falls dies noch nicht im Rahmen der Zentralitätsanalyse geschehen ist (s.o. S. 50).
Im Sinne von Theorien der Transitivität 47 und Balance 48 ist es interessant zu überprüfen, ob Freundschaften, die in Cliquen eingebettet sind, beständiger sind als Freundschaften ohne diese Einbettung. Beide Theorien sagen vorher, dass Eine Relation R ist transitiv, wenn gilt: aRb bRc aRc für alle a,b,c R. Transitivität bedeutet daher für eine Freundschaftsbeziehung, dass der Freund eines Freundes immer ein Freund ist. Ist eine Relation transitiv, symmetrisch (aRb bRa für alle a,b R) und reflexiv (aRa für alle a R), so zerfällt die Menge, auf der die Relation definiert ist, in paarweise disjunkte Äquivalenzklassen, innerhalb derer alle Elemente miteinander in der betreffenden Relation stehen, während Elemente verschiedener Äquivalenzklassen nie miteinander in der betreffenden Relation stehen. Wir werden Transitivität später (Kapitel 5) noch ausführlich behandeln. 48 Die Theorie impliziert, dass zwei Personen, die sich „mögen“, über eine dritte Person einheitlich urteilen, während zwei Personen, die sich nicht „mögen“, unterschiedlich über eine dritte Person urteilen. Die Population zerfiele unter dieser Bedingung in zwei disjunkte Teilgruppen. 47
3 Kohäsive Teilgruppen
79
eine in eine Clique eingebettete Freundschaft nur sehr ungern aufgegeben wird, da damit intransitive und unbalancierte Beziehungen entstehen würden. Für alle 14 Wochenübergänge wurden sowohl für Beziehungen, die in der ersten der beiden Wochen eines Wochenüberganges in Cliquen eingebettet waren, als auch für Beziehungen, die zu diesem Zeitpunkt nicht in Cliquen eingebettet waren, jeweils die Beziehungen gezählt, die erhalten blieben und die aufgegeben wurden. Das Ergebnis ist, dass 31 Beziehungen (ca. 24,8 %) außerhalb von Cliquen aufgegeben wurden, wohingegen 94 bestehen blieben. Innerhalb von Cliquen wurden 28 Beziehungen (ca. 15,5 %) aufgegeben, während 153 bestehen blieben. Das Ergebnis weist in die prognostizierte Richtung. Wie wahrscheinlich die beobachtete Differenz zwischen Abbau von Beziehungen in Cliquen und Abbau von Beziehungen außerhalb von Cliquen im Falle eines in Wahrheit von der Cliquenzugehörigkeit unabhängigen Abbaus ist, können wir mithilfe der Indifferenztabelle und eines Chi-Quadrat-Tests prüfen 49. Dazu erstellt man zunächst eine Vierfeldertafel mit den vier beobachteten Häufigkeiten O ij ; i, j{1, 2} Beziehungen in Cliquen Beziehungen außerhalb von Cliquen Gesamt
Aufrechterhalten 153 94
Aufgegeben 28 31
Gesamt 181 125
247
59
306
Man kann nun für alle vier Felder einen Erwartungswert für den Fall stochastischer Unabhängigkeit zwischen Cliquenzugehörigkeit und Aufgabe der Paarbeziehung berechnen. Für das Feld oben links ergibt sich: Der Anteil der Beziehungen, die in Cliquen eingebettet sind, ist 181/306, der Anteil der Beziehungen, die aufrechterhalten werden, ist 247/306. Also ist der Anteil der Beziehungen, für die beides gilt, bei statistischer Unabhängigkeit 181/306 · 247/306. Durch Multiplikation mit der Gesamtzahl ergibt sich der Erwartungswert für die Häufigkeit: E 11 := E (O 11 ) = 181/306 · 247/306 · 306 = 146,10. Für Beziehungen innerhalb von Cliquen würde also bei “statistischer Unabhängigkeit” in 146 von 181 Fällen erwartet, dass sie erhalten bleiben. Tatsächlich sind es 153. Für die anderen Felder ergibt sich: E 12 = E (O 12 ) = 181 · 59 / 306 = 34,90 E 21 = E (O 21 ) = 125 · 247 / 306 = 100,90 E 22 = E (O 22 ) = 125 · 59 / 306 = 24,10 49
Näheres zu diesem Vorgehen findet man in nahezu jedem Statistiklehrbuch.
80
3 Kohäsive Teilgruppen
Die Formel, nach der F² berechnet wird, ist
(3.1) F 2
¦¦ (Oij Eij )2 i
Eij
j
Es ergibt sich hier für F² ein Wert von 4,14. Dieser Wert liegt in den obersten fünf Prozent der Chi-Quadrat-Verteilung bei einem Freiheitsgrad. Das Ergebnis ist also signifikant auf dem Niveau p = 0,05 bei zweiseitigem Test. Es ist daher sehr unwahrscheinlich, dass ein derartiges Ergebnis durch einen datengenerierenden Prozesses entsteht, bei dem Beziehungsabbau und Cliquenzugehörigkeit unabhängig voneinander sind. Eine Matrix, in der man für jeden Wochenübergang erkennen kann, ob eine Beziehung von i zu j aufgegeben oder beibehalten wurde, lässt sich mit UCINET IV folgendermaßen erstellen: 1.) Aus der Eingabedatei DI5SY entfernt man mit DATASETS>EXTRACT (Ucinet 6: Data>Extract) einmal Matrix 1 (Woche 0) und einmal Matrix 15 (Woche 15). Man erhält dadurch zwei neue Datensätze EX1 und EX15 mit jeweils 14 Matrizen (eine für jeden Wochenübergang). 2.) Die beiden Datensätze EX1 und EX15 addiert man in MATRICES>ALGEBRA (Ucinet 6: Tools>Matrix Algebra) mit UEBERGAN=ADD(EX1,EX15,EX15) (s. Anhang C). Der neu erstellte Datensatz UEBERGAN ist also gleich EX1 + 2·EX15. Er besteht wiederum aus 14 Matrizen. Eine 3 in diesem Datensatz bedeutet nun, dass in der ersten (EX15) und in der zweiten (EX1) von jeweils zwei Wochen eines Wochenpaares eine 1 an dieser Stelle stand, also die Beziehung erhalten blieb. Eine 2 in diesem Datensatz bedeutet, dass in der ersten (EX15) von jeweils zwei Wochen eine 1 dort stand, in der zweiten aber eine 0, die Beziehung also aufgegeben wurde. 3.) Die Anzahl der Zweien und Dreien kann man nun durch Rekodierung der Daten abzählen lassen: Um beispielsweise die Anzahl der Dreien zu zählen, rekodiert man: “3 as 1, 0 to 2 as 0” und nennt die Datei ERHALTEN. Analog erstellt man die Matrix AUFGABE durch Rekodierung : “2 as 1, 0 to 1 as 0, 3 as 0” 4.) In MATRICES>ALGEBRA ermittelt der Befehl DISP TOT(ERHALTEN) nun die Summe aller Einträge der Matrix ERHALTEN (s. Anhang C). Diese ist gleich der doppelten Anzahl erhalten gebliebener Beziehungen, denn es wurde jede der symmetrischen Beziehungen zweimal gezählt (die Beziehung zwischen i und j erscheint sowohl in i-ter Zeile und j-ter Spalte als auch in j-ter Zeile und i-ter Spalte). Analog geht man mit der Matrix AUFGABE vor. 5.) Um die Anzahl erhaltener und aufgegebener Beziehungen innerhalb von Cliquen zu ermitteln, haben wir keinen einfacheren Weg als das Abzählen der Zweien und Dreien an den entsprechenden Stellen der Datei UEBERGAN gefunden. Andere denkbare Varianten, wie etwa die elementweise Multiplikation der Matrizen ERHALTEN bzw. AUFGABE mit einer Matrix, die eine 1 an Position a ij enthält, falls Akteure i und j gemeinsam in einer Clique sind, und sonst 0, erwiesen sich als äußerst umständlich, da die Konstruktion der entsprechenden Matrizen aufwendig und die Multiplikation jeweils nur wochenweise möglich ist.
3 Kohäsive Teilgruppen
3.1.2
81
Exkurs zu Signifikanztests in sozialen Beziehungsnetzen
An dieser Stelle halten wir es für angebracht, kurz auf die Verwendung von Signifikanztests im Zusammenhang sozialer Beziehungsnetze einzugehen. Offensichtlich ist mit unserem gerade durchgeführten Signifikanztest nicht beabsichtigt, einen Inferenzschluss von unserem Netzwerk auf andere Netzwerke vorzunehmen. Für diesen Schluss wären die Untersuchungseinheiten ganze Netzwerke und wir hätten eine Fallzahl von n=1 und zudem eine bewusste Auswahl. Auch handelt es sich nicht um den Inferenzschluss von einem Teil der beobachteten Beziehungen des Netzwerks auf alle Beziehungen des Netzwerks, da ja eine Vollerhebung aller Beziehungen zwischen den Akteuren der Newcomb Fraternity durchgeführt wurde (vgl. hierzu auch H.J. Hummell u.a. 1968, Fußnote 11). Inferenzschlüsse der ersten genannten Art werden in sozialen Beziehungsnetzen nur sehr selten möglich sein: Voraussetzung wäre die Untersuchung einer hinreichend großen Zufallsstichprobe von Beziehungsnetzen. Diese Bedingung ist praktisch nie erfüllt. Inferenzschlüsse der zweiten genannten Art setzen voraus, dass man es mit einer Zufallsstichprobe aller möglichen Beziehungen in einem großen Netzwerk zu tun hat. Daten, die diesen Schluss ermöglichen, sind relativ selten, da man für sie ein unter Netzwerkgesichtspunkten ineffizientes Erhebungsdesign benötigen würde: Das zeigt ein kleines Rechenbeispiel: In einer Population von 1000 Personen gibt es 499500 (ungerichtete) Paare. Zieht man hieraus eine 1%-Zufallsstichprobe, so erhält man 4995 ungerichtete Paarbeziehungen. Befragt man jeweils beide zu einem Paar gehörigen Akteure nach ihrer Perspektive der Beziehung (wie bei der Newcomb Fraternity), so wird man beinahe jeden der 1000 Akteure befragen müssen (allerdings nur zu durchschnittlich etwa zehn Beziehungen). Der erste der beiden Akteure wird dabei mit der Wahrscheinlichkeit 1/1000, der zweite mit 1/999 gewählt, bzw. mit den Wahrscheinlichkeiten 999/1000 und 998/999 nicht gewählt 50. Mit dieser Stichprobe könnten zwar Inferenzschlüsse von der Beziehungsstichprobe auf die Population von Beziehungen vorgenommen werden (man müsste aller50
Durch eine Binomialverteilung mit n=4995 und p=1-(999/1000)·(998/999)=0,002, also durch B(4995, 0,002), lässt sich die Verteilung der Anzahl der Paare, über die pro Akteur Informationen erhoben werden müssen, annähern. Die Wahrscheinlichkeit, dass ein Akteur an gar keinem der 4995 ausgewählten Paare beteiligt ist und daher auch nicht befragt werden muss, beträgt dann etwa (10,002)4995 = 0,0000453. Wahrscheinlich müssen also alle Akteure befragt werden.
82
3 Kohäsive Teilgruppen
dings die Abhängigkeit der Beziehungen desselben Akteurs berücksichtigen), doch könnte man dafür keinen der bisher eingeführten Indizes berechnen, da ja immer nur ein Teil der Beziehungen erhoben wurde: Wir wissen also nicht, wie viele Wahlen ein Akteur in der Population erhält, und können also keine Zentralität und folglich auch keine Zentralisierung berechnen. Auch fehlt uns ein Teil der Informationen, die nötig wären, um Teilgruppen zu bestimmen. Für beinahe jede Kombination aus drei oder mehr Akteuren wird dieses Design nämlich zu mindestens einer Beziehung führen, über die wir nichts wissen. Signifikanztests in sozialen Beziehungsnetzen werden daher beinahe immer in einer anderen Bedeutung verwendet. Unterstellt wird ein datengenerierender Prozess mit bestimmten (als gegeben angenommenen) Eigenschaften wie z.B. der Unabhängigkeit zwischen Eigenschaften von Akteuren und Beziehungen (in unserem Beispiel: statistische Unabhängigkeit von Cliquenzugehörigkeit und Beziehungsabbau) oder z.B. einer bestimmten Verteilung der Beziehungen (etwa eine Gleichverteilung unter bestimmten Restriktionen) 51. Eine Statistik des sozialen Beziehungsnetzes wird dann daraufhin untersucht, wie wahrscheinlich der beobachtete Wert dieser Statistik oder ein extremerer unter dieser Annahme wäre. Die Annahme wird dann abgelehnt, wenn diese Wahrscheinlichkeit ein zuvor festgelegtes Signifikanzniveau unterschreitet (vgl. S. Wasserman und K. Faust 1994: 530f., T.A.B. Snijders 1991, L. Katz und J.H. Powell 1957). Einen Signifikanztest im letzteren Sinne haben wir soeben durchgeführt. Dabei haben wir bei der Berechnung des Signifikanzniveaus vernachlässigt, dass unsere Beobachtungen nicht unabhängig voneinander sind. In den 306 beobachteten Paarbeziehungen kommen viele Akteure mehrfach vor. Im Zeitverlauf kommen sogar einige Paare mehrfach vor. Innerhalb der Akteure und der Paare werden Beobachtungen jedoch korreliert sein. Dies führt zum sogenannten Designeffekt (vgl. Einführungen in die Mehrebenenanalyse, z.B. von T.A.B. Snijders und R.J. Bosker 1999, 22ff.). Da die Fälle nicht unabhängig sind, muss die Stichprobengröße streng genommen durch Division mit dem Designeffekt nach unten korrigiert werden 52. In Kapitel 5 werden wir uns ausführlicher damit beschäftigen, wie man soziale Beziehungsnetze auf das Vorhandensein spezieller Struktureigenschaften
51
Hiermit werden wir uns ausführlich in Kapitel 5 beschäftigen. Der Designeffekt lässt sich quantifizieren und beträgt 1+(n- ȡI 'DEHL LVW ȡI die Korrelation innerhalb der Einheiten (z.B. Paaren von Akteuren) und n-1 die Anzahl der Beobachtungen pro Einheit (z.B. Messzeitpunkte innerhalb von Paaren).
52
3 Kohäsive Teilgruppen
83
testet. Dabei werden wir teilweise die vereinfachende Annahme der Unabhängigkeit zwischen Beziehungen aufgeben. In keinem Fall rechtfertigt ein Signifikanztest, wie wir ihn hier vorstellen, Verallgemeinerungen über das beobachtete Netzwerk hinaus.
3.1.3
Cliquenanalyse für die 14. Woche
Da wir uns entschieden haben, Woche 14 genauer zu betrachten, wollen wir uns für diese Woche auch die Cliquen genauer ansehen. In Woche 14 ergeben sich nach DI5SY_14 (=Kodierung B, Woche 14) genau 5 Cliquen: Eine Viererclique (welche in Tabelle 3.1 als vier Dreiercliquen gezählt wurde) und vier Dreiercliquen mit sich stark überschneidender Mitgliedschaft. Im Einzelnen sind die Cliquen: 1: Akteure 1, 6, 8 und 13 2: Akteure 2, 4 und 5 3: Akteure 2, 4 und 17 4: Akteure 4, 6 und 9 5: Akteure 4, 9 und 17 Insgesamt befindet sich in diesen Cliquen ein Großteil der zentralen Akteure. Von den nicht Isolierten sind nur 7, 11, 12 und 14 in keiner der Cliquen. Diese Akteure befinden sich nach Abbildung 2.5 in Randlage und gehören bis auf Akteur 14 nicht zu denen mit hoher closeness centrality nach DI5SY_14 (=Kodierung B, Woche 14). Wir erkennen einmal eine Clique um 1, 6, 8 und 13, zum anderen ein Gebilde aus 4 Cliquen, das sich um Akteur 4 gruppiert. Wir haben in Abbildung 3.2 auf der folgenden Seite nur die neun Mitglieder dieser fünf Cliquen und deren Beziehungen zueinander dargestellt. Links unten befindet sich die Clique der Akteure 1, 6, 8 und 13. Rechts oben befinden sich die vier übrigen Cliquen, die hier vier Tortenstücken gleichen. Benachbarte “Tortenstücke” (=Cliquen) teilen jeweils zwei ihrer drei Eckpunkte (=Akteure) miteinander. Akteur 4 als Mittelpunkt dieser “Torte” gehört zu allen vier Cliquen, die Akteure 2, 9 und 17 gehören zu jeweils zwei dieser Cliquen und die Akteure 5 und 6 an den Rändern des “Tortenstücks” nur zu jeweils einer. Da Akteur 6 aber zugleich zur Viererclique gehört, stellt er einen Brückenpfeiler zwischen dieser und den vier überlappenden Dreiercliquen dar. Eine weitere Brücke existiert zwischen Akteur 1 aus der Viererclique und Akteur 17 aus den Dreiercliquen.
84
3 Kohäsive Teilgruppen
Innerhalb der vier Dreiercliquen kann jeder jeden in maximal zwei Schritten erreichen. Dennoch handelt es sich um 4 verschiedene Cliquen. Wir werden jedoch andere Konzepte kennen lernen, die diese vier Cliquen zu einer Teilgruppe verschmelzen lassen 53. Zudem bildet Akteur 6 eine Brücke zu der Viererclique, so dass sich auch die beiden größeren Gebilde nicht antagonistisch gegenüberstehen.
Abbildung 3.2: Nur Cliquenmitglieder, DI5SY_14 (=Kodierung B, Woche 14)
3.2
n-Cliquen und n-Clans
Die Bedingungen, die an den Begriff der Clique geknüpft sind, sind sehr streng. Jeder muss in einer solchen Clique Freund aller anderen sein. Dadurch bleiben 53 Eine Verschmelzung zu einer Teilgruppe ließe sich außer über das nun folgende Konzept der nClique bzw. des n-Clans (beide s.u.) auch über Galois-Verbände (engl. Galois lattices) herbeiführen (L.C. Freeman 1996), mit denen auch die “Tiefe” der Mitgliedschaft einzelner Akteure gemäß ihrer Position in den Überlappungsbereichen beschrieben werden kann: Die Mitgliedschaft von Akteur 4 wäre dann als “tiefer” anzusehen als die von Akteur 5. Dieses Konzept geht jedoch für eine Einführung zu weit und soll hier nicht erläutert werden.
3 Kohäsive Teilgruppen
85
Cliquen sehr klein. Weniger strenge Konzepte basieren auf der Vorstellung, dass Teilgruppenmitglieder sehr kurze Distanzen zueinander haben sollten. Wir wollen zunächst die Konzepte der n-Clique und des n-Clans einführen und dann erläutern, warum wir das Konzept des Clans für angemessener halten. Eine n-Clique ist ein maximaler Teilgraph mit der Eigenschaft, dass alle Knoten im zugrunde liegenden Graphen G (nicht notwendig im Teilgraphen!) maximal die (geodätische) Distanz n zueinander haben, d.h. alle Paare von Knoten des Teilgraphen entweder direkt oder in maximal n Schritten indirekt verbunden sind. Eine Clique ist eine n-Clique mit n = 1. Folglich heißt z.B. eine Teilmenge aller Akteure „2-Clique“, wenn es zwischen jedem beliebigen Paar dieser Teilmenge einen Pfad im zugrunde liegenden Graphen G gibt, der maximal die Länge 2 besitzt. Diese Definition gestattet, dass solche Pfade der Länge 2 (bzw. allgemein n) nicht innerhalb der 2-Clique (n-Clique) liegen müssen, sondern über andere Akteure (d.h. „außerhalb der n-Clique“) zustande kommen können (s.u.). Beim Konzept des n-Clans schließt man solche Pfade dagegen aus. Ein n-Clan ist ein maximaler Teilgraph mit der Eigenschaft, dass darin alle Knoten maximal die (geodätische) Distanz n zueinander haben. Es genügt also nicht, dass alle Knoten nur bezogen auf den zugrunde liegenden Graphen G, in den der Teilgraph eingebettet ist, maximal die geodätische Distanz n zueinander haben (wie beim Konzept der n-Clique). Ein Pfad der Länge n oder kürzer muss vielmehr innerhalb des Teilgraphen existieren. Ein 2-Clan ist ein n-Clan mit n = 2. Mit anderen Worten: Eine Teilmenge der Menge der Akteure einer Gruppe heißt 2-Clan, wenn es zwischen jedem beliebigen Paar dieser Teilmenge einen Pfad gibt, der maximal die Länge 2 besitzt. Dieser Pfad darf – und das unterscheidet den 2-Clan von der 2-Clique – keinen Akteur beinhalten, der nicht zu dem 2-Clan gehört. Die Teilmenge muss maximal sein bezüglich dieser Eigenschaft. Generell gilt, dass jeder n-Clan auch eine n-Clique ist, aber nicht notwendig auch umgekehrt. Allerdings ist jede Clique (d.h. 1-Clique) auch ein 1-Clan. Der Unterschied zwischen n-Clan und n-Clique lässt sich z.B. für den Fall n=2 an dem Graphen in Abbildung 3.3 auf der folgenden Seite verdeutlichen: Der Graph enthält folgende 2-Clans: 1-2-3, 2-3-4, 3-4-5, 4-5-6, 5-6-1, 6-1-2. Da jeder 2-Clan auch eine 2-Clique ist, sind diese sechs 2-Clans alle auch 2Cliquen. Es gibt jedoch noch zwei weitere 2-Cliquen in dem Graphen: nämlich 1-3-5 und 2-4-6. Diese Akteure bilden 2-Cliquen, obwohl sie ohne die Vermittlung von Personen außerhalb der Clique nicht miteinander in Kontakt stehen. Die 2-Clique 1-3-5 braucht die Vermittler 2, 4 und 6, die 2-Clique 2-4-6 braucht
86
3 Kohäsive Teilgruppen
die Vermittler 1, 3 und 5. Dies widerspricht dem Verständnis von einer Teilgruppe als einer Menge von Akteuren mit einer relativ starken inneren Verbundenheit. Daher analysieren wir im Folgenden n-Clans und nicht n-Cliquen.
Abbildung 3.3: Beispielgraph zu 2-Clans und 2-Cliquen Cliquen (d.h. 1-Cliquen) erfüllen immer auch die (schwächeren) Bedingungen für 2-Clans. Diese können aber mit zusätzlichen Mitgliedern über die Clique hinausreichen. Bei der Analyse der 2-Clans werden wir also manchmal Gebilde ausfindig machen, die größer sind als die enthaltenen (1-) Cliquen und dennoch ein gewisses Maß an Kohäsion aufweisen. In einem 2-Clan ist nämlich jedes Mitglied der Freund mindestens eines Freundes jedes anderen Mitglieds. Es teilen also alle 2-Clan-Mitglieder mindestens einen gemeinsamen Freund. Wie bereits für Cliquen eingeführt, können wir auch das Konzept des n-Clans (und ebenso der n-Clique) problemlos auf bewertete Graphen verallgemeinern. Ein nClan auf level c ist dann ein maximaler Teilgraph mit der Eigenschaft, dass sich darin alle Knoten auf Pfaden der Länge n (oder weniger) erreichen können, die nur Kanten mit einem Wert größer oder gleich c beinhalten. Für Daten, bei denen die Beziehung umso stärker ist, je kleiner der Wert der Kante ist, müssen wir das “größer oder gleich” wiederum durch ein “kleiner oder gleich” ersetzen.
3 Kohäsive Teilgruppen 3.2.1
87
2-Clans im Zeitverlauf
Für die Analyse der Newcomb Fraternity wurden 2-Clans auf dem level 5 berechnet. Dies entspricht 2-Clans im dichotomisierten und symmetrisierten Datensatz DI5SY (=Kodierung B). Die minimale Größe wurde auf fünf festgelegt. Zunächst wieder ein Beispiel aus der Woche 14 (siehe Abbildung 2.5): So bilden z.B. die sechs Akteure 2, 4, 5, 6, 9 und 17 einen 2-Clan. Jeder dieser Akteure kann jeden anderen aus dieser Gruppe über maximal eine Mittelsperson (die ebenfalls dieser Gruppe angehört) erreichen, also über einen Pfad der Länge 2. Alle anderen Akteure der Newcomb Fraternity haben aber zu mindestens einem dieser sechs Akteure die Distanz 3. Damit ist dieser Teilgraph maximal bezüglich der Eigenschaft, dass jeder Akteur jeden anderen über einen Pfad mit maximaler Länge 2 erreichen kann. In den 15 Wochen gibt es insgesamt 66 2-Clans mit jeweils fünf bis neun Mitgliedern. Eine Interpretation der Entwicklung über die Wochen fällt schwer, da u.U. schon minimale Änderungen in der Gruppenstruktur einen großen nClan in viele kleinere n-Clans mit überschneidender Mitgliedschaft zerlegen. Dennoch können einige Ergebnisse helfen, die Gruppenstruktur zu verstehen. In UCINET IV kann man diese 2-Clans wochenweise mit der Routine NETWORKS>SUBGROUPS>CLIQUES>N-CLAN ermitteln lassen mit N = 2 und MINIMUM SIZE = 5 (Ucinet 6: Network>Subgroups>N-Clan).
Die besondere Lage von Akteur 9 und Akteur 17 im Netzwerk wird durch die Analyse der 2-Clans noch unterstrichen. Beide sind über die gesamte Zeitdauer an fast allen 2-Clans beteiligt. Sie fehlen jeweils nur in sechs der insgesamt 66 2-Clans. Fast überall, wo sich Teilgruppen formieren, die über den engen Kreis einer (1-) Clique hinausgehen, sind Akteur 9 und Akteur 17 dabei. Man kann daher annehmen, dass sie von fast allen für die Gruppe wichtigen Kommunikationen Kenntnis besitzen und auf sie Einfluss nehmen. Die Lage in den 2-Clans ergänzt das Ergebnis aus der Zentralitäts- und Prestigeanalyse. Die vier beständigsten (1-) Cliquen, die aus insgesamt acht Akteuren bestehen (s.o. S. 77), bilden in den Wochen 10, 11 und 13 54 einen 2-Clan. In vielen anderen Wochen sind sechs oder sieben dieser acht Akteure in den gleichen 2-Clans vertreten. Die Mitglieder der sich am deutlichsten hervorhebenden Cliquen stehen also in einem freundschaftlichen Verhältnis zueinander.
54
In den Woche 10 und 13 tritt zusätzlich noch Akteur 14 hinzu.
88
3 Kohäsive Teilgruppen
3.2.2
2-Clans in Woche 14
Neben dem im vorangegangenen Abschnitt exemplarisch vorgestellten 2-Clan lassen sich in Woche 14 drei weitere 2-Clans mit fünf oder mehr Akteuren finden. Dabei überschneiden sich die 2-Clans sehr stark. Im Einzelnen gibt es folgende 2-Clans, wobei es sich bei dem dritten um den schon vorgestellten 2-Clan handelt: 1: 1, 4, 6, 8, 9, 13, 14, 17 2: 1, 2, 4, 6, 9, 17 3: 2, 4, 5, 6, 9, 17 4: 2, 4, 5, 12, 17 Insgesamt sind daran elf verschiedene Akteure beteiligt, nur die vier Außenseiter (3, 10, 15 und 16) und die eher marginalen Akteure 7 und 11 nicht. Man kann nun für diese 2-Clans eine Analyse überlappender Mitgliedschaften durchführen. Einer Co-Membership-Matrix kann man entnehmen, wer mit wem wie häufig gemeinsam an 2-Clans beteiligt ist. Diese Matrix findet man in Abbildung 3.4.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
1 2 1 0 2 0 2 0 1 2 0 0 0 1 1 0 0 2
2 1 3 0 3 2 2 0 0 2 0 0 1 0 0 0 0 3
3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
4 2 3 0 4 2 3 0 1 3 0 0 1 1 1 0 0 4
5 0 2 0 2 2 1 0 0 1 0 0 1 0 0 0 0 2
6 2 2 0 3 1 3 0 1 3 0 0 0 1 1 0 0 3
7 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
8 1 0 0 1 0 1 0 1 1 0 0 0 1 1 0 0 1
9 2 2 0 3 1 3 0 1 3 0 0 0 1 1 0 0 3
1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 2 0 1 0 1 1 0 0 0 0 0 0 1 0 0 0 0 1
1 3 1 0 0 1 0 1 0 1 1 0 0 0 1 1 0 0 1
1 4 1 0 0 1 0 1 0 1 1 0 0 0 1 1 0 0 1
1 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 6 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 7 2 3 0 4 2 3 0 1 3 0 0 1 1 1 0 0 4
Abbildung 3.4: Co-Membership-Matrix für 2-Clans auf level 5 in Woche 14
3 Kohäsive Teilgruppen
89
Als erstes können wir dieser Matrix in der Diagonale („gemeinsame Mitgliedschaften mit sich selbst“) entnehmen, wer wie häufig an 2-Clans beteiligt ist. Wir gewinnen also Informationen über die Häufigkeit der Subgruppenmitgliedschaft einzelner Akteure, also kontextuelle Eigenschaften dieser Akteure. Die Akteure 4 und 17 gehören beispielsweise allen vier 2-Clans an und sind somit sehr stark in Teilgruppen eingebunden. Dieser Matrix kann man nun zusätzliche Informationen über Paare von Akteuren entnehmen. Außerhalb der Diagonale finden wir die Häufigkeiten gemeinsamer Mitgliedschaften. Wir wissen nun, wer über gemeinsame 2-ClanMitgliedschaften sehr stark miteinander verknüpft ist. Insofern erhalten wir mit der Information, dass die Akteure 9 und 17 dreimal gemeinsam in einem 2-Clan auftreten, eine kontextuelle Information zu diesem Paar. Nimmt man hinzu, dass alle vier 2-Clans zusammengenommen verbunden sind, so könnte man noch einen Schritt weitergehen und feststellen, dass die Akteure 4 und 17 besonders zentral in dem Gesamtgebilde überlappender 2Clans sind, während die Akteure 8, 12, 13 und 14 eher marginal sind. Damit liegt der Fokus bei der Binnenstruktur einer Subgruppe, also eines Aggregats. Auf dieser Vorstellung basieren die Überlegungen zur Analyse von Teilgruppen mithilfe von Galois-Verbänden (L.C. Freeman 1996), die wir hier nicht vertiefen möchten. Der interessierte Leser möge sich der angegebenen Literatur zuwenden 55. Für Woche 14 bestätigt sich zudem die weiter oben (S. 51) geäußerte Vermutung, dass man bezüglich der zentralsten Akteure tatsächlich in dem Sinne von einem Zentrum sprechen kann, dass sie auch untereinander verbunden sind. Sechs der sieben zentralsten Akteure nach dem Index für closeness centrality (Akteure 1, 2, 4, 6, 9 und 17) bilden in Woche 14 einen der 2-Clans. 3.3
k-Plexe
Basierte das Konzept des n-Clans und das der n-Clique auf der Nähe, so verwirklicht das Konzept des k-Plexes die Vorstellung, dass Mitglieder einer Teilgruppe möglichst viele Verbindungen untereinander besitzen sollten. Dies wird formalisiert, indem man jedem Mitglied eines k-Plexes eine maximale Zahl von 55 Dem Konzept des Galois-Verbands in der Netzwerkanalyse ist ein ganzes Sonderheft der Zeitschrift Social Networks gewidmet, in dem auch der oben zitierte Artikel enthalten ist (Social Networks, 18(3), 1996). Es beziehen sich jedoch nicht alle Anwendungen auf dessen Nutzen in der Teilgruppenanalyse.
90
3 Kohäsive Teilgruppen
abwesenden Verbindungen zu anderen Mitgliedern des k-Plexes zugesteht: “A k-plex is a maximal subgraph containing g s nodes in which each node is adjacent to no fewer than g s - k nodes in the subgraph.” (S. Wasserman und K. Faust 1994: 265). Dabei definiert man die Beziehung eines jeden Akteurs zu sich selbst üblicherweise als abwesend. In einem 2-Plex darf also jedem Akteur – zusätzlich zu der Verbindung zu sich selbst – nur eine weitere Verbindung fehlen. Alle 1-Plexe sind somit gleichzeitig auch (1-)Cliquen sowie 1-Clans und umgekehrt. Die Definition eines k-Plexes für bewertete Beziehungen ergibt sich hieraus geradlinig: Ein k-Plex auf level c ist ein maximaler Teilgraph mit g s Knoten, in dem jeder Knoten mit mindestens g s -k Knoten eine Verbindung der Stärke c oder mehr besitzt. Somit ist ein 2-Plex auf level 5 gleich einem 2-Plex in DI5SY (=Kodierung B) (vgl. die Analogie zur Clique auf level c). Solche 2-Plexe werden nun gesucht.
3.3.1
2-Plexe im Zeitverlauf
Zur Illustration soll zunächst wieder das Beispiel aus Woche 14 dienen (s. Abb. 2.5). Die Akteure 2, 4, 5 und 17 bilden hier einen 2-Plex der Größe vier. Jeder muss mindestens 4 - 2 = 2 Verbindungen zu den anderen 2-Plex-Mitgliedern haben. Dies ist erfüllt. Die Akteure 2 und 4 haben jeder drei Verbindungen zu den jeweils drei anderen, die Akteure 5 und 17 haben jeder zwei Verbindungen zu den anderen. Wollte man noch einen Akteur hinzunehmen, so müsste jeder Akteur in dem dann entstehenden 2-Plex der Größe fünf mindestens drei Beziehungen zu den jeweils vier anderen haben. Da Akteur 5 insgesamt nur zwei Beziehungen hat, ist dies nicht möglich. Der Teilgraph mit den Akteuren 2, 4, 5 und 17 und den Kanten zwischen ihnen ist also maximal bezüglich der geforderten Eigenschaft. In UCINET IV gibt es hierfür die Routine NETWORKS>SUBGROUPS>CLIQUES>KPLEX (Ucinet 6: Network>Subgroups>K-Plex). Die Berechnung funktioniert wieder nur wochenweise (hier mit K = 2 und MINIMUM SIZE = 4).
Die Analyse der 2-Plexe auf level 5 bestätigt das Ergebnis der Cliquenanalyse. In der Gruppe besteht keine Neigung zur Bildung größerer, stark verbundener Teilgruppen. In der gesamten Zeit entsteht kein 2-Plex mit mehr als vier Akteuren. Bei der Analyse über Zeit ergibt sich ein ähnliches Ergebnis wie für Cliquen. In den Wochen 0-2 gibt es eher wenige 2-Plexe. Danach jedoch gibt es
3 Kohäsive Teilgruppen
91
keine systematische Veränderung mehr in der Anzahl der 2-Plexe der Größe vier. Ein ähnliches Ergebnis wurde ja bereits für Cliquen festgestellt. Akteur 9 und Akteur 17 sind wiederum am häufigsten Mitglied von kohäsiven Teilgruppen. Bei 124 2-Plexen ist Akteur 9 insgesamt 81mal und Akteur 17 insgesamt 75mal beteiligt (65,3% bzw. 60,5%). Tabelle 3.2: Anzahl der 2-Plexe mit vier Mitgliedern in den 15 Wochen Woche Anzahl
3.3.2
0 2
1 8
2 3 4 5 11 10
5 6
6 8
7 9
8 10 11 12 13 14 15 8 10 11 10 8 8 10
2-Plexe in Woche 14
Wenden wir uns wieder etwas ausführlicher der Woche 14 zu. Wie Tabelle 3.2 zu entnehmen ist, gibt es in dieser Woche insgesamt acht 2-Plexe der Größe vier. Diese sind: 1: 1, 4, 6, 17 2: 1, 6, 8, 13 3: 1, 6, 9, 14 4: 1, 6, 9, 17 5: 1, 9, 14, 17 6: 2, 4, 5, 17 7: 2, 4, 9, 17 8: 4, 6, 9, 17 Wir können nun wieder vorgehen wie bei den 2-Clans und eine Matrix produzieren, die über gemeinsame Mitgliedschaften Aufschluss gibt. Diese befindet sich in Abbildung 3.5 auf der folgenden Seite. In UCINET IV gehört diese Matrix zur Standardausgabe der Routine NETWORKS>SUBGROUPS>CLIQUES>K-PLEX (Ucinet 6: Network>Subgroups>K-Plex).
Dieser Matrix ist zu entnehmen, dass Akteur 17 mit 6 Mitgliedschaften am häufigsten beteiligt ist und neben den isolierten Akteuren 3, 10, 15, 16 nur die Akteure 7, 11 und 12 nie 2-Plexen in Woche 14 zugehören. Die Paare mit den häufigsten gemeinsamen Mitgliedschaften (Werte außerhalb der Diagonalen)
92
3 Kohäsive Teilgruppen
sind 1 und 6, 4 und 17 sowie 9 und 17 mit jeweils vier gemeinsamen Mitgliedschaften. Insgesamt entsteht wieder, nimmt man alle 2-Plexe zusammen, ein überlappendes Gebilde, in dessen Zentrum sich die Akteure 1, 4, 6, 9 und 17 befinden und an dessen Rand die Akteure 5, 8 und 13 mit nur einer Mitgliedschaft liegen.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
1 5 0 0 1 0 4 0 1 3 0 0 0 1 2 0 0 3
2 0 2 0 2 1 0 0 0 1 0 0 0 0 0 0 0 2
3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
4 1 2 0 4 1 2 0 0 2 0 0 0 0 0 0 0 4
5 0 1 0 1 1 0 0 0 0 0 0 0 0 0 0 0 1
6 4 0 0 2 0 5 0 1 3 0 0 0 1 1 0 0 3
7 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
8 1 0 0 0 0 1 0 1 0 0 0 0 1 0 0 0 0
9 3 1 0 2 0 3 0 0 5 0 0 0 0 2 0 0 4
1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 3 1 0 0 0 0 1 0 1 0 0 0 0 1 0 0 0 0
1 4 2 0 0 0 0 1 0 0 2 0 0 0 0 2 0 0 1
1 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 6 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 7 3 2 0 4 1 3 0 0 4 0 0 0 0 1 0 0 6
Abbildung 3.5: Co-Membership-Matrix für 2-Plexe auf level 5 in Woche 14
3.4
Komponenten
Ein weiteres Konzept der Teilgruppenanalyse soll hier noch kurz erwähnt werden: Das Konzept der Zusammenhangs-Komponente (kurz: Komponente). Es soll zunächst nur für (ungerichtete) Graphen erläutert werden 56. Dieses Konzept basiert lediglich auf der Vorstellung genereller Erreichbarkeit. Eine Komponente ist ein maximaler verbundener Teilgraph. In einer Komponente muss jeder jeden (direkt oder indirekt) erreichen können, die Länge der Pfade spielt keine 56 Die im Falle gerichteter Graphen möglichen Differenzierungen des Konzeptes der Zusammenhangs-Komponente werden am Ende von 3.6 behandelt.
3 Kohäsive Teilgruppen
93
Rolle. Das Konzept der Komponente ist im Vergleich mit den bisher erwähnten (Clique, Clan, Plex) das am wenigsten strenge. Falls nicht alle Akteure füreinander erreichbar sind (also nicht genau eine Komponente bilden), zerfällt die Population in zwei oder mehr Komponenten. Im Unterschied zu Cliquen, Clans und Plexen, die sich hinsichtlich ihrer Mitgliedschaften überlappen können, sind Komponenten immer disjunkt. In unseren Graphen der 14. Woche entstehen in beiden Fällen der DI5SY_14 (=Kodierung B) und DIMSY_14 (=Kodierung C) die gleichen fünf Komponenten, nämlich jeweils eine Komponente, die alle Akteure bis auf die vier Außenseiter (3,10,15,16) enthält, sowie vier weitere Komponenten, die jeweils einen der vier Außenseiter enthalten (s. Abb. 2.5 und 2.6). 3.5
Übersicht über Teilgruppenkonzepte
Abschließend fassen wir noch einmal systematisch die verschiedenen Konzepte von Teilgruppen zusammen: 1.) Alle Cliquen sind 2-Plexe oder in größeren 2-Plexen enthalten. 2.) Alle 2-Plexe sind 2-Clans oder in größeren 2-Clans enthalten. 3.) Alle 2-Clans sind 2-Cliquen oder in größeren 2-Cliquen enthalten. 4.) Alle 2-Cliquen sind Komponenten oder in größeren Komponenten enthalten. Damit ergibt sich eine Kette von Inklusionen: Clique 2-Plex 2-Clan 2-Clique Komponente. Aber Vorsicht: im Allgemeinen sind k-Plexe nicht in n-Clans enthalten. Für k = n = 2 gilt dies jedoch 57. In Abbildung 3.6 auf der folgenden Seite sind Beispiele für alle Konzepte aufgeführt: (1) Die vier Akteure erfüllen keine der Bedingungen für Cliquen, Clans oder Plexe. Sie bilden zwei Komponenten, die beiden isolierten Paare. (2) Hier bilden die vier Akteure eine Komponente: Jeder kann von jedem aus erreicht werden. Sie sind jedoch keine 2-Clique, da zwei Akteure (Akteur 2 und 3) die Distanz drei zueinander haben. Die Akteure 3-4-1 und 4-1-2 bilden jedoch jeweils 2-Clans der Größe 3 (und damit auch 2-Cliquen der Größe 3). (3) Hier bilden die vier Akteure einen 2-Clan (und damit auch eine 2-Clique und eine Komponente), da alle die maximale Distanz 2 zueinander haben. Drei Ak-
57 Sind zwei Akteure a und b in einem 2-Plex nicht direkt verbunden, so müssen beide mit allen anderen 2-Plex-Mitgliedern verbunden sein. Dann gibt es aber auch (mindestens) einen Pfad der Länge zwei zwischen ihnen.
94
3 Kohäsive Teilgruppen
teure haben jedoch nur eine Verbindung. Somit bilden die vier kein 2-Plex der Größe 4. (4) Hier bilden die vier Akteure einen 2-Plex (und damit auch einen 2-Clan, eine 2-Clique und eine Komponente) der Größe 4. Jeder Akteur hat mindestens 42=2 Verbindungen zu den anderen 2-Plex-Mitgliedern. (5) Die vier Akteure bilden eine Clique, da jeder mit jedem direkt verbunden ist. Damit erfüllen die vier natürlich auch die Bedingungen an ein 2-Plex, einen 2Clan, eine 2-Clique und eine Komponente.
Abbildung 3.6: Die verschiedenen Teilgruppenkonzepte Für andere Werte als n=2 bzw. k=2 haben wir ebenfalls bereits einige Aussagen über die Zusammenhänge gemacht:
3 Kohäsive Teilgruppen
95
-
1-Clique, 1-Clan und 1-Plex sind alle identisch. Ein n-Clan ist immer auch eine n-Clique oder in einer größeren n-Clique enthalten (für alle n). Darüber hinaus gilt: Für mCOMPONENTS bestimmbaren Komponenten sind immer (schwache) Komponenten; bei gerichteten Graphen wird daher eine entsprechende Warnung, dass die Daten symmetrisiert wurden,
58 Das liegt daran, dass die Relation der unilateralen Verbundenheit im Unterschied zu den drei anderen Verbundenheits-Relationen keine Äquivalenzrelation ist, weil sie nicht notwendig transitiv ist.
3 Kohäsive Teilgruppen
99
ausgegeben. (In Ucinet 6 erlaubt Network>Regions>Components>SimpleGraphs die Identifikation sowohl von starken als auch von schwachen Komponenten). Um in UCINET IV rekursive Komponenten zu ermitteln, muss man vorher die Daten unter Verwendung der „und“-Bedingung symmetrisieren (MATRICES>TRANSFORM>SYMMETRIZE mit der Symmetrisierungsmethode „MINIMUM“. In Ucinet 6: Transform>Symmetrize). Zur Bestimmung unilateraler Komponenten muss man in Anwendung der Idee, dass in unilateralen Komponenten für alle Knotenpaare gilt, dass sie sich mindestens in einer Richtung erreichen können, zunächst aus der Distanzmatrix durch Rekodierung eine Erreichbarkeitsmatrix konstruieren, indem man in der Distanzmatrix alle Eingänge mit dem Wert g („unendliche“ Distanz) gleich 0 und alle Eingänge mit einem Wert kleiner g (abgesehen von der Diagonalen) gleich 1 setzt. Diese Erreichbarkeitsmatrix ist mit der „oder“-Bedingung zu symmetrisieren (MATRICES>TRANSFORM>SYMMETRIZE; Methode „MAXIMUM“), bevor die unilateralen Komponenten bestimmt werden können. Letztere erhält man dann als 1-Cliquen des so symmetrisierten Erreichbarkeitsgraphen 59. Um starke Komponenten zu identifizieren, muss die Erreichbarkeitsmatrix vorher mit der „und“-Bedingung symmetrisiert werden, da in starken Komponenten sich alle Knotenpaare in der einen und in der anderen Richtung erreichen können.
Ermittelt man für die gerichtete Matrix DICH3_14 die vier Arten von Komponenten, so zeigt sich, dass das gesamte Netz eine schwache Komponente mit sämtlichen Akteuren bildet. Als starke Komponenten lassen sich insgesamt sechs Komponenten ermitteln, nämlich die Teilmenge {1, 2, 4, 5, 6, 7, 8, 9, 12, 13, 14, 17} sowie die fünf einzelnen Akteure {3}, {10}, {11}, {15} und {16}. Als unilaterale Komponenten ergeben sich vier überlappende Teilmengen mit der gerade erwähnten „großen“ starken Komponente als gemeinsamer Schnittmenge {1, 2, 4, 5, 6, 7, 8, 9, 12, 13, 14, 17}, zu der jeweils die Knotenmengen {3,15}, {10}, {11} oder {16} hinzukommen. Sucht man nach rekursiv verbundenen Komponenten, zeigt sich, dass die „große“ starke Komponente um den Akteur 2 „schrumpft“, der eine eigene (siebte) Komponente bildet. Man erhält also als Ergebnis der Komponentenanalyse wie schon im ungerichteten Fall mit DI5SY_14 und DIMSY_14 (s.o.S. 93) nur eine sehr „grobe“ Strukturierung der Newcomb Fraternity in der 14. Woche.
59 1-Cliquen in dem Graphen, der durch die mit der „oder“-Bedingung symmetrisierten Erreichbarkeitsmatrix definiert wird, sind maximale Teilmengen von Knoten, die in diesem Graphen paarweise direkt verbunden sind. Gemäß Konstruktion von Erreichbarkeitsmatrix und Erreichbarkeitsgraph heißt dies aber, dass es sich hierbei um maximale Teilmengen von Knoten handelt, die in dem ursprünglichen Graphen paarweise in höchstens g-1 Schritten in der einen oder anderen Richtung verbunden sind.
100 3.7
3 Kohäsive Teilgruppen Zusammenfassung der Teilgruppenanalyse
Die Teilgruppenanalyse hat uns weitere Erkenntnisse über Struktur und Entwicklung der Newcomb Fraternity gebracht. Eine Tendenz zu vermehrter Teilgruppenbildung besteht bis Woche 3. Danach lässt sich kein Trend zu vermehrter Teilgruppenbildung mehr ablesen. Dieses Resultat ergab sich für Cliquen und für 2-Plexe. Eine Freundschaft, die in eine Clique eingebettet ist, ist beständiger als eine Freundschaft, die nicht in eine solche größere Struktur eingebunden ist. Die Clique besitzt also eine gewisse stabilisierende Wirkung auf in ihr enthaltene kleinere Strukturen (hier Dyaden). Die zentrale Position der Akteure 9 und 17 wird dadurch bestätigt, dass sie in äußerst viele Teilgruppen eingebunden sind. Dieses Ergebnis wird besonders deutlich für 2-Clans. Neben diesen beiden sind des Weiteren die Akteure 6 und 13 in je zwei (über die Zeit hinweg) stabilen Cliquen enthalten. Die Neigung der Gruppe zur Teilgruppenbildung ist nicht besonders ausgeprägt. Stark verbundene Teilgruppen überschreiten nie die Größe von vier Mitgliedern. Vielmehr wird die Annahme, dass es ein größeres Zentrum beliebter Akteure gibt, die untereinander über Freunde oder Freunde von Freunden verbunden sind, bekräftigt. Die hinsichtlich der closeness centrality zentralsten Akteure 1, 2, 4, 6, 9 und 17 aus Woche 14 bilden in einigen Wochen einen 2Clan. Die Annahme, dass die Gruppe aus einem Zentrum und einer Peripherie besteht, wird im nun folgenden Kapitel 4 mit dafür besonders geeigneten Konzepten der Netzwerkanalyse weiter überprüft.
4
Positionen und Rollen
Bei der Analyse von Teilgruppen kam es darauf an, Mengen von Akteuren auszumachen, die durch die Netzwerkbeziehung in irgendeiner Weise relativ stark untereinander verbunden sind. Dagegen werden bei der Analyse von Positionen solche Akteure gesucht, die ein ähnliches Muster von Beziehungen aufweisen und somit in ähnlicher Weise in das Netzwerk eingebunden sind. Rollen schließlich beziehen sich auf das Muster der Beziehungen zwischen Angehörigen gleicher oder verschiedener Positionen. In social network analysis position refers to a collection of individuals who are similarly embedded in networks of relations, while role refers to the patterns of relations which obtain between actors or between positions. (S. Wasserman und K. Faust 1994: 348) Vor der vergleichenden Analyse von Positionen muss jeweils geklärt werden, welche Aspekte einer Einbindung von Akteuren in die Beziehungsstruktur ihrer Umgebung für die Beschreibung der Positionen bedeutsam sein sollen. Die Auswahl bedeutsamer Aspekte wird je nach inhaltlichen Interessen und beabsichtigter Verwendung der Ergebnisse höchst unterschiedlich ausfallen. Sie wird einmal auf der Basis inhaltlich unterschiedlich definierter Beziehungseigenschaften der Positionsinhaber wie z.B. Freundschaft, Anweisungsbefugnis oder Informationspflicht erfolgen. Auch bei an sich inhaltlich „gleichen“ Beziehungseigenschaften wie zum Beispiel dem Informationsaustausch wird man unterschiedlich differenziert vorgehen können und entweder nur die Existenz einer Verbindung beachten, zusätzlich nach der Richtung (Aĺ% $ĸ% Aļ% GHV Informationsflusses unterscheiden oder sogar die Intensität der Informationsflüsse in den verschiedenen Richtungen berücksichtigen wollen. Bei der vergleichenden Beschreibung von Positionen wird es manchmal auf die Identifikation von Beziehungen zu bestimmten „konkreten“ (d.h. namentlich identifizierbaren) Personen ankommen und manchmal genügen, Beziehungen zu irgendwie gleichartigen Personen festzustellen. Im letztgenannten Fall sieht man Personen als „gleichartig“ an, wenn sie sich in „gleichen oder
M. Trappmann et al., Strukturanalyse sozialer Netzwerke, DOI 10.1007/978-3-531-92656-8_4, © VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH 2011
102
4 Positionen und Rollen
ähnlichen Positionen“ befinden. Dabei ist wiederum erläuterungsbedürftig, unter welchen Bedingungen Positionen als „gleich oder ähnlich“ angesehen werden sollen. Manchmal mögen nur die unmittelbaren (direkten) Beziehungen der Akteure bedeutsam sein, in anderen Fällen auch die Einbettung dieser Beziehungen in ein weiteres Umfeld, das auch die indirekten Beziehungen der Akteure in 2, 3 oder mehr Schritten umfasst (z.B. in 2 Schritten: Beziehungen zum Freund eines Freundes). (1) Unter "strukturellen" Gesichtspunkten wird man zunächst fragen, inwieweit Akteure gleiche Verbindungen zu identischen Personen haben. Demnach würden z.B. die Positionen zweier Akteure A und B als umso ähnlicher eingestuft, je größer der Anteil gemeinsamer Freunde an der Zahl der Freunde ist, die beide Akteure insgesamt haben. In diesem Sinne steht Freundschaft für die Art der („gleichen“) Beziehung und die Zahl oder der Anteil gemeinsamer Freunde für Beziehungen zu „denselben Personen“. Zwei in diesem Sinne „strukturell äquivalente“ Akteure könnten also in einem (wie immer dargestellten) Beziehungsnetz ihre Plätze tauschen, ohne dass sich ihre Beziehungen zu anderen Akteuren des Netzes ändern würden. Es ist offensichtlich, dass ein solches Konzept zur Beschreibung von Positionen nur auf Beziehungen von Akteuren gegenüber derselben Population von Kontaktpersonen anwendbar ist. In allen anderen Fällen, etwa beim Vergleich der Positionen zweier Lehrer in Toronto und Hamburg, müsste von einigen Details des eben genannten Vergleichs abgesehen werden. An die Stelle der Forderung nach gleichen Beziehungen zu „denselben“ Personen tritt nun die Forderung nach gleichen Beziehungen zu gleichartigen, aber nicht notwendig identischen Personen. (2) Es gibt viele Gesichtspunkte, unter denen an sich verschiedene Personen als gleichartig gelten können. Von einem solchen, bei der Analyse von Positionen häufig gewählten Gesichtspunkt aus, werden Kontaktpersonen dann als gleichartig betrachtet, wenn sie ihrerseits auf gleiche Weise mit Personen verbunden sind, die auf gleiche Weise mit Personen verbunden sind usf.. Zwei in diesem Sinne „automorph äquivalente“ Akteure (zur formalen Definition s.u., Abschnitt 4.1.2) könnten im Beziehungsnetz ihre Plätze tauschen, ohne dass sich die Struktur des Netzes ändern würde; allerdings könnten sie nach dem Tausch (im Gegensatz zu „strukturell äquivalenten Personen“, s.o., Punkt (1)) zumindest teilweise mit anderen Personen verbunden sein!
4 Positionen und Rollen
103
Am einfachsten wird dieser neue, mit der "automorphen Äquivalenz" verbundene Gesichtspunkt verständlich, wenn man sich zur Vereinfachung auf die 1-Schritt-Umgebungen der Akteure beschränkt: Die Äquivalenzforderung „gleiche Beziehungen zu gleichartigen Personen“ verengt sich nun darauf, dass es nur noch auf die Zahl der (gleichen) Beziehungen des Akteurs ankommt. Die Kontaktpersonen „am anderen Ende der Verbindungen“ gelten nun per definitionem „immer als gleichartig“, weil deren möglicherweise unterschiedlichen Beziehungen vom Standpunkt des ersten Akteurs 2-Schritt-Beziehungen sind, die als unbedeutsam eingestuft werden und damit auch keine beachtenswerten Unterschiede erzeugen können. Zwei Akteure mit z.B. jeweils genau 3 ausgehenden und keinen eingehenden Verbindungen gelten also unter dieser Sichtweise als „äquivalent“, und zwar unabhängig davon, zu welchen konkreten Personen sie Verbindungen haben. Entsprechend kann man auch die 2- oder 3- oder Mehr-Schritt-Umgebung der Akteure für wichtig erachten. Eine sinnvolle Auswahlentscheidung muss, wie oben betont, auf inhaltlicher Basis getroffen werden. (3) Die mit dem Gesichtspunkt der "automorphen Äquivalenz" eingeführte Abstraktion von den jeweils konkreten Kontaktpersonen eines Positionsinhabers reicht häufig noch nicht aus, um unsere inhaltlichen Vorstellungen über gleiche bzw. ähnliche Strukturaspekte von Positionen angemessen zu berücksichtigen. Vergleichen wir z.B. die Positionen der Akteure A1 und A2 in Abbildung 4.1 auf folgender Seite unter Beschränkung auf zunächst 1-Schritt- und dann 2-Schritt-Umgebungen: Innerhalb ihrer 1-SchrittUmgebungen sind beide Akteure „gleichartig“: Jeder hat genau zwei ausgehende Beziehungen. Bei Beachtung ihrer weiteren 2-Schritt-Umgebung unterscheiden sich A1 und A2 jedoch hinsichtlich der Einbettung ihrer Kontaktpersonen in das jeweils umgebende Netzwerk: Während die beiden Kontaktpersonen von A1 (nämlich B11 und B12) „gleichartig“ sind in dem Sinne, dass jede von ihnen zwei ausgehende Beziehungen zu darüber hinaus nicht weiter verbundenen Akteuren unterhalten, sind die beiden Kontaktpersonen von A2 (nämlich B21 und B22) „ungleich“ in dem Sinne, dass die eine (B21) zwei, die andere (B22) jedoch drei ausgehende Beziehungen (zu ebenfalls nicht weiter verbundenen Akteuren) besitzen. Die Frage nach einer (noch) weitergehenden Abstraktion bei der Beschreibung von Positionen lässt sich im vorliegenden Fall also zuspitzen: Es muss inhaltlich entschieden werden, ob die Zahl gleichartiger Beziehungen
104
4 Positionen und Rollen zu gleichartigen Akteuren für die Unterscheidung zwischen Positionen bedeutsam sein soll oder nicht. Beide Akteure (B21, B22) haben jeweils eine von derselben Kontaktperson eingehende Beziehung und sind in diesem Sinne bereits unter dem Gesichtspunkt struktureller Äquivalenz gleich. Sie haben zwei (B21) bzw. drei (B22) ausgehende Beziehungen zu untereinander unverbundenen Personen und sind daher unter dem Gesichtspunkt automorpher Äquivalenz ungleich. Das Absehen von diesem Unterschied bedeutet eine weitere Abstraktion: Es soll nun nicht mehr auf die Zahl gleicher Beziehungen (zu gleichartigen Personen) ankommen, sondern nur noch darauf, ob eine bestimmte Form der Einbettung in das umgebende Beziehungsnetz bei beiden Akteuren jeweils mindestens einmal oder bei beiden nicht vorkommt ("gleiche" Form der Einbettung), oder ob diese Form der Einbettung bei den beiden Akteuren unterschiedlich ist, d.h. bei dem einen nicht und bei dem anderen mindestens einmal vorkommt.
A2
A1
B11
C111
B21
B12
C112
C121
C122 A1
C211
C212
B22
C221 C222 C223
Abbildung 4.1: Hierarchien mit jeweils zwei Stufen Konzepte zur Beschreibung dieser Form von Positionsäquivalenz werden wir in einem folgenden Abschnitt (4.1.3) unter der Bezeichnung „reguläre Äquivalenz“ kennen lernen. Besonders einfach und plausibel ist der damit verbundene Gesichtspunkt wieder anhand von 1-Schritt-Umgebungen zu beschreiben 60. 60 Vergleiche dazu auch den Abschnitt Dyaden in Kapitel 5 zur stochastischen Analyse von sozialen Netzwerken.
4 Positionen und Rollen -
-
4.1
105
Nach dem Gesichtspunkt der "automorphen Äquivalenz" gelten zwei Positionen z.B. als gleich, wenn sie in der Zahl (1) asymmetrisch ausgehender, (2) asymmetrisch eingehender, (3) symmetrisch ein- und ausgehender und (4) nicht vorhandener Verbindungen übereinstimmen. Insbesondere durch den letztgenannten Punkt (4) sieht man gleich, dass diese Forderung überhaupt nur erfüllbar ist, wenn Positionen zwischen Beziehungsnetzen mit genau gleicher Zahl von Personen verglichen werden. Nach weitergehender Abstraktion gelten nun unter dem Gesichtspunkt „regulärer Äquivalenz“ zwei Positionen immer dann als gleich, wenn jeder wichtige Aspekt der beachteten Struktur für beide Positionen entweder gleichermaßen zutrifft oder gleichermaßen nicht zutrifft. Hinsichtlich der eben genannten vier Strukturaspekte direkter Beziehungen zwischen Akteuren (1-Schritt-Umgebungen) ist das wieder sehr einfach: Zwei Akteure nehmen gleiche Positionen ein, wenn sie hinsichtlich der Existenz oder Nicht-Existenz beliebig vieler (1) asymmetrisch ausgehender, (2) asymmetrisch eingehender, (3) symmetrisch ein- und ausgehender und (4) nicht vorhandener Verbindungen übereinstimmen. Unter dem neu eingeführten Gesichtspunkt wären also z.B. die Akteure B12 und B22 als "regulär äquivalent" anzusehen und (bei Beachtung von 2-Schritt-Umgebungen) würde sich diese Eigenschaft „positionsgleich“ zu sein auch auf die Akteure A1 und A2 übertragen, die gleichartige Beziehungen zu nunmehr – unter dem Gesichtspunkt regulärer Äquivalenz – "positionsgleichen Personen" aufweisen. Äquivalenzen in sozialen Netzwerken
Eine Methode, Positionen von Akteuren zu ermitteln, ist die, Klassen von (hinsichtlich ihrer Beziehungen) äquivalenten Akteuren zu bilden. Ganz allgemein erhält man Klassen von äquivalenten Akteuren, indem man auf der Menge der Akteure eine Äquivalenzrelation definiert. Eine Äquivalenzrelation ist eine reflexive, symmetrische und transitive Relation 61. Sie führt zu einer Zerlegung 61 Formal heißt eine Relation R auf einer Menge M reflexiv genau dann, wenn für alle aM gilt: aRa, sie heißt symmetrisch genau dann, wenn für alle a, bM gilt: wenn aRb dann bRa und sie heißt transitiv genau dann, wenn für alle a, b, c M gilt: wenn aRb und wenn bRc dann aRc. Inhaltlich bedeutet Reflexivität: Jedes Element steht zu sich selbst in der Relation R. Symmetrie bedeutet, dass
106
4 Positionen und Rollen
(Klasseneinteilung, Partition) der Menge der Akteure in paarweise disjunkte (= sich nicht überschneidende) Äquivalenzklassen. Innerhalb einer jeden Klasse stehen alle Akteure zueinander in der betreffenden Äquivalenzrelation, während Akteure unterschiedlicher Klassen nicht zueinander in der betreffenden Äquivalenzrelation stehen. Dabei kann die Zerlegung der Menge der Akteure in Klassen äquivalenter Akteure je nach Äquivalenzrelation unterschiedlich „fein“ sein: Die „feinste“ Zerlegung ordnet jedem Akteur seine eigene Äquivalenzklasse zu (es gibt also genauso viele Klassen wie Akteure), wohingegen die „gröbste“ Zerlegung zu lediglich einer Klasse führt, die alle Akteure umfasst. Im ersten Fall ist jeder nur mit sich selbst äquivalent, im zweiten Falle sind alle mit allen äquivalent. In der Netzwerkanalyse hat es nun verschiedene Ansätze für die Definition einer solchen Äquivalenzrelation gegeben, die im Folgenden vorgestellt werden.
4.1.1
Strukturelle Äquivalenz
Das erste Konzept, das entwickelt wurde, um den Begriff „Position“ als Klasse von (hinsichtlich ihrer Beziehungen) äquivalenten Akteuren zu formalisieren, ist das Konzept der strukturellen Äquivalenz. Für eine bewertete und gerichtete Beziehung sind zwei Akteure unter der folgenden Bedingung strukturell äquivalent: Zwei Akteure i und j sind strukturell äquivalent genau dann, wenn in Bezug auf jeden anderen Akteur k (k z i, j) gilt, dass i genau dann eine Beziehung vom Wert m zu k hat, wenn j eine Beziehung vom Wert m zu k hat, und wenn k genau dann eine Beziehung vom Wert n zu i hat, wenn k eine Beziehung vom Wert n zu j hat 62. a dann und nur dann in Relation R zu b steht, wenn auch b in Relation R zu a steht: Es kann also keine einseitigen Beziehungen (a steht in Relation R zu b, b aber nicht in Relation R zu a) geben. Transitivität einer Relation bedeutet, dass wenn a zu b und wenn b zu c in Relation R stehen, auch a zu c in Relation stehen muss. 62 Diese Definition macht keine Aussage über die Beziehungen von i zu j und von j zu i. Man könnte die Definition jedoch dahingehend verstärken, dass strukturell äquivalente Akteure auch miteinander mit der gleichen Stärke in beiden Richtungen verbunden sein müssen. Die später zu diskutierenden Analyseroutinen erlauben bei der Definition der strukturellen Äquivalenz von i und j sowohl die Berücksichtigung als auch die Nicht-Berücksichtigung einer gegenseitigen Beziehung. Für welche Variante man sich entscheidet, hängt nicht zuletzt davon ab, in welchem Verhältnis die strukturelle Einbettung von i und j zu ihren direkten Beziehungen untereinander theoretisch-inhaltlich gedacht wird (siehe auch S. 124).
4 Positionen und Rollen
107
Die beiden Akteure i und j sind nach diesem Konzept also nur dann strukturell äquivalent bzw. befinden sich in der gleichen Position, wenn sie Beziehungen der gleichen Stärke von und zu jedem anderen Netzwerkmitglied haben. Diese Definition von Äquivalenz lässt sich auf weniger komplexe Beziehungen (ungerichtete, unbewertete) leicht übertragen. Sie vereinfacht sich dann. Für ungerichtete Beziehungen braucht man Verbindungen von i zu k und Verbindungen von k zu i nicht zu unterscheiden. Man kann dann den Teil der Definition, der hinter dem „und“ folgt, ignorieren (muss man aber nicht!). Für unbewertete Beziehungen kann man die Zusätze „vom Wert m“ bzw. „vom Wert n“ ignorieren. Zwei Akteure sind also nur dann strukturell äquivalent, wenn sie zu jedem anderen Akteur in genau der gleichen Beziehung stehen. Im Originaldatensatz der Newcomb Fraternity (mit den Rangplätzen als Daten) sind in keiner der Wochen auch nur zwei Akteure strukturell äquivalent.
4.1.2
Automorphe Äquivalenz
Das Konzept der strukturellen Äquivalenz war das erste Konzept zur Formalisierung von Positionen. Es wurde bald wegen zu strenger Annahmen kritisiert und es wurden andere Formalisierungen vorgeschlagen. Bleiben wir bei dem Beispiel zweier Lehrer von zwei Schulklassen. Sie wären nur dann strukturell äquivalent, wenn sie genau dieselbe Klasse unterrichteten und jeweils gleiche Beziehungen zu jedem einzelnen Schüler hätten. Zwei Lehrer, die unterschiedliche Klassen unterrichten, könnten prinzipiell nicht mehr strukturell äquivalent sein. Es erscheint sinnvoll, das Konzept so auszuweiten, dass Personen, die dieselben Beziehungsmuster zu anderen Personen aufweisen, gleichen Positionen zugewiesen werden, und zwar auch dann, wenn diese Beziehungen nicht zu identischen, sondern nur zu „gleichartigen“ anderen Personen bestehen. Das erste Konzept, das entwickelt wurde, um das der strukturellen Äquivalenz zu verallgemeinern, war das Konzept der automorphen Äquivalenz 63. Zwei Knoten i und j eines Graphen sind danach äquivalent, wenn es einen 63 Eigentlich müsste man von „isomorpher“ Äquivalenz sprechen, da es im Allgemeinen (wie im Beispiel der zwei Lehrer, die zwei verschiedene Schulklassen unterrichten) darum geht, ob zwei Knoten aus zwei verschiedenen Graphen (gleicher Größe) „äquivalent“ sind. Automorphe Äquivalenz ist dann der Spezialfall der „Äquivalenz“ von zwei Knoten im gleichen Graphen. Allerdings lässt sich die Frage nach der isomorphen Äquivalenz auf eine nach der automorphen Äquivalenz zurückführen, indem man die beiden Graphen zu einem vereinigt.
108
4 Positionen und Rollen
Graphenautomorphismus gibt, der Knoten i auf Knoten j abbildet und umgekehrt 64. Diese sehr formale Definition besagt anschaulich, dass zwei Knoten genau dann automorph äquivalent sind, wenn sie in einem unbeschrifteten („un-labeled“) Graphen, in dem die Knoten nur durch die Struktur ihrer Beziehungen charakterisiert werden können, nicht voneinander zu unterscheiden sind. In Abbildung 4.2 befinden sich zwei Beispiele. Im linken Graphen sind alle Akteure zueinander automorph äquivalent 65. Aber sie sind nicht strukturell äquivalent. Im rechten Graphen sind die Akteure 9 und 10 automorph äquivalent, ebenso die Akteure 11 und 12; beide Paare sind sogar zusätzlich jeweils strukturell äquivalent. Alle anderen Akteure sind nicht zueinander äquivalent. So sind beispielsweise die Akteure 10 und 11 nicht äquivalent, weil sie unterschiedlich viele Beziehungen besitzen (Akteur 10 zwei, Akteur 11 eine). Die Akteure 7 und 8 sind ebenfalls nicht äquivalent. Sie besitzen zwar die gleiche Anzahl von Beziehungen, jedoch mit ungleichartigen Personen: Zwei der drei Personen, mit denen Akteur 7 in Beziehung steht, sind auch direkt miteinander verbunden; dagegen gilt für alle drei mit Akteur 8 verbundenen Personen, dass sie untereinander nicht direkt verbunden sind.
Abbildung 4.2: Graphen mit automorphen Äquivalenzen
Ein Graphenautomorphismus ist eine bijektive Abbildung M der Menge der Knoten eines Graphen G auf sich selbst, so dass (M(i), M(j)) genau dann eine Kante des Graphen G ist, wenn (i, j) eine Kante des Graphen G ist, und dies für alle i, j N gilt. Diese Definition ist für gerichtete Graphen im gleichen Wortlaut anwendbar. Für bewertete Graphen lässt sich diese Definition ausweiten: Ein Graphenautomorphismus für einen bewerteten Graphen ist eine bijektive Abbildung M der Menge der Knoten eines bewerteten Graphen G auf sich selbst, so dass (M(i), M(j)) genau dann eine Kante vom Wert m des bewerteten Graphen G ist, wenn (i, j) eine Kante vom Wert m des bewerteten Graphen G ist, für alle i, j N. 65 Man nennt diesen Graphen einen Kreis. 64
4 Positionen und Rollen
109
Es gibt keinen schnellen Algorithmus, „ [...] that guarantees identification of automorphically equivalent nodes in all graphs“ (M.G. Everett, J. Boyd und S.P. Borgatti 1990). Eine Strategie zur Identifikation äquivalenter Knoten basiert auf der folgenden Erkenntnis: Automorph äquivalente Akteure sind strukturell, d.h. hinsichtlich ihrer Beziehungen, nicht unterscheidbar, also gilt: sie haben “ [...] identical values on all graph theoretic properties“ (S. Wasserman und K. Faust 1994: 473). Das bedeutet, dass Teilmengen automorph äquivalenter Akteure immer innerhalb von Teilmengen von Akteuren mit gleichen graphentheoretischen Eigenschaften zu finden sind. Algorithmen, die diese Erkenntnis nutzen, gehen also folgendermaßen vor: Man erstellt zunächst für jeden Akteur einen Vektor, der „alle bedeutsamen“ graphentheoretischen Eigenschaften des Akteurs enthält. Theoretisch ist eine Vielzahl von Möglichkeiten für die Erstellung dieses Vektors denkbar: Man könnte beispielsweise die bereits erwähnten Zentralitäts- und Prestige-Indizes, Häufigkeiten von Teilgruppenzugehörigkeiten oder Ähnliches einbringen. Oder man könnte sich auf graphentheoretische Eigenschaften innerhalb bestimmter Umgebungen, z.B. innerhalb der vom Akteur aus in 2 oder 3 Schritten erreichbaren anderen Akteure, konzentrieren. Alle in Kapitel 2 genannten Prestige- und Zentralitätsmaße sind in diesem Sinne als extrem vereinfachte Vektoren mit nur jeweils einer einzigen Eigenschaft zur Ermittlung automorpher Äquivalenz zu interpretieren: Bei den Prestigemaßen war es z.B. der Innengrad („Degree-Prestige“) als 1-Schritt Umgebung der Akteure oder das „Rank-Prestige“ als entsprechende Mehr-Schritt Umgebung. Die anderen in Abschnitt 2.2 besprochenen Zentralitätsmaße („Closeness Centrality“ und „Betweenness Centrality“) beschreiben ebenfalls jeweils eine Eigenschaft zur Ermittlung automorpher Äquivalenz. Auch ohne diese extreme Beschränkung der Vektoren auf eine einzige Eigenschaft sind äquivalente Akteure immer nur anhand von Vektoren mit begrenzter Menge von Eigenschaften zu ermitteln. Da Gleichheit der Vektoren mit einzelnen strukturellen Eigenschaften für automorphe Äquivalenz notwendig, aber nicht hinreichend ist, besteht das Problem jedoch darin, dass auch Akteure, die insgesamt – d.h. über alle denkbaren Eigenschaften hinweg – nicht äquivalent sind, doch hinsichtlich der gerade ausgewählten Eigenschaften als äquivalent erscheinen. Deshalb wurde versucht, den Eigenschafts-Vektor derart mit graphentheoretischen Eigenschaften zusammenzustellen, dass mit ihnen möglichst viel über alle anderen, nicht explizit beachteten Eigenschaften festgelegt wird. M.G. Everett und S.P. Borgatti (1988) stellen ein solches Verfahren vor. Dies ist jedoch nur auf (ungerichtete, unbewertete) Graphen anwendbar. Man
110
4 Positionen und Rollen
benötigt dazu zunächst das Konzept der Nachbarschaft. Die Nachbarschaft einer beliebigen Menge von Knoten S in einem Graphen G (S ist Teilmenge der Menge der Knoten von G) besteht aus diesen Knoten selbst und allen Knoten, die zu mindestens einem von ihnen adjazent sind. Diese Nachbarschaft wird als N(S) bezeichnet. Man definiert Nachbarschaften höherer Ordnung dann als Nachbarschaften der Nachbarschaften, also N²(S) = N(N(S)), N³(S) = N(N²(S)), usw. Man sagt nun, dass jede Nachbarschaft einer Teilmenge S von Knoten des Graphen einen Teilgraphen induziert, den knotengenerierten Teilgraphen, der durch die Knoten in N(S) generiert wird. Wir kommen nun zu dem gesuchten Eigenschafts-Vektor (in diesem Fall wird es eine Vielzahl von Vektoren sein). Für jeden Knoten n j (j = 1, ... , g) des Graphen gehen wir folgendermaßen vor: Wir bilden nacheinander die Nachbarschaften aller Ordnungen. Irgendwann sind entweder alle Knoten enthalten oder die, die nicht enthalten sind, kommen auch in weiteren Schritten nicht mehr hinzu, da sie mit dem Knoten n j nicht verbunden sind. Das Verfahren kann man also mit dem Schritt abbrechen, in dem zum ersten Mal kein neuer Akteur hinzukommt. Wir nehmen im nächsten Schritt aus diesen Nachbarschaften jeweils den Knoten n j selbst heraus und bilden dann die knotengenerierten Teilgraphen all dieser Nachbarschaften. In jedem dieser Teilgraphen (für die Nachbarschaft jeder Ordnung einen) bilden wir einen Degreeund einen Betweenness-Vektor, die aus den entsprechenden Indizes (auf Normierung kommt es nicht an) für alle Knoten des Teilgraphen, jeweils in aufsteigender Reihenfolge der Werte bestehen. Wenn nun für zwei Knoten n i und n j beide Vektoren für alle Nachbarschaften identisch sind, so sind die Knoten automorph äquivalent. Dieses Verfahren stellt also einen Algorithmus zur Identifizierung automorph äquivalenter Knoten dar. Bei sehr kleinen Netzen lässt sich die automorphe Äquivalenz von Knoten dadurch ermitteln, dass man alle möglichen Vertauschungen (Permutationen) der Knoten vornimmt und prüft, ob die jeweilige Permutation strukturerhaltend ist 66. Allerdings wird der Zeitaufwand sehr schnell extrem hoch, da bei g Knoten die Zahl der zu prüfenden Permutationen g! beträgt 67. Im Originaldatensatz der Newcomb Fraternity (mit Rangplätzen als Daten) lassen sich wiederum in keiner der Wochen auch nur zwei zueinander automorph äquivalente Akteure finden. 66
UCINET IV bietet als Routine NETWORKS>POSITIONS>AUTOMORPHIC EQUIVALENCE>ALL PERMUTATIONS an (Ucinet 6:Network>Roles&Positions>Automorphic>All Permutations). 67 So lassen sich in Abb. 4.2 der linke und der rechte Graph jeweils separat sehr schnell auf Äquivalenz prüfen; betrachtet man Abb. 4.2 jedoch als eine einheitliche Beziehungsstruktur, so sind statt 5! = 120 bzw. 7! = 5040 nun schon 12! = 479001600 Permutationen „durchzuspielen“.
4 Positionen und Rollen 4.1.3
111
Reguläre Äquivalenz
Das Konzept der automorphen Äquivalenz hat in manchen Zusammenhängen einen entscheidenden Nachteil. Zwei Akteure müssen zwar nicht (wie im Falle der strukturellen Äquivalenz) gleiche Beziehungen zu exakt denselben anderen Akteuren haben, um äquivalent zu sein, sie müssen jedoch zu exakt derselben Anzahl anderer gleiche Beziehungen unterhalten. Zwei Lehrer könnten also allenfalls dann automorph äquivalent sein, wenn sie gegebenenfalls zwar verschiedene, aber in jedem Fall gleich große Klassen unterrichten würden. Ein noch allgemeineres Konzept ist daher wünschenswert. Dieses Konzept sollte nicht nur von der Identität der Beziehungspartner, sondern darüber hinaus auch noch von der Anzahl der Beziehungspartner abstrahieren. Ein solches allgemeineres Konzept ist das der regulären Äquivalenz. Zwei Akteure sind regulär äquivalent, wenn sie die gleichen Beziehungen zu anderen Akteuren unterhalten, die selbst wiederum regulär äquivalent sind: „More generally, if actors i and j are regularly equivalent, and actor i has a tie to/from some actor, k, then actor j must have the same kind of tie to/from some actor, l, and actors k and l must be regularly equivalent.“ (S. Wasserman und K. Faust 1994: 474). Diese Definition ist wiederum auf Graphen, gerichtete Graphen, bewertete Graphen sowie gerichtete und bewertete Graphen gleichermaßen anwendbar. Für (ungerichtete, unbewertete) Graphen kann man den Ausdruck „kind of tie“ ignorieren und das „to“ und „from“ braucht nicht unterschieden zu werden. Für gerichtete Graphen muss dagegen die Bedingung für „to“ und für „from“ erfüllt sein und für bewertete Graphen bezeichnet der Ausdruck „kind of tie“ den Wert der Beziehung. Diese Art der Äquivalenz führt zwar zu einer Zerlegung der Population in paarweise nicht-überlappende und insgesamt die Population erschöpfende Klassen, die Bildung von Äquivalenzklassen ist aber nicht eindeutig. Es gibt in der Regel zu einem Graphen mehrere Zerlegungen in Klassen regulär äquivalenter Akteure. Zwar ist jede Klasse strukturell bzw. automorph äquivalenter Akteure immer auch regulär äquivalent. Es kann jedoch darüber hinaus noch weitere Klassen regulär äquivalenter Akteure geben. Dies hängt mit der „zirkulären“ Definition regulärer Äquivalenz zusammen. „Zirkularität“ bedeutet, dass für die Definition der regulären Äquivalenz der Begriff „reguläre Äquivalenz“ benutzt wird. Das Kriterium dafür, dass zwei Akteure A und B regulär äquivalent sind ist, dass deren Beziehungspartner regulär äquivalent sind. Das Kriterium dafür,
112
4 Positionen und Rollen
dass die Beziehungspartner von A und B regulär äquivalent sind, ist wiederum, dass deren Beziehungspartner (worunter sich ja auch A und B befinden) regulär äquivalent sind. Der Prozess geht endlos so weiter und führt nie zu einer eindeutigen Lösung. So erfüllt zum Beispiel in einem Graphen jede (Zusammenhangs-) Komponente als Ganze die Bedingung regulärer Äquivalenz. In einer Komponente sind zwei beliebige Akteure i und j regulär äquivalent, da beide mindestens eine Beziehung zu einem der anderen Akteure haben und da diese anderen Akteure auch wiederum äquivalent sind (in dem Sinne, in dem auch Akteur i und Akteur j äquivalent sind). Auf der anderen Seite bildet auch die („feinste mögliche“) Zerlegung der Akteure in Klassen zu je einem Akteur (jeder ist nur zu sich selbst regulär äquivalent) eine reguläre Äquivalenz. Die fehlende Eindeutigkeit der regulären Äquivalenz ist ein Nachteil. Man muss entscheiden, welcher der alternativen Klasseneinteilungen aufgrund der regulären Äquivalenz man den Vorzug gibt. Auch wenn die Bedingungen für Äquivalenz beim Übergang von der strukturellen zur regulären Äquivalenz zweimal abgeschwächt wurden, ist die Bedingung für bewertete Graphen immer noch sehr streng: Man wird in empirischen sozialen Netzwerken mit bewerteten Beziehungen zwischen den Akteuren nur selten größere Gruppen exakt regulär äquivalenter Akteure finden. Für die bewertete und gerichtete Beziehung der Newcomb Fraternity (Originaldatensatz mit Rangplätzen als Daten) findet man in keiner der Wochen auch nur zwei zueinander regulär äquivalente Akteure.
4.1.4
Die Äquivalenzkonzepte in ihren logischen Beziehungen zueinander
Die hier vorgestellten Äquivalenzkonzepte stehen in einem Inklusionsverhältnis zueinander. Strukturell äquivalente Akteure sind immer auch automorph äquivalent. Automorph äquivalente Akteure sind immer auch regulär äquivalent. Dies soll noch einmal an einem Beispiel illustriert werden (Abbildung 4.3). Wir wollen hierbei nur die Akteure B und C betrachten.
4 Positionen und Rollen
113
Abbildung 4.3: Beispiele für Äquivalenzkonzepte Im ersten Beispiel sind die Akteure B und C regulär äquivalent, aber nicht automorph äquivalent, da Akteur C ausgehende Beziehungen zu drei Akteuren,
114
4 Positionen und Rollen
Akteur B aber ausgehende Beziehungen zu nur zwei Akteuren hat. Damit sind die beiden Akteure erst recht nicht strukturell äquivalent. Im zweiten Beispiel sind die Akteure B und C automorph äquivalent und damit auch regulär äquivalent, aber sie sind nicht strukturell äquivalent, da Akteur C ausgehende Beziehungen zu anderen Akteuren hat als Akteur B. Hätten in diesem Beispiel Akteur H und Akteur G eine gegenseitige Beziehung zueinander, so wären B und C nicht mehr automorph äquivalent, da die beiden dann auch in einem unbeschrifteten Graphen voneinander unterscheidbar wären. Im dritten Beispiel schließlich sind die Akteure B und C strukturell äquivalent, sie haben gleiche Beziehungen zu identischen Akteuren. Sie sind damit auch automorph und regulär äquivalent. 4.2
Ähnlichkeiten in sozialen Netzwerken
Das Konzept der Äquivalenz stellt zwar theoretisch eine Formalisierung des Konzeptes der Position dar, ist jedoch häufig nicht praktikabel, da – wie auch wir feststellen konnten – in empirischen Netzwerken oft keine größeren Mengen äquivalenter Akteure ausgemacht werden können. Daher ist es zweckmäßig, Formalisierungen des Positionenkonzeptes zu verwenden, die weniger restriktiv sind als das Konzept der Äquivalenz. Die verschiedenen Konzepte der „Ähnlichkeit“ von Akteuren bzw. Knoten stellen eine solche Formalisierung dar. Zu jedem der bisher angesprochenen drei Äquivalenzkonzepte gibt es ein oder mehrere Ähnlichkeitskonzepte. Eine Klasse ähnlicher Akteure enthält dann Akteure, die bezüglich der gewählten Definition lediglich „annähernd“ äquivalent sind. Strikte Äquivalenz im Sinne der strukturellen, automorphen oder regulären Äquivalenz wäre dann der Extremfall jeweils einer der drei entsprechenden Ähnlichkeitskonzepte; Klassen ähnlicher (d.h. „annähernd“ äquivalenter) Akteure könnten somit als Positionen in einem weiteren Sinne betrachtet werden. Darüber hinaus gibt es aber noch weitere Ähnlichkeitskonzepte, die auf anderen theoretischen Überlegungen basieren. Die bislang realisierten Verfahren zur Ermittlung strukturell, automorph oder regulär ähnlicher Akteure folgen meist (implizit oder explizit beschriebenen) Beschränkungen im Kreis der beachteten bzw. als „bedeutsam“ angesehenen graphentheoretischen Eigenschaften. In vielen Fällen beziehen sich die Beschränkungen auf das Ausmaß der jeweils beachteten Positionsumgebungen, manchmal auch statt dessen oder zusätzlich auf ausgewählte Formen der Anordnung von Beziehungen (d.h. deren Struktur).
4 Positionen und Rollen 4.2.1
4.2.1.1
115
Ähnlichkeitsverfahren für strukturelle Äquivalenz
Der Algorithmus CONCOR
Ein Verfahren, mit dem man Gruppen annähernd strukturell äquivalenter Akteure ausfindig machen kann, ist der Algorithmus CONCOR (R.L. Breiger, S.A. Boorman und P. Arabie 1975; S.A. Boorman und H.C. White 1976 und H.C. White, S.A. Boorman und R.L. Breiger 1976): The CONCOR algorithm takes as input any n u m real matrix M0 [...] , whose columns will be treated as vectors vj, 1 d j d m. The algorithm then proceeds to compute the m u m matrix M1 (which will be called the first-correlation matrix) whose (i,j)th entry is the ordinary product moment correlation coefficient between vi and vj (alternatively the algorithm may be applied to the row vectors of M0). (R.L. Breiger, S.A. Boorman und P. Arabie 1975: 334) In UCINET kann man den Vektor v j auch so bilden, dass man die j-te Zeile und die j-te Spalte aneinander setzt. Dieser so gebildete Vektor v j enthält dann zunächst alle von Akteur j ausgehenden Wahlen und dann alle bei Akteur j eingehenden Wahlen. Der Eintrag an Stelle (i,j) in der Matrix M 1 gibt Auskunft über die Höhe der Korrelation dieses Vektors v j für Akteur j mit dem entsprechenden Vektor v i für Akteur i. Bezogen auf die Newcomb-Daten sagt dieser Eintrag also aus, wie sehr Akteur i und Akteur j in ihrer Beurteilung der fünfzehn anderen Akteure übereinstimmen und wie sehr sie von ihnen übereinstimmend beurteilt werden. Diese Korrelation kann als Maß für den Grad struktureller Äquivalenz betrachtet werden, da sie umso näher bei +1 liegt, je mehr sich die beiden Akteure in ihren Beziehungen gleichen. Bei strukturell äquivalenten Akteuren im strengen Sinne wäre diese Korrelation gleich +1, denn sie hätten ja (bis auf die Diagonale, die beim CONCOR-Algorithmus ignoriert wird) völlig identische Beziehungen von und zu jedem anderen. Im anderen Extremfall kann die Korrelation bei –1 liegen. Indem man jeweils die aneinandergesetzten Zeilen und Spalten der Ausgangsmatrix für alle Akteure miteinander korreliert, erhält man also ein Maß dafür, wie ähnlich sich je zwei Akteure hinsichtlich ihrer ausgehenden und eingehenden Wahlen sind. Noch immer hat man allerdings keine Mengen von annähernd äquivalenten Akteuren. Diese liefert nun aber die Fortsetzung des
116
4 Positionen und Rollen
Algorithmus. Verfährt man nämlich mit der Matrix M 1 so, wie man zuvor mit der Matrix M 0 verfahren ist, so erhält man eine Matrix M 2 mit den Korrelationen der Korrelationen 68. Diese benutzt man wieder als Input für den nächsten Durchgang und so weiter. Das Verfahren konvergiert in fast allen Fällen („ [...] aside from exceptional cases of knife-edge character“ (R.L. Breiger, S.A. Boorman und P. Arabie 1975: 334) gegen eine Matrix, die nur noch Einträge der Größe +1 und –1 enthält, und deren Zeilen und Spalten so permutiert werden können, dass man sie in vier Rechtecke (sogenannte Blocks) zerlegen kann, so dass sie die folgende Gestalt annimmt:
Die Menge der Akteure lässt sich durch diese Aufteilung der Matrix in Blocks in zwei Teilmengen zerlegen, so dass für Akteure k und l innerhalb der gleichen Teilmenge der Eintrag an den Stelle (k,l) und (l,k) immer +1 ist und für Akteure k und m aus verschiedenen Teilmengen der Eintrag an den Stellen (k,m) und (m,k) immer –1 ist. Akteure innerhalb einer solchen Teilmenge sind sich hinsichtlich der eingehenden und ausgehenden Wahlen dann ähnlicher als Akteure verschiedener Teilmengen. Somit erhält man eine Zweiteilung der ursprünglichen Population. Das gleiche Verfahren kann nun noch einmal auf jede der beiden Teilmengen angewandt werden. Man erhält eine beliebig feine Aufteilung in annähernd strukturell äquivalente Positionen 69. Das Verfahren lässt dem Anwender relativ viele Freiheiten. Er kann selbst entscheiden, wie fein die Aufteilung in Positionen sein soll, wie viele Positionen er also erhält, da es ihm überlassen bleibt, wann er das Verfahren abbricht. Der Nachteil dieser Freiheit ist, dass das Verfahren damit an Objektivität verliert. Man sollte das Verfahren daher nicht „blind“ anwenden. Hat man bereits einige 68
Diesmal braucht man nur entweder die Spalten oder die Zeilen einzusetzen, da die Matrix M1 symmetrisch ist. Da CONCOR mit der „gröbsten“ Zerlegung (alle Knoten in einer Äquivalenzklasse) beginnt, kann man ihn als Variante eines „hierarchisch-divisiven“ Klassifikationsverfahrens auffassen.
69
4 Positionen und Rollen
117
Kenntnisse über die Gruppenstruktur, so kann man sich bei der Durchführung von CONCOR von ihnen leiten lassen. Eine ausführliche Analyse der Newcomb-Daten mit dem CONCORAlgorithmus wird in Abschnitt 4.5 vorgenommen.
4.2.1.2
Ähnlichkeit von Profilen (profile similarity) und hierarchisches Klassifizieren
Eine weitere Möglichkeit, strukturelle Ähnlichkeiten zu erfassen, wurde von R.S. Burt (1976) entwickelt. Der Ansatz ist ähnlich wie der bei CONCOR. Als Profil bezeichnet R.S. Burt den Zeilenvektor für einen Akteur in der Ausgangsmatrix. Im Unterschied zum CONCOR-Algorithmus bezieht R.S. Burt dieses Verfahren also nur auf die ausgehenden Wahlen (Zeilenvektor) eines Akteurs. Allerdings lässt sich das Verfahren in gleicher Weise auch auf Spaltenvektoren oder auf den zusammengesetzten Vektor aus Zeilen- und Spaltenvektor anwenden. Man vergleicht nun Profile von Akteuren und berechnet ein Maß für die Ähnlichkeit von Profilen. Als ein solches Maß kommen neben der Korrelation (die beim CONCOR-Algorithmus benutzt wird) noch einige weitere Maße in Frage, zum Beispiel euklidische oder andere Distanzen zwischen Vektoren (diese müssen dann natürlich als „Entfernungen“ im Sinne von Unähnlichkeiten interpretiert werden) oder die Anzahl der Übereinstimmungen in den Einträgen der Vektoren. Geht man so vor, dass man für alle Paare von Vektoren (Zeilen- oder Spalten- oder zusammengesetzte Zeilen- und Spaltenvektoren) Korrelationen oder bestimmte Distanzen oder Maßzahlen für die Übereinstimmungen berechnet, erhält man, wie schon beim CONCOR-Algorithmus, eine gug-Matrix mit Werten für Ähnlichkeiten bzw. Distanzen (als Unähnlichkeiten) von Paaren von g Akteuren als Einträgen. Aus diesen Ähnlichkeits- bzw. Distanzmatrizen will man nun eine Zerlegung (Partition) der Menge der Akteure in Positionen bestimmen. Dazu kann man Verfahren der hierarchischen Klassifikation (hierarchical clustering) nutzen. Algorithmen zur hierarchischen Klassifikation beginnen mit einer Partition, in der jeder Akteur jeweils einer nur aus ihm bestehenden Klasse angehört („feinste Zerlegung“), und fassen dann schrittweise diejenigen Klassen zusammen, die die größte Ähnlichkeit oder die geringste Distanz aufweisen (je nachdem, ob man Daten hat, die paarweise Ähnlichkeiten oder paarweise Unähn-
118
4 Positionen und Rollen
lichkeiten zwischen den Akteuren zum Ausdruck bringen 70). Zunächst wird also ein Paar aus den Akteuren gebildet, die am wenigsten weit voneinander entfernt sind (bzw. die sich am ähnlichsten sind). Diese beiden Akteure gelten fortan als eine Einheit (Klasse; Cluster). Unter den verbliebenen Einheiten (im ersten Schritt also: der zuerst gebildeten Klasse sowie den verbleibenden Akteuren) sucht der Algorithmus wieder das Paar mit der geringsten Distanz (bzw. größten Ähnlichkeit) usw. Dieses Paar kann aus zwei „neuen“ Akteuren oder aus der ersten Klasse und einem „neuen“ Akteur bestehen. Für den zweiten Fall benötigt man eine Regel, nach der die Distanz zwischen einer Klasse und einem Akteur bzw. allgemeiner: die Distanz zwischen zwei Klassen auf der Basis der Distanzen von Akteuren berechnet wird. Hierbei ist festzuhalten, dass die Distanz zwischen zwei Klassen auf verschiedene Weisen definiert werden kann. Es gibt drei gängige Verfahren: i) Die Distanz zwischen zwei Klassen wird als Minimum aller paarweisen Distanzen zwischen Mitgliedern jeweils verschiedener Klassen aufgefasst (single linkage hierarchical clustering). ii) Die Distanz zwischen zwei Klassen wird als „mittlere Distanz“ zwischen Mitgliedern jeweils verschiedener Klassen aufgefasst (average linkage hierarchical clustering). Dabei gibt es leicht unterschiedliche Verfahren, wie diese „mittlere Distanz“ berechnet wird. Sie kann beispielsweise als arithmetisches Mittel aller paarweisen Distanzen oder als durchschnittliche Entfernung aller Mitglieder vom „Klassenmittelpunkt“ (s.u., S.122) der durch Fusion der beiden Klassen entstehenden neuen Klasse berechnet werden. Die Ergebnisse unterschiedlicher Berechnungsverfahren unterscheiden sich in den meisten Fällen nur unwesentlich. iii) Die Distanz zwischen zwei Klassen wird als Maximum aller paarweisen Distanzen zwischen Mitgliedern jeweils verschiedener Klassen aufgefasst (complete linkage hierarchical clustering). Bei Ähnlichkeiten verfährt man analog, wobei im ersten Fall statt des Minimums das Maximum und im dritten Fall statt des Maximums das Minimum aller Ähnlichkeitswerte genommen wird. Beim ersten Verfahren (single linkage) wird für alle Paare von (ggf. zu fusionierenden) Einheiten (welche zu Beginn Akteure, dann ggf. Klassen und Akteure, später immer Klassen sind) eine Distanz d mit Hilfe der Distanz zwischen den beiden einander nächsten Akteuren („nearest neighbours“) der betreffenden Einheiten (Klassen oder Akteure) definiert. Wenn nun eine Fusion von 70 Im Unterschied zu CONCOR handelt es sich hier also um „hierarchisch-agglomerative“ Klassifikationsverfahren.
4 Positionen und Rollen
119
zwei Einheiten entsprechend einem Wert d (auf diesem „Fusionsniveau“) erfolgt, wird dadurch lediglich garantiert, dass es mindestens ein Paar von Akteuren aus den beiden vorher separaten, nun aber fusionierten Einheiten gibt, deren Distanz höchstens d ist; für alle anderen Paare von Akteuren aus den beiden Einheiten kann die Distanz aber größer als d sein. Beim dritten Verfahren (complete linkage) hingegen wird die Distanz d für alle Paare von (ggf. zu fusionierenden) Einheiten als die Distanz zwischen den beiden einander entferntesten Akteuren („furthest neighbours“) der beiden Einheiten definiert, womit bei einer Fusion von zwei Einheiten auf dem Niveau d garantiert ist, dass alle Paare von Akteuren aus den beiden vorher separaten, nun aber fusionierten Einheiten höchstens die Distanz d haben. Das erste Verfahren (single linkage) ermittelt Klassen, die deutlich voneinander getrennt, aber möglicherweise intern nur wenig homogen sind und z.B. lang auseinandergezogene Ketten bilden. Das dritte Verfahren (complete linkage) bildet im Gegensatz dazu besonders kompakte (intern homogene) Klassen 71, die aber manchmal nur schlecht voneinander getrennt sind. Das erste Verfahren ist also dann eher angemessen, wenn es darum geht, die Klassen scharf voneinander zu trennen, auch auf Kosten der inneren Homogenität, wohingegen beim dritten Verfahren die innere Homogenität als bedeutsamer angesehen wird als die Abgrenzung nach außen. Mit dem zweiten Verfahren (average linkage) versucht man gewissermaßen einen Kompromiss in der Berücksichtigung von interner Homogenität und Separierung nach außen 72. In UCINET IV findet man ein solches Verfahren unter NETWORKS>POSITIONS>STRUCTURAL EQUIVALENCE>PROFILE SIMILARITY (Ucinet 6: Network>Roles & Positions>Structural>Profile). Als Distanz- bzw. Ähnlichkeitsmaß kann man hier „EUCLIDEAN DISTANCE“, „CORRELATION“, „MAT71 Man könnte die Klassen auch als Beziehungsnetze interpretieren, in denen eine neue binäre Beziehung zwischen den Knoten anhand des zur Fusion verwandten Schwellenwerts d („Fusionsniveau“) in folgender Weise induziert wird: Zwei Knoten stehen genau dann in einer (ungerichteten) direkten Beziehung R(d), wenn ihre Distanz höchsten d beträgt. Dann bilden die Klassen (bezüglich des betreffenden Wertes von d) immer Zusammenhangs-Komponenten, d.h. jeder Knoten kann jeden Knoten zumindest indirekt erreichen. Im dritten Fall (complete linkage) kann im Hinblick auf R(d) jeder jeden direkt erreichen (die Klasse bildet dann folglich eine Clique), da alle Paare von Knoten aus dieser Klasse höchstens die Distanz d haben. Im ersten Fall (single linkage) ist garantiert, dass im Hinblick auf R(d) jeder jeden zumindest indirekt erreichen kann, und dass jeder Weg immer nur Verbindungen zwischen Paaren von Knoten umfasst, die höchstens die Distanz d aufweisen. 72 Allerdings macht average linkage von den metrischen Eigenschaften des Distanzmaßes wesentlichen Gebrauch, während single und complete linkage nur die ordinalen Eigenschaften des Distanzmaßes verwenden.
120
4 Positionen und Rollen
CHES“ (=Anzahl der Übereinstimmungen) oder „POSITIVE MATCHES“ (=Anzahl der Übereinstimmungen nur in den positiven Werten) wählen. Man kann hier auch die Transponierte der Matrix mit einbeziehen (INCLUDE TRANSPOSE: YES), um sowohl das Profil der ausgehenden als auch der eingehenden Wahlen der Akteure zu berücksichtigen. Zur Bildung von Klassen ähnlicher Akteure benutzt diese Routine immer das average linkage hierarchical clustering. Man kann jedoch die Matrix mit den Distanzen (bzw. Ähnlichkeiten), die dieser Algorithmus unter dem Namen SE ausgibt, selbständig in das Verfahren MATRICES>MULTIVARIATE>CLUSTERING>HIERARCHICAL (Ucinet 6: Tools>Cluster>Hierarchical) eingeben. Dabei ist wichtig, dass man hinsichtlich dieser SE-Daten angibt, ob es sich um Ähnlichkeiten oder Distanzen (SIMILARITIES oder DISSIMILARITIES) handelt. Mit dieser Routine ist es dann möglich, eines der drei beschriebenen Verfahren der hierarchischen Klassifikation durchzuführen.
Für die Newcomb Fraternity wollen wir dieses Verfahren nun anwenden. Wir benutzen den Originaldatensatz mit Rangplätzen als Daten, also eine bewertete Matrix für Woche 14. Das Verfahren der hierarchischen Klassifikation verlangt eine Ähnlichkeits- bzw. Distanzmatrix. In späteren Abschnitten werden wir den auf Korrelationen beruhenden Algorithmus CONCOR noch ausführlich behandeln. Daher wollen wir hier keine Korrelationsmatrix (als Ähnlichkeitsmatrix), sondern eine Distanzmatrix als Grundlage für die hierarchische Klassifikation benutzen. Wir berechnen die Matrix mit den euklidischen Distanzen zwischen aneinandergehängten Zeilen- und Spaltenvektoren der Akteure. In i-ter Zeile und j-ter Spalte dieser Distanzmatrix steht die euklidische Distanz zwischen einem Vektor aus Zeile i und Spalte i (aneinandergehängt) der Ausgangsmatrix (Newcomb Fraternity, 14. Woche) und einem Vektor aus Zeile j und Spalte j (aneinandergehängt) derselben Matrix 73. Das Ergebnis dieses Verfahrens für Woche 14 befindet sich in Abbildung 4.4. Wir müssen also in UCINET IV zunächst aus dem Datensatz der Newcomb Fraternity die Woche 14 isolieren. Dies kann wiederum mit DATASETS>EXTRACT (KEEP: ROWS = ALL, COLS = ALL, MATRICES = 14) geschehen. Wir nennen die Matrix für die 14. Woche NEWFR_14. Anschließend wenden wir die Routine NETWORKS>POSITIONS>STRUCTURAL EQUIVALENCE>PROFILE SIMILARITY an (Ucinet 6: Network>Roles & Positions>Structural>Profile). Außer dem MEASURE (wir haben uns für EUCLIDEAN DISTANCE entschieden) und der Frage, ob die transponierte Matrix mit einbezogen werden soll (INCLUDE TRANSPOSE?; also ob Zeilen und Spalten jedes Akteurs verglichen werden), die wir mit "YES" beantworten, wird noch abgefragt, was mit der Diagonale (DIAGONAL) geschehen soll (hier: IGNORE, das heißt die Werte auf der Diagonalen werden nicht beim Vergleich der Zeilen und Spalten berücksichtigt). Für binäre Daten besteht noch die Frage "CONVERT TO GEODESIC DI73 Die von Newcomb ursprünglich erhobenen Daten wurden von ihm in Rangplätze transformiert (vgl. Abschnitt 1.2.1). Weder die ursprünglichen Daten noch die Rangordnungen erfüllen im strengen Sinne die Bedingungen des Intervallskalenniveaus. Die Konsequenzen dieser Verstöße sind allerdings im Falle der Rangordnung geringer als für die ursprünglichen Daten. Zu Einzelheiten verweisen wir auf die einschlägige statistische Literatur.
4 Positionen und Rollen
121
STANCES?", die für uns belanglos ist, da wir keine binären Daten in die Routine einlesen. Die Routine führt dann ein average linkage hierarchical clustering durch. Ucinet 6 bietet zusätzlich die Möglichkeit, das Dendrogramm, das den Klassifizierungsprozess graphisch darstellt, zeichnen zu lassen (Diagram Type: Dendrogram).
Abbildung 4.4: Hierarchische Klassifikation von NEWFR_14. Dendrogramm (Ucinet 6-Output): Ähnlichkeiten von Profilen der vergebenen und erhaltenen Rangplätze (euklidische Distanzen als Unähnlichkeiten); Fusionsniveaus in der Kopfleiste (s. hierzu Fußnote 71) Zusammengefasst zu Klassen werden also hier Akteure, die von und zu identischen Akteuren ähnliche Beziehungen erhalten bzw. unterhalten; die strukturelle Ähnlichkeit abstrahiert ja wie die strukturelle Äquivalenz nicht vom namentlich identifizierbaren („konkreten“) Akteur, von/zu dem man die Beziehungen erhält/unterhält. Es sind natürlich mehrere Zerlegungen der Gruppe in Positionen mit diesem Verfahren möglich. Wir können sogar eine beliebige Zahl von Positionen zwischen eins (alle in derselben Position: „gröbste“ Zerlegung) und 17 (jeder in einer eigenen Position: „feinste“ Zerlegung) bilden. Kriterien dafür, in wie viele Positionen man eine Gruppe zerlegt, können sehr unterschiedlich sein: Man kann inhaltliche Kriterien ansetzen, die aus vorherigen Analysen gewonnen wurden, zum Beispiel Kenntnisse über die Gruppe aus Zentralitäts- oder Teilgruppenanalysen. Daneben ist eine Reihe formaler Kriterien denkbar. Und schließlich können auch praktische Erwägungen eine
122
4 Positionen und Rollen
Rolle spielen, die eine bestimmte Anzahl von Positionen nahe legen, z.B.: Einheitlichkeit bezogen auf andere Verfahren zur Bildung von Positionen oder Handhabbarkeit für weitere Analysen. Wir diskutieren die Anwendung dieser drei Arten von Kriterien in dieser Reihenfolge; vorab jedoch noch einige allgemeine Bemerkung zu zwei möglichen formalen Kriterien. Ein erstes mögliches formales Kriterium bezieht sich auf die Abfolge der Fusionsniveaus (level) beim Zusammenfügen der einander jeweils nächsten Klassen: Einige der Einteilungen in Klassen, die während eines hierarchischen Verfahrens entstehen, werden schon auf wenig höherem Niveau wieder von der nächst gröberen Klassifizierung abgelöst, während andere Klasseneinteilungen über ein längeres Intervall hinweg bestehen bleiben. Man könnte sich nun für diejenige Einteilung in Klassen entscheiden, die über ein besonders großes Intervall hinweg bestehen bleibt. In der Literatur zu Klassifikationen gibt es eine Fülle solcher formaler Verfahren, um aus einer Menge von Klasseneinteilungen die optimale Klasseneinteilung zu identifizieren. Den interessierten Leser verweisen wir auf W. Sodeur (1974). Ein weiteres formales Verfahren beruht auf der Kalkulation des „Fehlers“, den man bei der Zusammenfassung ähnlicher Akteure in einer Klasse (Position) macht. Dazu benötigt man den Begriff des Mittelpunkts einer Klasse. Der Mittelpunkt einer Klasse ist der Punkt, dessen j-te Koordinate gleich dem Durchschnitt der j-ten Koordinaten der zu der Klasse zusammengefassten Einheiten ist. Bestehe also eine Klasse aus den m Einheiten a 1 = (a 11 , a 12 , ..., a 1g ), a 2 = (a 21 , a 22 , ..., a 2g ) und so weiter bis a m = (a m1 , a m2 , ..., a mg ), so hat der Klassenmittelpunkt die Koordinaten: a = (a .1 , a .2 , ... , a .g ) mit a .j
(¦ a ij ) / m
(a1j a 2j ... a mj ) / m
i
Man kann nun die Distanz zwischen jeder Einheit einer Klasse und dem zugehörigen Klassenmittelpunkt berechnen (zum Beispiel als euklidische Distanz). Summiert man diese Distanzen über alle Einheiten, so erhält man eine Maßzahl für die Ungenauigkeit (oder auch den Fehler), die (der) in der jeweiligen Zusammenfassung zu Klassen steckt 74. Dieser Fehler ist natürlich gleich 0 für die triviale Lösung, dass jede Einheit (im Netzwerk jeder Akteur) eine eigene Klasse bildet, denn dann ist der Mittelpunkt jeder Klasse identisch mit der einzigen darin enthaltenen Einheit. Bei hierarchischen Verfahren wächst der Fehler nun mit jeder Fusion, allerdings nicht gleichmäßig. Man kann dies illustrieren, in74
Benutzt man als Maß für die Distanz quadrierte euklidische Distanzen, so entspricht der "Fehler" genau der Intraklassen-Varianz der für die Klassifikation relevanten Merkmale, summiert über alle Klassen.
4 Positionen und Rollen
123
dem man den Fehler in einem Koordinatensystem gegen die Anzahl der Klassen abträgt. Würde der Fehler mit jeder Fusion gleichmäßig wachsen, so entstünde eine Punktfolge, die durch eine Gerade verbunden werden kann. Meistens trifft man jedoch auf ein unregelmäßiges Wachstum des Fehlers. Die Unregelmäßigkeiten machen sich, verbindet man die Punkte in dem Koordinatensystem, als „Knicke“ bemerkbar (siehe das Beispiel in Abbildung 4.5a). Man sucht nun häufig nach einem solchen Knick, um eine optimale Klasseneinteilung zu finden. Ein ausgeprägter „Linksknick“ in dieser Darstellung bedeutet, dass der Fehlerzuwachs bei einer weiteren Fusion relativ groß wäre im Verhältnis zum Fehlerzuwachs bei der vorangegangenen Fusion (in Abbildung 4.5a wäre das bei einer Klasseneinteilung in fünf Klassen der Fall). Dies kann als Kriterium für eine optimale Lösung genutzt werden. Allerdings findet man nicht immer eindeutig genau einen solchen Punkt (siehe Abbildung 4.5b). a) 300
200
Fehler
100
0 0
1
2
3
4
5
6
7
8
9
10
2
3
4
5
6
7
8
9
10
# Klassen
b) 200
Fehler
100
0 0
1
# Klassen
Abbildung 4.5: Darstellung des Zusammenhangs von Klassenanzahl und Größe des Fehlers für zwei fiktive Datensätze mit jeweils 10 Einheiten
124
4 Positionen und Rollen
Kommen wir nun zur Beurteilung verschiedener möglicher Klasseneinteilungen von NEWFR_14. Als inhaltliche Kriterien stehen uns die Ergebnisse der bisherigen Zentralitäts- und Teilgruppenanalyse zur Verfügung. Zwar bedeuten Positionen, die auf die strukturelle Einbindung abheben, inhaltlich etwas ganz anderes als Teilgruppen, in denen Nähe oder interne Verbundenheit zum Ausdruck kommt 75. Trotzdem vermuten wir: Die Mitglieder einer Clique erhalten von den Mitgliedern der eigenen Clique relativ ähnliche Wahlen bzw. verteilen ihre Wahlen relativ ähnlich an sie. Sie haben damit eine gute Chance, sich (statistisch gesehen) in ähnlichen Positionen wiederzufinden. Analog gilt im Bezug auf die Zentralität: Akteure mit ähnlichem Ausmaß an Zentralität erhalten/verteilen in ähnlicher Weise ihre Wahlen. Daher besteht auch hier die Erwartung, dass sie ähnliche Positionen einnehmen. Die Ergebnisse der früheren Analysen (s. Tabelle 2.4) werden deshalb mit den Einteilungen der hierarchischen Klassifikation verglichen (Abbildung 4.4). Die vier Isolierten 3, 10, 15 und 16 werden erst im letzten Schritt mit dem Rest der Gruppe zu einer Klasse vereinigt. Die ebenfalls eher wenig zentralen Akteure 7 und 11 bilden auf bestimmten Niveaus eine Klasse mit Akteur 12 zusammen, der ja als Vermittler zwischen Zentrum und Umfeld in der Zentralitätsanalyse auftrat. Die Akteure 1, 6, 8 und 13, die in der hier analysierten 14. Woche nach DI5SY_14 (=Kodierung B, Woche 14) eine Clique (s. o. S. 83) bildeten, werden hier mit Akteur 5 auf bestimmten Niveaus zu einer Klasse zusammengeführt, zu der dann später noch Akteur 14 tritt, der aber mit den übrigen bisher nichts gemeinsam hatte. Des Weiteren werden die "Stars" (Akteure 9 und 17) relativ früh in einer Klasse zusammengefügt, in der sich auch noch die Akteure 2 und 4 befinden. Aus inhaltlichen Gründen könnten wir uns daher für folgende Lösung mit sieben Positionen entscheiden, die auf dem Niveau 24,915 entsteht (siehe UCINET IV-Output "Hierarchical Clustering of (Non-) Equivalence Matrix") und bis zum Niveau von 26,411 bestehen bleibt: Position 1: Akteure 2, 4, 9, 17 (Die „Stars“ 9 und 17 sowie ihre Freunde) Position 2: Akteure 11, 7, 12 (Akteure 7, 11 und ihre Verbindung zum Zentrum) Position 3: Akteure 5, 6, 8, 1, 13 (Die Clique plus Akteur 5) Position 4: Akteur 14 Position 5: Akteure 3, 16 Position 6: Akteur 10 Position 7: Akteur 15 75 Auch wurden bei der Analyse von Positionen (über den Ausschluss der Diagonalen) die direkten Verbindungen zwischen den jeweils zu vergleichenden Akteuren i und j nicht berücksichtigt.
4 Positionen und Rollen
125
Die Positionen 5, 6 und 7 hätte man aus inhaltlichen Gründen sicherlich lieber vereinigt, sie fusionieren aber bei diesem Ähnlichkeitsverfahren erst später als die Positionen 1 und 2, die man nur ungern zusammenfügen möchte, da sie bisher sehr unterschiedlich erschienen sind. Alternativ wäre also auch eine Lösung mit vier Positionen denkbar, die für das Niveau 28,713 d N < 30,545 Bestand hat. In ihr werden die Positionen 1 und 2, sowie die Positionen 5, 6 und 7 jeweils zu einer zusammengefasst. Als ein Kriterium der zweiten („formalen“) Art hatten wir eine möglichst große Spannweite des Niveaus, auf dem die spezielle Zerlegung in Positionen Bestand haben soll, erwähnt. Dieses Kriterium würde uns zu einem anderen Ergebnis führen. Der UCINET IV-Output zu dieser Analyse gibt uns unter "Hierarchical Clustering of (Non-) Equivalence Matrix" für jede Fusion das Niveau ("level") an. Wir können uns nun auf die Positionenaufteilung festlegen, die für die größte Spannweite von Niveaus gilt. Dies wäre in diesem Fall die Aufteilung in nur zwei Positionen. Sie entsteht auf dem Niveau 31.351 und besteht bis 39.586 und damit über eine Spanne von 8.235 76. Die zwei resultierenden Positionen sind: Position 1: Akteure 10, 15, 3, 16 (die Isolierten, die Unbeliebten) Position 2: alle anderen Akteure (die Eingebundenen) Das hierzu ähnliche, auf dem Fehler der Klassifikation beruhende Verfahren wollen wir nicht nutzen, da UCINET IV keine Klassenmittelpunkte und Distanzen zu den Klassen ausgibt. Ein Kriterium der dritten („praktischen“) Art könnte beispielsweise lauten: Kein Akteur soll alleine eine Position bilden. Dann könnte man etwa die erste Klasseneinteilung nutzen, in der diese Bedingung erfüllt ist. Akteur 14 bleibt in unserem Beispiel am längsten allein. Erst auf dem Niveau 30.545 stößt er zu der Position mit den Akteuren 5, 6, 8, 1 und 13. Zu diesem Zeitpunkt gibt es genau drei Positionen: Position 1: Akteure 11, 7, 12, 2, 4, 9, 17 Position 2: Akteure 5, 6, 8, 1, 13, 14 Position 3: Akteure 10, 15, 3, 16 Bei dieser Aufteilung fällt sicherlich eine einfache Charakterisierung aller drei Positionen am schwersten.
76 Auch dem mit Ucinet 6 erzeugten Dendrogramm können die Fusionsniveaus (in der Kopfleiste) entnommen werden. Allerdings kann die Größe der Abstände zwischen den Fusionsniveaus in der visuellen Darstellung nicht mehr nachvollzogen werden, weil die horizontale Achse der Abbildung nach Fusionsschritten und nicht nach Fusionsniveaus skaliert ist.
126
4 Positionen und Rollen
Die graphische Darstellung des Netzwerks wollen wir nun unter dem Gesichtspunkt der Positionszugehörigkeit wiederholen. Wir benötigen dazu nicht unbedingt eine eigene Anordnung. Betrachten wir beispielsweise die Abbildung von DICH3_14 (Abbildung 2.1) 77 mit spring embedders erneut in Abbildung 4.6, so sehen wir, dass die Akteure, die in der zuerst genannten Lösung mit sieben Positionen zur gleichen Position gehören, bereits benachbart angeordnet sind. Da die Positionen auf der Basis des Konzepts struktureller Ähnlichkeit ähnliche Beziehungen von und zu gleichen Akteuren haben, sind Inhaber gleicher Positionen häufig stark untereinander verbunden und ziehen sich daher im spring embedder Modell der Daten an.
Abbildung 4.6: DICH3_14 (=Kodierung A, Woche 14): Darstellung mit spring embedders. Markierungen fassen Akteure gleicher Positionen zusammen.
77 Wir verwenden zur Darstellung DICH3_14 (=Kodierung A, Woche 14), obwohl die Positionsanalyse auf den Originaldaten (Rangplätzen) beruht. Der Grund dafür ist, dass sich der Originaldatensatz nicht sinnvoll graphisch darstellen lässt, da in diesem Beziehungen von jedem zu jedem anderen vorhanden sind, die sich nur durch den Wert unterscheiden. DICH3 (=Kodierung A) kommt von den bisher eingeführten Transformationen des Datensatzes den Originaldaten noch am nächsten, da hier die Information über die Richtung noch berücksichtigt wird.
4 Positionen und Rollen
127
Diese Abbildung lässt sich nun unter Positionsgesichtspunkten interpretieren. In der Mitte oben findet sich Position 1 (die „Stars“ 9, 17 und deren Freunde 2, 4), deren Akteure sichtbar auch im Zentrum der Beziehungen stehen und von überall her Wahlen erhalten. Ganz links befindet sich Position 3 („Clique“ plus Akteur 5), deren Akteure untereinander stark verbunden, jedoch vom Rest recht isoliert sind. Akteur 5 ist hier ein wichtiges Bindeglied zwischen den stark vercliqueten Akteuren (1, 6, 8 und 13) und den „Stars“. Rechts der „Stars“ ist Position 2 (7, 11 und 12) zu finden, deren Akteure sich gegenseitig und die „Stars“ wählen und einigermaßen stark Wahlen aus den schwach besetzten Positionen (von 3, 14, 15, 16) erhalten. Die vier übrigen Positionen bestehen nur aus ein oder zwei Akteuren, die je unterschiedliche Muster aufweisen. Die Akteure 3 und 16 sind hier als einzige Position nicht benachbart angeordnet. Beide erhalten keine Wahlen und vergeben einseitige Wahlen an die Akteure 9 und 12. Ähnlich verhält es sich mit Akteur 15. Akteur 14 wählt in alle drei „großen“ Positionen, während Akteur 10 eher die Position 3 („Clique“) bevorzugt.
4.2.2
Ähnlichkeitsverfahren für automorphe Äquivalenz
Die Algorithmen zum Aufspüren automorph äquivalenter Akteure bieten auch die Grundlage für das Aufspüren von in diesem Sinne lediglich ähnlichen Akteuren. Bei den Algorithmen zur Identifizierung automorph äquivalenter Akteure bildet man für jeden Akteur einen Eigenschafts-Vektor mit ausgewählten graphentheoretischen Eigenschaften des Akteurs und überprüft, ob für unterschiedliche Akteure diese Eigenschafts-Vektoren identisch sind. Um ähnliche Akteure zu identifizieren, kann man paarweise (euklidische) Distanzen zwischen diesen Eigenschafts-Vektoren bilden. Identische Vektoren haben die Distanz 0. Man erhält dadurch eine g×g-Matrix mit Ähnlichkeiten bzw. Distanzen zwischen den g Akteuren, die wiederum durch eine der Methoden der hierarchischen Klassifizierung zur Klasseneinteilung verwandt werden kann. Die Auswahl der für die Bestimmung ähnlicher Positionen „bedeutsamen Eigenschaften“ führt wieder zu einer Beschränkung der beachteten Umgebungen der Positionen (n-Schritt-Umgebungen) und/oder zu einer Beschränkung der beachteten, d.h. besonders „wichtigen“ Eigenschaften der Anordnung der Beziehungen in der jeweils beachteten Umgebung bzw. im Netz insgesamt (vgl. unter anderem Abschnitt 4.1.2). Zwei Verfahren dieser Art sind auch in UCINET IV enthalten: NETWORKS>POSITIONS>AUTOMORPHIC EQUIVALENCE>GEODESIC EQUIVA-
128
4 Positionen und Rollen
LENCE und NETWORKS>POSITIONS>AUTOMORPHIC EQUIVALENCE> MAXSIM (In Ucinet 6 findet man letzteres unter Network>Roles & Positions>Automorphic>MaxSim. Das Geodesic-Equivalence-Verfahren steht hier jedoch nicht mehr zur Verfügung.). Beide Vorgehensweisen unterscheiden sich in der Bildung des Eigenschafts-Vektors.
Ein drittes Verfahren auf der Basis triadischer (2-Schritt-) Umgebungen (vgl. R.S. Burt 1990; H.J. Hummell und W. Sodeur 1987) kann mit NETZDIAL 78 realisiert werden. Wir greifen damit ein weiteres Mal ausnahmsweise über das Programmsystem UCINET IV hinaus, weil sich dieses Verfahren besonders dazu eignet, die Kombination von Entscheidungen über die Auswahl bedeutsamer Struktureigenschaften und über die Auswahl geeigneter Umgebungen zu illustrieren, innerhalb derer die ausgewählten Struktureigenschaften als wichtig erscheinen.
4.2.2.1
Geodesic Equivalence
Im Falle der Identifikation automorph ähnlicher Akteure geht es um die Ähnlichkeit der Muster ihrer Einbindung in das betreffende Beziehungsnetz. Ähnliche Muster der Einbindung schlagen sich z.B. in ähnlichen Verteilungen ihrer Distanzen nieder. Also könnten automorph ähnliche Akteure dadurch ermittelt werden, dass die Häufigkeitsverteilungen ihrer (geodätischen) Distanzen zu und von allen anderen Akteuren miteinander verglichen werden. Das geschieht nun mit der Routine geodesic equivalence. Es wird hier für jeden Akteur i ein Eigenschaftsvektor gebildet, der aus zwei „Hälften“ besteht. Die „erste Hälfte“ des Eigenschafts-Vektors von i zeigt auf Position k die Anzahl anderer Akteure an, zu denen von i aus ein kürzester Pfad der Länge k besteht. Es steht also an erster Stelle des Eigenschafts-Vektors für Akteur i die Anzahl der Akteure, zu denen der kürzeste Pfad von Akteur i die Länge 1 hat, zu denen Akteur i also eine direkte Verbindung besitzt. An zweiter Stelle steht die Anzahl der Akteure, zu denen der kürzeste Pfad von Akteur i die Länge 2 hat usw.; an der Stelle g-1 steht die Anzahl der Akteure, die i genau mit der maximal möglichen Pfaddistanz g-1 erreichen kann; der Eintrag auf der g-Stelle schließlich nennt die Zahl der Akteure, die i nicht erreichen kann (Pfaddistanz gleich „unendlich“). Die „zweite Hälfte“ des Eigenschafts-Vektors verarbeitet in gleicher Weise die eingehenden Beziehungen. So steht an der Stelle g+1 dann die Anzahl der Akteure, 78 Zu erhalten unter http://www.uni-duisburg-essen.de/hummell/netzdial bzw. http://www.uni-duisburg-essen.de/sodeur/netzdial.
4 Positionen und Rollen
129
von denen i direkt (mit einer Pfaddistanz von 1) erreicht werden kann, bis hin zur Stelle 2g (Anzahl der Akteure, von denen i nicht erreicht werden kann.). Das Ergebnis ist eine Matrix mit g Zeilen für die g Akteure und 2g Spalten für die Häufigkeiten von Pfaddistanzen („node by pathlength frequencies“). Es werden also für jeden Akteur i alle Pfaddistanzen von und zu allen Akteuren berücksichtigt (Berücksichtigung des gesamten Beziehungsnetzes mit maximal g-1 Schritten); durch die Bildung ihrer Häufigkeitsverteilungen wird jedoch jeder Bezug zu „konkreten“ Akteuren getilgt, was dem Konzept der automorphen (im Unterschied zur strukturellen) Äquivalenz entspricht. Dieses Verfahren, das in der beschriebenen Form auf (ungerichtete) Graphen und gerichtete Graphen anwendbar ist, ist auf bewertete Graphen übertragbar. Statt der Länge der kürzesten Pfade kann dann die Länge (auch hier: Anzahl der Kanten) des Pfades mit den geringsten Kosten benutzt werden. Als Kosten eines Pfades sei dabei die Summe der Werte seiner Kanten bezeichnet. Sinnvoll ist diese Definition natürlich nur, wenn der Wert der Beziehung – wie bei den Newcomb-Daten – Distanz ausdrückt, nicht wenn er die Stärke der Beziehung angibt 79. Unklar ist im Falle der Newcomb-Daten jedoch, was ein Vektor mit derartigen „Kosten“ als Eingängen inhaltlich aussagen soll. Was er für diese Daten impliziert, lässt sich an einem Beispiel aus Woche 14 verdeutlichen: Akteur 17 vergibt an Akteur 13 den Rangplatz 6. Die Kosten dieses Pfades der Länge 1 sind also 6. Akteur 17 vergibt aber an Akteur 1 den Platz 2 und Akteur 1 vergibt an Akteur 13 ebenfalls den Platz 2. Die Kosten des Pfades (17-1-13), also der indirekten Verbindung von 17 nach 13, nämlich 2 + 2 = 4 sind also geringer als die der direkten Verbindung von 17 nach 13, nämlich 6. Um den Vektor für Akteur 17 zu bilden, müssten wir nun auch für alle anderen Beziehungspartner untersuchen, welche Länge der kostenärmste Pfad besitzt. Evtl. würden wir dann schließen, dass Akteure, bei denen der kostenärmste Pfad häufig nicht der direkte Pfad ist, eher dazu neigen, über Mittelspersonen zu kommunizieren. Eine Anwendung des Verfahrens der geodesic equivalence auf die Rangfolgedaten der Newcomb Fraternity erscheint deshalb als problematisch 80. 79 In diesem Fall könnte man die Werte umkehren: Man bildet den umgekehrten Wert, indem man jeden Wert von der Summe aus Minimum und Maximum subtrahiert, wie wir das bereits bei der Erstellung des Datensatzes REVERSE ausgeführt haben (s.o. S. 41). 80 Es sei hier nur kurz ein Beispiel angegeben, in dem man den Vektor sinnvoll interpretieren könnte: Stellen wir uns ein Netzwerk vor, in dem der Wert der Netzwerkbeziehung von i zu j angibt, wie lange i im Durchschnitt (in Minuten) benötigt, um j zu kontaktieren. Hier wäre es in der Tat sinnvoll zu unterstellen, dass i es eher auf dem indirekten Weg versucht, wenn die Summe der Werte auf dem indirekten Weg geringer ist als auf dem direkten. Ein praktischer Anwendungsfall, der vermutlich jedem geläufig ist, ist das Hinterlassen einer Nachricht für eine schwer erreichbare Person bei
130
4 Positionen und Rollen
Das Geodesic-Equivalence-Verfahren (ohne Gewichtung) kann auf DICH3 (=Kodierung A) angewandt werden. Dann enthält der Eigenschaftsvektor eines Akteurs Informationen darüber, durch Pfade welcher Länge (d.h. hier: Zahl der Mittelspersonen plus 1) dieser Akteur mit anderen Akteuren in Verbindung steht. Es ist zu erwarten, dass dementsprechend Akteure mit ähnlicher closeness centrality nach diesem Verfahren auch als ähnlich erkannt werden. Zur Analyse mit UCINET IV wählt man NETWORKS>POSITIONS>AUTOMORPHIC EQUIVALENCE>GEODESIC EQUIVALENCE und verwendet als Eingabedatensatz DICH3_14 (=Kodierung A, Woche 14), s.o. 2.1). Als TYPE OF DATA muss man nun ADJACENCY angeben. Als Ausgabe erhält man eine NODE BY PATHLENGTH FREQUENCY MATRIX, die aus 17 Zeilen für die Akteure und aus 34 Spalten für die Pfadlängen besteht. Für jMAXSIM (Ucinet 6: Network>Roles & Positions>Automorphic>MaxSim). Der Algorithmus benutzt automatisch Zeilen- und Spaltenvektor. Als einziger Menupunkt ist zu beantworten, ob die Diagonale einbezogen werden soll (hier: NO). Es werden dann euklidische Distanzen berechnet und eine hierarchische Klassifikation nach der average linkage Methode durchgeführt.
In unserem Falle sind– wie bereits oben erwähnt – nur die eingehenden Wahlen bedeutsam, denn die ausgehenden Wahlen sind ja hier für alle Akteure gleich 84. Da dieses Ähnlichkeitsverfahren auf dem Konzept der automorphen Äquivalenz beruht, geht es um ähnliche Einbindung, die zwar von den Individuen abstrahiert, von denen man die Wahlen erhält, nicht aber von deren Anzahl. Es werden also Akteure als ähnlich erkannt, die von etwa gleich vielen Akteuren Wahlen mit den gleichen Werten erhalten. Damit haben Akteure mit ähnlichem Ausmaß an Zentralität (d.h. hier: Beliebtheit bzw. Prestige) auch hier wieder gute Chancen, in dieselbe Position zu gelangen. Im Gegensatz zu den bisherigen Analysen ist hier interessant, dass Akteur 17 lange Zeit eine absolute Sonderstellung einnimmt und erst im vorletzten Schritt mit einer Klasse fusioniert. Hier kommt eventuell zum Ausdruck, dass Akteur 17 auch gegenüber Akteur 9 noch einen Beliebtheitsvorsprung besitzt 85. Bestätigt wird der große Abstand der nicht ins Netzwerk eingebundenen Akteure zu allen anderen. Wiederum werden erst im letzten Schritt die vier Isolierten und der Rest der Gruppe zusammengeführt. Im „Mittelfeld“ gibt es gegenüber den bisherigen Analysen einige Verschiebungen. Beispielsweise wird die Clique (Akteure 1, 6, 8 und 13) über verschiedene Klassen verteilt, denn es kommt ja nun nicht mehr darauf an, von wem man die Wahlen erhält: Nur die Akteure 1 und 6 gehören schon früh zur selben Klasse. Akteur 8 wird infolge seiner relativ geringen Beliebtheit zunächst mit den ebenfalls relativ wenig beliebten Akteuren 11 und 14 zusammengeführt, während 13 zunächst mit 2 und 5 fusioniert.
84
Tatsächlich beruht das präsentierte Ergebnis jedoch auf den ein- und ausgehenden Wahlen. Allerdings nimmt man bei hierarchischen Klassifikationsverfahren generell bestimmte Unschärfen in Kauf. Wenn z.B. Akteur 9 (aufgrund möglicherweise geringfügiger Distanzunterschiede gegenüber Akteur 17) zunächst mit einem anderem Akteur fusioniert, wird der Abstand zu 17 allein durch diese Fusion größer! 85
4 Positionen und Rollen
4.2.2.3
135
Positionen in triadischen Umgebungen
Im Positionenzensus werden sämtliche 36 strukturell unterscheidbaren Anordnungen gerichteter Beziehungen beschrieben, die in triadischen Umgebungen eines Akteurs möglich sind, d.h. bei Beschränkung der Umgebungen auf eine Schrittweite von zwei „Beziehungsschritten“. Einzelheiten werden in einem gesonderten Abschnitt (4.8, S. 166ff.) beschrieben. Wir verweisen hier zur Erläuterung der 36 Typen von Positionen, die Ego innerhalb seiner triadischen Umgebungen einnehmen kann, auf Abbildung 4.19 (S. 168). Triadischen Strukturen widmen wir uns ausführlich in Kapitel 5 zur stochastischen Analyse von Netzwerken. Hier begnügen wir uns mit dem Hinweis, dass in einem Beziehungsnetz von g Akteuren die „triadische Position“ jedes einzelnen dieser Akteure durch die (g-1)·(g-2)/2 triadischen Umgebungen gebildet wird, von denen wiederum jede einzelne Umgebung genau einer der 36 möglichen Anordnungen zugehört. Die Position eines Akteurs wird also diesem Konzept zufolge durch die Konstellation aller (g-1)·(g-2)/2 triadischen Umgebungen bzw. durch ihre Verteilung auf die 36 möglichen Formen unterschiedlicher Anordnungen der %eziehungen gemäß Abb. 4.19 beschrieben. Unter dem Gesichtspunkt automorpher Äquivalenz kommt es nun wieder nicht auf die konkreten – durch namentlich identifizierbare Personen gebildeten – triadischen Umgebungen an, sondern nur auf die Häufigkeiten, mit denen die verschiedenen Formen triadischer Anordnungen insgesamt auftreten. Entsprechend der Vorgehensweise beim Verfahren „geodesic equivalence“ (Abschnitt 4.2.2.1), bei dem nur gezählt wurde, wie viele der übrigen g-1 Akteure vom zu beschreibenden Positionsinhaber in einem Schritt, in zwei Schritten usf. erreicht werden konnten, wird auch beim Verfahren der „triadischen Positionen“ nur gezählt, wie häufig jede der 36 möglichen Anordnungsformen („Positionstypen“) unter den insgesamt (g-1)·(g-2)/2 triadischen Umgebungen vorkommen: Der Vektor mit diesen 36 Häufigkeiten beschreibt also – beschränkt auf triadische Umgebungen – sämtliche möglichen Strukturformen. Zum Vergleich dazu nochmals das Verfahren der „geodesic equivalence“: Dort war die beachtenswerte Umgebung weiter gezogen als hier und umfasste das gesamte Beziehungsnetz mit maximal g-1 Schritten. Auf der anderen Seite war der Kreis beachteter Strukturformen viel restriktiver gefasst und beschränkte sich im Grunde auf eine einzige, allerdings sehr komplexe Eigenschaft, nämlich die Häufigkeitsverteilung der Längen der jeweils kürzesten Verbindungen zwischen dem zu beschreibenden Positionsinhaber und allen anderen g-1 Akteuren.
136
4 Positionen und Rollen
Entsprechende Beschränkungen inhaltlicher Art können jedoch auch beim Verfahren der „triadischen Positionen“ eingeführt werden: Statt jede einzelne Position durch den vollständigen Vektor aller 36 Positionstypen (also durch alle möglichen triadischen Struktureigenschaften gleichzeitig) zu beschreiben, wird dann eine Auswahl nach „inhaltlicher Bedeutsamkeit“ unter den 36 Positionstypen getroffen und die anschließende Analyse der Ähnlichkeiten auf diese ausgewählten Positionstypen beschränkt. Diese inhaltliche Beschränkung (oder besser: Konzentration) ist dann aber – anders als etwa beim Verfahren der „geodesic equivalence“ – nicht ein „notwendiges Übel“, um zu einem realisierbaren Lösungsansatz zu kommen, sondern sie wählt aus der leicht unübersichtlichen Fülle aller möglichen Anordnungsformen der Beziehungen diejenigen aus, welchen eine besondere Bedeutung für den jeweiligen Untersuchungszweck zugeschrieben wird. Die Literatur kennt bislang jedoch nur relativ wenige Fälle, in denen sich die Beschreibung gleicher oder ähnlicher Positionen auf eine explizite Auswahl konkreter Struktureigenschaften konzentriert hat (u.a. V.G. Täube 2002, 2004). Einige Beispiele für entsprechende inhaltliche Zielsetzungen geben wir im Abschnitt 4.8. Prinzipiell könnte man beim Positionenzensus auch an Erweiterungen der Umgebungen denken und die Positionstypen statt auf 2-Schritt- (Triaden) auf 3Schritt- (Quadrupel) oder noch weitere Umgebungen beziehen. Dabei „explodiert“ allerdings die Zahl der möglichen Positionstypen (vgl. dazu die Diagramme aller gerichteten Graphen mit 1 bis 4 Knoten (entsprechend 0- bis 3Schritt-Umgebungen) in F. Harary (1974, Anhang II: 235ff.): Statt der nur 36 Positionstypen in 2-Schritt-Umgebungen (Triaden) gibt es bereits 752 Positionstypen in 3-Schritt-Umgebungen (Quadrupel). Wir demonstrieren das Verfahren wieder anhand der Newcomb-Daten für die Woche 14 in DICH3_14 (=Kodierung A, Woche 14) 86. Die folgende Tabelle 4.1 enthält für jeden der 17 Studenten (Zeilen) die Häufigkeitsverteilung der jeweils (g-1)·(g-2)/2= 16·15/2= 120 triadischen Umgebungen auf die 36 Positionstypen (Spalten der Tabelle; Nummerierung der Positionstypen nach R.S. Burt 1990). Da wir hier noch keine inhaltliche Beschränkung auf bestimmte strukturelle Eigenschaften der Umgebungen vornehmen (siehe dazu Abschnitt 4.8), sondern alle 36 Positionstypen („strukturelle Eigenschaften“) gleichermaßen beachten, können wir an dieser Stelle auf eine detaillierte Beschreibung der Bedeutung der Positionstypen verzichten 87. 86
Da triadische Positionen nur für dichotome Beziehungen sinnvoll sind, müssen wir den Datensatz vor der Verwendung des Verfahrens dichotomisieren. 87 Berechnung erfolgte mit NETZDIAL.
4 Positionen und Rollen
137
Tabelle 4.1: Häufigkeitsverteilungen der triadischen Umgebungen auf die 36 Positionstypen für die 14. Woche der Newcomb Fraternity (DICH3_14 (=Kodierung A, Woche 14)) (Zur Erläuterung der 36 Positionstypen siehe Abbildung 4.19.) 1 2 3 4 5 6 789 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 1 45 0 0 11 0 25 2 0 0 2 5 0 0 0 0 3 1 0 0 0 16 0 0 1 0 1 0 0 0 0 0 0 7 0 0 1 2 43 20 1 18 0 0 0 4 0 0 5 4 2 1 0 0 0 0 0 0 7 1 0 0 1 0 0 2 0 0 8 3 0 0 0 0 3 56 27 1 0 0 0 0 0 0 0 8 4 0 0 0 0 0 0 0 0 14 3 2 0 0 0 0 0 0 0 5 0 0 0 0 0 4 32 7 0 23 3 12 1 2 2 5 4 2 0 2 0 2 0 0 0 0 9 0 0 3 0 2 0 0 0 0 1 2 4 1 0 1 5 58 15 1 0 0 8 0 0 2 0 4 6 0 0 0 1 0 0 0 0 16 0 0 0 0 1 0 0 0 0 5 0 3 0 0 0 6 39 10 0 17 1 13 1 1 1 3 2 1 0 3 0 2 0 0 1 1 14 0 0 0 0 0 0 0 0 0 0 2 7 1 0 0 7 48 5 0 10 0 16 1 1 2 2 6 3 0 0 0 1 0 0 0 0 12 0 0 2 0 3 0 0 0 0 4 0 4 0 0 0 8 44 8 0 10 0 20 0 0 2 1 4 2 0 1 0 1 1 0 0 1 18 0 0 0 0 0 0 0 0 0 2 1 3 1 0 0 9 21 0 0 31 7 15 2 0 0 13 3 0 0 2 0 4 0 0 0 0 4 0 0 3 3 1 1 0 0 0 0 4 4 0 0 2 10 51 31 2 0 0 0 0 0 0 0 5 6 1 0 0 0 0 0 0 0 22 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 11 57 26 1 0 0 0 0 0 0 0 8 4 0 0 0 0 0 0 0 0 13 3 2 0 0 0 0 0 0 0 6 0 0 0 0 0 12 22 12 0 32 5 6 0 5 2 4 7 3 0 0 0 1 0 0 0 0 7 2 1 4 1 1 0 3 0 0 1 0 1 0 0 0 13 32 0 0 19 1 28 1 0 0 5 5 0 0 1 0 2 1 0 0 0 18 0 0 2 0 1 1 0 0 0 0 0 2 0 0 1 14 55 10 0 0 0 17 1 0 1 0 6 1 0 0 0 2 0 0 1 0 17 1 0 0 0 1 0 0 0 0 1 0 6 0 0 0 15 49 22 1 12 0 0 0 1 0 0 6 5 1 0 0 0 0 0 0 0 11 1 1 0 0 0 0 2 0 0 8 0 0 0 0 0 16 59 23 2 0 0 0 0 0 0 0 6 6 0 0 0 0 0 0 0 0 13 2 1 0 0 0 0 0 0 0 8 0 0 0 0 0 17 21 0 0 33 8 12 3 0 0 12 2 0 0 2 0 5 0 0 0 0 5 0 0 3 2 1 0 0 0 0 0 2 6 0 0 3
Wie bei den früheren Beispielen werden zwischen den Zeilenvektoren (Akteuren) wieder euklidische Distanzen berechnet und eine hierarchische Klassifikation nach der average linkage Methode durchgeführt. Wir wollen das Ergebnis (siehe Abbildung 4.9 auf S. 139) mit dem der beiden anderen Verfahren zur Bestimmung automorpher Ähnlichkeiten vergleichen. Wie bei der geodesic equivalence stellen wir ein schnelles Fusionieren der Außenseiter 3 und 11 und der „Stars“ 9 und 17 fest. Zudem ist Akteur 12, der durch sein asymmetrisches Wahlverhalten die Grenze zwischen Zentrum und Peripherie überbrückt, auch nach dieser Methode den anderen sehr unähnlich und bleibt lange allein in einer Klasse. Akteur 12 befindet sich wegen des asymmetrischen Wahlverhaltens in relativ vielen triadischen Positionstypen, in denen Ego nicht erwiderte Wahlen abgibt oder erhält (z.B. Positionstypen bzw.
138
4 Positionen und Rollen
Spalten 2 und 4 in Tabelle 4.1; wir empfehlen zum Verständnis dieses Abschnitts die Betrachtung der graphischen Darstellung der Positionstypen in Abb. 4.19) und taucht verhältnismäßig selten in triadischen Positionstypen auf, in denen Ego weder wählt noch gewählt wird (z.B. Positionstyp bzw. Spalte 1). Darüber hinaus unterscheiden sich die Ergebnisse in vielen Punkten von den anderen Verfahren und sind auch schwieriger zu interpretieren: Das liegt – neben einem anderen inhaltlichen Konzept – zum Teil daran, dass die verschiedenen triadischen Positionstypen sehr unterschiedliche Auftretens-Häufigkeiten haben und somit die großen Unterschiede nur bei einigen wenigen – inhaltlich evtl. gar nicht so bedeutsamen – Positionstypen, wie etwa der leeren Triade (Positionstyp 1), in der die drei betrachteten Akteure einander alle nicht wählen, erzeugt werden. Hier könnte eine Normierung 88, eine inhaltlich begründete Zusammenfassung von oder eine Auswahl nur der inhaltlich bedeutsamen unter allen 36 triadischen Positionstypen (dazu kommen wir in Abschnitt 4.8) Abhilfe schaffen. Die vier bis fünf deutlichen Außenseiter (3, 10, 15, 16 und ggf. 11 oder 14) werden bei diesem Verfahren nicht so klar vom Rest der Gruppe getrennt. Akteure 3, 11 und 16 fusionieren früh, 10 gelangt erst in einem späteren Schritt dazu, 15 wird zunächst mit 2 fusioniert und tritt erst dann zu derselben Position. Akteur 14 fusioniert mit 4, bevor die beiden mit den übrigen Außenseitern vereinigt werden. Zu diesem Zeitpunkt haben wir drei Positionen: a) die sechs Außenseiter zusammen mit den Akteuren 5 und 2; b) die „Stars“ 9 und 17, diesmal zusammen mit 12 (Alle drei haben wenige Positionstypen, die leer sind, d.h. in denen keiner den anderen wählt, allerdings aus unterschiedlichen Gründen. Bei den Akteuren 9 und 17 liegt es daran, dass sie von so vielen gewählt werden, bei Akteur 12 daran, dass er gerade diejenigen wählt, die ihn nicht wählen.); c) schließlich eine dritte Position mit den Akteuren 7, 8, 1, 4, 6 und 13, also die Clique aus Woche 14 zusammen mit den Akteuren 4 und 7. Die Clique in einer gemeinsamen Position zu finden ist nicht weiter verwunderlich, garantiert doch die gemeinsame Cliquenzugehörigkeit allen Mitgliedern ein häufiges Auftauchen in Positionstypen mit gegenseitigen Wahlen; z.B. Positionstyp 6 in Tabelle 4.1.
88 Hier kommt z.B. eine Prozentuierung oder eine bloße Berücksichtigung des Auftretens bzw. Nicht-Auftretens der betreffenden Positionstypen (0/1) infrage, vgl. dazu die Ausführungen zur regulären Äquivalenz im folgenden Abschnitt 4.2.3.1.
4 Positionen und Rollen
139
Abbildung 4.9: Dendrogramm (Ucinet 6-Output) der Ähnlichkeiten der triadischen Positionen, 14. Woche der Newcomb Fraternity (Daten aus Tabelle 4.1)
4.2.3
Ähnlichkeitsverfahren für reguläre Äquivalenz
Wie bereits an verschiedenen Stellen betont wurde, sollen unter dem Gesichtspunkt der regulären Äquivalenz schwächere Anforderungen an die Übereinstimmung der strukturellen Einbindung zweier zu vergleichender Akteure gestellt werden als unter dem Gesichtspunkt der automorphen Äquivalenz: Die Abschwächung der Anforderungen soll insbesondere jene Aspekte der strukturellen Einbindung der Positionen betreffen, die durch die bloße Größe der jeweiligen Beziehungsnetze induziert werden. So wurde unter dem Gesichtspunkt der automorphen Äquivalenz beim Verfahren „geodesic equivalence“ (Abschnitt 4.2.2.1) gezählt, wie viele der übrigen g-1 Akteure vom zu beschreibenden Positionsinhaber in einem Schritt, in zwei Schritten usf. erreicht werden konnten, oder beim Verfahren der „triadischen Positionen“, wie häufig jede der 36 möglichen Anordnungsformen („Positionstypen“) unter den insgesamt (g-1)·(g-2)/2 triadischen Umgebungen vorkommen. Vergleicht man nun Positionsinhaber aus unterschiedlich großen Beziehungsnetzen miteinander, so wird deutlich, dass in den entsprechenden Häufigkeiten
140
4 Positionen und Rollen
nicht nur die Form der jeweiligen strukturellen Einbindung in die umgebenden Beziehungsnetze zum Ausdruck kommt, sondern daneben auch deren Größe. Entsprechende – dem Gesichtspunkt regulärer Äquivalenz folgende – Verfahren dürfen sich also nicht auf Differenzen zwischen den Häufigkeiten beziehen, sondern müssen Vergleiche auf die Feststellung beschränken, ob bestimmte Formen struktureller Einbindung bei den zu vergleichenden Positionen gleichermaßen vorkommen oder gleichermaßen nicht vorkommen – dieses wäre ein Hinweis auf die Ähnlichkeit der Positionen – oder ob bestimmte Formen struktureller Einbindung bei dem einen Positionsinhaber (ein- oder mehrmals) vorkommen und bei dem andern überhaupt nicht auftreten – letzteres wäre ein Hinweis auf die Unähnlichkeit der Positionen. Im einfachsten Fall entwickelt man also Verfahren zur Beschreibung von Ähnlichkeiten unter dem Gesichtspunkt regulärer Äquivalenz aus entsprechenden Verfahren zur automorphen Äquivalenz unter Ausschluss jener Charakteristika, die allein (oder zumindest auch) auf der Netzgröße beruhen. Unter dem Gesichtspunkt der regulären Äquivalenz nach dem Verfahren „geodesic equivalence“ wird also jeder Positionsinhaber beschrieben durch einen 0/1-Vektor der Länge g-1 mit den Angaben, ob er auf kürzestem Wege mit mindestens einem der übrigen g-1 Akteure in 1, 2, 3, ..., g-1 Schritten verbunden ist („1“) oder nicht („0“). Oder beim Verfahren der „triadischen Positionen“ wird jede der 36 möglichen Anordnungsformen („Positionstypen“) daraufhin geprüft, ob sie unter den insgesamt (g-1)·(g-2)/2 triadischen Umgebungen zumindest einmal vorkommt („1“) oder nicht („0“). In beiden Fällen zielt die Ermittlung der Ähnlichkeit zwischen Positionsinhabern allein auf den Vergleich gemeinsam oder nicht gemeinsam vorkommender Strukturformen. Hinzugefügt werden sollte, dass nach unserem Wissen über beide eben skizzierten Vorgehensweisen – trotz ihrer relativ einfachen Ableitung aus bekannten Verfahren zur automorphen Äquivalenz – bislang in der Literatur nicht berichtet wird. Umgekehrt gibt es zu dem im übernächsten Abschnitt (4.2.3.2) beschriebenen Ähnlichkeitsverfahren für reguläre Äquivalenz („REGE“) keine unmittelbare Entsprechung unter dem Gesichtspunkt der automorphen Äquivalenz. Um Zusammenhänge wie Unterschiede zwischen den beiden Konzeptionen der Ähnlichkeiten nach dem Gesichtspunkt der automorphen und regulären Äquivalenz transparent zu machen, beschreiben wir zunächst parallel zum vorangehenden Abschnitt (4.2.2.3) ein Verfahren zur Identifikation von Positionen in triadischen Umgebungen und dann erst das in der Literatur weiter verbreitete Verfahren „REGE“.
4 Positionen und Rollen 4.2.3.1
141
Positionen in triadischen Umgebungen
Tabelle 4.2 enthält die – unter dem Gesichtspunkt „regulärer Äquivalenz“ abgeschwächten – Positionsbeschreibungen der Newcomb Fraternity aus Tabelle 4.1. Tabelle 4.2: Vorkommen (mindestens einmal/kein Mal) der 36 Positionstypen in den triadischen Umgebungen für die 14. Woche der Newcomb Fraternity (DICH3_14; Berechnung aus Tabelle 4.1 durch Rekodierung). (Zur Erläuterung der 36 Positionstypen siehe Abbildung 4.19) 1 2345
6 7891
1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 3 3 3 3 3 3 3 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6
1 1 0010
1 10011
0 0001
1 00010
0 1010
0 00001
0 01
2 1 1110
0 01001
1 1100
0 00011
0 0100
1 00110
0 00
3 1 1100
0 00001
1 0000
0 00011
1 0000
0 00100
0 00
4 1 1011
1 11111
1 0101
0 00010
0 1010
0 00111
1 01
5 1 1100
1 00101
1 0001
0 00010
0 0010
0 00101
0 00
6 1 1011
1 11111
1 0101
0 01110
0 0000
0 00011
1 00
7 1 1010
1 11111
1 0001
0 00010
0 1010
0 00101
0 00
8 1 1010
1 00111
1 0101
1 00110
0 0000
0 00111
1 00
9 1 0011
1 10011
0 0101
0 00010
0 1111
0 00011
0 01
10 1 1 1 0 0
0 00001
1 1000
0 00011
0 0000
0 00100
0 00
11 1 1 1 0 0
0 00001
1 0000
0 00011
1 0000
0 00100
0 00
12 1 1 0 1 1
1 01111
1 0001
0 00011
1 1110
1 00101
0 00
13 1 0 0 1 1
1 10011
0 0101
1 00010
0 1011
0 00001
0 01
14 1 1 0 0 0
1 10101
1 0001
0 01011
0 0010
0 00101
0 00
15 1 1 1 1 0
0 01001
1 1000
0 00011
1 0000
1 00100
0 00
16 1 1 1 0 0
0 00001
1 0000
0 00011
1 0000
0 00100
0 00
17 1 0 0 1 1
1 10011
0 0101
0 00010
0 1110
0 00011
0 01
Anstelle der 36 Häufigkeiten, mit denen in Tabelle 4.1 in jeder Zeile das Auftreten der entsprechenden Positionstypen in den triadischen Umgebungen eines Studenten beschrieben wird, stehen in Tabelle 4.2 nur die Ziffern: „0“ mit der Bedeutung: der Positionstyp kommt unter allen (g-1)·(g-2)/2 triadischen Umgebungen eines Studenten kein einziges Mal vor und
142
4 Positionen und Rollen
„1“ mit der Bedeutung: der Positionstyp kommt unter allen (g-1)·(g-2)/2 triadischen Umgebungen eines Studenten wenigsten einmal, unter Umständen auch häufiger vor. Berechnet man auf dieser Basis – wie vorher mit den Häufigkeiten aus Tabelle 4.1 – euklidische Distanzen und führt eine hierarchische Klassifikation nach der average linkage Methode durch, so erhält man eine Klassifikation unter dem abgeschwächten Gesichtspunkt nunmehr „regulärer Äquivalenz“: In diesem Fall haben die häufig vorkommenden Positionstypen keinen größeren Einfluss auf die Bildung von Positionen als die seltenen. Eher ist es umgekehrt: Da jeder Akteur mindestens einmal im leeren Positionstyp 1 vorkommt, diskriminiert dieser Typ, der vorher die größten Häufigkeitsdifferenzen aufwies, überhaupt nicht mehr zwischen den Akteuren 89.
Abbildung 4.10: Dendrogramm (Ucinet 6-Output) der Ähnlichkeiten der triadischen Positionen für die 14. Woche der Newcomb Fraternity (Daten aus Tabelle 4.2) Die Akteure 3, 11 und 16 sind nach diesem Verfahren äquivalent (siehe Abbildung 4.10). Sie kommen alle drei in den gleichen neun Positionstypen vor. Diese neun Positionstypen (1, 2, 3, 11, 12, 21, 22, 23, 31) – aber nicht nur diese (s. 89
Ggf. wäre daher ein Streichen der ersten Spalte von Tab. 4.2 angebracht.
4 Positionen und Rollen
143
Abbildung 4.19) – haben gemeinsam, dass Ego in ihnen nicht gewählt wird. Es handelt sich daher deutlich sichtbar um eine Außenseiterposition. Die zweite Fusion ist die zwischen 9 und 17. Beide unterscheiden sich nur in einem Positionstyp, in dem 9 auftaucht, 17 aber nicht. Ihre Positionen sind beinahe komplementär zu denen von 3, 11 und 16. Als „Stars“ treten sie nie in den Positionstypen auf, in denen Ego asymmetrisch eine Wahl vergibt. Zu der Außenseiterposition treten sukzessive 10, 15 und etwas überraschend 2. Zu 9 und 17 treten zunächst 1 und 13. Eine dritte Position bildet sich aus 5, 14, 4, 7, 6, 8 und aus Akteur 12, der wiederum am längsten eine eigene Klasse bildet. Diese dritte Klasse ist am heterogensten und weicht am deutlichsten von den durch die anderen Verfahren erzeugten Klassen ab. Beim Positionenzensus zur automorphen Ähnlichkeit waren 5 und 14 den Außenseitern, 12 den „Stars“ und 4, 6, 7 und 8 der Klasse mit der Clique zugeordnet.
4.2.3.2
Ein Ähnlichkeitsverfahren für reguläre Äquivalenz: REGE
Ein relativ häufig genutztes Verfahren zur Ermittlung von Ähnlichkeiten im Hinblick auf die reguläre Äquivalenz ist der Algorithmus REGE von D.R. White und K.P. Reitz (D.R. White und K.P. Reitz 1985, D.R. White 1984). REGE gibt es in zwei Fassungen, „continuous“ und „categorical“. Beide arbeiten iterativ und vergrößern mit jedem Iterationsschritt die berücksichtigte Umgebung um einen Schritt. Categorical REGE kann jede Art von nominalskalierten Daten verarbeiten und kann als Verallgemeinerung der im vorangegangenen Abschnitt beschriebenen regulären Ähnlichkeiten auf der Basis des Positionenzensus verstanden werden. Für den Fall einer dichotomen Beziehung werden in einem ersten Schritt alle nicht-isolierten Knoten in solche nur mit ausgehenden Beziehungen („sources“), solche nur mit eingehenden Beziehungen („sinks“) und solche, die sowohl aus- als auch eingehende Beziehungen haben („repeaters“) unterschieden. Dies sind die einzigen möglichen Typen von 1-SchrittUmgebungen, wenn man die Auftretens-Häufigkeit nicht berücksichtigt (reguläres Äquivalenzkonzept). Im zweiten Iterationsschritt wird nun mit einbezogen, zu welcher Art von Knoten diese Beziehungen bestehen: Man kann nun unterscheiden: sources mit Beziehungen nur zu sinks, sources mit Beziehungen nur zu repeaters und sources mit Beziehungen zu sinks und repeaters (sources mit Beziehungen zu sources oder Isolierten kann es nicht geben, da diese keine
144
4 Positionen und Rollen
eingehenden Beziehungen besitzen) 90. Analog können auch sinks und repeaters klassifiziert werden. Der Categorical REGE mit 2 Iterationen ähnelt daher sehr dem Vorgehen beim Positionenzensus. Man kann nun aber mit dem Categorical REGE weitergehen und beliebige n-Schritt-Umgebungen berücksichtigen, indem man die Anzahl der Iterationen erhöht. Wegen der Ähnlichkeit des Categorical REGE zum Positionenzensus und da auch er die Bewertungen der Beziehungen der Newcomb Fraternity nicht berücksichtigen würde, wollen wir hier nur den Continuous REGE nutzen. Dieser ist auf bewertete und gerichtete Beziehungen anwendbar. Auch dieser Algorithmus erweitert mit jedem Iterationsschritt die berücksichtigte Umgebung um einen Schritt. Allerdings sind wegen des zugelassenen Werts von Beziehungen kompliziertere Berechnungen notwendig: Wie bewertet man ab dem zweiten Iterationsschritt Unterschiede der Beziehungsstärke im Vergleich zu Unterschieden in der Ähnlichkeit der Beziehungspartner? Die Verfahrensweise wollen wir im Folgenden grob skizzieren. Zur Berechnung der Ähnlichkeit von zwei Akteuren i und j geht der Algorithmus folgendermaßen vor: Für jeden Akteur k, mit dem i verbunden ist, sucht er in jedem Iterationsschritt einen Akteur m, mit dem j ähnlich verbunden ist. Dabei basiert das Maß für die Ähnlichkeit auf der Differenz der Werte der Beziehungen von i zu k und von j zu m, gewichtet mit der Ähnlichkeit von k und m bei der vorherigen Iteration. Schließlich muss jeder Akteur der Gruppe einmal als Partner von i und einmal als Partner von j vorkommen. Dieses „Matching“ von Paaren von Akteuren (k,m), von denen jeweils einer mit i und einer mit j verbunden ist, versucht der Algorithmus über das gesamte Netzwerk hinweg zu optimieren 91. Diese Prozedur wird nun für eine vom Benutzer vorher festgelegte Anzahl von Iterationen wiederholt. Dabei ist es nicht sinnvoll, das Verfahren bis zur Konvergenz fortzusetzen, da dann alle nicht äquivalenten Paare von Akteuren das Ähnlichkeitsmaß 0 erhalten. Aus der Matrix mit den paarweisen Ähnlichkeiten nimmt der Algorithmus dann mittels average linkage hierarchical clustering eine Einteilung der Akteure in Klassen vor. 90
vgl. auch S.P. Borgatti, M.G. Everett und L.C. Freeman (1991). Die Zusammenfassung von S.P. Borgatti, M.G. Everett und L.C. Freeman (1991) lautet: „REGE is an iterative algorithm, within each iteration a search is implemented in an attempt to optimise a matching function. The matching function between vertices i and j is based upon the following. For each k in i’s neighbourhood search for an m in j’s neighbourhood of similar value. A measure of similar values is based upon the absolute difference of magnitude of ties. This measure is then weighted by the degree of equivalence between k and m at the previous iteration, it is this match that is optimised. This is summed for all members of i’s neighbourhood over all relations and normalised to provide the current iterations measure of equivalence between i and j. The procedure is repeated for all pairs of vertices for a fixed number of iterations.” 91
4 Positionen und Rollen
145
In UCINET IV findet man den REGE-Algorithmus für bewertete Beziehungen unter NETWORKS>POSITIONS>REGULAR EQUIVALENCE>CONTINUOUS (Ucinet 6: Network>Roles & Positions>Maximal Regular>REGE). Dabei weist der Zusatz „CONTINUOUS“ darauf hin, dass das Verfahren bei der für dieses Verfahren notwendigen Differenzbildung (siehe Beschreibung des REGE-Algorithmus) davon ausgeht, dass intervallskalierte Daten vorliegen. Als Eingabedatensatz benutzen wir die Originaldaten der 14. Woche (NEWFR_14, s.o. 4.2.1.2) 92. Man kann im Menu entscheiden, ob die Daten zu geodätischen Distanzen konvertiert werden sollen, was für unseren Datensatz nicht sinnvoll ist. Darüber hinaus kann man noch die Anzahl der Iterationen bestimmen.
Wir präsentieren die Ergebnisse für die 14. Woche der Newcomb Fraternity. Diese hängen von der gewählten Anzahl der Iterationen ab. Je häufiger man iteriert, desto mehr werden die Akteure voneinander getrennt. Für unsere Daten ergibt sich, dass sich nach drei Iterationen (Default-Einstellung in UCINET IV) das Ergebnis noch nicht stabilisiert hat. Nach zehn Iterationen erhalten wir ein Dendrogramm, das sich von dem nach 100 Iterationen nur noch im Zahlenwert der Fusionsniveaus unterscheidet, nicht mehr jedoch nach der Reihenfolge der vorgenommenen Fusionen. Wir nehmen also an, dass sich nach zehn Iterationen das Ergebnis ausreichend stabilisiert hat, und präsentieren im Folgenden das Resultat des REGE-Algorithmus nach 10 Iterationen (Abbildung 4.11).
Abbildung 4.11: Hierarchische Klassifikation: Dendrogramm (Ucinet 6Output): REGE-Algorithmus für die 14. Woche (Rangfolgedaten). 92 Wir unterstellen dabei erneut, dass die Rangfolgedaten in keinen wesentlichen Eigenschaften von intervallskalierten Daten abweichen.
146
4 Positionen und Rollen
Beim REGE-Algorithmus wird Akteur 17 noch deutlicher als bei Maxsim von der restlichen Gruppe separiert. Auf der anderen Seite beobachten wir wiederum eine Position mit den isolierten Akteuren, die sehr deutlich vom Rest getrennt ist. Diesmal wird der ebenfalls recht unbeliebte Akteur 11 dieser Klasse zugeordnet. Die übrigen Akteure sind wiederum in leicht veränderten Konstellationen (gegenüber den bisherigen Analysen) zu Klassen zusammengefügt. 4.3
Zusammenfassung: Entscheidungen bei einer Positionsanalyse
In den vorangegangenen Abschnitten haben wir eine Vielzahl möglicher Verfahren zur Analyse von Positionen vorgestellt, die unterschiedlichen inhaltlichen Vorstellungen folgen, wann mehrere Akteure als strukturell gleichartig (d.h. äquivalent oder ähnlich) anzusehen sind. Die Resultate ähneln einander, ohne aber identisch zu sein. Will man nicht von dieser Vielzahl der Ergebnisse „erdrückt“ werden, so sollte man frühzeitig eine Entscheidung treffen, welches Verfahren nach theoretischen Gesichtspunkten sinnvoll ist, um das zu erfahren, was im Zentrum des Interesses liegt. Zur Orientierung fassen wir in diesem Abschnitt noch einmal systematisch zusammen, welche Entscheidungen bei der Wahl des Verfahrens getroffen werden müssen. Analyse von Positionen
Ebene1: Äquivalenzkonzept
strukturell
Ebene 2: äquivalent oder ähnlich? Ebene 3a: bewertet oder dichotom?
Ebene 4: Parameter für Ähnlichkeitsverfahren
ähnlich
äquivalent
bewertet dichotom
Ebene 3b: Ähnlichkeitsverfahren und Größe der Umgebung
automorph
CONCOR 1Schritt
äquivalent
ähnlich
bewertet dichotom
Prof.Simil. 1Schritt
Geod. Equiv. (n-1) Schritt
regulär
äquivalent
ähnlich
bewertet dichotom
Maxsim 1 Schritt
Triadische Positionen 2 Schritt
bewertet/ bewertet/ bewertet/ Distanzmaß Alle Positionstypen dichotom dichotom dichotom Klassifikations- oder Auswahl Transponierte? Transponierte? Transponierte? verfahren Distanzmaß Anzahl Splits Maß für Ähnlichkeit Distanzmaß KlassifikationsKonvergenz- (Eucl./correl./match)Klassifikationsverfahren verfahren kriterium KlassifikationsIterationsanzahl verfahren
REGE Frei wählbar
Triadische Position 2 Schritt
Kontinuierlich/ kategorisch Anzahl der Iterationen
Alle Positionstypen oder Auswahl Distanzmaß Klassifikationsverfahren
Abbildung 4.12: Entscheidungsbaum zur Wahl des Verfahrens der Positionsanalyse
4 Positionen und Rollen
147
Wie man in Abbildung 4.12 sieht, gibt es vier Ebenen, auf denen man Entscheidungen treffen muss: Ebene 1: Welches Äquivalenzkonzept ist für die Fragestellung zutreffend? Ist der jeweils konkrete, d.h. namentlich identifizierbare Beziehungspartner von Bedeutung (strukturelle Äquivalenz) oder nur die Anzahl von Beziehungspartnern in bestimmten Positionen (automorphe Äquivalenz) oder nur die Existenz mindestens jeweils eines Beziehungspartners in bestimmten Positionen (reguläre Äquivalenz)? Ebene 2: Soll exakte Äquivalenz bestimmt werden oder hilft eher ein lediglich zu Ähnlichkeiten führendes Näherungsverfahren, da es evtl. kaum strenge Äquivalenzen im Datensatz gibt? Ebene 3a: Falls keine binäre Daten vorliegen, stellt sich im Zusammenhang mit der Entscheidung auf Ebene 2 noch die Frage, ob die Beziehungen als bewertete Beziehungen analysiert werden sollen oder als dichotomisierte. Für bewertete Beziehungen wird das Vorhaben meistens scheitern, Äquivalenzen zu finden. Für dichotome Daten kommen beide Arten von Verfahren (Äquivalenzen und Ähnlichkeiten) in Frage. Ebene 3b: Falls man sich dafür entschieden hat, ein Ähnlichkeitsverfahren zu benutzen, ist nun zu entscheiden, welches Verfahren man für angemessen hält. Zu jeder Art von Äquivalenz gibt es mehrere Ähnlichkeitsverfahren. Mit der Entscheidung für eines der Verfahren trifft man in der Regel auch eine Entscheidung über die Größe der zu berücksichtigenden Umgebung. Von den hier besprochenen Verfahren lässt nur das REGE-Verfahren zu, dass man (über die Zahl der Iterationen) die Größe der Umgebung unabhängig vom Verfahren wählt. Bei den Verfahren zur strukturellen Ähnlichkeit werden konzeptionell immer nur 1-Schritt Umgebungen berücksichtigt. Ebene 4: Zusätzlich sind spezielle Parameter zu bestimmen. Als Beispiele fanden wir die Entscheidung über die Diagonale, das Einbeziehen der Transponierten (d.h. Berücksichtigung von Spalten- und Zeilenvektoren), das Maß für Distanz oder Ähnlichkeit, die Auswahl des Klassifikationsverfahrens und ggf. die Anzahl der Iterationen. 4.4
Blockmodelle und Bildmatrizen
Hat man einmal strukturell äquivalente oder strukturell annähernd äquivalente (d.h. strukturell ähnliche) Akteure zu Klassen zusammengefasst, so kann man
148
4 Positionen und Rollen
die Beziehungsstruktur der Gruppe vereinfachen, indem man statt auf die einzelnen Akteure auf die Klassen äquivalenter bzw. ähnlicher Akteure abhebt. Zur Erläuterung des Konzepts des Blockmodells soll zunächst angenommen werden, es läge eine Klasseneinteilung (Partition) in strukturell exakt äquivalente Akteure vor und die Beziehung sei dichotom und gerichtet. Strukturell äquivalente Akteure haben dann gleiche Beziehungen von und zu allen anderen Akteuren. Sie können also ohne Verlust von Information zu einem Knoten zusammengefasst („kondensiert“) werden, wobei ein jeder solcher Knoten (von äquivalenten Akteuren) durch einen beliebigen „seiner“ Akteure „repräsentiert“ werden kann. Wie noch im Einzelnen dargelegt wird, sind dann die Beziehungen zwischen den kondensierten Knoten selbst wiederum eindeutig mit Hilfe der Beziehungen unter beliebigen ihrer Repräsentanten definierbar. Ein Blockmodell besteht somit aus: (i) A partition of actors in the network into discrete subsets called positions (ii) For each pair of positions a statement of the presence or absence of a tie within or between the positions on each of the relations (S. Wasserman und K. Faust 1994: 395).
Ein Blockmodell kann durch eine Bildmatrix repräsentiert werden. Die Bildmatrix gibt nicht mehr Auskunft über die Beziehung jedes einzelnen Akteurs zu jedem anderen, sondern über die Beziehungen der Positionen zueinander. Diese Matrix ist eine reduzierte Matrix im Vergleich zur ursprünglichen Adjazenzmatrix. Hatte die Adjazenzmatrix noch jeweils g Zeilen und Spalten, so hat die Bildmatrix nur noch jeweils p d g Zeilen und Spalten, nämlich für jede der p Positionen je eine. In k-ter Zeile und l-ter Spalte der Bildmatrix steht nun ein Eintrag, der Auskunft gibt über die Beziehung von Position k zu Position l. Diese Beziehung ist gleich der Beziehung, die jeder der Akteure der Position k zu jedem der Akteure der Position l hat. Wegen der strukturellen Äquivalenz der Akteure einer Position ist diese Beziehung ja für alle Akteure einer Position zu allen Akteuren der gleichen oder einer anderen Position gleich. Die zur Bildmatrix äquivalente graphentheoretische Darstellung ist der reduzierte Graph. Seine Knoten sind die Positionen des ursprünglichen Graphen. Nach dem Gesagten lassen sich die Kanten des reduzierten Graphen aus den Kanten des ursprünglichen Graphen folgendermaßen induzieren: Seien {a 1 , ... , a g } die Knoten des ursprünglichen Graphen und {P 1 , ... , P p } die Knoten des reduzierten Graphen, wobei jedes P j aus einem oder mehreren der a i besteht. Dann ist (P k , P 1 ) eine Kante des reduzierten Graphen genau dann, wenn ein Paar (( a p , a q ) | a p P k und a q P l ) existiert, für das (a p , a q ) Kante des ursprünglichen Graphen ist. Es
4 Positionen und Rollen
149
soll nun ein Beispiel für ein Blockmodell mit folgender Adjazenzmatrix gegeben werden:
A1 A2 A3 A4 A5 A6 A7
A1 1 0 1 1 1 0
A2 0 1 0 0 0 1
A3 0 0 0 0 0 1
A4 1 1 0 1 1 0
A5 0 0 1 0 0 1
A6 0 0 1 0 0 1
A7 0 0 1 0 0 0 -
Es lassen sich folgende Positionen strukturell äquivalenter Akteure ausmachen: P1: A1, A4 P2: A2, A5, A6 P3: A3, A7 Die Bildmatrix hat dann folgende Gestalt: P1 P2 P3
P1 1 1 0
P2 0 0 1
P3 0 0 1
150
4 Positionen und Rollen
Auch wenn die Beziehung eines Akteurs zu sich selbst nicht definiert ist, wie es im Newcomb-Datensatz der Fall ist, so ist doch die Beziehung einer Position zu sich selbst von Bedeutung. Sie gibt Auskunft darüber, ob die Akteure einer Position zueinander in Beziehung stehen oder nicht. Wir betrachten daher nun erstmals ein soziales Netzwerk, in dem eine Beziehung eines Akteurs (das bedeutet hier: einer Position) zu sich selbst zugelassen ist, d.h. einen Graphen mit „Schleifen“ 93. Ein Problem taucht auf, wenn wir es nicht mehr mit exakt äquivalenten Akteuren zu tun haben, sondern mit Positionen aus ähnlichen, d.h. nur näherungsweise äquivalenten, Akteuren. Es ist dann nicht mehr garantiert, dass alle Akteure einer Position k die gleiche Beziehung zu allen Akteuren einer Position l haben. Wie soll man nun entscheiden, ob die Beziehung zwischen den beiden Positionen vorhanden ist? Es wurde eine Reihe von Kriterien entwickelt, deren allgemeinstes das D-Dichte-Kriterium ist. Beim D-Dichte-Kriterium setzt man einen Schwellenwert D fest (0 d D d 1). Nun betrachtet man die Dichte 94 (') jedes Blocks im Blockmodell (Blöcke entsprechen den Zellen der Bildmatrix). Für den Eintrag in der Bildmatrix in Zeile k und Spalte l (b kl ) legt man nun folgendes fest: b kl: = 0 für ' kl < D, b kl: = 1 für ' kl t D Es ist natürlich wünschenswert, den Wert für D nicht einfach willkürlich zu bestimmen, sondern sich von einer sinnvollen Regel leiten zu lassen. Eine mögliche Regel ist es, für D die Dichte des gesamten Netzwerkes zu nehmen. So werden Beziehungen zwischen Positionen als anwesend definiert, wenn die Dichte in dem entsprechenden Block der Matrix größer oder gleich der Dichte des Netzwerkes ist. Im komplementären Fall werden sie als abwesend definiert. Dieses Verfahren ist nicht immer sinnvoll. In sehr dichten Netzwerken empfiehlt sich das Einsblock-Kriterium (D = 1): b kl: = 0 für ' kl < 1, b kl: = 1 für ' kl = 1
93 Wollten wir in diesem Netzwerk Zentralitäts-Indizes berechnen, was aufgrund der geringen Anzahl der Knoten trivial ist, so müssten wir nun zur Normierung durch g (die Anzahl der Akteure (hier: Positionen) teilen statt wie in Kapitel 2 durch g-1). 94 Die Dichte eines gerichteten Netzwerkes ist gleich der Anzahl der gerichteten Kanten geteilt GXUFKGLH=DKOGHUPD[LPDOP|JOLFKHQ.DQWHQ JJ-1)).
4 Positionen und Rollen
151
Die Blocks, die den Wert 1 zugewiesen bekommen, sind dann „perfekte Einsblocks“, in denen keine 0 mehr vorkommt, was bedeutet, dass die zugrunde liegende Beziehung in den Blocks ausnahmslos vorhanden ist. In sehr dünnen Netzen, die empirisch wesentlich häufiger vorkommen, empfiehlt sich umgekehrt das Nullblock-Kriterium: b kl: = 0 für ' kl = 0, b kl: = 1 für ' kl > 0 Die Blocks, die einen Wert 0 zugewiesen bekommen, sind dann „perfekte Nullblocks“, d.h. die zugrunde liegende Beziehung ist in den Blocks in keinem Fall vorhanden. 4.5
Ein Blockmodell für die Str uktur der Newcomb Fraternity in der 14. Woche
Es soll nun exemplarisch ein Blockmodell für die Newcomb Fraternity erstellt werden. Gewählt wurde dazu der Algorithmus CONCOR (siehe 4.2.1.1). Er hat den Vorteil, auf bewertete und gerichtete Beziehungen anwendbar zu sein und liefert in unserem Falle eine Klasseneinteilung (Partition), die mit bisherigen Erkenntnissen in Einklang steht. Es wäre mit dem Algorithmus CONCOR ohne weiteres möglich, für jeden Akteur die eingehenden und ausgehenden Rangplätze aller 15 Wochen als Eingabevektor zu nutzen. Wir erhielten dann ein Blockmodell für alle Wochen zusammen. Da jedoch die Arbeit von K. Nakao und A.K. Romney (1993), wie bereits in der Einleitung erwähnt, darauf hinweist, dass sich die Gruppenstruktur von der Woche 0 bis zur Woche 14 stetig einem Gleichgewichtszustand nähert, sich also systematisch in eine bestimmte Richtung entwickelt, ist es berechtigt, die Daten nur von Woche 14 für ein Blockmodell zugrunde zu legen. Das Blockmodell zeigt dann die vereinfachte Struktur der Gruppe am Ende des Kennenlernprozesses. In dem von uns benutzten CONCOR-Algorithmus nähern sich in einem Block alle Einträge nach hinreichend vielen Iterationen beliebig nahe der 1. Da man nur endlich viel Zeit zur Verfügung hat, muss man festlegen, wie nahe alle Einträge in den Blocks mindestens der 1 kommen müssen, damit der Algorithmus eine Teilung der Population vornimmt. Es wurde die Toleranz 0,01 gewählt, alle Korrelationen müssen also mindestens r0,99 betragen, bevor das Verfahren abgebrochen wird. Als Eingabevektoren wurden die Spalten und
152
4 Positionen und Rollen
Zeilen jedes Akteurs gewählt. Der Algorithmus arbeitet also auf der Grundlage der Ähnlichkeit von Akteuren hinsichtlich ihrer eingehenden und ausgehenden Wahlen. Nach einem ersten Durchgang teilt der Algorithmus die Population in zwei Teilpopulationen mit acht beziehungsweise neun Akteuren: P1: 1, 4, 5, 6, 8, 9, 13, 17 P2*: 2, 3, 7, 10, 11, 12, 14, 15, 16 In der ersten Teilpopulation beträgt die durchschnittliche paarweise Korrelation aus Matrix M 0 zwischen den Akteuren bereits 0,42. In der zweiten Teilpopulation liegt dieser Wert erst bei 0,29 und damit nur geringfügig über der durchschnittlichen paarweisen Korrelation aller Akteure des Netzwerkes von 0,24. So bietet es sich an, die zweite Teilpopulation noch einmal zu teilen. Der Algorithmus teilt P2* im zweiten Schritt in die zwei Blocks: P2: 2, 7, 11, 12 P3: 3, 10, 14, 15, 16 Die durchschnittliche paarweise Korrelation liegt jetzt deutlich höher in Position P2 bei 0,54 und in Position P3 bei 0,39. Eine weitere Teilung einer der beiden Positionen wurde daher nicht vorgenommen. Die Teilung in drei Blocks mag etwas willkürlich erscheinen. Jeder der drei Blocks hätte noch einmal geteilt werden können. Die Entscheidung für nur drei Blocks wird jedoch später noch gerechtfertigt. In UCINET IV findet man den CONCOR-Algorithmus unter NETWORKS>POSITIONS>STRUCTURAL EQUIVALENCE>CONCOR (Ucinet 6: Network>Roles & Positions>Structural>CONCOR). Um ihn durchzuführen, wie oben angegeben, nutzt man den Datensatz NEWFR_14 (Rangfolgedaten, Woche 14), muss dann die Menüpunkte INCLUDE TRANSPOSE mit YES (es werden dann eingehende und ausgehende Wahlen jedes Akteurs korreliert), DIAGONAL (Ucinet 6: „self ties“) mit IGNORE und MODE mit MANUAL belegen, sowie eine Toleranz von 0,01 und eine hohe minimale Anzahl von Iterationen wählen. Als MAX. DEPTH OF SPLITS genügt hier 2 (das bedeutet, es wird zunächst die gesamte Population geteilt und dann nach Wunsch ggf. jede Teilpopulation noch einmal geteilt). Die Matrix M 0 der Ausgangskorrelationen wird als 1STCORR gespeichert. Weiterhin wird eine Matrix CCPART gespeichert, der man für die gewählten „Teilungstiefen“ zeilenweise entnehmen kann, welche Akteure zur gleichen Position gehören. So zeigen in unserem Beispiel die drei verschiedenen Einträge der zweiten Zeile von CCPART, dass es auf dieser „Teilungstiefe“ drei Positionen gibt, die durch die Werte 1, 3 und 4 gekennzeichnet sind. Ein Vergleich mit der ersten Zeile von CCPART zeigt, dass Positionen 3 und 4 aus Position 2 entstanden sind. - Der ebenfalls gespeicherte Zeilenvektor
4 Positionen und Rollen
153
CCPERM bietet eine Umordnung (Permutation) der Akteure an, so dass diese mit seiner Hilfe nach ihren Positionszugehörigkeiten angeordnet werden können. Die Korrelationen innerhalb und zwischen Positionen kann man berechnen, indem man die Ausgabematrix 1STCORR mit Hilfe von CCPART umordnet und „blockt“. Das geschieht mit NETWORKS>TRANSFORM>BLOCK IMAGE (Ucinet 6: Transform>Block): als Methode wählt man AVERAGE; die Frage nach Berücksichtigung der Diagonalen beantwortet man mit NO und gibt als Maßgabe für die Gruppierung („Blocken“) sowohl von Zeilen als auch von Spalten beide Male „CCPART ROW 2“ an. Das Ergebnis wird in der Matrix BLOCKED gespeichert, die die Mittelwerte aller Korrelationen für alle 9 Blöcke enthält. (Entsprechend erhält man die durchschnittlichen Korrelationen für die erste Teilung in nur zwei Positionen, wenn man 1STCORR in der Routine BLOCK IMAGE nach den Gruppierungsmaßgaben „CCPART ROW 1“ - sowohl für Zeilen als auch Spalten - „blockt“.) Um die durchschnittliche paarweise Korrelation aller Akteure des Netzwerkes zu ermitteln, kann man die Routine BLOCK IMAGE auf 1STCORR ohne spezielle Gruppierungsmaßgaben anwenden. Eine Alternative zur Prozedur BLOCK IMAGE ist NETWORKS>CONNECTIONS>DENSITY (Ucinet 6: Network>Cohesion>Density).
Es bestehen nun verschiedene Möglichkeiten, das Blockmodell für die drei Positionen zu erstellen, die CONCOR geliefert hat. Als Eingabe für CONCOR wurden die Rangfolgen benutzt. Als Eintrag für das Blockmodell ist aber eine dichotome Beziehung überschaubarer; für die anschließende Analyse der Rollenstruktur (s.u. 4.6) sind dichotome Beziehungen sogar notwendig. Bevor wir zum Blockmodell kommen, stellen wir daher die dichotomisierte Matrix von DICH3_14 (=Kodierung A, Woche 14) noch einmal dar. Dabei haben wir die Knoten entsprechend ihrer Positionszugehörigkeit umsortiert, so dass bereits in der Darstellung der Matrix die späteren Blöcke erkennbar werden (siehe Abbildung 4.13 auf der folgenden Seite). Eine in der Anordnung von Zeilen und Spalten fast gleiche Matrix erhält man in UCINET IV mit Hilfe von DATASETS>PERMUTE aus DICH3_14 mit den Umordnungsmaßgaben „CCPERM ROW 1“ (aus der vorangegangen CONCOR-Analyse) sowohl für die Zeilen als auch für die Spalten. Das Ergebnis wird als PERMUTED gespeichert und steht damit für die weitere Verarbeitung zur Verfügung. Alternativ kann man durch NETWORKS>TRANSFORM>BLOCK IMAGE mit DICH3_14 als Eingabe, der Methode „MINIMUM“ und den beiden Gruppierungsmaßgaben „CCPART ROW 2“ eine Bildschirmausgabe erzeugen, die die Blockstruktur noch klarer zum Ausdruck bringt. Auch wenn die Akteure, die der gleichen Position angehören, hier wie in PERMUTED nebeneinander angeordnet sind, weichen die Reihenfolgen doch von unserer in Abbildung 4.13 ab, da wir nochmals eine Umsortierung vorgenommen haben. Um das Ergebnis der Bildschirmausgabe weiter verwenden zu können, muss man es durch OUTPUT>COPY (besser: OUTPUT>APPEND) in einer ASCII-Textdatei speichern.
154
4 Positionen und Rollen
1
45
6
89
13 17
2
7
11 12
3
10 14 15 16
1 4 5 6 8 9 13 17
0 0 0 1 0 1 1
0 1 0 1 0 0 1
0 1 0 0 0 0 0
0 1 0 0 1 1 0
1 0 0 1 0 1 0
0 0 1 1 0 0 1
1 0 1 1 1 0 0
1 1 0 0 0 1 0 -
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 1 0 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
2 7 11 12 3 10 14 15 16
0 0 0 0 0 1 0 0 0
1 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 1 0 0
0 0 0 0 0 0 0 0 0
1 0 0 1 0 0 1 1 1
0 0 0 0 0 1 0 0 0
1 1 1 0 1 0 0 1 0
0 1 1 0 0 0 0 0
0 0 1 0 1 1 0 0
0 0 0 0 0 0 0 0
0 1 1 1 0 0 1 1
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
0 1 0 0 0 0 0 0
0 0 0 0 1 0 0 0
0 0 0 0 0 0 0 0 -
Abbildung 4.13: Permutation von DICH3_14 (=Kodierung A, Woche 14), Knoten der gleichen Position sind nebeneinander angeordnet (Eigene Anordnung). Aus Abbildung 4.13 ergibt sich das folgende Blockmodell: Eingetragen ist die Dichte der jeweiligen Untermatrix P1 P2 P3
P1 0,411 0,1875 0,225
P2 P3 0,000 0,417 0,250
0,025 0,050 0,050
Diese Dichten findet man unter NETWORKS>TRANSORM>BLOCK IMAGE (Ucinet 6: Transform>Block) mit DICH3_14 als Input, Methode=„AVERAGE“, Diagonale=„NO“ und den beiden Gruppierungsmaßgaben „CCPART ROW 2“ (aus der vorangegangenen CONCOR-Analyse) in der Ergebnismatrix BLOCKED. Alternativ ist auch die Routine NETWORKS>CONNECTIONS>DENSITY (Ucinet 6: Network>Cohesion>Density) anwendbar.
4 Positionen und Rollen
155
UCINET IV rechnet mit zwei Nachkommastellen; Ucinet 6 mit drei. Zu einer genaueren Berechnung müsste man in UCINET IV für jede der neun Untermatrizen folgendermaßen vorgehen: 1.) Ausgehend von dem Datensatz DICH3_14 entfernt man zunächst alle Reihen und Spalten, die nicht zu der jeweiligen Untermatrix gehören, mit DATASETS>EXTRACT (Ucinet 6: Data>Extract). 2.) Nun bestimmt man die Summe der Einträge in der Untermatrix EXTRACT in MATRICES>ALGEBRA (Ucinet 6: Tools>Matrix Algebra) mit DISP TOT(EXTRACT). 3.) Man teilt das Ergebnis durch die Anzahl der Einträge der Untermatrix. Für eine kukMatrix ist diese gleich k·(k-1), da in der Diagonale keine Einträge stehen. Es kann allerdings durchaus schneller gehen, auf Schritt 2.) zu verzichten und einfach die Einsen abzuzählen.
Die Dichte des gesamten Netzwerkes ist (17*3)/(17*16) = 0,1875. Es wird nun das D-Dichte-Kriterium angewandt mit D = 0,1875 95. Dadurch entsteht (ggf. durch Rekodierung) die folgende Bildmatrix: P1 P2 P3
P1 1 1 1
P2 0 1 1
P3 0 0 0
Dieselbe Bildmatrix ergibt sich im Übrigen auch, wenn man die Rangfolgedaten als Einträge in das Blockmodell benutzt. In jedem der neun Blocks steht dann in der Dichtematrix ein Wert für den durchschnittlichen Rangfolgeplatz, den eine Position einer anderen zukommen lässt. Bildet man dann eine Bildmatrix, indem man eine 1 setzt für Werte kleiner als 8,5 (Durchschnitt) und eine 0 setzt für Werte größer als 8,5, so ist sie dieselbe, wie für die dichotome Freundschaftsbeziehung (gemäß Kodierung A). Wir können uns nun ein besseres Bild von der Struktur der Gruppe machen: Position P1 verteilt fast alle Wahlen an die eigene Position, steht also nur zu sich selbst in freundschaftlicher Beziehung. Trotzdem wird Position P1 von allen anderen Positionen gewählt. Wir haben es also mit einer dominanten Position zu tun, die von allen als Freund gewählt wird, aber nur Freundschaftswahlen der eigenen Gruppe erwidert. Position P2 ist in einer mittleren Position. Die Mitglieder „mögen“ sich untereinander und „mögen“ die Mitglieder der Position 95
Die Beziehung von P2 zu P1 liegt genau auf der Grenze: Die Dichte der Beziehungen von P2 zu P1 entspricht genau der Netzwerkdichte. Dennoch spricht neben dem formalen Kriterium noch ein anderer Grund dafür, die Beziehung als ‘1’ zu kodieren: Die Dichte der Beziehung von P2 zu P1 liegt sehr viel näher bei den anderen als ‘1’ kodierten Beziehungen als bei den als ’0’ kodierten Beziehungen. Der größte als ’0’ kodierte Wert (unterhalb 0,1875) beträgt 0,05, der kleinste als ‚1’ kodierte Wert (oberhalb 0,1875) hingegen 0,225.
156
4 Positionen und Rollen
P1. Dafür werden sie, außer von den eigenen Mitgliedern, noch von Position P3 „gemocht“. Diese letzte Position dagegen ist eine klare Außenseiterposition. Sie wird von niemandem „gemocht“ und verteilt auch die eigenen Wahlen ausschließlich auf die anderen beiden Positionen. So haben wir es bei der Freundschaftsbeziehung mit einer Hierarchie (mit „Zentrum“, „Semi-Peripherie“ und „Peripherie“) zu tun. Diese Hierarchie geht aus dem zugehörigen reduzierten Graphen bei geeigneter Anordnung hervor (siehe Abbildung 4.14).
Abbildung 4.14: Reduzierter Graph der Freundschaftsbeziehung der 14. Woche Es fällt auf, dass Position P1 hauptsächlich aus den Akteuren besteht, die hohe closeness centrality aufwiesen, Position P2 aus denen besteht, die eher mittlere Werte erreichten, und in Position P3 mit Ausnahme von Akteur 14 die isolierten Außenseiter auftauchen. Wir können also mit nun schon größerer Gewissheit schlussfolgern, dass die Struktur der Gruppe in der 14. Woche aus einer Hierarchie mit einem beliebten Zentrum, mit einer mittleren Ebene und mit unbeliebten Außenseitern, die sich auch wechselseitig nicht „mögen“, besteht. Ein wenig wird diese Gruppenstruktur allerdings vom Untersuchungsdesign mitbestimmt. In jeder Zeile der Bildmatrix muss es genau eine oder zwei Einsen geben, denn jede Position muss an mindestens eine Position überdurchschnittliche viele und an mindestens eine unterdurchschnittlich viele Wahlen vergeben 96.
96 Die einzige Ausnahme hiervon träte ein, wenn in einer Zeile alle Blocks die identische Dichte aufweisen würden, die dann gleich der Dichte der gesamten Beziehung wäre. Dieser Fall ist ausgesprochen unwahrscheinlich und hier schon aufgrund der Größen der einzelnen Blocks unmöglich: In einem Block mit 20 möglichen Beziehungen (in unserem Beispiel dem Block, mit den Beziehungen zwischen P2 und P3) kann die Dichte nicht 0,1875 betragen, da 3/20 = 0,15 < 0,1875 < 0,20 = 4/20.
4 Positionen und Rollen
157
An dieser Stelle lohnt es sich, noch einmal auf die Visualisierung von Netzwerken zurückzukommen. Die Struktur des reduzierten Graphen sollte sich im Ursprungsgraphen ebenfalls zeigen, wenn man die Akteure geeignet anordnet, nämlich in hierarchischen Ebenen nach Positionen gegliedert. In Abbildung 4.15 lässt sich gut erkennen, wie isoliert Position 3 ist und wie sich deren Wahlen auf die anderen Positionen verteilen. Position 2 verteilt die Wahlen untereinander und zu Position 1. Von Position 1 geht nur ein Pfeil zu einer anderen Position (Akteur 9 an 14). Die Wahlen von Position 1 an sich selbst sind in dieser Form der Darstellung nicht abbildbar. Hinter den wenigen sichtbaren Pfeilen steckt eine Vielzahl weiterer Pfeile „in zweiter Reihe“.
Abbildung 4.15: DICH3_14 (=Kodierung A, Woche 14) mit graphischer Darstellung der Positionenhierarchie (erzeugt mit PAJEK). Es spricht im Nachhinein für die Entscheidung, drei Positionen zu wählen, dass sich die Vermutungen aus der Zentralitätsanalyse und der Teilgruppenanalyse mit den Resultaten eines Blockmodells mit drei Positionen decken.
158 4.6
4 Positionen und Rollen Rollenstruktur in der 14. Woche
Im Blockmodell aus Kapitel 4.5 hatten wir es mit einer Menge von Akteuren und einer gerichteten Beziehung zwischen ihnen zu tun. Es wurde ein Blockmodell für die Freundschaftsbeziehung der 14. Woche erstellt. Zwar kann man auch hier schon untersuchen, in welchem Verhältnis direkte und indirekte Beziehungen zueinander stehen. Ist auf einer Menge von Akteuren aber mehr als eine Beziehung definiert, so kann man sich erst recht fragen, wie (gleiche oder verschiedene) Beziehungen ineinander greifen. Man kann dann nicht nur Verkettungen einer Beziehung bilden, wie „der Freund eines Freundes“, sondern auch Verkettungen verschiedener Beziehungen, wie der „Feind eines Freundes“. Bei der Analyse der Rollenstruktur beschreibt und modelliert man nun die Verknüpfung mehrerer Beziehungen (S. Wasserman und K. Faust 1994: 425). Es geht darum, „ [...] Muster in der Beziehung zwischen Positionen [...] “ (S. Wasserman und K. Faust 1994: 425) aufzudecken. Man kann Verknüpfungen von Beziehungen etwa auf Gleichheit untersuchen. Im deutschen Sprachraum werden etwa die Rollen „Schwester von Mutter“, „Schwester von Vater“, „Ehefrau von Bruder von Vater“ und „Ehefrau von Bruder von Mutter“ alle mit dem Wort „Tante“ bezeichnet. Das ist ein Hinweis darauf, dass diese Personen kaum unterscheidbare Rollen in Bezug auf Ego übernehmen. In der Netzwerkanalyse führen derartige Fragestellungen zum Konzept der Komposition von Rollen. Gegeben seien eine Beziehung A und eine Beziehung B auf einer Menge von Akteuren (oder Positionen). Ein Akteur i steht in der Beziehung A*B zu einem Akteur j, wenn gilt: Es gibt einen Akteur k mit iAk (i steht in Beziehung A zu k) und kBj (k steht in Beziehung B zu j). Das Produkt der zu den beiden Beziehungen gehörenden Matrizen X A und X B (X A *X B ) gibt in i-ter Zeile und j-ter Spalte an, wie viele solche Personen k es gibt mit iAk und kBj. Wenn nun die Anzahl k der Personen mit iAk und kBj für das Vorhandensein der Beziehung A*B zwischen i und j nicht von Belang ist, sondern nur die Tatsache, ob es mindestens eine derartige Person gibt oder nicht, dann erhält man durch Boole’sche Matrizenmultiplikation der Matrizen A und B eine Matrix, die für jedes Paar von Akteuren i und j darüber Auskunft gibt, ob mindestens ein Akteur k mit iAk und kBj existiert 97. Die Boole’sche Matrizenmultiplikation zweier Matrizen A und B (A
B) entspricht einer gewöhnlichen Matrizenmultiplika-
97 Die Boole’sche gegenüber der gewöhnlichen Matrizenmultiplikation folgt den gleichen Intentionen, die wir bereits beim Übergang von der automorphen zur regulären Äquivalenz kennen gelernt haben.
4 Positionen und Rollen
159
tion, bei der alle Einträge, die größer als 0 sind, gleich 1 und alle übrigen Einträge gleich 0 gesetzt werden 98. Hat man also auf einer Menge von Akteuren zwei Beziehungen, beispielsweise „ist Bruder von“ mit der dazugehörigen Matrix A und „ist Vater von“ mit der dazugehörigen Matrix B, so gibt A
B die Beziehung „ist Bruder von Vater von“ wieder. Wie man an dem Beispiel erkennt, ist die Komposition von Beziehungen und entsprechend auch die Boole’sche Matrizenmultiplikation nicht kommutativ: Der Vater des Bruders („Vater“) ist nicht der Bruder des Vaters („Onkel“). Die Boole’sche Multiplikation von binären Matrizen hat aber andere wichtige Eigenschaften. Sie ist assoziativ, das heißt A
(B
C) = (A
B)
C, und das Ergebnis einer Boole’schen Multiplikation zweier binärer nun-Matrizen ist wieder eine binäre nun-Matrix. Die Menge der binären quadratischen nunMatrizen bildet somit im mathematischen Sinne bezüglich der Boole’schen Multiplikation eine Halbgruppe. Diese Halbgruppe ist endlich, da es nur endlich viele Kombinationen von Einsen und Nullen gibt, die man auf die n*n Felder einer Matrix verteilen kann. Da es aber beliebig viele Möglichkeiten gibt, Kompositionen aus Beziehungen zu bilden (man kann z.B. bilden A, A², A³ ... , An, ...), bedeutet dies, dass verschiedene Kompositionen von Beziehungen auf die gleiche Matrix führen müssen. Das ist nun gerade aus soziologischer Perspektive interessant. Unterschiedliche Kompositionen von Beziehungen führen zu der gleichen Beziehungsmatrix. Unterschiedliche Kompositionen von Beziehungen verbinden also genau die gleichen Positionen oder Akteure auf die gleiche Weise miteinander. Um eine nicht-triviale Rollenanalyse der Newcomb-Daten durchführen zu können, bedarf es neben der bislang verwandten Freundschaftsbeziehung einer zweiten Beziehung. Da Daten über die Rangfolge hinsichtlich der Beliebtheit vorhanden sind, kann neben der Freundschaftsbeziehung noch eine Beziehung der Abneigung konstruiert werden 99. Diese soll folgendermaßen definiert sein: Man erhält die Matrix für die gerichtete binäre Beziehung „Abneigung“, indem man die letzten drei Wahlen (Ränge 14 bis 16) eines jeden Akteurs als ‘1’ kodiert und die übrigen Wahlen als ‘0’ kodiert. Die zur Beziehung „Abneigung“ gehörige Matrix für Woche 14 befindet sich im Anhang als NEWRE_14 (=Kodierung D, Woche 14) und ist mit UCINET IV leicht zu erstellen. 98 Wie man sieht, kann z.B. auch A mit sich selbst auf diese Weise multipliziert werden. Wir bezeichnen A
A dann – wie bei der gewöhnlichen Multiplikation – mit A². 99 Eine ähnliche Rollenanalyse der Newcomb-Daten, die dieser als Vorbild diente, befindet sich in S.A. Boorman und H.C. White (1976).
160
4 Positionen und Rollen
Man wählt dazu zum Beispiel die Routine DATASETS>TRANSFORM>RECODE (Ucinet 6: Transform>Recode) (1 to 13 as 0; 14 to 16 as 1).
Abbildung 4.16: NEWRE_14 (=Kodierung D, Woche 14). Graphische Darstellung mit spring embedders Abbildung 4.16 zeigt den Graphen zu NEWRE_14 (=Kodierung D, Woche 14). Das Spring-Embedder-Modell macht deutlich, wie sehr gerade die Akteure 3, 10 und 16 im Zentrum der Abneigung stehen. Ein Großteil der übrigen Akteure befindet sich in untereinander kaum verbundenen Randpositionen. Für die im vorigen Kapitel ermittelten drei Positionen ergibt sich für die Abneigungsbeziehung folgende Dichtetabelle: P1 P2 P3
P1 0,000 0,031 0,125
P2 P3 0,031 0,000 0,100
0,575 0,550 0,400
In UCINET IV stehen diese Werte in der Matrix DENSITY als Ergebnis von NETWORKS>CONNECTIONS>DENSITY (Ucinet 6: Network>Cohesion>Density) mit
4 Positionen und Rollen
161
„NEWRE_14“ als Input, Diagonale=“NO“ und den beiden Gruppierungsmaßgaben „CCPART ROW 2“ - aus der CONCOR-Analyse von NEWFR_14 - für Zeilen und Spalten. Alternativ: NETWORKS>TRANSFORM>BLOCK IMAGE (Ucinet 6: Transform>Block) mit der Methode=“AVERAGE“.
Daraus resultiert die folgende Bildmatrix durch Anwendung des D-DichteKriteriums mit D = 0,1875 als Dichte des gesamten Netzes 100. P1 P2 P3
P1 0 0 0
P2 0 0 0
P3 1 1 1
Die Struktur dieser Beziehung ist sehr einfach zu charakterisieren. Es handelt sich um eine typische zentralisierte Beziehung. Alle Wahlen gehen bei einer Position ein. Da die Beziehung aber eine negative Konnotation hat, handelt es sich bei der Position im Zentrum um einen „Sündenbock“. Abbildung 4.17 zeigt den zugehörigen reduzierten Graphen der Abneigungsbeziehung.
Abbildung 4.17: Reduzierter Graph der Abneigungsbeziehung der 14. Woche
100
Wieder scheint dieser Schwellenwert auch inhaltlich gerechtfertigt zu sein. Der größte als 0 kodierte Wert ist dann nämlich 0,125, der kleinste als 1 kodierte Wert 0,4. Die Differenz zwischen diesen Werten ist relativ groß.
162
4 Positionen und Rollen
Abbildung 4.18: NEWRE_14 (=Kodierung D, Woche 14). Darstellung (erzeugt mit PAJEK) der Positionen (unten die „Sündenbockposition“). NEWRE_14 (=Kodierung D, Woche 14) ist in Abbildung 4.18 noch einmal unter Berücksichtigung der „Sündenbockstruktur“ mit den drei Positionen der Abneigungsbeziehung wiedergegeben. Hier wird deutlich, wie selten Ausnahmen von dieser Struktur sind. Kaum einmal kommt bei einem Akteur aus den dominanten Positionen eine Abneigungsbeziehung an. Damit sind nun zwei Beziehungen gegeben, und es kann die Halbgruppe gebildet werden, die aus den beiden Matrizen zu Freundschaft und Abneigung durch Boole’sche Matrizenmultiplikation erzeugt wird. Die Halbgruppe kann in einer Multiplikationstabelle dargestellt werden. „Boorman and White (1976) define the role structure of a network as the set of equations in the multiplication table.“ (S. Wasserman und K. Faust 1994: 438). Die Halbgruppe wird erzeugt von den Matrizen F (Freundschaft) und A (Abneigung): F:
1 1 1
0 1 1
0 0 0
0 A: 0 0
0 0 0
1 1 1
4 Positionen und Rollen
163
Im vorliegenden Fall wird durch Multiplikation von F mit A nur eine neue Matrix AF 101 erzeugt, alle sonstigen Multiplikationen führen zu keiner neuen Matrix: AF:
1 1 1
1 1 1
0 0 0
Die Multiplikationstabelle der Halbgruppe, die nur aus den drei Elementen F, A und AF besteht, sieht folgendermaßen aus:
F A AF
F F AF AF
A A A A
AF AF AF AF
Alle Kombinationen von A, F und AF führen also wieder auf eine dieser drei Matrizen. UCINET IV bietet die Möglichkeit, unter DATASETS>SPREADSHEET (Ucinet 6: Data>Spreadsheets>Matrix) eigene Dateien anzufertigen. Hier kann man die beiden Matrizen A und F erstellen. In MATRICES>ALGEBRA (Ucinet 6: Tools>Matrix Algebra) hat man dann die Möglichkeit, die Boole’schen Produkte dieser Matrizen mit den Befehlen AF = BPROD(A,F), FA = BPROD(F,A), AFF = BPROD(AF,F) usw. zu bilden. Vergleichen, ob eine neue Matrix dabei herauskommt oder ob das Ergebnis eine bereits vorhandene Matrix ist, muss man bei dieser Vorgehensweise selbst. Im Allgemeinen wird die Erstellung der Matrizen A und F einfacher erfolgen über die Rekodierung der Ergebnismatrizen „BLOCKED“ von NETWORKS>TRANSFORM> BLOCK IMAGE bzw. „DENSITY“ von NETWORKS>CONNECTIONS>DENSITY. Des Weiteren erzeugt die Routine DATASETS>MERGE (mit der Option „Datasets to join“ = MATRICES) aus den beiden Datensätzen F und A einen multirelationalen Graphen. Für diesen bzw. seine beiden Komponenten F und A ermittelt die Routine TRANSFORM>SEMIGROUP die gesuchte Multiplikationstabelle auf direktem Wege.
Aus diesen Ergebnissen lassen sich viele interessante Schlüsse über die Rollenstruktur der Gruppe ziehen. Der Einfachheit halber soll im Folgenden eine Wahl von i an j bei der Beziehung F mit „j ist Freund von i“ und eine Wahl von i an j bei der Beziehung A mit „j ist Feind von i“ bezeichnet werden. Es bestehen
101
Hier und im Folgenden wird das Boole’sche Matrizenprodukt A
B zu AB abgekürzt.
164
4 Positionen und Rollen
folgende Verknüpfungen zwischen den Beziehungen, wobei zusammengesetzte Beziehungen „von rechts nach links“ gelesen werden müssen: (i) (ii) (iii) (iv)
(v)
Die Freundschaftsbeziehung ist transitiv. Der Freund eines Freundes (FF) ist ein Freund (F). Alle Potenzen von F sind also wieder gleich F. Der Feind eines Freundes (FA) ist ein Feind (A). Die Abneigungsbeziehung ist ebenfalls transitiv. Der Feind eines Feindes (AA) ist ein Feind (A) 102. Der Freund eines Feindes (AF) ist kein Feind und somit ist der Freund eines Feindes auch nicht gleich dem Feind eines Freundes. Die Halbgruppe ist nicht kommutativ. Es lassen sich also Klassen von zusammengesetzten Beziehungen bilden, die jeweils zu derselben Matrix führen: R1 = R2 = R3 =
Menge aller Potenzen von F (sie führen zu der Matrix F) Menge aller Produkte, die auf A enden (nicht nur aller Potenzen von A) (sie führen zu der Matrix A) Menge aller Produkte, die auf F enden und nicht in R1 enthalten sind (sie führen zu der Matrix AF)
Nun kann man Aussagen darüber machen, an welche Positionen welche Arten von Beziehungen gerichtet sind: -
An P1 und P2 sind nur Beziehungen der Art R1 und R3 gerichtet, also nur Beziehungen, die beginnen mit „Freund eines ...“. An P3 sind nur Beziehungen der Art R2 gerichtet, also nur solche Beziehungen, die beginnen mit „Feind eines ...“.
Die Gesamtheit aller Beziehungen, die an eine Position gerichtet sind, können wir ihr Rollenbündel nennen 103. Wir können also schließen, dass das Rollen102 Dieses eigentlich recht ungewöhnliche Ergebnis lässt sich allerdings durch eine Eigenschaft der Matrix A erklären und wirkt dann recht trivial. Multipliziert man A von rechts an eine Matrix, deren Zeilensummen alle ungleich 0 sind, so ist das Ergebnis immer A, unabhängig von der Gestalt der anderen Matrix. Dies liegt daran, dass für alle Positionen die Position P3 und nur die Position P3 Feind ist. Die Kombinationen, die auf A enden, also die Kombinationen „Feind eines ...“ führen daher immer wieder auf eine Matrix, in der alle Positionen nur die Position P3 wählen. In diesem Lichte wird dann auch die Erkenntnis unter (ii) trivial. Alle Kombinationen von Beziehungen, die auf A enden, sind gleich A. 103 Es ist natürlich auch möglich, ein Rollenbündel auf der Basis der ausgehenden Beziehungen zu bilden. Da das Untersuchungsdesign aber vorschreibt, dass jede Position mindestens eine Position
4 Positionen und Rollen
165
bündel der Position P3 nur aus Beziehungen der Art „Feind eines ...“ besteht, während die Rollenbündel der beiden anderen Positionen gleich sind. Sie bestehen nur aus Beziehungen der Art „Freund eines ...“. 4.7
Kritischer Rückblick auf die Analyse von Positionen und Rollen für die 14. Woche
Die Analyse der Rollenstruktur hat auf eine vereinfachende Darstellung der Beziehungsmuster geführt. Angesichts der Fülle der Originaldaten für die 14. Woche (17 · 16 = 272 Beurteilungen) ist eine Reduktion der Informationsmenge durch Zusammenfassen von Informationen natürlich wünschenswert. Das Modell für die Rollenstruktur liefert eine solche übersichtliche Informationsverdichtung. Man sollte jedoch zumindest kritisch auf die vielen Vereinfachungen zurückblicken, die man vorgenommen hat. 1.) Die Akteure einer Position sind nur ähnlich, nicht äquivalent. Die Zusammenfassung zu genau drei Positionen war somit nicht zwingend, auch wenn es Gründe gegeben haben mag, eher drei Positionen zu nehmen als zwei oder vier. Grundsätzlich hätte jede Position noch einmal geteilt werden können. 2.) In einem weiteren Schritt wurden die Rangfolgedaten in die zwei dichotomen Beziehungen Freundschaft und Abneigung umgewandelt. Dabei wurden die jeweils drei extremen Wahlen zu Freundschafts- bzw. Abneigungsbeziehungen erklärt. Auch hier hätte man sich für andere Schwellenwerte entscheiden können, wie z.B. die ersten vier oder letzten zwei Wahlen. 3.) Es musste schließlich ein Kriterium gefunden werden, wonach zu entscheiden war, ob eine Beziehung von einer Position zu einer anderen Position existiert. Auch wenn die Trennung zwischen der An- und Abwesenheit einer Beziehung an der größtmöglichen „Lücke“ in den Daten, in der auch noch jeweils genau die Netzwerkdichte lag, durchgeführt wurde, ist die Trennung an dieser Stelle doch auch wieder eine Setzung, die nicht die einzig mögliche ist. Damit sei nicht gesagt, dass das gesamte Verfahren nicht sinnvoll ist. Die Zusammenfassung von Informationen verlangt immer auch Entscheidungen darüber, welcher Teil der Informationen als irrelevant betrachtet wird, und diese als Freund und mindestens eine als Feind wählen muss, ist das auf der Basis der ausgehenden Beziehungen ermittelte Rollenbündel für jede Position gleich.
166
4 Positionen und Rollen
sind grundsätzlich anfechtbar. Die Interpretation des Blockmodells steht jedoch im Einklang mit den Erkenntnissen, die aus vorherigen Analysen gewonnen wurden, und erhält dadurch zusätzliche Glaubwürdigkeit. Die Ergebnisse der Analyse der Rollenstruktur sollte man hingegen nur unter Vorbehalt akzeptieren. Die Freundschaftsbeziehung zwischen den Positionen stellt sich beispielsweise bei der gewählten Vorgehensweise als transitiv heraus. Auf der Ebene von Individuen ist dagegen die Neigung der Freundschaftsbeziehung zu Transitivität nur gering ausgeprägt: H.J. Hummell und W. Sodeur (1991) kodierten ebenfalls die ersten drei Wahlen eines jeden Akteurs als Freundschaftsbeziehung. Ihrer Arbeit kann man entnehmen, dass es in Woche 14 fast viermal so viele intransitive wie im strengen Sinne transitive Tripletts 104 gibt (H.J. Hummell und W. Sodeur 1991: 720, Tabelle 4.1). Auf der Ebene der einzelnen Akteure ist die Freundschaftsbeziehung also keinesfalls transitiv. 4.8
Exkurs: Positionen in triadischen Umgebungen unter inhaltlich begründeter Auswahl „bedeutsamer“ Struktureigenschaften
In diesem Kapitel ging es um die Identifizierung von Positionen als Klassen strukturell äquivalenter oder zumindest einander ähnlicher Akteure. Als Kriterium diente die Struktur des Beziehungsnetzes in der Umgebung der Akteure. Beschränkungen hinsichtlich der beachteten Eigenschaften dieser Struktur wie auch des Umfangs der Umgebung („Schrittweite“) waren nicht primär beabsichtigt, sondern ergaben sich eher „notgedrungen“ auf der Suche nach geeigneten Lösungsverfahren. Entsprechende Beschränkungen könnten andererseits im vorrangigen inhaltlichen Interesse einer zielgerichteten Untersuchung liegen: Warum, so ist zu fragen, sollte man bei der Suche nach Positionen (äquivalenter oder ähnlicher Akteure) zunächst alle möglichen Anordnungsformen der Bezie104
Jede Triade (Teilgraph aus drei Knoten und den Kanten zwischen ihnen) lässt sich in sechs Tripletts aufschlüsseln, wenn man sie aus der Perspektive jedes einzelnen Akteurs betrachtet. Zu der (ungeordneten) Triade ijk gibt es die sechs (geordneten) Tripletts (ijk), (ikj), (jik), (jki), (kij) und (kji). Ein Triplett ist im hier gebrauchten strengen Sinne nur dann transitiv, wenn in der Aussage „Wenn iRj und wenn jRk, dann iRk“ sowohl beide Teile der Wenn-Komponente als auch die DannKomponente zutreffen, also alle drei Verbindungen vorhanden sind. Es ist intransitiv, wenn zwar beide Teile der Wenn-, aber nicht die Dann-Komponente zutreffen, also trotz Vorhandensein der beiden ersten die dritte Verbindung fehlt. (Falls ein Triplett weder transitiv noch intransitiv in diesem strengen Sinne ist, weil eine oder beide Teile der Wenn-Komponente nicht zutreffen – also die erste und/oder zweite Verbindung fehlen – , so gilt es nach den Konventionen der Logik als „trivialerweise“ transitiv. Man bezeichnet ein solches Triplett oft auch als „transitiv im ’leeren’ Sinne“). Genauere Informationen zu Tripletts sind im nächsten Kapitel zu finden.
4 Positionen und Rollen
167
hungen „undifferenziert“ beachten und sich erst nachträglich, spätestens bei der Interpretation der gefundenen Positionen bzw. der Unterschiede zwischen Positionen, der Notwendigkeit einer inhaltlichen Kennzeichnung stellen? Solche Gesichtspunkte sind allerdings in der Literatur über Positions- und Rollenanalysen merkwürdig wenig beachtet worden. Am Beispiel der Positionstypen innerhalb triadischer Umgebungen wollen wir einige Möglichkeiten zur inhaltlichen Gestaltung von Äquivalenz- bzw. Ähnlichkeitskonzepten erläutern. Abschnitt 4.8.1 gibt eine über die vorangegangenen Bemerkungen hinaus gehende ausführlichere Beschreibung triadischer (2Schritt-) Umgebungen. In Abschnitt 4.8.2 folgen dann einige Beispiele für inhaltlich spezifische Selektionen bestimmter Struktureigenschaften. Damit sollen vor allem Anregungen für eine stärker zielorientierte Suche nach Positionen von äquivalenten bzw. ähnlichen Akteuren gegeben werden.
4.8.1
Positionen in triadischen Umgebungen
Bei der Analyse von Positionen sucht man Personen, die ein ähnliches Muster von Beziehungen aufweisen. Diese Suche muss sich nicht unbedingt auf beliebig weite Umgebungen „im gesamten Beziehungsnetz“ erstrecken, sondern verlangt Vorentscheidungen darüber, welche Umgebungen im konkreten Untersuchungsfall als bedeutsam erscheinen. Anstelle der Anordnung von Verbindungen im gesamten Netz werden im Folgenden jeweils nur Triaden, d.h. Teilnetze zu je 3 Personen und die Verbindungen zwischen ihnen ausgewählt. Zur Beschreibung von Positionen wird die Triade aus der Sicht eines Akteurs betrachtet, sie besteht also neben dem Akteur aus einer Umgebung von jeweils zwei anderen Personen. In einer Population von insgesamt g Personen gibt es für jeden Akteur (g-1)·(g-2)/2 unterschiedlich zusammengesetzte Umgebungen aus jeweils 2 Personen, die in ihrer Gesamtheit die „triadischen Umgebungen“ dieses Akteurs bilden. (Das Folgende nach H.J. Hummell und W. Sodeur 1987). Jede einzelne der (g-1)·(g-2)/2 triadischen Umgebungen hat eine bestimmte Anordnung von Beziehungen, welche die Struktur dieser Umgebung kennzeichnet. Die Zahl der möglichen unterschiedlichen Anordnungen ist aber begrenzt. Abbildung 4.19 auf der folgenden Seite zeigt (in der Reihenfolge, Bezeichnung und Nummerierung nach R.S. Burt 1990) alle 36 möglichen Anordnungen.
168
4 Positionen und Rollen
Egos Beziehung mit anderen Personen (Alteri A1, A2)
Beziehung zwischen den beiden anderen Personen A1 und A2 keine Verbin- zweiseitige Ver- asymmetrische Verbindung zwi- zwischen A1 und A2 dung zwischen bindung schen A1 und A2 A1 und A2
keine ausgehende zu A1 (oder A2) ausgehende A1 und A2
zu
eingehende von A1 (oder A2) eingehende A1 und A2
von
zweiseitige mit A1 (oder A2) zweiseitige A1 und A2
mit
Kette A
Kette B
Kette C
Abbildung 4.19: 36 triadische Positionstypen, d.h. strukturell unterscheidbare Anordnungen von Verbindungen in triadischen Umgebungen eines Akteurs (Reihenfolge, Bezeichnung und Nummerierung nach R.S. Burt 1990; urspr. H.J. Hummell u. W. Sodeur 1987)
4 Positionen und Rollen
169
Die (triadischen) Positionstypen beziehen sich dabei auf den linken äußeren Punkt der Triaden („Ego“) unmittelbar neben der Nummerierung. Zeilen und Spalten der Abbildung gliedern die einzelnen Umgebungen nach der Art der Beziehungen zwischen den beiden Personen („Alteri“) in der triadischen Umgebung (Spalten) bzw. zwischen dem zu beschreibenden Akteur und den beiden andern (Zeilen). Diese Abbildung wird Ausgangspunkt für die Überlegungen zur inhaltlichen Auswahl jeweils bestimmter Struktureigenschaften im folgenden Abschnitt sein. Ohne eine solche Auswahl werden alle denkbaren Eigenschaften aller Positionstypen der triadischen Umgebung gleichermaßen und undifferenziert beachtet. Wie in den Abschnitten 4.2.2 und 4.2.3 dient also die als Positionenzensus 105 bezeichnete Häufigkeitsverteilung sämtlicher (g-1)·(g2)/2 triadischen Umgebungen eines Akteurs auf die 36 triadischen Positionstypen als Kennzeichnung seiner – auf 2-Schritt-Umgebungen beschränkten – Stellung im Netz.
4.8.2
Beispiele inhaltlich begründeter Äquivalenzregeln für Positionstypen
In diesem Abschnitt wollen wir einige Möglichkeiten für inhaltlich begründete Äquivalenzregeln zur Zusammenfassung von triadischen Positionstypen beschreiben und damit auf potentielle Anwendungsbereiche für den Positionenzensus hinweisen. Inhaltliche Entscheidungen über die Auswahl eines angemessenen Strukturkonzepts müssen dabei nicht notwendig auf nur ein Konzept aus einer Reihe alternativer Konzepte fallen. Denkbar ist auch, dass die Beschreibung der Stellung einer Person im Beziehungsnetz auf der Grundlage ein und desselben Positionenzensus mehrfach unter verschiedenen strukturellen Gesichtspunkten erfolgt, mit denen (simultan) unterschiedliche Facetten seiner „Gesamtposition“ gekennzeichnet werden. Die auf diese Weise mehrfache Nutzung des Positionenzensus könnte man auch als seine „Faktorisierung“ unter inhaltlichen Vorgaben bezeichnen.
105 R.S. Burt (1990) spricht von Rollenzensus (role census), was angemessener wäre; wir behalten dennoch die urprüngliche Bezeichnung (H.J. Hummell und W. Sodeur 1987) bei.
170
4 Positionen und Rollen
1. Beispiel: Asymmetrie und Hierarchie Abbildung 4.20 enthält einen Vorschlag, um die 36 triadischen Positionstypen unter dem Gesichtspunkt der Asymmetrie und Hierarchie zu den folgenden 4 Äquivalenzklassen zusammenfassen. ------------------------------------------------------------------K11: 3 13 23 "Unterordnung": nicht erwiderte 2 12 22 31 Freundschaftswahlen 9 19 29 35 K12:
8 18 28 34
"zwischen zwei anderen"
K13:
1 11 21 6 16 26 33 7 17 27
"neutral"
K14:
4 14 24 32 "Überordnung": einseitig erhaltene 10 20 30 36 Freundschaftswahlen 5 15 25 -------------------------------------------------------------------
Abbildung 4.20: Klassierung der 36 triadischen Positionstypen unter dem Gesichtspunkt von Asymmetrie und Hierarchie (Nummerierung der Positionstypen nach R.S. Burt 1990; s. Abb. 4.19) Anmerkungen: K11 enthält alle triadischen Positionstypen, in denen asymmetrische Beziehungen vom Akteur wegzeigen. Einseitig ausgehende Beziehungen (hier der Freundschaft) werden in diesem Fall also als „Unterordnungen“ interpretiert. Bei anderen Beziehungsarten (z.B. der Anweisungsbefugnis) mag man die formal gleiche, einseitig ausgehende Beziehung als ein Anzeichen für „Überordnung“ ansehen. K12 enthält die Positionstypen, die sowohl Unterordnungen als auch Überordnungen enthalten. Diese Positionstypen sind ein allgemeiner Ausdruck von asymmetrischem Wahlverhalten, ohne dass damit ein Hinweis auf eine Unter- oder Überordnung verbunden wäre. K13 enthält die Positionstypen, die bezüglich einer Hierarchie neutral sind. K14 enthält schließlich alle Positionstypen, in denen asymmetrische Beziehungen zum Akteur hinzeigen; entsprechend der Interpretation von
4 Positionen und Rollen
171
einseitigen Freundschaftswahlen bei K11 werden die nicht erwidert eingehenden Wahlen hier als „Überordnungen“ gedeutet. Der in Abbildung 4.20 wiedergegebene Klassierungsvorschlag (die anschauliche Bedeutung des jeweils ausgewählten Strukturaspektes ergibt sich aus Abbildung 4.19 (s.o.)) deutet asymmetrische Beziehungen als „Über- bzw. Unterordnungen“. Die interne Gliederung der 4 Klassen nach Zeilen spiegelt Ähnlichkeiten der jeweils durch die Positionstypen beschriebenen Umgebungen. Beispielhaft sei dies hier nur anhand der „kleinsten“ Klasse K12 („zwischen zwei anderen“) in Abbildung 4.21 demonstriert.
Abbildung 4.21: Asymmetrie und Hierarchie: K12 „zwischen zwei anderen“ Mit Hilfe der Klassierung K11 bis K14 kann einmal das Ausmaß einer hierarchischen Anordnung der direkten und indirekten Verbindungen in der triadischen Umgebung des Positionsinhabers beschrieben werden. Dieser Strukturaspekt wird durch die Summe der Häufigkeiten in K11 („Unterordnungen“) und K14 („Überordnungen“) gegenüber den Mittelkategorien (K12 und K13) angezeigt. Darüber hinaus sind u.U. auch die Positionen einer der Mittelklassen, nämlich K12 („zwischen zwei anderen“), als Anzeichen für eine hierarchische Anordnung der Verbindungen zu deuten. Zum anderen beschreibt diese Klassierung die Stellung des Positionsinhabers in der Hierarchie; dieser Aspekt kommt in der Verteilung der Häufigkeiten auf die Randklassen K11 und K14 zum Ausdruck und kann z.B. durch deren Differenz gekennzeichnet werden. Erscheint eine gegenseitige „Aufrechnung“ von Über- und Unterordnungen als inhaltlich nicht angemessen, wird eine weitere Unterscheidung durch gesonderte Beschreibung dieser beiden Aspekte der Stellung in der Hierarchie erforderlich. 2. Beispiel: Vermittlung von Verbindungen Als ein zweites Beispiel möchten wir den Strukturaspekt der Vermittlung von Verbindungen und daraus resultierend die Herstellung indirekter Verbindungen zwischen Personen zur Bildung von Äquivalenzklassen von triadischen Positi-
172
4 Positionen und Rollen
onstypen nutzen. Struktureigenschaften dieser Art sind unter anderem bei Informationsflüssen oder beim Ressourcen-Zugang in Beziehungsnetzen bedeutsam, im Zusammenhang mit Freundschaftsbeziehungen (wie im hier analysierten Beziehungsnetz der Newcomb Fraternity) erscheinen sie eher nebensächlich. Wir werden dieses zweite Beispiel deshalb auch nicht bis zur empirischen Analyse weiterführen. Die Klassierung in Abbildung 4.22 unterscheidet triadische Positionstypen nur nach dem Gesichtspunkt, inwiefern die Positionsinhaber Verbindungen zwischen anderen vermitteln. Der Aspekt, inwiefern sie selbst wiederum von der Vermittlung anderer abhängig sind, wird hier ausgeklammert. Dieser Gesichtspunkt könnte seinerseits als Strukturaspekt für die Bildung von Klassen verwendet werden. Dies wird aber nicht mehr vorgeführt. Eine Vermischung beider Aspekte ist nicht ratsam, da die beiden Strukturaspekte getrennt voneinander variieren können, wenn sie auch im statistischen Sinne nicht völlig unabhängig voneinander sind. ------------------------------------------------------------------K21: 1 11 21 2 12 22 31 3 13 23 4 14 24 32 keine Vermittlung 5 15 25 6 16 26 33 K22: 18 28 19 29 „redundante“ Vermittlung in 1 Richtung 20 36 K23: 8 34 9 35 exklusive Vermittlung (Makler) in 1 Richtung 10 30 K24: 17 Vermittl. in 2 Richtungen, beide redundant K25: 27 Vermittl. in 2 Richtungen, 1 Richtung redundant K26: 7 exklusive Vermittl. (Makler) in 2 Richtungen Anmerkung: Die Bedeutung der gewählten Zuordnung der 36 triadischen Positionstypen zu den 6 Klassen ist wieder dur ch Vergleiche mit Abbildung 4.19 nachzuvoll ziehen. Um das Auffinden in Abb. 4.19 zu erleichtern, sind die Nummern der Positionstypen innerhalb jeder Klasse entsprechend ihrer zeilenweisen Anordnung in Abb. 4.19 gruppiert.
Abbildung 4.22: Klassierung der 36 triadischen Positionstypen unter dem Gesichtspunkt der Vermittlung von Verbindungen (Nummerierung der Positionstypen nach R.S. Burt 1990)
4 Positionen und Rollen
173
Wir wollen bei der Klasseneinteilung erstens unterscheiden, ob der Akteur in dem jeweiligen triadischen Positionstyp gar nicht vermittelt, in eine Richtung vermittelt oder in beide Richtungen vermittelt, und zweitens, ob diese vermittelnde Verbindung die einzige ist – in diesem Fall würde man den Vermittler in Übereinstimmung mit dem alltagssprachlichen Gebrauch dieses Wortes als „Makler“ bezeichnen – oder ob die vermittelnde Verbindung zu einer direkten Verbindung der Alteri in Konkurrenz bzw. komplementär zu ihr steht, so dass die beiden Alteri gar nicht auf Vermittlung angewiesen sind. In Klasse K21 befinden sich Positionstypen, die keine Kontakte zwischen anderen vermitteln 106. Klasse K22 besteht aus den Positionstypen, die in einer Richtung (unilateral) zwischen in dieser Richtung auch direkt verbundenen Alteri vermitteln, und Klasse K23 aus den Positionstypen, die in einer Richtung zwischen in dieser Richtung nicht direkt verbundenen Alteri vermitteln. Klasse K24 besteht aus einem Positionstyp (Nr. 17 in Abbildung 4.19), der in beide Richtungen zwischen Akteuren vermittelt, die auch direkt in beiden Richtungen miteinander verbunden sind; K25 aus einem Positionstyp (Nr. 27 in Abbildung 4.19), der in beide Richtungen zwischen Akteuren vermittelt, die nur in einer Richtung direkt miteinander verbunden sind, und schließlich K26 aus einem Positionstyp (Nr. 7 in Abbildung 4.19), der in beide Richtungen zwischen Akteuren vermittelt, die in keiner Richtung direkt miteinander verbunden sind. Diese 6 Klassen lassen sich nicht in eine eindeutige Reihenfolge bezüglich der Stärke der Maklereigenschaft bringen, da zwei Dimensionen miteinander verwoben sind. In Positionstypen aus K23 vermittelt man nur in einer Richtung, im Positionstyp aus K24 in beiden. Dafür kann bei K24 die vermittelnde Position durch die direkte Verbindung zwischen den Alteri umgangen werden, bei K23 jedoch nicht. Ordnungen lassen sich also lediglich zwischen den Klassen herstellen, die sich jeweils nur in einer Dimension unterscheiden: Innerhalb der konkurrenzlosen Makler (bzw. der Vermittler mit Konkurrenz durch eine direkte Beziehung) kann man nach der Zahl der Vermittlungsrichtungen ordnen: K26 (zwei exklusive) > K23 (eine exklusive) > K21 (keine) bzw. K24 (zwei redundante) > K22 (eine redundante) > K21 (keine) und vielleicht auch K25 (eine exklusive + eine redundante) > K23 (eine exklusive) > K22 (eine redundante) > K21 (keine). Innerhalb derer mit gleicher Anzahl von Vermittlungsrichtungen
106
Diese Klasse noch einmal danach zu unterteilen, ob es eine direkte Beziehung zwischen den Alteri gibt, ist unter dem Gesichtspunkt der Vermittlung von Beziehungen bedeutungslos, da in jedem Fall keine Vermittlung durch Ego möglich ist. Dies wäre erst unter dem anderen angesprochenen Gesichtspunkt, der Abhängigkeit von der Vermittlung durch andere, bedeutsam.
174
4 Positionen und Rollen
kann man dagegen danach sortieren, in wie vielen Richtungen Konkurrenz besteht: K26 (keine) > K25 (eine) > K24 (zwei) und K23 (keine) > K22 (eine) 107. Anzumerken ist, dass die hier vorgeschlagene Bildung von Äquivalenzklassen von triadischen Positionstypen vorwiegend der Illustration der Anwendungsmöglichkeiten dient. In einem konkreten Anwendungsfall wird man Zahl und Zusammensetzung der Äquivalenzklassen sorgfältig begründen müssen. Es wird häufig sehr problematisch sein, ähnlich heterogene Positionstypen in einer Klasse zusammenzufassen, wie wir es in den Beispielen getan haben. Ferner muss – ebenfalls anders als in den oben genannten Beispielen – bedacht werden, ob eine vollständige Klasseneinteilung aller 36 unterscheidbaren Positionstypen angemessen ist. Das Ziel der Hervorhebung spezifischer Strukturmerkmale mag es nahelegen, einzelne Positionstypen ganz von der Analyse auszuschließen. Auf entsprechende Beispiele wurde in dieser Einführung verzichtet, weil mit dem Ausschluss einzelner Positionstypen bereits beim Vergleich innerhalb derselben Population Artefakte in die Analyse eingehen können: Die Summe der Häufigkeiten aller ausgewählten Positionstypen schwankt dann u.U. zwischen Personen aufgrund anderer Strukturaspekte als der jeweils ausgewählten und erfordert eine Normierung. Auch können in solchen Fällen Unterschiede zwischen den Auftretens-Häufigkeiten der ausgewählten Positionstypen zweier Personen nicht einfach als „Distanzen“ interpretiert und entsprechend in Klassifikationsverfahren genutzt werden (vgl. dazu Ausführungen über „Metriken“, u.a. in W. Sodeur 1974, Kapitel 3). Wir kommen auf diesen Punkt beim folgenden empirischen Beispiel zurück.
107
Man kann sich unter dem Gesichtspunkt der Vermittlung von Verbindungen auch andere sinnvolle Klasseneinteilungen denken, von denen wir zwei präsentieren möchten: 1.) Man kann die vier Arten indirekter Verbundenheit (siehe Kapitel 3) zugrundelegen und neben unilateraler und rekursiver Verbundenheit auch schwache Verbundenheit über Semipfade berücksichtigen (rekursive Verbundenheit und starke Verbundenheit sind erst in Quadrupeln unterscheidbar, da es für starke Verbundenheit, die keine rekursive Verbundenheit ist, eines zu dem über Ego alternativen Pfades zwischen den Alteri bedarf). Dieses Vorgehen würde zu einer Zerlegung einzelner der hier gebildeten Klassen führen: Beispielsweise würden die Positionstypen 3, 13, 23 und 5, 15, 25 dann (schwachen) Vermittlerstatus erhalten. 2.) Denkbar wäre auch, die Klassen K22 und K24 mit K21 zusammenzuführen, da es sich bei allen drei Klassen nicht um Makler handelt. Zusätzlich könnte man auch K25 und K23 zusammenfassen, da beide in genau einer Richtung als Makler fungieren. Noch radikaler wäre die Aufteilung in zwei Klassen: Makler (K26, K25, K23) vs. Nicht-Makler (K24, K22, K21). Diese Klasseneinteilung ist gröber als die von uns vorgeschlagene und kann daher aus ihr erzeugt werden.
4 Positionen und Rollen 4.8.3
175
Positionenzensus für die Newcomb Fraternity für Woche 14
Abschließend wird das erste der beiden genannten Beispiele für eine inhaltliche Auswahl bedeutsamer Positionstypen (Asymmetrie und Hierarchie) auf die Daten der Newcomb Fraternity in der Woche 14 angewandt. Dabei nutzen wir DICH3_14 (=Kodierung A, Woche 14). Wir interpretieren damit, dass die ersten drei Wahlen jedes Akteurs Freundschaftlichkeit ausdrücken. Wie in Abschnitt 4.2.2 erwähnt, enthält UCINET IV keine Routine zur Ermittlung des Positionenzensus. Dieser lässt sich mit dem Programm NETZDIAL erzeugen. Hat man den Positionenzensus für die entsprechende Kodierung berechnet, so kann man ihn in UCINET IV importieren. Hierzu gibt es die Routine DATASETS>IMPORT> ... (Ucinet 6: Data>Import). Aus dem Positionenzensus kann man nun mit Hilfe der Routine MATRICES>TRANSFORM>COLLAPSE (Ucinet 6: Transform>Collapse) einen „Positionsklassenzensus“ errechnen. Dazu benutzt man als AGGREGATION OPERATION: SUM, DIAGONALS VALID: YES und als ASCII FILE (Ucinet 6: „instructions for collapsing“) gibt man an: COLUMNS 2 3 9 12 13 19 22 23 29 31 35 COLUMNS 8 18 28 34 COLUMNS 1 6 7 11 16 17 21 26 27 33 COLUMNS 4 5 10 14 15 20 24 25 30 32 36.
Im linken Teil der Tabelle 4.3 (siehe folgende Seite) sind die zusammengefassten Häufigkeiten des Positionenzensus zu finden: Statt auf die ursprünglich 36 triadischen Positionstypen verteilen sich die jeweils 16·15/2=120 triadischen Umgebungen jedes Akteurs (Zeile) nun auf nur 4 Häufigkeiten (K11, K12, K13, K14). Anschließend werden diese 4 Häufigkeiten zur Demonstration nochmals unter verschiedenen Gesichtspunkten potentiellen Interesses zusammengefasst: (a)
In der 6. und 7. Spalte der Tabelle werden unter dem Gesichtspunkt der Stellung in der hierarchischen Ordnung die „Unterordnungen“ (K11) gegen die „Überordnungen“ (K14) aufgerechnet. Hier geht es vor allem darum, wo ein Akteur innerhalb der mehr oder weniger strengen Hierarchie eingeordnet ist.
(b)
In den beiden letzten Spalten richtet sich das Interesse dagegen auf den Umfang hierarchischer Ordnung (gegenüber Gleichordnung) in den Umgebungen der Akteure unabhängig davon, wo die Akteure jeweils in der Hierarchie angesiedelt sind.
176
4 Positionen und Rollen
Tabelle 4.3: Häufigkeiten der Klassen K11 bis K14 für die 17 Akteure nach DICH3_14 (=Kodierung A, Woche 14)) (Erläuterungen zu den Spalten s. Text) ID
K11 K12 K13 K14
K14-K11 normiert rel Rang -1 bis +1 (K11,K12,K14) -----------------------------------------------------------1 0 0 105 15 15 1.0000 0.1250 1 2 36 6 55 23 -13 -0.2203 0.5417 5 3 42 0 78 0 -42 -1.0000 0.3500 3 4 12 3 66 39 27 0.5294 0.4500 4 5 29 0 91 0 -29 -1.0000 0.2417 2 6 13 2 78 27 14 0.3500 0.3500 3 7 14 1 91 14 0 0.0000 0.2417 2 8 14 1 91 14 0 0.0000 0.2417 2 9 0 0 55 65 65 1.0000 0.5417 5 10 42 0 78 0 -42 -1.0000 0.3500 3 11 42 0 78 0 -42 -1.0000 0.3500 3 12 21 8 45 46 25 0.3731 0.6250 6 13 0 0 91 29 29 1.0000 0.2417 2 14 15 0 105 0 -15 -1.0000 0.1250 1 15 39 3 66 12 -27 -0.5294 0.4500 4 16 42 0 78 0 -42 -1.0000 0.3500 3 17 0 0 55 65 65 1.0000 0.5417 5
Beide Eigenschaften variieren durchaus unabhängig voneinander, wie man anhand eines Vergleichs der Werte in Tabelle 4.3 leicht feststellen kann. Vor einer genaueren Einschätzung dieser Werte müssen wir nochmals auf die am Ende des vorangehenden Abschnitts angesprochenen Normierungsprobleme zurückkommen. Sie treten immer dann auf, wenn sich Aussagen über die Positionstypen verschiedener Akteure inhaltlich nicht auf die gleiche Menge von triadischen Umgebungen – z.B. für jeden unserer 17 Studenten der Newcomb Fraternity nicht auf jeweils alle 120 triadischen Umgebungen – beziehen. Zur Beschreibung der hierarchischen Stellung (a) sind in unserem Beispiel nur die Häufigkeiten der in K11 und K14 zusammengefassten Positionstypen informativ. Die einfache Differenz aus Überordnungen (K14) und Unterordnungen (K11) ist allerdings auch von der Zahl der „neutralen“ Positionstypen (K12, K13) beeinflusst. Andererseits ist auch die in der Tabelle 4.3 gewählte Normierung (K14-K11)/(K14+K11) nicht unproblematisch. Dabei würde zum Beispiel ein weitgehend isolierter Akteur, der in seinen triadischen Umgebungen nur einmal in einem Positionstyp der Überordnung und keinmal in einem Positionstyp der Unterordnung auftritt, der Gruppe mit insgesamt höchstmöglicher hierarchischer Stellung zugeordnet!
4 Positionen und Rollen
177
Unter dem Gesichtspunkt der Überordnung sind nach den in Tabelle 4.3 und Abbildung 4.23 (hier: Größe der Knoten) zusammengefassten Informationen vor allem die Akteure 1, 9, 13 und 17 auf der einen und 3, 5, 10, 11, 14 und 16 auf der anderen Seite interessant. Erstere tauchen, wann immer sie in hierarchischen Umgebungen stehen, nur in übergeordneten Positionen auf, während letztere dann nur in untergeordneten Positionen stehen. Das deckt sich mit den bisherigen Charakterisierungen der Akteure. Unter dem zweiten Gesichtspunkt, dem Umfang hierarchischer Ordnung in der Umgebung der Akteure (b) (in Abbildung 4.23: Schichtung auf der YAchse), tritt besonders Akteur 12 mit seinen vielen Unter- und Überordnungen hervor, daneben aber auch die „Stars“ 9 und 17 mit den vielen – aufgrund des Designs nicht vollständig erwiderbaren – Wahlen, sowie Akteur 2. Dagegen stehen die Akteure 1 und 14 besonders selten in hierarchischen Umgebungen.
Größe der Punkte: Stellung in Hierarchie (K14-K11)/(K14+K11) Schichtung (Y-Achse) nach Rangordnung: Grad der Hierarchie in der Umgebung des Akteurs (unten: hohes Maß von Hierarchie)
Abbildung 4.23: Graphische Darstellung unter Berücksichtigung der Hierarchie (erzeugt mit PAJEK) Für die Häufigkeitsklassen K11 bis K14 kann man selbstverständlich nun so verfahren, wie wir es im Abschnitt zu den Ähnlichkeitsverfahren (4.2) mehrfach
178
4 Positionen und Rollen
vorgeführt haben. Man kann aufgrund der Eigenschafts-Vektoren jedes Akteurs (=Häufigkeiten der vier Klassen) paarweise Distanzen bilden und auf deren Basis Klassen von Akteuren bilden, die sich hinsichtlich ihrer Stellung im Netz unter den beiden von uns betrachteten Gesichtspunkten (Stellung in der Hierarchie bzw. Grad der Hierarchisierung in der Umgebung) ähnlich sind. Berechnung der paarweisen Distanzen Zunächst ermitteln wir aus dem klassierten Positionenzensus (K11 bis K14) Distanzen für alle Paare von Akteuren. Dazu könnte man euklidische Distanzen berechnen, also
d (Xi, X j )
( xi11 x j11 ) 2 ( xi12 x j12 ) 2 ( xi13 x j13 ) 2 ( xi14 x j14 ) 2 .
Diese haben jedoch, da die Häufigkeitsdifferenzen zwischen den Personen bezüglich der Positionstypen quadriert werden, die Eigenschaft, Unterschiede gegenüber solchen Positionstypen besonders hervorzuheben, die häufig vorkommen (aber inhaltlich nicht entsprechend bedeutsam sind). Da die hier definierten 4 Klassen von Positionstypen mit sehr unterschiedlicher Häufigkeit vorkommen, sollten zur Berechnung der Distanz anstelle der quadrierten besser die absoluten Differenzen herangezogen werden („city block“ oder „Manhattan“-Distanz): d(X i , X j ) = µx i11 -x j11 µ + µx i12 -x j12 µ + µx i13 -x j13 µ + µx i14 x j14 µ. Beide Distanzen kann man leicht mit UCINET IV berechnen. Die zugehörige Routine ist MATRICES>MULTIVARIATE>DISSIMILARITIES (Ucinet 6: Tools>Dissimilarities & Distances>Std vector dissimilarities / distances). Als MEASURE gibt man MANHATTAN (für Summen absoluter Differenzen) bzw. EUCLIDEAN an und wählt DISTANCES AMONG ROWS; DIAGONAL VALID: YES. (Ist zwar im vorliegenden Fall einer nicht-quadratischen Matrix irrelevant, kann aber beibehalten werden.) Wir nennen den Ausgabedatensatz MANDISPZ.
Für die folgenden Berechnungen spielt es in diesem Beispiel fast keine Rolle, mit welchem Maß man die Distanzen berechnet hat. Beispielhaft wählen wir die Manhattan-Distanz. Klassifikation Als abschließende Aufgabe bleibt noch, aus den paarweisen Distanzen eine Zuordnung der Akteure zu Positionen zu berechnen. Wir verwenden wie bisher die Methode der hierarchischen Klassifikation (average linkage).
4 Positionen und Rollen
179
In UCINET IV wählt man dazu die Routine MATRICES>MULTIVARIATE>CLUSTERING>HIERARCHICAL (Ucinet 6: Tools>Cluster>Hierarchical). Hier dient als INPUT DATASET die Distanzmatrix aus dem letzten Schritt (MANDISPZ). Nun müssen wir UCINET IV noch mitteilen, dass es sich um DISSIMILARITIES handelt und wir ein AVERAGE LINKAGE wünschen.
Abbildung 4.24: Dendrogramm (Ucinet 6-Output) der Ähnlichkeiten der Akteure gemäß ihrer Stellung in der Hierarchie bzw. dem Grad der Hierarchisierung ihrer Umgebungen (Klassierter Positionenzensus von DICH3_14 ) Abbildung 4.24 zeigt das Ergebnis dieses Verfahrens: Wir wollen hier nicht mehr im Detail auf die Resultate eingehen. Die Paare (9, 17) und (7, 8) und das Quartett (3, 10, 11, 16) entstehen jeweils bei Distanz 0, da die hier fusionierten Akteure identische Häufigkeiten bei allen vier Klassen aufweisen. Akteure 9 und 17 bilden das obere Ende der Hierarchie, Akteure 3, 10, 11 und 16 das untere (leider können wir in Ucinet 6 keinen Einfluss auf die Reihenfolge der Knoten innerhalb der Dendrogramme nehmen, so dass diese Hierarchie in Abbildung 4.24 nicht sichtbar wird). Auffällig ist zudem Akteur 12, dessen Sonderstellung erneut durch die sehr späte Fusionierung mit einer Klasse unterstrichen wird: Sein asymmetrisches Wahlverhalten verursacht, dass acht seiner triadischen Umgebungen unter Positionstypen der Klasse K12 fallen: Er wird von vier Akteuren (3, 11, 15, 16) gewählt, die er selbst nicht wählt, und er wählt zwei Akteure (2, 9), die wiederum ihn nicht wählen.
180
4 Positionen und Rollen
Eine Positionsanalyse der Newcomb-Daten entlang des zweiten Beispiels inhaltlich begründeter Äquivalenzregeln für Positionstypen (Vermittlung von Verbindungen) werden wir hier nicht mehr vorlegen.
5
Stochastische Modelle für Dyaden und Triaden
Ein für die empirische Sozialforschung wesentliches Charakteristikum wurde in den bisherigen Kapiteln noch kaum berücksichtigt: Das Testen von zuvor aufgestellten Hypothesen anhand der vorliegenden Daten. In Kapitel 3 konnten wir bei der Untersuchung der Frage, ob Beziehungen in Cliquen stabiler sind als Beziehungen außerhalb von Cliquen, auf ein sehr einfaches Modell zurückgreifen, das dieses Problem für den Zusammenhang zweier dichotomer Variablen löste: (1) Beziehung eingebunden in Clique (ja/nein); (2) Beziehung aufrechterhalten (ja/nein). Für die untersuchten Fälle von Paarbeziehungen wurde dabei (Oij Eij ) 2 Eij unterstellt, dass sie voneinander unabhängig sind. Die Statistik ¦¦ i j ist in diesem Falle F²-verteilt mit einem Freiheitsgrad und ein gewöhnlicher F²Test gibt uns Auskunft darüber, ob wir signifikante Abweichungen von der Nullhypothese verzeichnen, dass die beiden Variablen voneinander unabhängig sind. Wir haben also die empirisch beobachteten Häufigkeiten bestimmter Beziehungskonstellationen mit denen verglichen, die erwartet würden, wenn die Akteure zufällig handeln würden, die Netzwerkstruktur also für ihr Handeln keine Bedeutung hätte. Wir konnten zur Formalisierung dessen, was wir bei Vorliegen eines Zufallsprozesses erwarten würden, auf ein gewöhnliches statistisches Modell – die Indifferenztabelle – zurückgreifen. In diesem Kapitel werden wir uns ausführlicher damit beschäftigen, ob bestimmte Konstellationen von Beziehungen (z.B. symmetrische Beziehungen oder Beziehungen, in denen der Freund eines Freundes auch ein Freund ist) signifikant häufiger oder seltener vorkommen, als wir sie in einem „Zufallsnetz“ erwarten würden. Im Gegensatz zu den Analysen in Kapitel 3 werden wir jedoch spezielle stochastische Modelle für Beziehungsnetze benötigen, um Eigenschaften eines Zufallsnetzes, dem Gegenstück zur Indifferenztabelle, berechnen zu können. Mit Hilfe der in diesem Kapitel vorgestellten Methoden lassen sich dann Hypothesen testen wie: „Freundschaftsbeziehungen in der Gruppe tendieren zur Symmetrie“. Wir vergleichen dazu die tatsächliche Häufigkeit symmetrischer Beziehungen mit der in einem Zufallsnetz erwarteten. Dazu müssen wir zunächst festlegen, was wir unter einem Zufallsnetz verstehen, und dann die erM. Trappmann et al., Strukturanalyse sozialer Netzwerke, DOI 10.1007/978-3-531-92656-8_5, © VS Verlag für Sozialwissenschaften | Springer Fachmedien Wiesbaden GmbH 2011
182
5 Stochastische Modelle für Dyaden und Triaden
wartete Anzahl symmetrischer Beziehungen darin berechnen. Um in einem weiteren Schritt feststellen zu können, ob die Abweichungen der Realität von einem Zufallsnetz signifikant sind, müssen wir sogar die Varianz der erwarteten Anzahl symmetrischer Beziehungen bestimmen. Nachdem wir in den Abschnitten 5.1.1 und 5.1.2 zunächst Untersuchungen mit Standardmethoden vorführen werden, wenden wir uns danach den eben skizzierten speziellen Hypothesentests für soziale Netzwerke zu. Dabei gelten für die Interpretation der Signifikanztests die Ausführungen in Abschnitt 3.1.2. Bei allen Hypothesentests wollen wir die Nullhypothese ablehnen, wenn ein Sigifikanzniveau von pTRANSFORM>RECODE (1 to 5 as 1; 6 to 16 as 0) (Ucinet 6: Transform>Recode). Damit werden die ersten fünf Rangplätze in eine Eins, die Übrigen in eine Null verwandelt. 2.) Diesen dichotomen Datensatz kann man mit MATRICES>TRANSFORM>SYMMETRIZE (Ucinet 6: Transform>Symmetrize) in der gewünschten Weise symmetrisieren, indem man als SYMMETRIZING METHOD MINIMUM wählt (die symmetrische Beziehung bekommt den kleineren der beiden gerichteten Werte zugewiesen). Der so entstandene Datensatz DI5SY hat nun Einsen, wo mutuelle Freundschaften vorliegen. 3.) Dieser Datensatz kann nun mit EXTRACT in 15 Matrizen zerlegt werden (DI5SY_01 bis DI5SY_15). 4.) Die Anzahl der Einsen in Woche 1 erhält man zum Beispiel, wenn man in MATRICES>ALGEBRA (Ucinet 6: Tools>Matrix Algebra) den Befehl DISP TOT(DI5SY_01) eingibt. Diese Routine summiert alle Einträge der Matrix DI5SY_01. Da jede mutuelle Dyade zweimal in der Matrix vorkommt (die Dyade aus Akteuren i und j befindet sich in Zeile i in j-ter Spalte und in Zeile j in i-ter Spalte), muss diese Summe durch zwei geteilt werden, um die gewünschte Anzahl zu liefern.
Offensichtlich unterliegt die Anzahl mutueller Dyaden in beiden Fällen über Zeit keinen systematischen Schwankungen. Die Hypothese, dass Freundschaftsbeziehungen mit zunehmender Zeitdauer vermehrt zu Symmetrie neigen, wird in dieser Gruppe nicht bestätigt.
5.1.2
Stabilität der verschiedenen Dyadentypen
Ähnlich wie für Cliquen kann man sich auch für mutuelle Dyaden die Frage stellen, ob die Zugehörigkeit zu einem solchen Verband die Wahrscheinlichkeit erhöht, dass eine Freundschaftsbeziehung erhalten bleibt. Ein solches Ergebnis
186
5 Stochastische Modelle für Dyaden und Triaden
wäre sicherlich zu erwarten, denn eine nicht erwiderte Freundschaftswahl ist auf Dauer für Akteure unbefriedigend. Man kann davon ausgehen, dass Akteure, deren Wahlen nicht erwidert werden, einen Anreiz haben, sich von denen, die sie zunächst gewählt haben, zurückzuziehen und andere Personen als Freunde zu wählen. Um dieser Frage nachzugehen, wurden für alle 14 Wochenübergänge die Anzahlen aller möglichen Übergänge zwischen den Dyadentypen ausgezählt. Wir entschieden uns für die Kodierung der ersten drei Wahlen als Freundschaften (DICH3 (=Kodierung A)). Die Ergebnisse sind in Tabelle 5.2 präsentiert. Tabelle 5.2: Häufigkeit des Übergangs von einem Dyadentyp zu einem anderen für DICH3 (=Kodierung A) in der Summe der 14 Wochenübergänge Übergang mutuell o mutuell mutuell o asymmetrisch mutuell o null asymmetrischo mutuell asymmetrisch o asymmetrisch (stabil) asymmetrisch o asymmetrisch (Tausch) asymmetrisch o null null o mutuell null o asymmetrisch null o null
Häufigkeit 109 35 10 33 248 4 121 9 125 1210
Es gibt zwei verschiedene Möglichkeiten, wie eine asymmetrische Dyade in eine asymmetrische Dyade übergehen kann. Beide Akteure können ihre Wahl von der einen Woche zur nächsten beibehalten oder jeder der beiden kann seine Wahl ändern. Die erste Art ist mit „stabil“, die zweite mit „Tausch“ bezeichnet. Die Anzahl der Dyadenübergänge mit UCINET IV zu bestimmen, ist eine recht aufwendige Angelegenheit. Eine Möglichkeit ist folgende: 1.) Ausgangspunkt ist der dichotomisierte Datensatz DICH3 (=Kodierung A) (nur die ersten 3 Wahlen werden als ‚1‘ kodiert). 2.) Man erstellt mit DATASETS>TRANSPOSE den transponierten Datensatz zu DICH3 (=Kodierung A) und bezeichnet ihn mit DICH3T. Im transponierten Datensatz sind Zeilen und Spalten vertauscht.
5 Stochastische Modelle für Dyaden und Triaden
187
3.) In MATRICES>ALGEBRA (Ucinet 6: Tools>Matrix Algebra) erstellt man mit XYZ=ADD(DICH3,DICH3,DICH3T) einen Datensatz XYZ. In diesem steht in der n-ten Matrix an der Stelle a ij : 0 falls i und j sich in Woche n gegenseitig nicht wählen (null) 1 falls j wählt i, aber i wählt nicht j (asymmetrisch) 2 falls i wählt j, aber j wählt nicht i (asymmetrisch) 3 falls i und j sich gegenseitig wählen (mutuell). 4.) Nun erstellt man den Datensatz 10XYZ durch Multiplikation von XYZ mit 10. Dies kann beispielsweise mit RECODE erreicht werden (1 as 10, 2 as 20, 3 as 30). 5.) Aus 10XYZ entfernt man nun die letzte und aus XYZ die erste Woche mit EXTRACT. 6.) Man addiert nun die beiden Datensätze. Der dabei entstehende Datensatz enthält 14 Matrizen für die 14 Wochenübergänge. Wir nennen ihn SUM. Die Einträge sind 0, 1, 2, 3, 10, 11, 12, 13, 20, 21, 22, 23, 30, 31, 32 und 33. Dabei gibt nun die erste Stelle eines Eintrags an, in welchem Zustand die Dyade in der ersten Woche des Übergangs war und die zweite Stelle gibt an, in welchem Zustand die Dyade in der zweiten Woche des Übergangs war (z.B.: Eine 23 in Matrix 12 an der Stelle a ij bedeutet, dass beim 12. Übergang (d.h. von Woche 12 zu Woche 13), die Beziehung von i zu j vom Typ 2 (asymmetrisch) zum Typ 3 (mutuell) übergegangen ist. Die Werte 0, 1, 2 und 3 muss man dabei natürlich als 00, 01, 02 und 03 lesen.) 7.) Man kann nun zusammenfassen, welche Werte in der Matrix SUM für welche Übergänge stehen, nämlich: 33 mutuell - mutuell 32, 31 mutuell - asymmetrisch 30 mutuell - null 23, 13 asymmetrisch - mutuell 21, 12 asymmetrisch - asymmetrisch (Tausch) 22, 11 asymmetrisch - asymmetrisch (stabil) 20, 10 asymmetrisch - null (0)3 null - mutuell (0)2, (0)1 null - asymmetrisch (0)0 null - null (Dabei erscheint die 0 natürlich nicht in der Matrix, wenn sie vorne steht.) 8.) Nun kann man die Anzahl der Übergänge einzeln auszählen, indem man jeweils die Werte für die relevanten Übergänge zu 1 und den Rest zu 0 rekodiert. Ein Beispiel: Die Anzahl der Übergänge von asymmetrisch zu mutuell erhält man in UCINET IV durch i) MATRICES>RECODE (1 to 12 as 0; 13 as 1; 20 to 22 as 0; 23 as 1; 30 to 33 as 0) ii) MATRICES>ALGEBRA: DISP TOT(RECODE) iii) Das Ergebnis muss nun noch durch zwei geteilt werden, da jeder Übergang erneut doppelt gezählt wurde, denn für die Dyade (i,j) befindet sich in Zeile i und Spalte j der Übergang aus Sicht von Akteur i und in Spalte j und Zeile i derselbe Übergang aus Sicht von Akteur j.
Laut Tabelle 5.2 gibt es 109 + 35 + 10 = 154 Dyaden, die in der ersten von zwei aufeinanderfolgenden Wochen mutuell sind. Also gibt es 308 Beziehungen in mutuellen Dyaden. Davon werden 35 + 2 · 10 = 55 „abgebaut“. Der beobachtete Anteil abgebauter Beziehungen in mutuellen Dyaden ist also 55 / 308 |0,179. In asymmetrischen Dyaden gibt es 33 + 248 + 4 + 121 = 406 Beziehungen. Davon
188
5 Stochastische Modelle für Dyaden und Triaden
werden 121 + 4 = 125 abgebaut. Das entspricht einem Anteil von 125 / 406 | 0,308. Es kommt also wesentlich häufiger vor, dass eine Beziehung abgebaut wird, wenn sie sich in einer asymmetrischen Dyade befindet, also nicht erwidert wird. Es lässt sich ein Signifikanzniveau berechnen, auf dem die Nullhypothese, dass es für die Stabilität einer Beziehung keinen Unterschied macht, ob sie in eine mutuelle Dyade oder in eine asymmetrische Dyade eingebettet ist, zurückgewiesen werden kann. Dazu wird analog zu der Berechnung für Cliquen in 3.1 nach Formel (3.1) ein F² berechnet: Erhaltene Beziehungen Beziehungen in mu- 253 tuellen Dyaden (230,35) Beziehungen in a sym- 281 metrischen Dyaden (303,65) Gesamt 534
Abgebaute Beziehungen 55 (77,65) 125 (102,35) 180
Gesamt 308 406 714
In der Vierfeldertafel steht in Klammern unter der tatsächlichen Anzahl der Erwartungswert bei stochastischer Unabhängigkeit. Es ergibt sich damit für F² ein Wert von 15,53. Die Nullhypothese kann auf einem Niveau von p = 0,001 zurückgewiesen werden 109. Wir lehnen also – gemäß unserer Verabredung zu Beginn von Kapitel 5 (Ablehnung für p