Teil I
Einfu ¨ hrung
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft Klaus Mainzer Lehrstuhl f¨ ur Philosophie und Wissenschaftstheorie, Institut f¨ ur Interdisziplin¨ are Informatik, Universit¨ at Augsburg, Universit¨ atsstraße 10, D–86135 Augsburg, Germany, e-mail:
[email protected] Zusammenfassung Komplexe dynamische Systeme und Chaostheorie werden derzeit erfolgreich in verschiedenen Bereichen der Naturwissenschaften untersucht. Im Zeitalter von Globalisierung und Vernetzung werden aber auch Chaos und Komplexit¨ at unserer weltweiten sozialen, ¨ okonomischen und ¨ okologischen Probleme entdeckt. Das gemeinsame methodische Thema ist die fach¨ ubergreifende Modellierung komplexer Systeme, deren Dynamik durch Nichtlinearit¨ at bestimmt ist. Computersimulationen und Computerexperimente erweisen sich dabei als unverzichtbar. Allerdings sind unterschiedliche Interpretationen und Meßvoraussetzungen zu beachten, um der jeweiligen Eigendynamik von physikalischen, chemischen, biologischen, psychischen und sozialen Systemen gerecht zu werden. Der folgende Beitrag gibt dazu eine Einf¨ uhrung und zeigt zugleich, wie die Beitr¨ age dieses Buches vernetzt sind.
1
Vom linearen zum nichtlinearen Denken
Nach I. Newton (1643–1727) sind alle physikalischen Wirkungen durch Kr¨afte als ihren Ursachen eindeutig determiniert. Ziel der Naturforschung ( philosophia ’ naturalis‘) ist es, diese Kr¨ afte durch mathematische Gesetze ( principia mathe’ matica‘) zu bestimmen, um damit alle beobachtbaren, vergangenen und zuk¨ unftigen physikalischen Ereignisse erkl¨aren und berechnen zu k¨onnen. 100 Jahre sp¨ ater wird daraus bei P.-S. de Laplace (1747-1827) der Glaube an eine omnipotente Berechenbarkeit der Natur, wenn im Idealfall ( Laplacescher Geist‘) alle ’ Kraftgesetze und Anfangsbedingungen bekannt w¨aren. Diese Annahme gilt sicher f¨ ur lineare dynamische Systeme wie einen harmonischen Oszillator. So besteht nach dem Hookeschen Gesetz eine lineare Beziehung F = −kx zwischen der Position x einer Masse m an einer Feder mit der Federkonstanten k auf einer reibungsfreien Oberfl¨ache und einer Kraft F . Nach Newtons 2. Mechanikaxiom ergibt sich daraus eine lineare Differentialgleichung 2. Ordnung m¨ x = −kx. Eine L¨ osung x(t) des Bewegungsgesetzes l¨aßt sich als Zeitreihe des Orts in Abh¨ angigkeit von der Zeit t mit einem Anfangsort x(0) und einer Anfangsgeschwindigkeit x(0) ˙ zum Zeitpunkt t = 0 darstellen. Dieser regul¨aren Schwingung entlang der Zeitachse entspricht eine geschlossene Bahn ( Trajektorie‘) im Pha’ senraum, in dem alle Zust¨ ande (x(t), x(t)) ˙ des dynamischen Systems als Punkte
4
K. Mainzer
dargestellt sind. Im Phasenraum erkennen wir also die Dynamik eines linearen Oszillators vollst¨ andig, wie der Laplacesche Geist. Aus der Mathematik wissen wir: Lineare Gleichungen sind leicht zu l¨osen. Nichtlineare Gleichungen erlauben aber nicht immer beliebig genaue Berechenbarkeit, selbst mit unseren besten Computern. Ein Beispiel sind die Mehrk¨ orperprobleme der Himmelsmechanik, bei denen mehr als zwei Himmelsk¨orper gravitativ aufeinander einwirken. Nach Newtons Gravitationsgesetz und 2. Mechanikaxiom handelt es sich allgemein f¨ ur n konstante Massen m1 , . . . , mn und n 3-dimensionale zeitabh¨ angige Ortsfunktionen x1 , . . . , xn um nichtlineare Differentialgleichungen 2. Ordnung ¨i = mi x
n X mi mj (xi − xj ) j6=i
(1 ≤ i ≤ n).
|xi − xj |3
ur Anfangsort xi (0) und Anfangsgeschwindigkeit Wiederum ist die Bahn xi (t) f¨ x˙ i (0) zum Zeitpunkt t = 0 zu bestimmen. W¨ahrend J. Bernoulli bereits 1710 das Zweik¨ orperproblem f¨ ur n = 2 (z.B. Bahn eines Planeten um die Sonne ohne Ber¨ ucksichtigung der u ¨brigen Planeten) vollst¨andig l¨oste, blieb die L¨osung der nichtlinearen Gleichungen f¨ ur n ≥ 3 eine mathematische Herausforderung. H. Poincar´e (1892) zeigt erstmals, daß bei einem nichtlinearen Mehrk¨orperproblem chaotisch instabile Bahnen auftreten k¨onnen, die empfindlich von ihren Anfangswerten abh¨ angen und langfristig nicht vorausberechenbar sind. Zur Veranschaulichung schneidet man eine geschlossene periodische Bahn im 3-dimensionalen Raum transversal mit einer vertikalen Ebene ( Poincar´e-Ebene‘) und studiert ’ in der N¨ ahe ihres Schnittpunktes die Auftreffpunkte benachbarter Bahnen. Die Abfolge der Auftreffpunkte, die eine Bahn x(t) nacheinander auf der Poincar´eEbene erzeugt, wird durch eine Differenzengleichung beschrieben wie z.B. die H´enonschen Formeln (1)
(2) xn+1 = f (x(1) n , xn ), (2)
(2) xn+1 = g(x(1) n , xn ) (1)
(2)
f¨ ur die beiden nachfolgenden Koordinaten xn+1 und xn+1 des n-ten Auftreff(1) (2) punkts (xn , xn ) auf der Poincar´e-Ebene mit nichtlinearen Funktionen f und g. Computerberechnungen dieser Differenzengleichungen zeigen die Komplexit¨at fraktaler Punktmengen, deren bizarre Muster auf einer Poincar´e-Ebene sich bei Vergr¨ oßerungen teilweise spiegelbildlich wiederholen. Man spricht dann von der Selbst¨ ahnlichkeit bzw. Skaleninvarianz fraktaler Strukturen. Schließlich bewiesen A. N. Kolmogorov (1954), V. I. Arnold (1963) und J. K. Moser (1962) ihr ber¨ uhmtes KAM-Theorem: Trajektorien im Phasenraum der klassischen Mechanik sind weder vollst¨andig regul¨ar noch vollst¨andig irregul¨ar, sondern h¨ angen empfindlich von den gew¨ahlten Anfangsbedingungen ab. Winzige Abweichungen von den Anfangsdaten f¨ uhren zu v¨ollig verschiedenen Entwicklungstrajektorien ( Schmetterlingseffekt‘). Daher k¨onnen die zuk¨ unftigen Ent’ wicklungen in einem chaotischen (Hamiltonschen) System langfristig nicht vorausberechnet werden, obwohl sie mathematisch wohl definiert und determiniert sind.
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
5
Historisch zeigte Poincar´e u osbarkeit ¨brigens keineswegs die prinzipielle Unl¨ des nichtlinearen Mehrk¨ orperproblems, wie h¨aufig popul¨ar behauptet wird. Er bewies nur, daß es mit einer u ¨blichen Methode (d.h. der Bestimmung sogenannter erster Integrale) nicht l¨ osbar ist [2] [6]. Wenig beachtet von der mathematischen Welt fand 1991 ein chinesischer Student [41] eine konvergierende Potenzreihe, die exakt die Bahn von n K¨ orpern bestimmt. Schwierigkeiten mit Singularit¨aten, die durch kollidierende K¨ orper und abrupt endende Bahnen entstehen k¨onnten, vermied er durch einen mathematischen Trick. Er f¨ uhrte eine variable Zeit ein, die umso langsamer l¨ auft, je n¨aher sich die K¨orper kommen. Auf dieser Zeitskala kollidieren die K¨ orper daher erst in unendlicher Zeit, also nie. Damit bleiben ihre Bahnen zwar im Prinzip berechenbar. Um aber nur kurze Bahnst¨ ucke vorausberechnen zu k¨ onnen, m¨ ussen Millionen von Potenzen aufsummiert werden. Die praktische Berechenbarkeit dieser L¨osung u ¨bersteigt daher heutige Computerkapazit¨ aten. Poincar´es bleibender Verdienst ist sein Einstieg in die Komplexit¨ at nichtlinearer und chaotischer Dynamik u ¨ber das Mehrk¨orperproblem. Ein anderer Weg zu dieser Komplexit¨ at wurde ebenfalls im 19. Jahrhundert gelegt. Gemeint ist die logistische Kurve, die durch eine nichtlineare Differentialgleichung 1. Ordnung mit anf¨ anglichem Wachstum einer Gr¨oße x und einem d¨ampfenden quadratischen R¨ uckkopplungsterm beschrieben wird: x˙ = kx − kx2 = kx(1 − x). P. F. Verhulst untersuchte 1845 eine entsprechende nichtlineare Differenzengleiur chung, um das Wachstum von Populationsgr¨oßen xn in der n-ten Generation f¨ n = 0, 1, . . . und einem Wachstumsparameter k zu berechnen: xn+1 = kxn (1 − xn ). Die Zeitreihen der Verhulst-Dynamik zeigen f¨ ur schwaches Wachstum die bekannte S-Kurve mit der S¨attigung in einer Gleichgewichtsgr¨oße, f¨ ur st¨arkeres Wachstum eine Oszillation zwischen zwei Populationsgr¨oßen und bei starkem Wachstum v¨ ollig irregul¨ are chaotische Schwankungen. Im Zustandsraum sieht man anschaulich, wie die Dynamik der Trajektorie im 1. Fall auf einen Fixpunktattraktor zielt und im 2. Fall zwischen zwei Zust¨anden schwankt. Im 3. Fall f¨ uhren selbst eng benachbarte Anfangswerte nach wenigen Iterationsschritten zu irregul¨ ar auseinanderlaufenden Trajektorien [13]. Siegfried Großmann, dessen Arbeiten maßgeblich f¨ ur die Entwicklung der physikalischen Chaosforschung in Deutschland waren, gibt einen Ausblick auf die aktuelle Forschung in seinem Beitrag Chaos (-Theorie) in der Physik: Wo stehen wir? Bei einer chaotischen Dynamik f¨ uhren geringste Ver¨anderungen |δx0 | einer Anfangsbedingung x0 zu einer exponentiellen Vergr¨oßerung |δxn | ∼ enΛ |δx0 | mit einem positiven Lyapunov-Exponenten Λ. Im Computermodell f¨ uhren dann geringste Ver¨ anderungen von digitalisierten Anfangsdaten zu einer exponentiell wachsenden Rechenzeit zuk¨ unftiger Daten, die Langzeitprognosen praktisch ausschließt. So ben¨ otigt in einer logistischen Gleichung mit k = 4 und endlicher bin¨ arer Anfangsbedingung x0 eine Voraussage des ersten Bits von x2n die
6
K. Mainzer
Kenntnis von etwa 2n = enln2 = enΛ Bits von xn . Wohlgemerkt: Dieses nichtlineare Wachstumsgesetz ist mathematisch vollst¨andig determiniert. Es geht also wieder um Grenzen der praktischen Berechenbarkeit durch Computer [32]. In komplexen Systemen mit vielen Elementen, wie sie uns bereits im Alltag begegnen, spielt Nichtlinearit¨ at bei der Selbstorganisation von Ordnung eine wichtige Rolle. Davon handeln die folgenden Beispiele und Beitr¨age.
2
Komplexe Systeme in der Physik
Ein komplexes System besteht allgemein aus einer großen Anzahl n von Elementen mit Index j = 1, . . . , n. Die Zust¨ande zj der Elemente j bestimmen den Zustandsvektor z = (z1 , . . . , zn ) des Systems. So ist in einem Planetensystem der Zustand zj (t) des Planeten j zum Zeitpunkt t durch seinen Ort und seine Geschwindigkeit bestimmt. Es kann sich aber auch um den Bewegungszustand eines Molek¨ uls in einem Gas, den Erregungszustand einer Nervenzelle in einem neuronalen Netz oder den Zustand einer Population in einem ¨okologischen Sy¨ stem handeln. Die Dynamik des Systems, d.h. die Anderung der Systemzust¨ande in der Zeit, wird durch Differentialgleichungen beschrieben. Bei klassischen deterministischen Prozessen haben sie die Form z˙ j = fj (z1 , . . . , zn ), wobei jeder zuk¨ unftige Zustand durch den Gegenwartszustand eindeutig bestimmt ist. Statt ¨ kontinuierlicher Prozesse lassen sich auch diskrete Prozesse als Anderung der Systemzust¨ ande in Zeitschritte t = 1, 2, . . . durch Differenzengleichungen untersuchen. Die gleichzeitige Wechselwirkung vieler Elemente wird durch nichtlineare Funktionen erfaßt. Zufallsereignisse (z.B. Brownsche Bewegung) werden durch zus¨ atzliche Fluktuationsterme ber¨ ucksichtigt. Bei stochastischen Prozessen geht es um die zeitliche Ver¨ anderung von Wahrscheinlichkeitsverteilungsfunktionen von Zust¨ anden, die z.B. durch eine Mastergleichung beschrieben werden. Die Thermodynamik untersucht komplexe Systeme (z.B. Fl¨ ussigkeiten, Gase) aus vielen Elementen (z.B. Atome, Molek¨ ule) mit vielen Freiheitsgraden der Bewegung. Makroskopische Zust¨ande des Systems (z.B. W¨arme) werden auf mikroskopische Wechselwirkungen der Elemente zur¨ uckgef¨ uhrt und nach den Gesetzen der statistischen Mechanik erkl¨art. Die Thermodynamik bietet viele Beispiele von komplexen Systemen, deren Elemente sich unter geeigneten Nebenbedingungen zu neuen Ordnungen selbstst¨andig zusammenf¨ ugen. Ein allt¨agliches Beispiel ist ein Regentropfen auf einem Blatt mit seiner perfekten glatten Oberfl¨ache. Die Wassermolek¨ ule am Rand des Tropfens befinden sich in einem h¨oheren Energiezustand als im Innern. Da das System nach den Gesetzen der Thermodynamik einen Zustand niedrigster Gesamtenergie einnehmen muß, minimiert der Tropfen die Ausdehnung seiner energiereichen Oberfl¨ache und bildet so seine makroskopische Form. Bekannt sind auch die Eisblumen, zu denen sich Wassermolek¨ ule in der N¨ ahe des thermischen Gleichgewichts zusammenf¨ ugen. Ein Ferromagnet l¨ aßt sich als ein komplexes System aus vielen kleinen Dipolen ( Spins‘) auf fassen, die in zwei Richtungen up‘ (↑) oder down‘ (↓) zeigen ’ ’ ’ k¨ onnen. Der Ordnungsparameter des Systems ist durch die Durchschnittsverteilung der Spinrichtungen bestimmt. Im Zustand niedrigster Energie zeigen die Spins alle in dieselbe Richtung. In diesem Fall ist das System magnetisiert. Bei
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
7
sehr hoher Temperatur (jenseits des Curie-Punktes) ist die Verteilung der Spinrichtung zuf¨ allig und irregul¨ar. In diesem Fall ist die thermische Energie als Ursache von Fluktuationen gr¨oßer als die Energie der Wechselwirkungen. Wird die Temperatur als Kontrollparameter des Systems gesenkt, dann strebt das System einem Gleichgewichtszustand kleinster Energie am Curie-Punkt zu, in dem die Dipole das regul¨ are Ordnungsmuster der gleich ausgerichteten Dipole bilden. Isolierte Systeme ohne Stoff- und Energieaustausch mit ihrer Umwelt streben nach dem 2. Hauptsatz der Thermodynamik von selbst in den Gleichgewichtszustand maximaler Entropie (z.B. strukturlose, irregul¨are Verteilung der Gasmolek¨ ule in einem isolierten Beh¨alter). Abgeschlossene ( konservative‘) Sy’ steme ohne Stoff- aber mit Energieaustausch mit ihrer Umwelt h¨angen von einem Kontrollparameter (z.B. die Temperatur bei einem Ferromagneten) ab. In der N¨ ahe des thermischen Gleichgewichts f¨ ugen sich die Systemelemente bei Absenkung auf einen kritischen Wert von selbst zu Ordnungs- bzw. Aggregatszust¨ anden niedriger Entropie und Energie zusammen. Diese Phasen¨ uberg¨ange lassen sich nach L. D. Landau [20] durch Ordnungsparameter charakterisieren wie die Verteilung von Dipolzust¨anden bei Ferromagneten. Phasen¨ uberg¨ange von abgeschlossenen Systemen in der N¨ ahe des thermischen Gleichgewichts werden auch als konservative Selbstorganisation bezeichnet. Dieses Prinzip der Selbstorganisation, wonach sich Atome, Molek¨ ule und Molek¨ ulverb¨ ande selbstst¨ andig zu wohlgeordneten und funktionierenden Einheiten zusammenf¨ ugen, findet bereits technische Anwendung in der Materialforschung. Bei der Fertigung von Halbleiter-Kristallen wird davon ausgegangen, daß sich Silicium- und Dotier-Atome von selbst in der gew¨ unschten Weise anordnen. Durch Selbstorganisation bilden sich z.B. winzige Graphitr¨ohren von einigen millionstel Millimeter Durchmesser (Nanor¨ohren), die zu den kleinsten jemals hergestellten elektrischen Dr¨ahten geh¨oren. Im Computerbau werden mit zunehmender Miniaturisierung Chips notwendig, deren winzige Bauteile durch keine Maschine zusammengesetzt werden k¨onnen. Sie m¨ ußten sich selber nach den Gesetzen der Selbstorganisation zu gr¨oßeren Funktionseinheiten zusammenlagern. Wie wir sp¨ ater sehen werden, gelten die Gesetze konservativer Selbstorganisation formal h¨ aufig auch, wenn die physikalischen Gr¨oßen durch chemische, biologische, medizinische oder technische Gr¨oßen ersetzt werden. Fern des thermischen Gleichgewichts h¨angen Phasen¨ uberg¨ange von hochgradig nichtlinearen und dissipativen Mechanismen ab. Makroskopische Ordnungsstrukturen entstehen durch komplexe nichtlineare Wechselwirkungen mikroskopischer Elemente, wenn der Stoff- und Energieaustausch des offenen (dissipativen) Systems mit seiner Umwelt kritische Werte erreicht. In diesem Fall wird die Stabilit¨ at der Ordnungsstrukturen durch eine gewisse Balance von Nichtlinearit¨ at und Dissipation garantiert. Zu starke nichtlineare Wechselwirkung oder Dissipation w¨ urde die Ordnung zerst¨oren. Ein bekanntes Beispiel ist das B´enard-Experiment, wobei eine Fl¨ ussigkeitsschicht von unten im Gravitationsfeld erw¨armt wird. Bei geringer Temperaturdifferenz mit der Oberfl¨ ache wird die W¨arme durch W¨armeleitung transportiert, die viskosen Kr¨ afte gewinnen und die Fl¨ ussigkeit bleibt in Ruhe. Erreicht der Kontrollparameter der Temperaturdifferenz einen kritischen Wert, beginnt ei-
8
K. Mainzer
ne makroskopische Rollbewegung der Fl¨ ussigkeit. Dieses geordnete dynamische Muster von Konvektionsrollen wird also durch ¨außere Energiezufuhr jenseits des thermischen Gleichgewichts aufrechterhalten. Es kommt zu einer r¨aumlichen Symmetriebrechung der beiden m¨oglichen Rollrichtungen, die sich aufgrund geringster Anfangsfluktuationen aufbauen und daher nicht vorausgesagt werden k¨ onnen. Anschaulich l¨ aßt sich ein Bifurkationsschema angeben, in dem der thermodynamische Zweig minimaler Entropieerzeugung instabil wird und zwei m¨ ogliche station¨ are (lokale) Ordnungsmuster auftreten k¨onnen — die links- oder rechtsdrehenden Konvektionsrollen. Treibt man die Erw¨armung noch weiter und damit das System immer weiter fort vom thermischen Gleichgewicht, entstehen zun¨ achst quasi-oszillierende Wirbel und schließlich v¨ollig irregul¨are und chaotische Str¨ omungen. Die nichtlinearen Gleichungen des B´enard-Experiments wurden von E. N. Lorenz (1964) auch verwendet, um die Dynamik des Wetters und der Atmosph¨ are zu modellieren. Allgemein verstehen wir unter offenen ( dissipativen‘) Systemen solche kom’ plexen Systeme, die im Stoff- und Energieaustausch mit ihrer Umwelt sind. Ihre Dynamik gen¨ ugt einer Gleichung z˙ = f (z, α) + F (t), wobei zuk¨ unftige Zust¨ ande nichtlinear vom Gegenwartszustand z und einem Kontrollparameter α f¨ ur Stoff- und Energieaustausch abh¨angen. F (t) steht f¨ ur innere oder ¨ außere Fluktuationen des Systems. F¨ ur einen Kontrollwert α0 sei der ¨ zugeh¨ orige Zustand z0 bekannt. Bei Anderung von α wird der alte Zustand z0 instabil. Kleine Fluktuationen l¨osen kollektive Wechselwirkungen der Elemente aus, die sich in r¨ aumlichen Konfigurationen ( Moden‘) zeigen. Die Amplituden ’ einiger Konfigurationen setzen sich durch und bestimmen einen neuen Gleichgewichtszustand. H. Haken (1983) bezeichnet diese Amplituden als Ordnungsparameter, die makroskopischen Strukturen und Mustern entsprechen. Bei weiterer Ver¨ anderung von α kann die Dynamik eines offenen Systems immer neue lokale Gleichgewichtszust¨ ande einnehmen, die wieder instabil werden. Man denke etwa an die verschiedenen Oberfl¨achenmuster, die ein Fluß hinter einem Br¨ uckenpfeiler in Abh¨ angigkeit von der steigenden Flußgeschwindigkeit als Kontrollparameter bilden kann. Sie reichen von einem homogenen (Fixpunkt-)Zustand u ¨ber oszillierende und quasi-oszillierende Wirbel bis zur chaotischen Strudelbildung. I. Prigogine u.a. sprechen von den Attraktoren eines dissipativen Systems, das vom thermodynamischen Gleichgewicht immer weiter fortgetrieben wird [36]. Die entsprechenden Phasen¨ uberg¨ange werden auch als dissipative Selbstorganisation bezeichnet [26]. Die Beschreibung der makroskopischen Dynamik durch Ordnungsparameter bedeutet eine erhebliche Reduktion von Komplexit¨ at gegen¨ uber der Mikroebene. Die Anzahl der Ordnungsparameter ξ1 , . . . , ξm ist n¨amlich i.a. wesentlich kleiner als die Anzahl der Mikrozust¨ande (z.B. einzelner Molek¨ ule) z1 (t), . . . , zn (t), die den Gesamtzustand z(t) eines komplexen Systems auf der Mikroebene bestimmen. In seinem Konzept der Synergetik spricht Haken (1983) anschaulich von einer Versklavung‘ der Mikrozust¨ande zi (t) = fj (ξ1 , . . . , ξm ) durch die Ord’ nungsparameter in der N¨ ahe von Instabilit¨atspunkten. Dabei unterscheidet sich
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
9
die Zeitskalierung auf der Makro- und Mikroebene insofern, als Ordnungsparameter nach St¨ orungen langsamer relaxieren als die sich rasch ver¨andernden Mikrozust¨ ande. In seinem Beitrag Synergetik: Vergangenheit, Gegenwart, Zukunft erinnert Hermann Haken an die Entstehung seines Synergtik-Konzepts aus dem Geist von Komplexit¨ at und nichtlinearer Dynamik und fragt nach der Reichweite von Synergetik f¨ ur zuk¨ unftige Forschung. J¨ urgen Kurths, Norbert Seehafer und Frank Spahn zeigen in ihrem Beitrag, wie das interdisziplin¨ are Fachgebiet der nichtlinearen Dynamik heute Mathematik und Physik mit anderen Naturwissenschaften verbindet. Holger Kantz analysiert die Methode der nichtlinearen Zeitreihenanalyse in der Physik auf ihre Anwendungsm¨oglichkeiten und -grenzen hin. Eiichi R. Nakamura und T. Mori fragen nach vereinheitlichten Grundprinzipien der Komplexit¨ at, aus denen die Selbstorganisation komplexer Systeme in Analogie zu den vereinheitlichten Prinzipien der Quantenfeldtheorien abgeleitet werden k¨ onnte.
3
Komplexe Systeme in der Chemie
In der Chemie kann wie in der Physik die Entstehung von Ordnung in komplexen Systemen in der N¨ ahe und fern des thermischen Gleichgewichts unterschieden werden. In der N¨ ahe des thermischen Gleichgewichts geht es z.B. um die Entstehung von Kristallen und Festk¨orpern. Molekulare Bausteine k¨onnen sich nahe dem Gleichgewicht nach chemischen Schablonen zu Riesenmolek¨ ulen gruppieren (z.B. Polyoxometallate, Fullerene, Dendrimere) [35] [30]. In der supramolekularen Chemie werden bereits molekulare Selbstorganisationsprozesse in der N¨ahe des thermischen Gleichgewichts ausgenutzt, um hochkomplexe Molek¨ ulaggregate im Nanobereich zu erzeugen. Dabei werden kugelf¨ormige geschlossene Strukturen ebenso gebildet wie Gitter-, Leiter- und Spiralstrukturen, die der Erbsubstanz DNA ¨ ahneln. Mit einer relativen Molek¨ ulmasse von 24000 sind manche dieser Gebilde mit Proteinen und anderen biologischen Makromolek¨ ulen vergleichbar. Wegen ihrer optischen, elektrischen, magnetischen oder supraleitenden Effekte werden diese Riesenmolek¨ ule gezielt f¨ ur die Materialforschung und Pharmazie untersucht. Diese Effekte entsprechen makroskopischen Ordnungszust¨ anden des Gesamtsystems analog zur Magnetisierung eines Ferromagneten, die aus den einzelnen Bausteinen des komplexen Systems nicht ableitbar sind. Achim M¨ uller und Peter K¨ ogerler zeigen in ihrem Beitrag, wie sich chemische Strukturen mit zunehmender Gr¨ oße und Komplexit¨ at aus einfachen Bausteinen in der N¨ahe des thermischen Gleichgewichts bilden. Im thermischen Gleichgewicht sind die Entropieerzeugung, die Fl¨ usse und die Kr¨ afte chemischer Reaktionen jeweils gleich Null. In der N¨ahe des Gleichgewichts, wo die thermodynamischen Kr¨afte schwach sind, h¨angen die Fl¨ usse linear von den Kr¨ aften ab. Nach Onsager und Prigogine gilt hier deshalb die lineare Thermodynamik, nach der in Gleichgewichtsn¨ahe station¨are Zust¨ande durch minimale Entropieerzeugung entstehen. Es handelt sich dann also um konservative molekulare Selbstorganisation.
10
K. Mainzer
In offenen (dissipativen) chemischen Systemen k¨onnen Phasen¨ uberg¨ange wie in der Physik zu immer komplexeren makroskopischen Mustern stattfinden, die durch nichtlineare chemische Reaktionen in Abh¨angigkeit von einer ¨außeren Zuund Abfuhr von Stoffen ( Kontrollparameter‘) ausgel¨ost werden. So treten bei ’ der Belousov-Zhabotinski ( BZ‘)-Reaktion konzentrisch pulsierende Ringe auf, ’ wenn von außen energiereiche Substanzen bis zu einem kritischen Kontrollwert zugef¨ uhrt werden. Es handelt sich um ein dissipatives dynamisches Ordnungsmuster eines offenen Systems, das bei einem kritischen Kontrollwert von außen aufrechterhalten werden muß. Der Wettbewerb der isolierten Ringe veranschaulicht die Nichtlinearit¨ at dieses Prozesses, da bei Linearit¨at die Wellen sich wie in der Optik u urden [17]. Auch in diesem Fall kann ¨berlagern ( superponieren‘) w¨ ’ das System durch Zufuhr von Energie immer weiter vom thermischen Gleichgewicht fortgetrieben werden, bis schließlich v¨ollig irregul¨are und chaotische Muster auftreten. Im chemischen Reaktionsschema treten Nichtlinearit¨aten als autokatalytische Prozesse auf, z.B. im vereinfachten Modell des Oregonators einer BZ-Reaktion der dritte Schritt mit bromiger S¨aure X = HBrO2 [39]: A+X X +Y A+X 2X B+Z
→ X + P, → 2P, → 2X + Z, → A + P, → f Y,
wobei die variablen Stoffe X = HBrO2 , Y = Br− , Z = Ce4+ , P = HOBr und die konstanten Stoffe A = BrO3− und B = BrM S sind. In der Sprache der Mathematik erhalten wir drei nichtlineare Differentialgleichungen f¨ ur die Stoffkonzentrationen von X, Y und Z mit Geschwindigkeitskonstanten ki der i-ten Reaktionsgleichung: c˙X = k1 cA cY − k2 cX cY + k3 cA cX − 2k4 c2X , c˙Y = −k1 cA cY − k2 cX cY + f k5 cB cZ , c˙Z = k3 cA cX − k5 cB cZ . Die Phasen¨ uberg¨ ange der BZ-Reaktion zeigen sich in typischen Zeitreihen mit periodischen Mustern bis zum Chaos. Eine Fourier-Analyse liefert die entsprechenden Energiespektren der Zeitreihen. Chemische Oszillationen, wie sie bei der BZ-Reaktion auftreten, lassen sich durch Trajektorien darstellen, die im Phasenraum in einen Grenzzyklus m¨ unden. Poincar´e-Ebenen im Phasenraum schneiden Grenzzyklen transversal. Ihre Auftreffpunkte werden daher durch Differenzengleichungen berechnet, die nachfolgende Punkte aufeinander abbilden. Chaotische Trajektorien, die aus chaotischen Zeitreihen entstehen, erzeugen fraktale Punktmengen auf den Poincar´e-Ebenen. Poincar´e-Ebenen haben eine Dimension weniger als der sie umgebende Phasenraum. Daher bedeutet das Studium nichtlinearer Dynamik an Poincar´e-Ebenen durch Differenzengleichungen auch eine Reduktion von Komplexit¨ at gegen¨ uber der Analyse von Trajektorien im Phasenraum durch Differentialgleichungen. Nicht nur in der Chemie ist es h¨aufig ein
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
11
großes Problem, in den gemessenen Zeitreihen Chaosattraktoren zu erkennen. Manchmal zeigen die Punktwolken auf Poincar´e-Ebenen auch nur eine statistisch verrauschte Dynamik. Zur Unterscheidung von deterministischem Chaos und Zufallsrauschen m¨ ussen daher weitere Maße wie z.B. Lyapunov-Exponent und Korrelationsintegrale hinzugezogen werden [40]. Die Komplexit¨ at chemischer Reaktionen fern des thermischen Gleichgewichts l¨ aßt sich durch Bifurkationsdiagramme veranschaulichen. In einem kritischen Abstand vom Gleichgewichtspunkt wird der thermodynamische Zweig der minimalen Energieproduktion (lineare Thermodynamik) instabil und verzweigt sich zu neuen m¨ oglichen lokal stabilen Zust¨anden (Symmetriebrechung). Damit beginnt die nichtlineare Thermodynamik des Nichtgleichgewichts wie z.B. der Grenzzyklus einer chemischen Oszillation. Treibt man die nichtlinearen Reaktionen immer weiter vom Gleichgewichtszustand, entsteht ein zunehmend komplexeres Verzweigungsschema mit neuen m¨oglichen lokalen Gleichgewichtszust¨anden bis hin zum Chaos.
4
Komplexe Systeme in der Biologie
Offene physikalische und chemische Systeme realisieren also Eigenschaften, die wir auch lebenden Systemen zuschreiben. Es findet ein Stoff- und Energieaustausch ( Metabolismus‘) mit der Umwelt statt, der das System von Tod und ’ Erstarrung im thermischen Gleichgewicht fern und die Ordnung des Systems aufrecht erh¨ alt. Die Ordnungen entstehen durch Selektion‘ und Kooperation‘ ’ ’ der Systemteile bei geeigneten Bedingungen. Geringste Fluktuationen ( Muta’ tionen‘) k¨ onnen zu globalen Ver¨anderungen des Gesamtsystems f¨ uhren. Im Unterschied zu den Mustern dissipativer Systeme in Physik und Chemie brechen aber z.B. lebende Zellen und Organismen nicht spontan zusammen, wenn die Stoff- und Energiezufuhr kurzfristig unterbrochen wird. Konservative Strukturen in (teilweise) abgeschlossenen Systemen sind also f¨ ur die Lebenserhaltung ebenfalls unerl¨ aßlich. F¨ ur die Erkl¨ arung von Lebensentstehung und Lebenserhaltung reichen die Gesetze der Thermodynamik allerdings nicht aus. Bei der zellul¨aren Selbstorganisation sind die Anweisungen f¨ ur den Aufbau des Systems in den Bausteinen selbst (d.h. der molekularen DNS-Struktur der Zelle) verschl¨ usselt. Man spricht daher auch von einer genetisch kodierten Selbstorganisation der biologischen Evolution im Unterschied zur thermodynamischen Selbstorganisation. In der pr¨abiotischen Evolution geht es um die spannende Frage, wie die thermodynamische Selbstorganisation physikalischer und chemischer Systeme nahe und fern des thermischen Gleichgewichts schließlich den Weg zur kodierten Selbstorganisation der biologischen Evolution fand. Die thermodynamische Selbstorganisation liefert nur die physikalischen und chemischen Rahmenbedingungen f¨ ur die genetische Selbstreplikation von Nukleins¨auren und Proteinsynthesen. Sie verwendet autokatalytische Prozesse, die im (vereinfachten deterministischen) Modell des Hyperzyklus nach M. Eigen (1971) durch nichtlineare Differentialgleichungen ur Stoffe i, j, k, . . . beschrieben 1. Ordnung f¨ ur chemische Konzentrationen ci f¨
12
K. Mainzer
werden: c˙i = (ai + bij cj )ci + cik ck . Der Term bij cj ci entspricht der Synthese von i durch den Katalysator j. Von den instabilen Moden wird diejenige mit der schnellsten Wachstumsrate selektiert. Mutationen k¨ onnen durch Fluktuationsterme und stochastische Modelle ber¨ ucksichtigt werden. Das hypothetische Schema des Hyperzyklus zeigt die wachsende Komplexit¨ at vom Makromolek¨ ul zur integrierten Zellstruktur [8]. In seinem Beitrag Beherrschung von Komplexit¨ at in der molekularen Evolution beschreibt Peter Schuster die Komplexe Dynamik molekularer Evolution und gibt einen Ausblick auf k¨ unftige Forschungsstrategien. Vom Standpunkt komplexer Systeme ist die biologische Evolution der Arten durch eine r¨ uckgekoppelte Dynamik von Genotyp, Ph¨anotyp und Population bestimmt. Danach w¨ are der Genotyp ein komplexes System von Genen auf der Mikroebene, aus dem sich auf der Makroebene der Ph¨ anotyp eines Organismus mit makroskopischen Eigenschaften wie z.B. Gestalt und Gr¨oße als genetischen Ordnungsparametern entwickelt. Populationen sind komplexe Systeme von Organismen, deren Selektion wieder auf den Genpool zur¨ uckwirken kann. Viele der dabei wirkenden Mechanismen sind zwar heute noch unbekannt. Mathematische Modelle mit komplexen dynamischen Systemen k¨onnten aber pr¨azisierte Konzepte liefern, die in der empirischen biologischen Forschung u uft, weiterhelfen ¨berpr¨ oder verworfen werden. Ein h¨ aufiger Ansatz besteht darin, die genetische Fitness von Populationen im Genomraum (als biologischem Phasenraum‘) durch Anpassung an lokale Fit’ nesslandschaften (als biologischer Potentialfl¨ache‘) mit gekoppelten Differential’ gleichungen zu modellieren. Jeder Organismus des Modells habe einen Genotyp aus N Genen mit je 4 Genformen. Dann gibt es 4N Genotypen. Sie spannen eine 4N -dimensionalen Genomraum auf. Sei xi die Population eines Organismus mit Genotyp i. Alle Populationen befinden sich im Ressourcenkampf um eine gemeinsame Umwelt. Die Evolution der xi im Genomraum wird durch die Differentialgleichungen X X xj xi + m(t)xν x˙ i = ai xi − b j
ν
modelliert, wobei j irgendein Organismus sei und Organismus ν sich von i durch ucksichtigt das nur ein Gen unterscheidet [42]. Der Fitnesskoeffizient ai von i ber¨ Gleichgewicht von Reproduktion, Tod und Mutation zu benachbarten Genomen. Der erste Summenterm bezieht sich auf den Ressourcenkampf von i mit allen j. Der zweite Summenterm soll das Wachstum der Population aufgrund von Mutationen durch Organismen benachbarter Genome ber¨ ucksichtigen. Die Amplitude dieses Terms ist proportional zur Gr¨oße m(t), die um eine Durchschnittsrate m (klein relativ zu ai ) fluktuiert. Weitergehende Ans¨atze modellieren die Evolution neuer Arten durch nichtlineare Differentialgleichungen f¨ ur Phasen¨ uberg¨ ange des Nichtgleichgewichts, die formal mit den Lasergleichungen u ¨bereinstimmen [15]. Mutationen entsprechen den fluktuierenden Kr¨aften‘, Selektionen den treiben’ ’ den Kr¨ aften‘. Solche Gleichungen bestimmen Klassen von m¨oglichen Bifurkationsb¨ aumen als Evolutionsschemata mit Fluktuationen ( Mutationen‘) in den ’
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
13
Verzweigungen und treibenden Kr¨aften in den Entwicklungs¨asten der Arten. Wie in anderen Modellen auch, lassen sich aber bestenfalls nur m¨ogliche Evolutionsszenarien mit lokalen Gleichgewichten angeben und nicht die historisch einmalige biologische Evolution. Dazu bedarf es sorgf¨altiger empirischer Forschung der Evolutionsbiologie. Zur Modellierung von Zelldifferenzierungen liegen bemerkenswerte Anwendungen von komplexen dynamischen Systemen vor. So entsteht der Schleimpilz durch Phasen¨ uberg¨ ange aus einem komplexen System von Am¨obenzellen. Der Kontrollparameter ist die Nahrungszufuhr der Zellen. Bei kritischen Werten senden die Zellen untereinander chemische Signalwellen (cAMP) aus. Sie f¨ uhren zu makroskopischen Aggregationen des Organismus. Der Ordnungsparameter wird durch das morphogenetische Feld chemischer Signale bestimmt. Die Phasen¨ uberg¨ ange lassen sich durch nichtlineare Reaktions- und Diffusionsgleichungen modellieren. Bei geeigneter Interpretation erlaubt dieser Gleichungstyp die Beschreibung von komplexen Mustern bei Pflanzen und Tieren. Allerdings kann dasselbe Muster durch eine ganze Klasse von Differentialgleichungen mit unterschiedlichen chemischen und biologischen Wechselwirkungen hervorgerufen werden. Nur Beobachtung und Experiment k¨onnen zwischen diesen Gleichungen entscheiden. Hans Meinhardt zeigt im Modell und Experiment, wie nichtlineare Selbstverst¨ arkung als treibende Kraft in der biologischen Musterbildung auftritt. Auch das ¨ okologische Zusammenleben von Populationen l¨aßt sich mit kom¨ plexen dynamischen Systemen erfassen. Okologische Systeme sind n¨amlich komplexe offene Systeme von Pflanzen oder Tieren, die in gegenseitigen (nichtlinearen) Kopplungen (Metabolismus) mit ihrer Umwelt fern des thermischen Gleichgewichts leben. So kann die Symbiose zweier Populationen mit ihrer Nahrungsquelle durch drei gekoppelte Differentialgleichungen modelliert werden, die bereits Lorenz in der Meteorologie verwendete. Bekannt sind die nichtlinearen Wechselwirkungen einer Raubtier- und einer Beutetierpopulation, die von den italienischen Mathematikern Lotka und Volterra mit zwei gekoppelten Differentialgleichungen beschrieben wurden. Die Dynamik dieser gekoppelten Systeme hat station¨ are Gleichgewichtspunkte. Ihre Attraktoren sind periodische Oszillationen bzw. Grenzzyklen. Bei dissipativen Systemen kann die nichtlineare Populationsdynamik immer weiter vom thermischen Gleichgewicht fortgetrieben werden, bis irregul¨ are Turbulenz und Chaos auftreten.
5
Komplexe Evolution in der Informatik
Die bisherigen Beispiele zeigen bereits, daß die Untersuchung von nichtlinearer Dynamik und Chaos in komplexen Systemen wesentlich auf den Computer angewiesen ist. Historisch gehen ja viele Prinzipien bis auf die Jahrhundertwende zur¨ uck. Aber erst Visualisierung und Computerexperimente mit heutiger Rechnertechnologie machen den Forschungsboom und die Popularit¨at verst¨andlich, die unser Forschungsgebiet heute auszeichnet. Bereits Leibniz (1714) formulierte die f¨ ur die Naturforschung folgenschwere Vision, wonach die mehr oder weniger komplexen Systeme der Natur als mehr oder weniger komplexe Automaten zu verstehen seien. In seiner Monadologie (§ 64) heißt es: So ist jeder organische ”
14
K. Mainzer
K¨ orper eines Lebewesens eine Art von g¨ottlicher Maschine oder nat¨ urlichem Automaten, der alle k¨ unstlichen Automaten unendlich u ¨bertrifft.“ Leibniz sieht eine Hierarchie von Komplexit¨ atsgraden f¨ ur Automaten vor, die bis zu unendlichen Maschinen reichen. In moderner Lesart k¨onnte man unter einer unendlichen Maschine eine Turing-Maschine mit unbegrenzten Speicherm¨oglichkeiten (d.h. mit einem unendlichen Band) verstehen. Dann w¨ urde Leibnizens Zitat in das Zentrum der modernen Artificial Life-Forschungen treffen: Sind dynamische Systeme von der Komplexit¨ at lebender Organismen auf (universellen) Turing-Maschinen simulierbar? Der Zusammenhang zwischen dynamischen Systemen, wie sie in den Naturwissenschaften untersucht werden, und Automaten l¨aßt sich jedenfalls mathematisch pr¨ azisieren. Wie in den vorherigen Abschnitten gezeigt wurde, ist die Dynamik eines komplexen Systems durch Differentialgleichungen wie z.B. (vereinfacht) x˙ = f (x) mit kontinuierlichen Variablen x und kontinuierlichem Zeitparameter t bestimmt. H¨ aufig gen¨ ugt die Untersuchung von Differenzengleichungen (z.B. an einer Poincar´e-Ebene im Phasenraum) xt+1 = f (xt ) mit kontinuierlichen Variablen xt , aber diskretem Zeitparameter t = 0, 1, 2, . . . . Werden auch die kontinuierlichen Variablen durch diskrete (z.B. bin¨are) Variablen ersetzt, so erh¨ alt man Funktionsschemata von Automaten mit Funktionsargumenten als Inputs und Funktionswerten als Outputs wie z.B.:
Diskrete Vereinfachungen von atomaren, molekularen und zellul¨aren Zust¨anden gen¨ ugen h¨ aufig, um die hochgradige Nichtlinearit¨at einer Systemdynamik im Computermodell zu simulieren. Ein erfolgreicher Ansatz sind die zellul¨ aren Automaten. Es handelt sich um komplexe Systeme aus vielen Zellen mit endlich vielen Zust¨ anden, die man sich anschaulich als Quadrate eines Schachbretts mit unterschiedlichen F¨arbungen vorstellen kann. Der Anfangszustand eines 1-dimensionalen ( linealen‘) Automaten [43] ist durch die endlich vielen ’ k Zust¨ ande der Zellen der 1. Reihe des Schachbretts bestimmt (z.B. k = 2 f¨ ur die bin¨ aren Zust¨ ande schwarz‘ (1) und weiß‘ (0)). Der Nachfolgezustand einer ’ ’ Zelle in der nachfolgenden Reihe h¨angt von den Zust¨anden der vorausgehenden Zelle und ihrer Nachbarzellen ab.
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
15
Allgemein legt die Umgebungsfunktion 2r + 1 Zellen fest, also f¨ ur r = 1 im einfachsten Fall drei Zellen mit einer vorausgehenden Zelle und zwei Nachbarzellen. Je nach Anzahl der Zust¨ande und Nachbarschaftszellen ergeben sich einfache lokale Regeln, mit denen die diskrete zeitliche Entwicklung Reihe f¨ ur Reihe festgelegt wird. F¨ ur r = 1 und k = 2 ergeben sich 23 = 8 m¨ogliche Verteilungen der Zust¨ ande 0 und 1 auf 2 · 1 + 1 = 3 Zellen, also z.B. die Regeln: 111 110 101 100 011 010 001 000 . 0 1 0 1 1 0 1 0 Ein Automat mit diesen Regeln hat die Codenummer 01011010 oder (in dezimaler Schreibweise) 90. Allgemein wird die Dynamik eines zellul¨aren Automaten durch die Regeln (i) (i−r) (i−r+1) (i+r) , xt , · · · , xt xt+1 = f xt definiert. Sie legen die Wechselwirkungen der Elemente dieses komplexen Systems fest. Es ist erstaunlich, welche makroskopisch ( global‘) komplexen Mu’ ster solche einfachen mikroskopischen ( lokalen‘) Regeln mit der Zeit erzeugen ’ k¨ onnen. So produziert der zellul¨are Automat mit der Codenummer 90 die komplexe Pigmentierung einer Seemuschel. Bei einem dynamischen System wird diese biologische Musterbildung durch nichtlineare Diffusions-Reaktionsgleichungen verwirklicht [33]. Bei einem 2-dimensionalen zellul¨ aren Automaten h¨angen die Zust¨ande der Zellen von den Nachbarzellen in der Ebene ab. So ist z.B. bei der Kreuzform der von-Neumann-Umgebung jede Zelle ein Automat mit 5 Inputs der 4 benachbarten Zellen und dem Zellzustand selber. Damit l¨aßt sich das dendritische Wachstum von Kristallen simulieren. Bei der Entstehung einer Schneeflocke aus einer kalten Kernzelle folgen die Dendriten den k¨alteren Zonen in einer umgebenden Fl¨ ussigkeit. Die lokale Regelanwendung ber¨ ucksichtigt den dabei auftretenden Vorgang der W¨ armedissipation. Der zellul¨are Automat simuliert also die nat¨ urliche Dynamik im diskreten Modell. Oszillierende Ringwellen und Spiralen in erregbaren Medien, wie sie z.B. in der Chemie bei der BZ-Reaktion auftreten, lassen sich ebenfalls durch zellul¨are Automaten simulieren. In diesem Fall sind f¨ ur die Zellen die drei Zust¨ande er’ regt‘, refrakt¨ ar, nicht erregbar‘ und nicht erregt, aber erregbar‘ zu unterschei’ ’ den [19]. Entsprechende Regeln beschreiben die Entwicklung und Oszillation solcher Wellen durch Abfolge dieser Zust¨ande u ¨ber ein schachbrettartiges Feld. Eine bemerkenswerte Anwendung liefert auch die Kardiologie [38]. Etabliert sich im Herzmuskel aufgrund von gesch¨adigtem und nicht mehr erregbarem Gewebe eine Spiralwelle, so wird die Ausbreitung von Aktionspotentialen stark beeintr¨ achtigt. Spiralwellen sind lebensbedrohlich und k¨onnen Herzkammerflimmern ausl¨ osen. Man versucht sie daher etwa durch Defibrillation zu l¨oschen. Im Modell eines zellul¨ aren Automaten l¨aßt sich die Entstehung einer Spiralwelle an einem Hindernis genau studieren. Bereits John von Neumann bewies in den 50er Jahren, daß zellul¨are Automaten unter bestimmten Voraussetzungen in der Lage sind, einzelne Lebenskriterien wie z.B. die Selbstreproduktion zu simulieren. Allerdings scheiterte eine technische Realisation lange an von Neumanns starker Forderung, daß sich
16
K. Mainzer
selbstreproduzierende Automaten die Komplexit¨at einer universellen TuringMaschine haben sollten. In der pr¨abiologischen Evolution hatten die ersten sich selbst reproduzierenden Makromolek¨ ule und Organismen sicher nicht den Komplexit¨ atsgrad eines solchen Supercomputers. Daher entwickelte C. G. Langton (1986) einfachere zellul¨ are Automaten ohne die F¨ahigkeit universeller Berechenbarkeit, die sich spontan in bestimmten Perioden wie Organismen reproduzieren k¨ onnen. Anschaulich erinnern ihre PC-Bilder an einfache zellul¨are Organismen mit kleinen Schw¨ anzen, aus denen sich ¨ahnliche kleine Organismen bilden. Schließlich bedeckt eine Kolonie solcher Organismen den Bildschirm. W¨ahrend sie sich an den Außenr¨ andern reproduzieren, werden die mittleren bei der Selbstproduktion von ihren eigenen Nachkommen blockiert. Wie bei einem Korallenriff bilden sie ein totes zellul¨ares Skelett, auf dem das virtuelle Leben weitergeht. Die Zelldifferenzierung eines wachsenden Organismus l¨aßt sich im dynamischen System durch nichtlineare Differentialgleichungen (Diffusions- und Reaktionsgleichungen) f¨ ur wachstumsf¨ordernde und hemmende Stoffe simulieren. Mit Lindenmayer-Algorithmen kann virtuelles Wachstum im Computer erzeugt werden (z.B. f¨ ur Gametophyten des Farns Miscrosorium linguaeforme). Entspre¨ chende PC-Bilder zeigen eine verbl¨ uffende Ahnlichkeit mit Fotos des biologischen Organismus. Mit zellul¨ aren Automaten und genetischen Algorithmen [18] lassen sich auch wesentliche Aspekte der Evolution simulieren. Die Codenummer eines Automaten mit ihren verschl¨ usselten Befehlen wird als Genotyp eines virtuellen Organismus verstanden: z.B. 100110100010100011 101001110100011000 Der makroskopische Ph¨ anotyp dieses virtuellen Organismus zeigt sich in den zellul¨ aren Mustern, die bei unterschiedlichen Anfangsbedingungen erzeugt werden. Zuf¨ alliger Austausch von 0 und 1 (z.B. durch einen W¨ urfelmechanismus) entspricht einer Mutation. Verschiedene Rekombinationen von Teilstr¨angen der Codenummern sind zugelassen: z.B.
In jeder Generation werden die erzeugten Automaten danach selektiert, wie sie am besten bestimmte Probleme gel¨ost haben. Survival of the fittest‘ kann ’ z.B. in Klassifikationsaufgaben bestehen: Ein Automat muß entscheiden, ob mehr als 50% der Zellen einer zuf¨allig gew¨ahlten Anfangsbedingung im Zustand 1 ( schwarz‘) sind oder nicht. Falls das zutrifft, strebt der Automat in einen Gleich’ gewichtszustand, in dem alle Zellen im Zustand 1 sind. Im anderen Fall strebt er
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
17
in einen Gleichgewichtszustand, in dem alle Zellen im Zustand 0 sind. Die Evolution einer Automatenpopulation bedeutet also, daß genetische Algorithmen mit Mutation, Rekombination und Selektion zur Optimierung von Automatengenerationen f¨ uhren. Im Beispiel ergeben sich bei einem Automatentyp mit r = 3 und ogliche Verteilungen der Zust¨ande 0 und 1 auf 2 · 3 + 1 = 7 k = 2 insgesamt 27 m¨ 7 Zellen, also 128 Regeln pro Automat und 22 = 2128 Automaten. Diese großen Automatenklasse erfordert einen genetischen Algorithmus der Optimierung, um z.B. die genannte Klassifikationsaufgabe zu l¨osen. Eine graphische Darstellung ihrer Evolution zeigt zun¨ achst starke Verbesserung der Fitnessgrade, die schließlich in der 18. Generation in eine S¨attigung u ¨bergehen [5]. Zellul¨ are Automaten lassen sich als diskrete Modelle kontinuierlicher dynamischer Systeme anwenden. Sie eignen sich daher f¨ ur Computersimulationen komplexer Systemdynamik. Analog zu den Phasen¨ uberg¨ angen dynamischer Systeme und ihren Attraktoren wurden aufgrund von Computerexperimenten vier Klassen linealer zellul¨ arer Automaten mit verschiedenen Komplexit¨atsgraden unterschieden. Automaten der 1. Klasse erreichen schon nach wenigen Schritten unabh¨ angig vom Anfangszustand einen Gleichgewichtszustand, von dem ab alle Zellen in Zukunft z.B. weiß bleiben. Es handelt sich also um einen Fixpunktattraktor. Automaten der 2. Klasse erzeugen l¨angere periodisch-konstante Muster. Ver¨ anderungen der Anfangsbedingungen haben nur geringen Einfluß. Automaten der 3. Klasse produzieren sehr lange komplexe Muster mit lokalen Strukturen, die an organische Formen erinnern und empfindlich auf geringste Ver¨anderungen der Anfangsbedingungen reagieren. Automaten der 4. Klasse erzeugen wieder k¨ urzere Muster, die aber in chaotisch-irregul¨are ( fraktale‘) Verteilung der ’ Zellzust¨ ande u ¨bergehen. Sie entsprechen also Chaos. Abweichend von Wolframs (1984) urspr¨ unglicher Einteilung wurden die vier Automatenklassen in einer Reihenfolge genannt, die einen Phasen¨ ubergang von immer komplexer werdenden Strukturen bis zu Chaos nahelegt. Von komplexen dynamischen Systemen wissen wir, daß sich lebende Organismen einerseits von der Erstarrung in zuviel Ordnung im thermischen Gleichgewicht fernhalten m¨ ussen, aber andererseits auch nicht in zuviel Chaos aufl¨osen d¨ urfen. Das w¨ urde den Komplexit¨ atsgraden von zellul¨ aren Automaten als Simulationen dynamischer Systeme entsprechen. Systeme fern des thermischen Gleichgewichts, aber am Rande des Chaos haben den h¨ochsten Komplexit¨atsgrad. Systeme mit hochgradiger Regularit¨at wie z.B. Kristalle in der N¨ahe des thermischen Gleichgewichts oder Systeme mit chaotischer Irregularit¨at wie Molek¨ ule in einem Gas haben geringe Komplexit¨at. Lebende und lernende Organismen wie das hochstrukturierte Molek¨ ulsystem der DNA oder das hochausdifferenzierte menschliche Gehirn h¨atten die h¨ochsten bekannten Komplexit¨atsgrade fern von der Erstarrung der Systeme der 1. Klasse, jenseits auch der periodischen Oszillationen der 2. Klasse wie z.B. bei der BZ-Reaktion, aber im kritischen Phasen¨ ubergang der 3. Klasse am Rande des Chaos der 4. Klasse. Es muß allerdings betont werden, daß der vermutete Zusammenhang dieser Automatenklassifikation mit dem kritischen Phasen¨ ubergang dynamischer Systeme bisher auf Computerexperimenten mit ausgew¨ahlten zellul¨aren Automaten beruht und bestenfalls einem wahrscheinlichen Verhalten zellul¨arer Automaten am Rande
18
K. Mainzer
des Chaos entspricht [34] [14]. Allerdings zeigt Nakamura in seinem Beitrag f¨ ur dieses Buch, daß auch das Versklavungsprinzip der Synergetik durch zellul¨are Automaten simuliert werden kann.
6
Komplexe Systeme in Gehirnforschung und Neuroinformatik
Eine der aufregendsten fach¨ ubergreifenden Anwendungen komplexer Systeme ist das menschliche Gehirn. Dazu wird das Gehirn als ein komplexes System von Nervenzellen (Neuronen) aufgefaßt, die u ¨ber Synapsen elektrisch oder neurochemisch wechselwirken und sich zu Aktivit¨atsmustern ( cell assemblies“) verschal” ten k¨ onnen. Die Dynamik von Gehirnzust¨anden l¨aßt sich dann durch Gleichungen von (makroskopischen) Ordnungsparametern modellieren, die solchen neuronalen Verschaltungsmustern entsprechen. Dabei werden verschiedene empirische Meßverfahren eingesetzt. Dar¨ uber berichten Zbigniew Kowalik und Theodor Leiber. Bei EEG-Aufnahmen mißt ein komplexes System von Elektroden i (1 ≤ i ≤ n) lokale Gehirnzust¨ ande zi mit elektrischen Potentialen. Der Gesamtzustand z(t) = (z1 , . . . , zn ) eines Patienten (z.B. mit petit-mal-Epilepsie) auf der Mikroebene l¨ aßt sich durch lokale Zeitreihen an den Elektrodenorten bestimmen. Die Zeitreihen zeigen bei diesen Patienten i.a. zyklische Wellen mit drei charakteristischen Spitzen pro Sekunde. W¨ahrend eines solchen Zyklus erzeugen die mikroskopischen Gesamtzust¨ande z(t) makroskopische elektrische Feldmuster, die sich in charakteristischer Form ausbreiten. Diese makroskopischen Muster lassen sich durch r¨ aumliche Moden νj und Ordnungsparameter ( Amplituden‘) ’ ξj (j = 1, 2, 3) bestimmen, d.h. z(t) = ξ1 (t)ν1 + ξ2 (t)ν2 + ξ3 (t)ν3 . F¨ ur die makroskopische Dynamik dieser Ordnungsparameter konnte im numerischen Computermodell ein Chaosattraktor im Phasenraum nachgewiesen werden [16]. Allerdings gilt auch f¨ ur die Diagnose komplexer Gehirndynamik, daß es in der Medizin nicht nur um das Erkennen makroskopischer Ordnungsparameter geht. Erforderlich ist ebenso eine geeignete medizinische Interpretation dieser Gr¨ oßen als Krankheits- oder Gesundheitszust¨ande. Viele Neuronen sind nicht fest verdrahtet“ wie die Schaltelemente auf ei” nem Computerchip. Ihre synaptischen Verbindungen lassen sich neurochemisch ver¨ andern. Damit wird eine entscheidende F¨ahigkeit des Gehirns aus seiner stammesgeschichtlichen Evolution erkl¨arbar — das Lernen aufgrund von synaptischer Plastizit¨ at. Nach einem Vorschlag von D. Hebb (1949) k¨onnte eine Lernregel darin bestehen, daß h¨ aufig gemeinsam aktivierte Neuronen ihre Verbindung untereinander verst¨ arken. Dadurch entstehen synaptische Korrelationen (Aktivit¨ atsmuster) im Gehirn, die wiederum Korrelationen von Außenweltsignalen entsprechen. Bei solchen Mustern kann es sich um Worte, Kl¨ange, Bilder oder ganze Situationen handeln. Gehirnphysiologisch wird der Vorgang so beschrieben: Wenn das Axon eines Neurons nahe genug an einem weiteren Neuron ist,
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
19
um es zu erregen, so f¨ uhrt eine gleichzeitige Aktivit¨at zu einer Ver¨anderung des Stoffwechsels einer der beiden Zellen, womit die neurochemische Intensit¨at des Einflusses der Zellen aufeinander erh¨oht wird. So entstehen sich ver¨andernde komplexe Aktionsmuster von Gehirnregionen, die sich z.B. in PET (PositronEmissions-Tomographie)-Aufnahmen des Gehirns bei unterschiedlichen Wahrnehmungen, Bewegungen, Emotionen und kognitiven Leistungen (z.B. Sprechen, Lesen, Rechnen) in Echtzeit beobachten lassen. Wenn man sich etwas merken und einpr¨agen will, so wird das entsprechende Aktivit¨ atsmuster im Gehirn festgehalten, indem der Sachverhalt wiederholt aktiviert wird. Dadurch verst¨ arken sich nach der Hebbschen Regel die synaptischen Verbindungen zwischen den aktivierten Neuronen. Wenn man sich an etwas erinnern will, soll aus Teilen der vollst¨andige Sachverhalt rekonstruiert werden. Diese Form der Mustervervollst¨andigung ( pattern recognition“) geschieht nach ” den Hebbschen Vorstellungen spontan, wenn ein Teil der Neuronen in einem gelernten Muster aktiviert wird. Analog, so hoffen Neurobiologen, lassen sich auch Gedankenassoziationen (z.B. kausale Verbindungen von Ursache und Wirkung bei wiederholten Ereignissen) erkl¨aren. Die Lernregeln sind also die Selbstorganisationsverfahren eines komplexen neuronalen Systems, nach denen sich die Systemteile (Neuronen) unter geeigneten Nebenbedingungen von selbst zu Ordnungsmustern verbinden. Zu ihrer Erkl¨arung reicht allerdings weder die thermodynamische Selbstorganisation aus Physik und Chemie noch die genkodierte Selbstorganisation in der Biologie aus. Nur die M¨oglichkeit des Lernens ist in hochentwickelten Organismen (wie z.B. dem Menschen) mit dem Aufbau eines Nervensystems genetisch vorgegeben. Was wir lernen, wie wir Probleme l¨osen, wie sich unsere Gef¨ uhle, Gedanken und Einstellungen entwickeln, ist genetisch nicht im Einzelnen vorgegeben. Beim Lernen haben wir es daher mit einer neuen Form der Selbstorganisation komplexer neuronaler Systeme zu tun. Die biologische Evolution hat im Laufe von Millionen von Jahren unterschiedlich komplexe neuronale Netzwerke und Lernverfahren entwickelt und ausgetestet. Seit wenigen Jahren untersucht die Neuroinformatik diese Bau- und Lernverfahren der Natur, um sie als Blaupausen‘ f¨ ur lernf¨ahige technische neuronale ’ Netze zu nutzen. In ihrem Beitrag stellen Christoph von der Malsburg und Lorenz Wiskott ein sich selbst organisierendes System der Objekterkennung vor, das sowohl als theoretisches Modell der Neurobiologie als auch als technisches neuronales Netz verstanden werden kann. Bereits anfangs der achtziger Jahre konstruierte der Festk¨ orperphysiker J. Hopfield ein einschichtiges Netz von wechselwirkenden Neuronen, das wie ein physikalisches System (z.B. Ferromagnet) mit einer konstant abnehmenden Energiemenge verstanden werden kann. Um in einem Bild die Dynamik des Netzwerks zu veranschaulichen: Die einzelnen Neuronen gleichen einzelnen Menschen in einer Versammlung, die zun¨achst energiegeladen‘ untereinander eine temperamentvolle Diskussion mit vielen Ein’ zelmeinungen f¨ uhren, um sich schließlich im Gleichgewichtszustand einer mehrheitlichen Entscheidung zu beruhigen, indem sich gewissermaßen die hitzigen Gem¨ uter abgek¨ uhlt haben. Die Dynamik des Hopfield-Systems ist dem Spinglas-Modell nachgebildet. Die energetische Wechselwirkung der magnetischen Atome mit zwei Spinzust¨anden
20
K. Mainzer
( up‘ und down‘) wird nun als Wechselwirkung bin¨arer Neuronen mit zwei ’ ’ Zust¨ anden ( schwarz‘ und weiß‘) aufgefaßt. Dazu stellen wir uns ein schachbrett’ ’ artiges Gitternetz aus bin¨ aren Neuronen vor. Ein Muster (z.B. der Buchstabe A) wird im Gitternetz durch schwarze Punkte f¨ ur alle aktiven Neuronen und weiße Punkte f¨ ur inaktive Neuronen dargestellt. Die Prototypen der Buchstaben werden zun¨ achst dem System eintrainiert‘, d.h. sie werden mit den lokalen Ener’ gieminima im Potentialgebirge des neuronalen Zustandsraums verbunden. Die Neuronen sind mit Sensoren ausgestattet, mit denen ein Muster wahrgenommen wird. Bieten wir nun dem System ein verrauschtes und teilweise gest¨ortes Muster des eintrainierten Prototypen an, dann kann es den Prototypen in einem Lernprozeß wiedererkennen. Der Lernprozeß geschieht durch lokale Wechselwirkungen der einzelnen Neuronen nach den Hebbschen Lernregeln. Sind zwei Neuronen zur gleichen Zeit entweder aktiv oder inaktiv, so wird die synaptische Kopplung verst¨ arkt. Bei unterschiedlichen Zust¨anden werden die synaptischen Gewichte verkleinert. Der Lernprozeß wird so lange durchgef¨ uhrt, bis der gespeicherte Prototyp erzeugt ( wiedererkannt“) ist. Der Lernprozeß entspricht also einem ” Phasen¨ ubergang zu einem Punktattraktor, der wie in einem Ferromagneten nahe dem thermischen Gleichgewicht ohne Zentralsteuerung durch Selbstorganisation geschieht. Hopfield-Systeme arbeiten zwar parallel, aber determiniert. Der Lernprozeß kann daher in einem Tal des Potentialgebirges stecken bleiben, das nicht das tiefste im gesamten Netz ist. Hat z.B. eine Kugel ein Tal erreicht, dann lautet ein naheliegender Vorschlag, das gesamte System ein wenig zu sch¨ utteln, damit die Kugel das Tal verlassen kann, um niedrigere Minima einzunehmen. Starke oder schwache Sch¨ uttelbewegungen ver¨andern die Aufenthaltswahrscheinlichkeit einer Kugel wie bei einem Gasmolek¨ ul, dessen Kollisionen durch Druckund Temperaturver¨ anderungen beeinflußt werden. Bei solchen probabilistischen Netzwerken spricht man daher auch nach dem Begr¨ under der statistischen Mechanik und Thermodynamik von Boltzmann-Maschinen. Sie haben eine gr¨oßere N¨ ahe zu biologischen neuronalen Netzen, da sie sich als fehlertolerant gegen¨ uber kleinen St¨ orungen wie das menschliche Gehirn z.B. bei kleineren Unfallsch¨aden erweisen. Neuronale Netze nach dem Spinglasmodell sind an der konservativen Selbstorganisation komplexer Systeme nahe dem thermischen Gleichgewicht orientiert. Im Vordergrund steht die technisch erfolgreiche L¨osung von Problemen, nicht die Modellierung des Gehirns. Das Gehirn ist n¨amlich ein lebendes System fern vom thermischen Gleichgewicht. Synergetische Computer orientieren sich daher an der dissipativen Selbstorganisation fern des thermischen Gleichgewichts. An die Stelle der Hidden Units‘ der Zwischenschicht treten Ordnungsparameter zur ’ Charakterisierung makroskopischer Schaltmuster der Outputneuronen. In der nichtlinearen Wechselwirkung der Ordnungsparameter setzt sich i.a. einer durch und dominiert die makroskopische Dynamik. Solche Systeme erbringen teilweise Leistungen von Gehirnsystemen wie z.B. dem visuellen Cortex bei der Mustererkennung oder dem assoziativen Ged¨achtnis. Damit ist aber keineswegs gesagt, daß die Signalverarbeitung in entsprechenden Gehirnarealen ebenso abl¨auft wie
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
21
z.B. lasertechnische Wechselwirkungen in einem synergetischen Computer. Diese Frage muß die Neurochemie und Neurobiologie und kognitive Psychologie entscheiden. Hier setzen Michael A. Stadler und John-D. Haynes mit ihrer Untersuchung u at und kognitive Strukturerkennung an. ¨ber Physikalische Komplexit¨ Synergetische Mustererkennung liegt auch den Lehr-Lernprozessen des Bewegungssystems zugrunde, die Karl-Heinz Leist untersucht.
7
Komplexe Systeme in Medizin und Psychologie
Der menschliche Organismus ist ein komplexes zellul¨ares System, in dem best¨andig labile Gleichgewichte durch Stoffwechselreaktionen aufrecht erhalten werden m¨ ussen. Das Netzwerk der Stoffwechselreaktionen einer einzigen Leberzelle zeigt, wie ausbalanciert die lokalen Gleichgewichte sein m¨ ussen, um die globalen Lebensfunktionen zu garantieren. Gesundheit als medizinischer Ordnungsparameter des Organismus beschreibt eine Balance zwischen Ordnung und Chaos [9]. Starre Regulation w¨ urde verhindern, auf St¨orungen flexibel zu reagieren. So funktioniert unser Herz nicht wie eine ideale Pendeluhr. Seine nichtlineare Dynamik ist ein gut untersuchtes Anwendungsgebiet komplexer Systeme in der Medizin. Dazu wird das Herz als ein komplexes zellul¨ares Organ aufgefaßt. Elektrische Wechselwirkungen der Zellen l¨osen Aktionspotentiale aus, die zu oszillierenden Kontraktionen (Herzschlag) als makroskopischen Mustern ( Ordnungsparame’ tern‘) f¨ uhren. Ein Elektrodiagramm ist eine Zeitreihe mit charakteristischen Spitzen f¨ ur die Herzschl¨ age. Um diese Dynamik zu studieren, m¨ ussen geeignete Kontrollparameter ver¨ andert werden. Am menschlichen Herzen sind solche experimentellen Untersuchungen in der Regel aus ethischen Gr¨ unden ausgeschlossen. Daher wird z.B. der Herzschlag eines K¨ uckenembryos untersucht, dessen Rhythmus nach einer Stimulation kurzfristig versetzt wird, um dann wieder dem alten Muster zu folgen. Periodisch wiederholte Stimulationen ver¨andern allerdings die intrinsischen Oszillationen der gemessenen Zeitreihe. Die dadurch entstehende Herzdynamik kann durch eine Differenzengleichung φn+1 = g(φn ) + τ (mod1) erfaßt werden, wobei φn die Oszillationsphase der Herzzellen w¨ahrend der nten Stimulation, g(φn ) die neue Phase nach der n-ten Stimulation und τ das Zeitintervall zwischen den Stimulationen ist [11]. φ liegt zwischen 0 und 1. Die beobachteten Zeitreihen und die entsprechende Differenzengleichung suggerieren auf der Poincar´e-Ebene im Phasenraum eine Dynamik wie bei der logistischen Gleichung. Danach w¨ urde die Herzdynamik einen periodenverdoppelnden Kaskadenverlauf beginnen, der schließlich im Chaos als Zustand des Herzkammerflimmerns m¨ undet. Bei einer Verallgemeinerung dieses Befundes auf das menschliche Herz ist allerdings Vorsicht geboten. Viele Zeitreihenanalysen von Patienten zeigen andere Dynamiken. Wenn Herzschl¨age pro Minute oder Stunde untersucht werden, so schwankt zwar ihre Frequenz h¨aufig unabh¨angig von der Zeitskalierung nach einem a ¨hnlichen Muster. Kardiologen vermuten daher fraktale Strukturen. K¨onnte
22
K. Mainzer
man sie eindeutig in EKG-Kurven bestimmen und deuten, w¨aren Risikopatienten besser zu behandeln. Medizinische Diagnose komplexer Herzdynamik bedeutet aber nicht nur Erkennen von makroskopischen Ordnungsparametern und Attraktoren. Diese Aufgabe genauer Messungen und mathematischer Analyse ist h¨ aufig schwierig genug. Zudem m¨ ussen die gefundenen Ordnungsparameter der Herzdynamik und ihre Attraktoren medizinisch richtig gedeutet werden. Chaos bedeutet nicht notwendig Krankheit und Tod, Regularit¨at nicht Gesundheit. So zeigten Zeitreihen, Spektrum und Phasenportrait eines Patienten acht Tage vor Herzstillstand vollst¨ andig regul¨ares und periodisches Verhalten mit einem Stabilit¨ atspunkt im Phasenraum. In der Kardiologie sind fach¨ ubergreifende Untersuchungen von Medizinern und Mathematikern notwendig , um komplexe Systeme als verl¨ aßliches Diagnoseinstrumentarium zu entwickeln [10]. Zbigniew Kowalik und Theodor Leiber erl¨autern Voraussetzungen und Probleme nichtlinearer Zeitreihenanalysen in der Medizin. Solche Untersuchungen zeigen bereits, daß der Mensch als komplexer Organismus mit vielen zusammenh¨angenden labilen Gleichgewichten aufzufassen ist und nicht als auseinander- und zusammensetzbare Maschine nach dem Vorbild der klassischen Mechanik. Daher f¨ uhrt Uwe an der Heiden in seinem Beitrag den grundlegenden medizinischen Begriff der dynamischen Krankheiten ein. Bei Patienten mit dynamischer Systemerkrankung ist der K¨orper nicht mehr in der Lage, physiologische Gleichgewichte selbstst¨andig auszubalancieren und weitvernetzte Koordinationen zu u ¨bernehmen. Auf der Makroebene sind neben dem Herzschlag die lebenserhaltenden Rhythmen der Atemfrequenz, der regelm¨ aßigen Verdauung, der Hormonzyklen oder des Menstruationszyklus zu erw¨ ahnen. Jeder von uns kennt mittlerweile den Jet-Lag als flugbedingte Zeitst¨ orung des Wachen-Schlafen-Rhythmus. Die Ordnungsparameter dieser makroskopischen Abl¨ aufe werden auf der Mikroebene durch viele biochemische Wechselwirkungen erzeugt, deren chemische Reaktionsgeschwindigkeiten aufeinander abgestimmt sind. Ein Beispiel f¨ ur viele ¨ahnliche komplexe Stoffkreisl¨aufe ist der Zitratzyklus, der z.B. bei der Umwandlung von chemischer Energie in mechanische Muskelkraft eine Rolle spielt. So konnten B. Hess und M. Markus (1984) im Experiment durch geeignete Konzentrations¨anderungen zeigen, wie sich die Periodizit¨ at der Schwingungen bis hin zum Chaos ver¨andern l¨aßt. Die Komplexit¨ at des menschlichen Organismus ist von der organischen bis zur zellul¨ aren Ebene durch immer kleinere Zeitkonstanten bestimmt, deren lokale St¨ orung globale Ver¨ anderungen des Organismus zur Folge haben k¨onnen. Diese Zeitkonstanten vergr¨ oßern sich von den Reaktionsgeschwindigkeiten biochemischer Prozesse u ¨ber Zellteilungszeiten, physiologische Perioden und Frequenzen bis zur Lebensdauer des gesamten Organismus. Viele dynamische Krankheiten erweisen sich daher auch als Zeitst¨orungen auf der Komplexit¨atsskala des Organismus. Letztlich ist ein Organismus in die komplexen Zeitrhythmen der Natur eingebettet. Die biochemischen Reaktionsgeschwindigkeiten h¨angen von den Zeitkonstanten der Chemie und Quantenphysik ab. Die organischen und physiologischen Kreisl¨ aufe h¨ angen von der nat¨ urlichen Nahrungskette, der zivilisatorischen Umwelt und schließlich den großen kosmischen Rhythmen unseres Sonnensystems ab. Dynamische Systemerkrankungen bleiben aber nicht auf den
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
23
somatischen Bereich beschr¨ankt. Die nichtlineare Dynamik des Gehirns f¨ uhrt zu neuen Erkl¨ arungsans¨ atzen (z.B. Psychose) in der Psychiatrie, die H. M. Emrich, F. M. Leweke und U. Schneider untersuchen. Die praktischen Konsequenzen zieht G¨ unter Schiepek in seinem Beitrag Selbstorganisation in psychischen und sozialen Prozessen: Nichtlineare und synergetische Modelle m¨ ussen sich u ufbar ¨berpr¨ in der Psychotherapie bew¨ ahren.
8
¨ Komplexe Systeme in Soziologie und Okonomie
Das Zentralnervensystem l¨ aßt sich als komplexe Population von Neuronen auffassen, zwischen denen Signale und Nachrichten transportiert werden. Entscheidend ist dabei, daß neuronale Systeme nicht zentralgesteuert und programmiert wie ein klassischer von-Neumann-Computer sind. Auch bei Tierpopulationen k¨onnen komplexe nichtlineare Systeme zur Selbstorganisation von Ordnungzust¨anden f¨ uhren, ohne daß sie zentral gesteuert werden. Ein lehrreiches Beispiel sind staatenbildende Insekten wie z.B. Ameisen. Ameisenstaaten scheinen auf den ersten Blick ein deterministisches System zu bilden, in dem die Aktivit¨aten der einzelnen Ameisen programmgesteuert ablaufen. Bei n¨aherer Beobachtung jedoch f¨ uhren die einzelnen Insekten viele Zufallsbewegungen (Fluktuationen) aus, w¨ ahrend die Gesamtorganisation hochgradige Ordnungsstrukturen besitzt, die sich allerdings spontan ¨ andern k¨onnen. Eine stabile Ordnungsstruktur kann z.B. ein Spurennetz sein, das Ameisen von ihrem Nest zu Nahrungsquellen ihrer Umwelt aufbauen. Diese Transportnetze sind zugleich Signalnetze, in denen die einzelnen Tiere u ¨ber chemische Botenstoffe kommunizieren. Eine Nahrungsquelle ist ein Beispiel f¨ ur einen Attraktor der Populationsdynamik, in dem das System vor¨ ubergehend im Gleichgewicht mit seiner Umwelt ist. Wird durch zuf¨allige Fluktuationen einzelner Tiere eine zweite Nahrungsquelle entdeckt, kann das alte Spurennetz instabil und ein neues aufgebaut werden. Das System schwankt zwischen zwei Attraktoren als zwei m¨oglichen Zielzust¨anden, bis es zum Symmetriebruch kommt und sich ein Attraktor in einer Bifurkation durchsetzt. Mit Blick auf die Kulturgeschichte ist es naheliegend, auch die Entwicklung menschlicher Gesellschaften als Dynamik komplexer Systeme zu verstehen. J¨ ager-, Bauern- und Industriegesellschaften breiten sich wie Wetterfronten auf geographischen Karten aus. Schon bei der Industrialisierung des 19. Jahrhunderts bilden Straßen- und Eisenbahnnetze das Nervensystem der sich ausbreitenden Nationalstaaten. P. M. Allen untersuchte in dem Zusammenhang Computermodelle von Stadtentwicklungen. Er ging von einer urspr¨ unglich nahezu gleichm¨ aßig bewohnten Region aus, die von einem schachbrettartigen Netz von Orten bedeckt wurde, an denen die sich ver¨andernden Bev¨olkerungskonzentrationen im Laufe der Zeit zu erfassen waren. Die Orte waren durch Funktionen verbunden, in denen ihre industrielle Kapazit¨at, Verkehrsanschließung, aber auch ihr Freizeit- und Erholungswert zum Ausdruck kamen. Eine Art logistischer Gleichung modellierte die nichtlineare Dynamik der Besiedlung, die sich in neuen Stadtzentren, Industriegebieten, Ballungszonen, Ver¨anderungen des Verkehrsnetzes zeigte.
24
K. Mainzer
Hier setzt Wolfgang Weidlichs Modellierungskonzept der Soziodynamik an, das sich als Teilgebiet der Synergetik versteht. Methodisch wird dazu die Mikroebene individueller Entscheidungen einzelner Menschen von der Makroebene kollektiver Prozesse unterschieden. Die probabilistische Kollektiventwicklung wird durch eine Mastergleichung f¨ ur gesellschaftliche Makrozust¨ande ( Soziokonfigu’ rationen‘) modelliert. Jede Komponente einer Soziokonfiguration bezieht sich auf eine Subpopulation mit einem charakteristischen Verhaltensvektor. In Computergraphiken k¨ onnen die sich ver¨andernden Wanderungsstr¨ome zweier Populationen wie in einer Flußdynamik als unterschiedliche Attraktoren ( Ordnungspa’ rameter‘) dargestellt werden — von Ghettobildungen ( Punktattraktoren‘) u ¨ber ’ oszillierende bis zu chaotischen Zust¨anden. Wir k¨onnen zwar auf der Mikroebene keine individuellen Entscheidungen voraussehen. Auf der Makroebene lassen sich aber m¨ ogliche Szenarien kollektiver Trendentwicklungen unter bestimmten Nebenbedingungen ( Kontrollwerten‘) simulieren. Dabei bleiben allerdings in’ dividuelle kognitive Prozesse und die Kommunikation zwischen Individuen in der Gesellschaft unber¨ ucksichtigt. Klaus G. Troitzsch erl¨autert in seinem Beitrag verschiedene mathematische Modelle von der Spieltheorie bis zu zellul¨aren Automaten, die der nichtlinearen sozialen Dynamik zwischen Individuen gerecht werden. Auch dabei erweisen sich Computersimulationen als n¨ utzliches Instrumentarium. G¨ unter K¨ uppers fragt nach der Selbstorganisation des Sozialen: Wie sollen wir mit Unsicherheit umgehen? Bereits Adam Smith (1723–1790), der Vater der Marktwirtschaft, ging vom Selbstorganisationsprozeß eines komplexen Wirtschaftssystems aus, in dem Angebot und Nachfrage von Produkten zwischen Firmen und Konsumenten die wirtschaftliche Dynamik bestimmen. Dazu nahm Smith einen nat¨ urlichen“ Preis ” an, der sich aus dem Arbeitswert eines Produkts ergibt. Wenn der Marktpreis gr¨ oßer als der nat¨ urliche Preis wird, ist die Profitrate hoch, so daß sich die Produktion ausweitet und damit zur Preissenkung f¨ uhrt. Die umgekehrte Bewegung tritt ein, wenn der Marktpreis kleiner als der nat¨ urliche Preis ist. Durch Gewinnchancen und Verlustrisiken steuert sich also das Marktsystem selbst und strebt einem absoluten Gleichgewichtszustand von Angebot und Nachfrage zu. Smith unterstellte also eine Art konservativer Selbstorganisation, durch die sich im ¨ okonomischen Gleichgewicht der soziale Ordnungszustand einer Gesellschaft ( Wealth of Nation“) von selbst wie durch eine unsichtbare Hand ( invisible ” ” hand“) gelenkt einstellt. Tats¨ achlich lassen sich aber ¨okonomische Systeme nicht mit der konservativen Selbstorganisation von Kristallen und Festk¨orpern nahe dem thermischen Gleichgewicht vergleichen. Als offenes System, das in st¨andigem Stoff-, Energie- und Informationsaustausch mit anderen M¨arkten und der Natur steht, kann Marktwirtschaft keinem Gleichgewichtszustand nat¨ urlicher“ Preise zustreben. Analog ” ¨ wie ein biologisches Okosystem wird sie in st¨andiger Ver¨anderung begriffen sein und empfindlich auf geringste Ver¨anderungen der Randbedingungen reagieren. Zudem sind die Agenten eines Wirtschaftssystems lernf¨ ahige Menschen. Kurzfristige Schwankungen von Konsumentenpr¨aferenzen, unflexibles Reagieren im Produktionsverhalten, aber auch Spekulationen auf Rohstoff- und Grundst¨ ucksm¨arkten liefern Beispiele f¨ ur sensible Reaktionen im Wirtschaftssystem. Daß Fluk-
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
25
tuationen im kleinen sich zu Wachstumssch¨ uben im großen selbst organisieren k¨ onnen (z.B. technische Innovationen wie Webstuhl und Dampfmaschine in der industriellen Revolution), andererseits aber zu chaotischem und unkontrollierbarem Verhalten aufschaukeln k¨onnen (z.B. B¨orsenkrach, Massenverelendung, Arbeitslosigkeit), ist eine historische Erfahrung der Jahrhunderte nach Adam Smith. Hans-Walter Lorenz zeigt in seinem Beitrag, wie die Modellierung nicht¨ linearer Dynamik nun auch von den Okonomen entdeckt wird. Ein Modell zeigt, wie sich der Wettbewerb zwischen zwei konkurrierenden Technologien bei positiver R¨ uckkopplung unter der Bedingung zunehmender Ertr¨ age durch geringste Anfangsfluktuationen entscheidet. Geringste Marktvorteile in der Anfangsphase k¨ onnen dazu f¨ uhren, daß sich eine Technologie immer leichter und deutlicher durchsetzt, ohne daß diese Entwicklung am Anfang vorausgesagt werden konnte. Selbst wenn ein technischer Standard wie z.B. ein Computerbetriebssystem nicht die beste L¨osung unter fachlichem Gesichtspunkt war, kann sie sich global auf diesem Weg durchsetzen. Wissenschaftshistorisch ist bemerkenswert, daß der Schmetterlingseffekt“ in der Wirtschaft bereits 1890 ” ¨ von dem englischen Okonomen A. Marshall erw¨ahnt wurde — also etwa in der Zeit, als Poincar´e die Nichtlinearit¨at der Himmelsmechanik herausstellte. Marshall zeigte, wie ein Unternehmen, das rein zuf¨allig fr¨ uh einen hohen Marktanteil erreicht, seine Konkurrenten u ugeln kann, wenn die Produktionskosten mit ¨berfl¨ zunehmenden Markanteilen fallen. Welche Konsequenzen folgen daraus f¨ ur die wirtschaftliche Praxis? Wie bew¨ahren sich nichtlineare Modelle im wirtschaftlichen Entscheidunsverhalten? Carl J. G. Evertsz, Ralf Hendrych, Peter Singer und Heinz-Otto Peitgen zeigen praktische Anwendungen von fraktaler Geometrie und Chaostheorie bei der Analyse von B¨orsenzeitreihen.
9
Perspektiven fu ¨ r Wissenschaft, Technik und Kultur
Die moderne Wirtschafts- und Gesellschaftsentwicklung h¨angt entscheidend von der Entwicklungsdynamik von Wissenschaft und Technik ab. Wie l¨aßt sich diese Dynamik modellieren? Historisch wurde das Wachstum von Wissenschaft und Technik mit wirtschaftlichen Konjunkturverl¨aufen verglichen. Manche Autoren vermuteten einen Echoeffekt‘ bei wirtschaftlichen Innovationen, die technisch’ wissenschaftlichen Inventionen nachfolgen. Innovationsf¨ahigkeit erweist sich als Schl¨ usselqualifikation f¨ ur komplexe Systeme und nichtlineare Dynamik in Natur und Gesellschaft. Franz Josef Radermacher begreift ein Unternehmen als innovativen Superorganismus, der sich in Lernprozessen selbst organisiert. Das lernende Unternehmen erfordert ein Wissensmanagement, das Kenntnisse der Theorie Komplexer Systeme und nichtlinearen Dynamik voraussetzt. Werner Ebeling, Andrea Scharnhorst, Miguel A. Jim´enez Monta˜ no und Karmeshu untersuchen Evolutions- und Innovationsdynamik als Suchprozeß in komplexen adaptiven Fitnesslandschaften. Dabei werden technologische Trajektorien als Lebenszyklen von Produktion und Technologien mit ihren Innovationsfolgen betrachtet. Mit den Methoden komplexer Systeme stehen uns heute also fach¨ ubergreifende Verfahren zur Verf¨ ugung, um die nichtlineare Dynamik in Natur und Ge¨ sellschaft besser zu verstehen. Tabelle 1 zeigt einen Uberblick u ¨ber die angespro-
26
K. Mainzer
chenen Anwendungen von Physik, Chemie und Biologie u ¨ber Gehirnforschung, ¨ Medizin und Psychologie bis Soziologie, Okonomie, Wissenschafts-, Technikund Innovationsforschung. Da wegen der hohen Nichtlinearit¨at der Probleme vollst¨ andige analytische L¨ osungen nicht m¨oglich sind, treten numerische Approximationen und Computerexperimente immer st¨arker in den Vordergrund. Damit werden methodische Grenzen z.B. f¨ ur Prognose- und Optimierungsverfahren deutlich, aber auch neue Forschungsm¨oglichkeiten und neue Forschungsperspektiven. Formale Methoden und Computerexperimente machen aber nur Sinn in enger Kooperation mit fachspezifischen Beobachtungen, Laborexperimenten und Diagnoseverfahren. Software ersetzt nicht Wetware, Brainware oder Manware, sondern erg¨ anzt sie. Damit sind Perspektiven f¨ ur Wissenschaft und Technik, Politik und Kultur angesprochen. Angesichts nichtlinearer, ja chaotischer Prozesse in Natur und Gesellschaft w¨ are die Vorstellung omnipotenter Plan- und Berechenbarkeit naiv, ein Relikt des Laplaceschen D¨ amons im 19. Jahrhundert. Was ist die Botschaft der Komplexit¨ atsforschung in Natur- und Technik-, Wirtschafts- und Sozialwissenschaften? In komplexen Systemen stellt sich Verantwortung neu, in denen geringe lokale Fehler globale Risiken und Gefahren heraufbeschw¨oren. Betriebswirtschaftliches Versagen einzelner Manager kann Tausende von Arbeitspl¨atzen kosten. Von den Fehlentscheidungen einzelner Politiker oder Parteien ganz zu schweigen. Unsere Konsumentenw¨ unsche k¨onnen sich u ¨ber landwirtschaftliche und industrielle Produktionsprozesse zu langfristigen Umweltsch¨aden aufschaukeln. Ein Arzt und Psychologe sollte den Menschen als komplexen Organismus mit vielen zusammenh¨ angenden labilen Gleichgewichten auffassen und nicht als auseinander- und zusammensetzbare Maschine nach dem Vorbild der Klassischen Mechanik. Falsche lokale Therapien k¨onnen außerordentlich schnell den Gesamtorganismus sch¨ adigen. Das Studium komplexer Systeme in Medizin, Natur-, Technik-, Wirtschaftsund Sozialwissenschaften sollte uns daher in erster Linie sensibel machen f¨ ur die empfindlichen Gleichgewichte in Natur und Gesellschaft, die zusammenbrechen und chaotisch unvoraussehbare Entwicklungen nach sich ziehen k¨onnen. Gutes Meinen und Wollen reichen aber nicht aus. In einer komplexen Evolution m¨ ussen wir die Nebenbedingungen genau studieren, unter denen gew¨ unschte Entwicklungen realisiert werden k¨ onnen. Die Erforschung nichtlinearer komplexer Systeme r¨ at uns also zu sensiblem Agieren und Reagieren in labilen und empfindlichen Gleichgewichtszust¨ anden. Wer aber aus Angst vor Chaos im Nichtstun verharrt, wird von der Eigendynamik komplexer Systeme u ¨berrollt. Am Rande des Chaos ist zwar Sensibilit¨ at gefragt, aber auch Mut, Kraft und Kreativit¨ at zur Probleml¨ osung.
Populationen Artificial Life Systeme (z.B. zellul¨ are Automaten) Gehirn (ZNS) Neuronale Netze Patient Patient Soziale Systeme okonomische Systeme ¨ Forschungsfelder, Forschergruppen
Biologie
¨ Okologie
Informatik
Neuroinformatik
Medizin
Psychologie
Soziologie
¨ Okonomie
Wissenschaftstheorie/ Wissenschaftsforschung
Gehirnforschung
Chemie
Soziale Faktoren (z.B. B¨ urger, Institutionen) okonomische Faktoren ¨ (z.B. Verbraucher, Firmen) Forschungsprobleme, Forscher
Psychische Faktoren
Technische Neuronen Organe, Zellen etc.
Automaten, Prozessoren etc. Neuronen
Genotyp (RNS, DNS) Organismen
Molek¨ ule
Partikel (z.B. Dipole) Partikel (z.B. Atome) Molek¨ ule
Konservative Systeme (z.B. Ferromagnet) Dissipative Systeme (z.B. B´ enard-Konvektion) Konservative Systeme (z.B. Kristalle, Festk¨ orper) Dissipative Systeme (z.B. BZ-Reaktion) Organismen
Physik
Elemente
Systeme
Disziplin
Forschungs- und Forscherdynamik
okonomische Dynamik ¨
Soziale Dynamik
Psychische Dynamik
Dynamik
(‘Phasen¨ uberg¨ ange’) Konservative Phasen¨ uberg¨ ange nahe dem thermischen Gleichgewicht Dissipative Phasen¨ uberg¨ ange fern dem thermischen Gleichgewicht Self-Assembly Formation nahe dem thermischen Gleichgewicht Dissipative Phasen¨ uberg¨ ange fern dem thermischen Gleichgewicht Evolution (z.B. Selbstreproduktion, Mutation, Selektion, Metabolismus) Konservative und Dissipative Populationsdynamik (z.B. Symbiose) z.B. genetische, replikative, mutative, selektive Algorithmen Synaptische Zellverschaltung (elektrisch, neurochemisch) Lernalgorithmen (z.B. Hebb, Backpropagation) Somatische Dynamik
Tabelle 1. Komplexe Systeme in Natur und Gesellschaft
Somatische Attraktoren (Gesundheits-, Krankheitsbilder) Psychische Attraktoren (Gesundheits-, Krankheitsbilder) Soziale Gleichgewichte, Oszillationen, Chaos okonomische Gleichgewichte, ¨ Oszillationen, Chaos Forschungsparadigmen, Forschungsformen etc.
Attraktoren neuronaler Netze
Attraktoren o ¨kologischer Dynamik (z.B. Gleichgewicht) Attraktoren von Computersimulationen Attraktoren der Gehirndynamik
Attraktoren
(‘Ordnungsparameter’) Makroskopische Muster (z.B. Dipolmuster) Makroskopische Muster (z.B. Konvektionsrollen) Makroskopische Muster (z.B. Kristallstrukturen) Makroskopische Muster (z.B. oszillierende Spiralen) Makroskopischer Ph¨ anotyp
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft 27
28
K. Mainzer
Literatur 1. Allen, P. M. (1982) Self-Organization in the Urban System. In: Schieve, W. C., Allen, P. M. (eds.) (1982) Self-Organization and Dissipative Structures. University of Texas Press, Austin, pp. 142–146 2. Barrow-Green, J. (1994) Oscar II’s prize competition and the error in Poincar´e’s memoir on the three body problem. Archive for History of Exact Sciences 48, 107–131 3. Bernoulli, J. (1968) Opera omnia. Vol. I. Olms, Hildesheim 4. Birkhoff, G. (1927) Dynamical Systems. AMS Publ., Providence 5. Crutchfield, J. P., MITCHELL, M. (1994) The evolution of emergent computation. SFI Techn. Rep. SFI-94-03-012. Proc. Nat. Acad. Sci. (USA) 6. Diacu, F. (1996) The solution of the n-body problem. The Mathematical Intelligencer 18, 66–70 7. Eigen, M. (1971) Self-organization of matter and the evolution of biological macromolecules. Naturwissenschaften 58, 465–523 8. Eigen, M., Schuster, P. (1979) The Hypercycle. Springer, Heidelberg Berlin New York 9. Gerok, W. (1989) Ordnung und Chaos als Elemente von Gesundheit und Krankheit. In: Gerok, W., Ax, P. (Hrsg.) Ordnung und Chaos in der belebten und unbe¨ lebten Natur. Verh. D. Ges. Dt. Naturforscher und Arzte, Wiss. Verl.-Ges., Stuttgart, pp. 19–41 10. Glass, L., Hunter, P., McCulloch, A. (eds.) (1990) Theory of Heart. Biomechanics, Biophysics, and Nonlinear Dynamics of Cardiac Function. Springer, New York Berlin Heidelberg London Paris Tokyo Hong Kong Barcelona 11. Glass, L., Shrier, A. (1990) Low dimensional dynamics in the heart. In: [10], pp. 289–312 12. Grassberger, P. (1988) Complexity and forecasting in dynamical systems. In: Petit, L., Vulpiani, A. (eds.) Measures of Complexity. Springer, Berlin Heidelberg New York London Paris Tokyo 13. Großmann, S., Thomae, S. (1977) Invariant distributions and stationary correlation functions of one-dimensional discrete processes. Zeitschrift f¨ ur Naturforschung 32a, 1353–1363. 14. Gutowitz, H., Langton, C. (1995) Mean field theory of the edge of chaos. In: Mor´ an, F., Moreno, A., Morelo, J. J., Chac´ on, P. (eds.) Advances in Artificial Life. Springer, Berlin Heidelberg New York Barcelona Budapest Hong Kong London Milan Paris Tokyo, pp. 52–64 15. Haken, H. (1983) Advanced Synergetics. Instability Hierarchies of Self-Organizing Systems and Devices. Springer, Berlin Heidelberg New York Tokyo 16. Haken, H. (1996) Principles of Brain Functioning. Springer, Berlin Heidelberg New York Barcelona Budapest Hong Kong London Milano Paris Santa Clara Singapur Tokyo 17. Hess, B., Markus, M., M¨ uller, S. C., Plessner, Th. (1989) Nonlinear Dynamics in Chemistry and Biology. Nova Acta Leopoldina NF 61, 79–101 18. Holland, J. H. (1992) Adaption in Natural and Artificial Systems. MIT Press, Cambridge (M.A.), London 19. Kaplan, D., Glass, L. (1995) Understanding Nonlinear Dynamics. Springer, New York Berlin Heidelberg London Paris Tokyo Hong Kong Barcelona Budapest 20. Landau, L. D., Lifschitz, E. M. (1980) Lehrbuch der theoretischen Physik. Bd. V, Bd. IX. Akademie Verlag, Berlin
Komplexe Systeme und Nichtlineare Dynamik in Natur und Gesellschaft
29
21. Langton, C. G. (1986) Studying artificial life with cellular automata. Physica D22, 120–149 22. Laplace, P. S. de (1918) Essai philosophique sur les probabilit´es. Paris 1814; dt. Akadem. Verlagsanstalt, Leipzig ¨ 23. Leibniz, G. W. (1927) Monadologie (1714). Dt. Ubers. H. Herring. Meiner, Hamburg 24. Lorenz, E. N. (1964) The problem of deducing the climate from the governing equations. Tellus 16, 1–11 25. Mainzer, K. (1988) Symmetrien der Natur. De Gruyter, Berlin New York 26. Mainzer, K. (1997) Thinking in Complexity, The Complex Dynamics of Matter, Mind, and Mankind. (3rd enlarged edition), Springer, Berlin Heidelberg New York Barcelona Budapest Hongkong London Milan Paris Santa Clara Singapore Tokyo 27. Mainzer, K. (1997) Gehirn, Computer, Komplexit¨ at. Springer, Berlin Heidelberg New York Barcelona Budapest Hongkong London Mailand Paris Santa Clara Singapur Tokio 28. Mainzer, K. (1997) Komplexit¨ at in der Natur. In: Was kann die Naturforschung leisten? Deutsche Akademie der Naturforscher Leopoldina, Jahresversammlung Halle 1997, Nova Acta Leopoldina NF 303, 166–189 29. Mainzer, K., Schirmacher, W. (Hrsg.) (1994) Quanten, Chaos und D¨ amonen. Erkenntnistheoretische Aspekte der modernen Physik. B.I.-Wissenschaftsverlag, Mannheim, Leipzig, Wien Z¨ urich 30. Mainzer, K., M¨ uller A., Saltzer, W. (eds.) (1998) From Simplicity to Complexity: Information, Interaction, and Emergence. Vieweg, Braunschweig Wiesbaden 31. Markus, M., Hess, B. (1984) Transitions between oscillator modes in a glycolytic model- system. Proc. Nat. Acad. Sci. (USA) 81, 4394–4398 32. McCauley, J. L. (1987) Chaotic dynamical systems as machines. In: Haken, H. (ed.) Computational Systems – Natural and Artificial. Springer, Berlin Heidelberg New York London Paris Tokyo, pp. 188–195 33. Meinhardt, H. (1995) The Algorithmic Beauty of Sea Shells. Springer, Berlin Heidelberg New York 34. Mitchell, M., Crutchfield, J. P., Hraber, P. T. (1994) Dynamics, computation, and the edge of chaos“. A re-examination. In: Cowan, G. A., Pines, D., Meltzer, ” D. (eds.) Complexity. Metaphors, Models, and Reality. Addison-Wesley, Reading (M.A.), Amsterdam Bonn, pp. 497–513 35. M¨ uller, A., Dress, A., V¨ ogtle, F. (eds.) (1996) From Simplicity to Complexity in Chemistry – and Beyond. Vieweg, Braunschweig Wiesbaden 36. Nicolis, G., Prigogine, I. (1977) Self-Organization in Non-Equilibrium Systems. Wiley, New York 37. Poincar´e, H. (1892-1893) Les M´ethodes Nouvelles de la M´ecanique C´eleste. Vol. I-III. Gauthier-Villars, Paris 38. Saxberg, B. E. H., Cohen, R. J. (1990) Cellular automata models of cardiac conduction. In: [10], pp. 437–476 39. Schneider, F. W., M¨ unster, A. F. (1996) Nichtlineare Dynamik in der Chemie. Spektrum Akademischer Verlag, Oxford 40. Tufillaro, N. B., Abbott, T., Reilly, J. (1992) An Experimental Approach to Nonlinear Dynamics and Chaos. Addison-Wesley, Reading (M.A.), Amsterdam, Bonn 41. Wang, Q. (1991) The global solution of the n-body problem. Celestial Mechanics 50, 73–88 42. Weisbuch, G. (1989) Dynamique des Syst`emes Complexes. InterEditions, Paris 43. Wolfram, S. (1984) Universality and complexity in cellular automata. In: Farmer, D., Toffoli, T., and Wolfram, S. (eds.) Cellular Automata. North-Holland, Amsterdam, pp. 1–35
Synergetik: Vergangenheit, Gegenwart, Zukunft Hermann Haken Institut f¨ ur Theoretische Physik I, Zentrum f¨ ur Synergetik, Pfaffenwaldring 57/4, D–70550 Stuttgart, Germany, e-mail:
[email protected] 1
Einleitung
Der vorliegende Artikel beruht auf einem Vortrag, den ich auf der Tagung der Gesellschaft f¨ ur Komplexe Systeme und Nichtlineare Dynamik 1997 hielt. Dieses Jahr stellt f¨ ur das interdisziplin¨are Wissenschaftsgebiet Synergetik, u ¨ber das ich im folgenden berichten will, ein Jubil¨aumsjahr dar, fand doch vor 25 Jahren die erste Tagung u ¨ber dieses Gebiet statt. In meinem Artikel m¨ochte ich einige Grundgedanken der Synergetik in Erinnerung rufen, wie sie auch bei dieser damaligen Tagung schon deutlich in Erscheinung traten, will sodann auf neuere Entwicklungen eingehen, um mich dann einigen Zukunftsperspektiven zu widmen.
2
Vor 25 Jahren: Die Suche nach vereinheitlichenden Gesetzen in Natur und Gesellschaft
Wenn wir uns in unserer Umgebung umblicken, so erkennen wir, daß diese nicht etwas Diffuses ist, sondern aus wohlbestimmten Strukturen besteht, in denen auch hochgeordnete Vorg¨ ange ablaufen. Eine ganze Reihe solcher Strukturen und Vorg¨ ange sind von Menschenhirnen erdacht und von Menschenh¨anden in die Tat umgesetzt worden. Daneben gibt es aber sehr viele Vorg¨ange, an denen der Mensch nicht beteiligt ist, wie wir es etwa bei dem Wachstum von Pflanzen und Tieren, aber auch bei der Formung von D¨ unen, Wolkenstraßen und vielen anderen Naturerscheinungen beobachten. Da diese Strukturen oder auch Verhaltensweisen von alleine, d.h. ohne direkten steuernden Eingriff von außen hervorgebracht werden, spricht man hier von dem Ph¨anomen der Selbstorganisation. Derartige Selbstorganisationsvorg¨ange sind ganz offensichtlich in der Natur weit verbreitet, wobei sich gerade auch in der unbelebten Natur in den letzten Jahrzehnten immer mehr konkrete Beispiele finden ließen, wie etwa Strukturbildungen bei chemischen Reaktionen, wo großfl¨achige Spiralen oder Kreiswellen entstehen, bei Fl¨ ussigkeiten, die von unten erhitzt werden, mit der Bildung von einfachen oder auch komplizierteren Bewegungsmustern, oder schließlich bei der hochgradigen Selbstordnung des Laserlichtes. Obwohl die Ph¨anomene also sowohl in der belebten als auch in der unbelebten Natur weit verbreitet sind, ist es keineswegs selbstverst¨ andlich, daß diese auf den gleichen Gesetzm¨aßigkeiten beruhen, ja es erscheint vielleicht sogar als eine absurde Frage nach solchen vereinheitlichenden Gesetzm¨ aßigkeiten zu suchen. Genau das war es aber, was ich
Synergetik: Vergangenheit, Gegenwart, Zukunft
31
in einer Vorlesung 1969 vorschlug und das zugeh¨orige Forschungsgebiet, das sich mit dieser Aufgabe befaßt, Synergetik nannte. Nachdem ich 1971 gemeinsam mit meinem damaligen Mitarbeiter Robert Graham [1] einen Artikel u ¨ber die Grundgedanken der Synergetik ver¨offentlicht hatte, wollte ich dann doch N¨agel mit K¨opfen machen und dieses Forschungsgebiet gemeinsam mit den zugrundeliegenden Konzepten einer kritischen wis¨ senschaftlichen Offentlichkeit vorstellen. Dazu organisierte ich 1972 eine Tagung mit dem Titel Synergetics - Cooperative Phenomena in Multicomponent Sy” stems“ in Schloß Elmau, Bayern. Damals war es noch eine Ausnahme, in Schloß Elmau eine Tagung abzuhalten, aber umso gr¨oßer war die Aufmerksamkeit des Personals und Managements, und wir fanden dort ein ideales Ambiente vor, in abgeschiedener Bergwelt Vortr¨age zu h¨oren und auch auf ausgedehnten Wanderungen die Resultate zu diskutieren. Am Schluß der Tagung gaben mir meine japanischen Kollegen einen Eindruck wieder, der auch von den anderen Teilnehmern geteilt wurde. Als sie von der Tagung h¨orten, waren sie skeptisch wegen des Anspruchs, vereinheitlichende Gesichtspunkte und Gesetzm¨aßigkeiten bei so ganz verschiedenartigen Systemen zu finden. Am Schluß der Tagung waren sie aber hellauf begeistert und fanden das Konzept u ¨berzeugend. Wie unterschiedlich die behandelten Themen waren, geht aus dem Inhaltsverzeichnis der Proceedings [2] hervor, das ich am Schluß dieses Artikels wiedergebe. Der Gesamteindruck wird wohl auch in dem Vorwort zu dem Proceedingsband, ¨ das ich hier in deutscher Ubersetzung vorlege, deutlich:
Vorwort Auf den ersten Blick hin wird der Leser dieses Buches von der Vielfalt seiner Themen verwirrt sein, die von phasen¨ ubergangs¨ahnlichen Ph¨anomenen bei chemischen Reaktionen, Lasern und elektrischen Str¨omen bis hin zu biologischen Systemen, wie neuronalen Netzwerken und Membranen, zu Populationsdynamik und Soziologie reichen. Wenn er die verschiedenen Untersuchungsobjekte n¨aher betrachtet, wird der Leser indessen erkennen, daß sich dieses Buch mit einem Hauptproblem befaßt: dem Verhalten von Systemen, die aus vielen Elementen von einer oder verschiedener Art bestehen. Wir sind sicher, daß der Leser genauso u urzlichen Symposiums u ¨berrascht sein wird wie die Teilnehmer eines k¨ ¨ber Synergetik, die erkannten, daß derartige Systeme erstaunlich gemeinsame Eigenschaften haben. Obwohl die Untersysteme (z.B. Elektronen, Zellen, Menschen) von ganz verschiedener Natur sind, wird ihre gemeinsame T¨atigkeit durch nur wenige Prinzipien beherrscht, was zu schlagend ¨ahnlichen Ph¨anomenen f¨ uhrt. Es braucht kaum erw¨ ahnt zu werden, daß, sobald solche gemeinsamen Prinzipien etabliert worden sind, sie eine enorme Anregung und Hilfe f¨ ur weitere Forschung sind. Obgleich die Artikel dieses Buches auf eingeladenen Vortr¨agen basieren, die auf dem ersten gemeinsamen Symposium u ¨ber Synergetik in Schloß Elmau vom 30. April bis 6. Mai 1972 gehalten wurden, unterscheidet es sich von u ¨blichen Konferenzproceedings in einer besonderen Weise. Die Autoren und Themen wurden von Anfang an so ausgew¨ahlt, daß schließlich ein gut organisiertes Buch
32
H. Haken
entsteht. Wir hoffen, daß der Leser das gleiche Vergn¨ ugen und den gleichen Enthusiasmus sp¨ uren wird, den die Teilnehmer an diesem Symposium hatten. Ich benutze diese Gelegenheit, um meine tiefe Dankbarkeit meiner Sekret¨arin, Frau U. Funke, auszudr¨ ucken, die in einer ¨außerst effizienten Weise half, dieses Symposium zu organisieren und dieses Buch vorzubereiten. Schließlich m¨ochte ich dem Teubner Verlag, Stuttgart, danken, dessen Leitung spontan zustimmte, dieses Buch u ¨ber ein neues Gebiet herauszugeben. Stuttgart, Juli 1972
H. Haken
Was waren also nun die Konzepte, die hier f¨ ur die Vereinheitlichung bei der Behandlung von Selbstorganisationsvorg¨angen wirksam werden sollten? Wenn wir die verschiedenen Strukturbildungsvorg¨ange zun¨achst einmal schon in der unbelebten Natur ansehen, so hat man den Eindruck, als w¨are hier eine ordnende Hand am Werk. Dies sei z.B. am Laserlicht, das von Anfang an eines unserer wichtigsten Beispiele war, erl¨autert. Ein Laser besteht z.B. aus einer Glasr¨ohre, die mit einem Gas gef¨ ullt ist und an deren Endfl¨achen zwei parallele Spiegel befestigt sind, die aber das Licht teilweise durchlassen k¨onnen. Schickt man einen elektrischen Strom durch das Gas, so kann dieses zu leuchten beginnen. Dies beruht darauf, daß durch den elektrischen Strom die einzelnen Atome energetisch angeregt werden und dann jeweils eine Lichtwelle aussenden, so als w¨ urde man einen Kieselstein ins Wasser werfen. Bei einer normalen Lampe dieser Art entsteht das Licht v¨ ollig ungeordnet, so, als w¨ urde man eine Handvoll Kieselsteine ins Wasser werfen, was eine v¨ollig chaotisch bewegte Wasseroberfl¨ache zur Folge h¨ atte, was beim Licht einer chaotischen Lichterregung entspricht. Beim Laser hingegen entsteht eine v¨ ollig gleichm¨aßige Lichtwelle, so als ob eine ordnende Hand vorhanden w¨ are, die die einzelnen Elektronen der Atome im Takte auf und ab bewegt, also dem ganzen System eine Ordnung aufpr¨agt. Interessanterweise trifft dieses intuitive Bild auf sehr viele Selbstorganisationsvorg¨ ange zu. Es ist tats¨ achlich so, als w¨ urden die einzelnen Teile von einer ordnenden Hand zu einer makroskopischen Struktur oder zu einer makroskopischen Schwingung ausgerichtet. Dies klingt nat¨ urlich mystifizierend und h¨atte mit Naturwissenschaft nichts zu tun. Das Erstaunliche ist aber, daß sich bei einer strengen Behandlung eine oder mehrere mathematische Gr¨oßen finden lassen, die gerade diese Eigenschaft haben, wie eine Art Marionettenspieler auf die einzelnen Teile einzuwirken. Das sind die Ordner, die selbst wieder ganz speziellen Gleichungen gen¨ ugen. Interessanterweise gen¨ ugen Ordner, die zu zun¨achst ganz verschiedenen Systemen geh¨oren, wie etwa zu Laserwellen oder Wolkenstraßen, genau den gleichen Gleichungen, so daß sich auf der Ebene der Ordner sehr starke Analogien zwischen zun¨achst v¨ollig verschiedenen Systemen, die Selbstorganisationsph¨ anomene zeigen, herstellen lassen. Dies war also die Plattform, auf der die erste Tagung u ¨ber Synergetik ablaufen konnte. Woher kommen aber diese merkw¨ urdigen Gr¨oßen, die Ordner oder im Englischen order parameters“ genannt werden. Dies wurde schon am ” Beispiel des Lasers deutlich. Wie sich herausstellte, erzeugen die Atome erst
Synergetik: Vergangenheit, Gegenwart, Zukunft
33
durch ihr gemeinsames Austrahlungsverhalten den Ordner. In diesem Falle in Form der Lichtwelle. Wir sprechen deshalb auch von zirkul¨arer Kausalit¨at. Die Atome erzeugen die Lichtwelle, den Ordner, der Ordner zwingt aber wieder die Atome in seinen ordnenden Bann. Diese zirkul¨are Kausalit¨at ist typisch f¨ ur alle Selbstorganisationsvorg¨ ange. Die Tatsache, daß der Ordner die einzelnen Teile in seinen Bann zieht, was durch eine mathematisch pr¨azise Beschreibung wiedergegeben werden kann, heißt das Versklavungsprinzip der Synergetik. Auch wie die einzelnen Teile eines Systems ihren jeweiligen Ordner hervorbringen, ist mathematisch verstanden. Damit zeichnet sich in mathematisch fundierter Weise das folgende Bild der Selbstorganisationsvorg¨ange in den verschiedensten Wissensgebieten ab. Wir betrachten jeweils ein System, das im allgemeinen aus sehr vielen gleichartigen oder auch verschiedenartigen Teilen besteht, die untereinander in Wechselwirkung stehen, d.h. die Teile k¨onnen sich gegenseitig beeinflussen. Außerdem ist ein solches System ¨außeren Einwirkungen, die aber im allgemeinen unspezifisch sind, ausgesetzt, wie z.B. die Stromzufuhr beim Laser, die W¨armezufuhr bei einer von unten erhitzten Fl¨ ussigkeit, oder auch die Nahrungszufuhr bei Pflanzen und Tieren. Werden nun solche ¨außeren Einwirkungen, also z.B. die Energiezufuhr, ge¨ andert, so paßt sich im allgemeinen das System der neuen Situation ohne eine qualitative Struktur¨anderung an. Bei ganz bestimmten Werten dieser ¨ außeren Gr¨ oßen, der sog. Kontrollparameter, tritt aber eine Instabilit¨ at ein, z.B. eben das Umschlagen des normalen Lichtes in das Laserlicht, wo das System v¨ ollig neue Qualit¨aten erlangt, die vorher weder auf der makroskopischen Ebene noch auf der mikroskopischen Ebene seiner einzelnen Elemente vorhanden waren. Man spricht daher auch von der Emergenz neuer Qualit¨aten. In der N¨ ahe solcher Instabilit¨atspunkte kommt nun die Synergetik zum Tragen. Das System kann hier bestimmte Ordner ausbilden, die dann die einzelnen Teile versklaven und es in einen strukturierten Zustand bringen.
3
Synergetik heute: Komplexe Systeme
In den vergangenen Jahrzehnten wurden vor allen Dingen auch in der unbelebten Natur immer mehr Beispiele f¨ ur Selbstorganisationsvorg¨ange gefunden und analysiert, wobei sich das am Ende des letzten Abschnitts erw¨ahnte Schema immer wieder best¨ atigte. Hier m¨ ochte ich nur zwei Beispiele hervorheben, bei denen ich selbst involviert war. Das erste Beispiel betrifft den synergetischen Computer zur Mustererkennung [3]. An diesem Beispiel wird zugleich deutlich werden, wie stark die durch die Synergetik aufgedeckten Gemeinsamkeiten zu Analogieschl¨ ussen f¨ uhren k¨ onnen, bei denen wir die Erkenntnisse von einem Gebiet auf ein anderes u onnen. Bei der Mustererkennung handelt es sich um das Wirken ¨bertragen k¨ eines sog. assoziativen Ged¨achtnisses. Sehen wir z.B. das Gesicht einer Person, so soll uns hierzu der Name einfallen. Mit anderen Worten: Beim assoziativen Ged¨ achtnis soll ein unvollst¨andiger Datensatz in bestimmter Weise zu einem vollst¨ andigen Satz erg¨ anzt werden. Das Prinzip des synergetischen Computers beruht nun darauf, daß wir hierbei eine Analogie zwischen Mustererkennung und Musterbildung ausn¨ utzen. Dies sei an einem Beispiel aus der Fl¨ ussigkeitsdynamik anhand von Abb. 1 erl¨ autert, die das Resultat einer Computersimulation zeigt:
34
H. Haken
Eine Fl¨ ussigkeit in einem kreisrunden Gef¨aß wird von unten her gleichm¨aßig erhitzt und zwar so stark, daß sich im Prinzip eine Rollenstruktur ausbilden kann. Es wird nun anf¨ anglich ein Streifen von einer aufw¨arts strebenden Fl¨ ussigkeitsrolle vorgegeben. Im Laufe der Zeit gelingt es der Fl¨ ussigkeit, diese Rolle zu einem ganzen System paralleler Rollen zu erg¨anzen. Wird eine andere Richtung vorgegeben, so wird ein anderes Rollensystem etabliert. Besonders lehrreich ist der Fall, wenn wir zwei verschiedene Rollenrichtungen vorgeben. Es setzt dann ein Wettkampf ein, wobei die urspr¨ unglich etwas st¨arkere Rolle gewinnt und dann das Fl¨ ussigkeitssystem ein Streifenmuster gem¨aß dieser gewinnenden Rolle ausbildet. Was passiert hier im Sinne der Synergetik? Den urspr¨ unglich vorgegebenen Rollen entspricht jeweils ein bestimmter Ordner. Zwischen diesen Ordnern findet ein Konkurrenzkampf statt. Nach dem Versklavungsprinzip der Synergetik zwingt dann der gewinnende Ordner das ganze System in seinen Bann. Genau das Gleiche passiert nun bei der Mustererkennung. Wird z.B. der Teil eines Gesichts vorgegeben, so wird der zugeh¨orige Ordner aufgerufen, der aber mit den Ordnern aller anderen m¨ oglichen Gesichter konkurriert, diesen Konkurrenzkampf gewinnt und dann nach dem Versklavungsprinzip dem System die Gesamtstruktur aufpr¨ agt. Dieses Prinzip l¨aßt sich in eine mathematische Form, d.h. in ein spezielles Computerprogramm gießen, bei dem zun¨achst dem Computer einige Prototypmuster, d.h. Gesichter einschließlich Namen, die etwa durch Anfangsbuchstaben kodiert sind, vorgegeben werden (vgl. Abb. 2). Zugleich entspricht jedem Prototyp ein bestimmter Ordner. Wird nun ein Teil eines Gesichtes vorgegeben, so wird der Konkurrenzkampf der Ordner aufgerufen und nach dem Versklavungsprinzip das Gesicht rekonstruiert, wie dies aus Abb. 3 hervorgeht. Die hier zugrundeliegende Dynamik ließ sich in vielerlei Weise erweitern, z.B. zur Erkl¨ arung der Hysterese (Abb. 4) oder des Auftretens von Schwingungen beim Wahrnehmungsvorgang bei sog. Kippfiguren (Abb. 5). Diese Erscheinungen, wie eindeutige Wahrnehmung, Hin- und Herschwanken, Hysterese und weitere lassen sich auch noch auf einer h¨oheren kognitiven Ebene finden, n¨ amlich bei der Entscheidungsfindung. Haben wir eine Entscheidung zu treffen, so ist zumeist der Datensatz unvollst¨andig und muß erg¨anzt werden. Dies tun wir, wie ich behaupten m¨ochte, oft indem wir uns an Vorbilder aus der Vergangenheit anlehnen, d.h. an Prototypentscheidungen. Auch hier kann es, was sich der Leser wohl leicht ausmalen kann, zu den gleichen Handlungsweisen kommen, wie wir es schon unbewußt bei der Wahrnehmung tun. Besonders interessant ist der Fall der Hysterese. Dieser bedeutet auf die Entscheidungsfindung u uher¨bersetzt: Man tut in einer neuen Situation genau das, was man in einer fr¨ en ¨ ahnlichen Situation getan hat, obwohl die neue Situation sich gegen¨ uber der fr¨ uheren wesentlich ge¨ andert hat. Ein weiteres Beispiel f¨ ur die modernere Anwendung synergetischer Erkenntnisse ist die Analyse von magnetischen und elektrischen Feldern im Gehirn. Wie wir wissen, ist unser Gehirn st¨andig von den verschiedenartigsten elektrischen und magnetischen Feldern durchflutet, die sich mit hochsensiblen Sensoren nachweisen lassen. Derartige Felder werden bei den verschiedensten T¨atigkeiten des
Synergetik: Vergangenheit, Gegenwart, Zukunft
35
Abb. 1. Computer-Simulation des Verhaltens einer von unten erhitzten Fl¨ ussigkeit in einem kreisrunden Gef¨ aß. Die Erhitzung wird als so stark angenommen, daß sich Rollen ausbilden k¨ onnen. Linke Spalte von oben nach unten: Eine anf¨ anglich vorgegebene Rolle entwickelt sich zu einem vollst¨ andigen Rollensystem. Mittlere Spalte: entsprechend, aber eine andere Richtung. Rechte Spalte: Konkurrenz von Rollen
36
H. Haken
Abb. 2. Beispiele f¨ ur gespeicherte Gesichter (Muster)
Abb. 3. Erkennung eines Teils eines Gesichts durch den synergetischen Computer
Synergetik: Vergangenheit, Gegenwart, Zukunft
37
Abb. 4. Hysterese bei der Sehwahrnehmung. Betrachtet man die Bildfolge zuerst in der oberen Zeile von links nach rechts und dann in der unteren Zeile ebenso, so erfolgt der Umschlag der Wahrnehmung M¨ annergesicht → Frauengestalt erst in der Mitte der unteren Zeile. Betrachtet man die Bildfolge in umgekehrter Richtung, d.h. von rechts nach links in der unteren Zeile und dann ebenso in der oberen, so erfolgt der Umschlag Frauengestalt → M¨ annergesicht in der Mitte der oberen Zeile
Gehirns untersucht, wobei bisher die Suche nach lokalen Zentren, die f¨ ur verschiedene Gehirnfunktionen verantwortlich sein sollen, im Vordergrund standen. ¨ Aufgrund abstrakter Uberlegungen, die auf Konzepten der Synergetik beruhen, kam ich vor mehr als 10 Jahren zu einem anderen Vorschlag [4]. Betrachten wir n¨ amlich das Gehirn als ein dynamisches System, das im Sinne der Synergetik stets nahe an Instabilit¨ atspunkten arbeitet, um m¨oglichst adaptiv zu sein, so w¨ urden wir in Analogie zu vielen anderen synergetischen Systemen das folgende erwarten: Es bilden sich nahe an Instabilit¨atspunkten großfl¨achige Muster aus, die von wenigen Ordnern bestimmt sind. Auch dies ist nat¨ urlich eine sehr k¨ uhne und weitreichende Hypothese, die nur aufgrund von Experimenten entschieden werden kann. In diesem Sinne brachten Experimente von Kelso [5] einen Durchbruch. Er setzte Versuchspersonen einem periodischen akustischen Signal aus, d.h. einer regelm¨ aßigen Folge von Piept¨onen, wobei die Versuchsperson jeweils einen Knopf zwischen den Piept¨onen dr¨ ucken mußte. Wurde die Folge der Piept¨ one schneller, so konnte von einer bestimmten Folge an die Versuchsperson nicht mehr die Aufgabe erf¨ ullen, sondern sie dr¨ uckte den Knopf zugleich mit dem Piepton. Was geschieht hierbei im Gehirn? Auf den ersten Blick hin zeigten die
38
H. Haken
Abb. 5. Beispiel einer Kippfigur: Die Wahrnehmung junge Frau“ weicht der Wahr” nehmung alte Frau“, dann erscheint“ wieder die junge Frau“ etc. ” ” ”
Magnetfelder eine komplizierte Struktur. Es ließ sich aber nachweisen, daß diese Felder schließlich nur von zwei Ordnern beherrscht werden, die aber einen cha¨ ¨ rakteristischen Ubergang in ihrer Verhaltensweise zeigen, der dem Ubergang dem an den Fingern beobachteten Verhalten entspricht [6]. Es f¨allt an diesen Experimenten auf, daß das Gehirn großr¨aumig und koh¨arent angeregt wird. Das ganze Gehirn vibriert gewissermaßen im Takt in einer sehr spezifischen Weise. Wie neuere Experimente zeigen, reichen diese Erregungen weit in das Gesamtgehirn hinein, so etwa vom motorischen Zentrum hin bis zum vorderen Stirnlappen. Sicherlich ist mit dieser Analyse der Gehirndynamik nur ein allererster Schritt getan, dem noch sehr detaillierte theoretische und experimentelle Untersuchungen folgen m¨ ussen, aber es scheint doch, daß sich hier ein neues Paradigma der Gehirnforschung anbahnt.
4
Verschiedene Wurzeln
Wenn wir uns aus heutiger Sicht die Entwicklung der Selbstorganisationstheorie ansehen, so f¨ allt zumindestens zweierlei auf: 1. Ph¨ anomene, die nur als Randerscheinungen, ja sogar nur als Kuriosit¨aten betrachtet wurden, sind pl¨otzlich in den Mittelpunkt allgemeinen Interesses ger¨ uckt und erscheinen als ein grunds¨atzlich wichtiges Ph¨anomen. Dies gilt z.B. f¨ ur die schon seit der Jahrhundertwende bekannte B´enard-Instabilit¨at [7], bei der in einer von unten erhitzten Fl¨ ussigkeit pl¨otzlich hexagonale Muster auftreten, so wie sie schon manche Hausfrau in ihrem Kochtopf beim Kochen einer Suppe beobachtet hat.
Synergetik: Vergangenheit, Gegenwart, Zukunft
39
2. Zum anderen beobachten wir eine ausgesprochene Trendwende. W¨ahrend es noch bis vor nicht allzu langer Zeit erschien, als w¨ urde die Wissenschaft in immer mehr Teilbereiche zerfallen, die voneinander kaum oder gar nicht mehr Notiz nehmen, so sehen wir heute das Sprießen vieler Tagungen und Zeitschriften, die zum Ziel haben, nach Verbindungen zwischen den Wissenschaften im Sinne der Synergetik, d.h. nach tiefgreifenden gemeinsamen Gesetzm¨aßigkeiten, zu suchen. Ich glaube schon sagen zu k¨onnen, daß die Synergetik-Tagung vor 25 Jahren eine der ersten, wenn nicht sogar die erste war, die dieses Ziel, gemeinsame Gesetzm¨ aßigkeiten aufzusp¨ uren, verfolgte. Je mehr wir uns aber zugleich mit den Einzelwissenschaften befassen, umso deutlicher wird, daß die Theorie der Selbstorganisationsph¨anomene viele Wurzeln hat, wobei aber auch das Augenmerk sich jeweils nur auf spezielle Ph¨anomene in einem Teilbereich richtete. Hierzu geh¨ort zum einen die Fl¨ ussigkeitsdynamik mit dem Studium der B´enard-Instabilit¨at und verwandter Ph¨anomene, wo sich gerade in den letzten Jahrzehnten noch viele weitere und kompliziertere Strukturbildungsvorg¨ ange auffinden und erkl¨aren ließen. Ein weiteres Gebiet ist das der chemischen Reaktionen, bei denen großfl¨achige Musterbildungen auftreten. Hier sei besonders an die bahnbrechenden Arbeiten von Belousov und dann anschließend von Zhabotinsky [8] [9] erinnert. Gehen wir davon aus, daß Gestaltbildungen in der belebten Natur, d.h. bei Pflanzen und Tieren, auf chemischen Reaktion beruhen, so ergibt sich hier eine Br¨ ucke zu dieser Problematik. In seiner Pionierarbeit zur Morphogenese f¨ uhrte Turing [10] das Konzept der r¨ aumlichen Symmetriebrechung und den zugrundeliegenden Mechanismus ein. Laufen in zwei miteinander gekoppelten Pflanzenzellen oder chemischen Reaktionszellenzwei gleichartige Prozesse ab, so kann eine geringf¨ ugige St¨ orung zu einer Symmetriebrechung in dem Sinne f¨ uhren, daß ein Stoff in einer Zelle st¨ arker als in der Nachbarzelle produziert wird und somit dann eine r¨ aumliche Differenzierung bewerkstelligen kann. Dieses Turing-Modell hat sich als konzeptuelle Grundlage zur Erkl¨arung einer Reihe von Musterbildungsvorg¨ angen bei chemischen und biologischen Prozessen bew¨ahrt. Erinnert sei hier nur an die Erweiterung von Lefever, Nicolis und Prigogine [11] [12]. In diesem Zusammenhang sollte erw¨ ahnt werden, dass es sich hierbei um ein kinetisches Modell handelt, nicht aber um ein Modell, das auf Entropie-Erzeugungsprozessen etc. beruht, Vorstellungen, die sich in der Tat nicht bew¨ahrt haben. Ein ganz anderes Gebiet, in dem Dynamiken behandelt wurden, ist das der Gestaltpsychologie, wo etwa Kippfiguren schon fr¨ uhzeitig von K¨ohler [13] im Sinne einer kinetischen Theorie, die allerdings heutzutage als obsolet betrachtet wird, behandelt wurde. Ein anderes wichtiges Beispiel liefert die Theorie der pr¨abiotischen Evolution, wo Eigen [14] die Selektion von Spezies mathematisch untersuchte. Wie sich sp¨ ater herausstellte, sind seine Gleichungen isomorph zu bestimmten Gleichungen der Lasertheorie [15]. Als eine weitere Wurzel f¨ ur Anwendungen der Synergetik und Konzepte der Synergetik, zu denen sich noch viele weitere Beispiele gesellen ließen, seien die ¨ Uberlegungen von Weidlich [16] genannt, der auf mathematische Weise den Um-
40
H. Haken
schlag von ¨ offentlicher Meinung mit dem Umschlag der Magnetisierung in einem Ferromagneten verglich. Aus heutiger Sicht gesehen k¨onnen wir also feststellen, daß Selbstorganisationsph¨ anomene in der einen oder anderen Form schon lange bekannt waren, auch schon mit jeweils speziellen Methoden untersucht worden sind, daß es aber wohl der Synergetik vorbehalten geblieben ist, die Frage nach allgemein g¨ ultigen Gesetzen, die in den verschiedensten Wissenschaftsgebieten gelten, zu stellen und im angedeuteten Rahmen, d.h. Instabilit¨at, Ordner und Versklavung, zu beant¨ worten. Ahnlich wie jenem halbgef¨ ullten Glas Wasser, das der eine als halb voll, der andere als halb leer interpretiert, ergeht es wohl auch der Synergetik. Ist ein Wissenschaftler in einem speziellen Gebiet mit einem Selbstorganisationsph¨anomen und dessen Interpretation vertraut, so kann er zwei Haltungen einnehmen. Entweder er sagt: Durch die von der Synergetik aufgedeckten Gesetzm¨aßigkeiten kann ich nun sehr leicht auch ein Ph¨anomen in einem anderen Gebiet verstehen, oder aber er sagt: Das kenne ich doch alles schon, was ist denn hierbei u ¨berhaupt neu. Zugleich d¨ urfen wir aber auch nicht verkennen, daß jedes Gebiet seine Eigenheiten hat, z.B. die Untersuchung der Eigenschaften der einzelnen Teile eines Systems und daß hierbei die Synergetik nur wenig Hilfestellung leisten kann. Es geht bei ihr vielmehr um ein Verst¨andnis der makroskopischen Strukturen.
5
Chaos und Ordnung
¨ In den letzten Jahren ist auch in der Offentlichkeit die Chaostheorie in das Zentrum der Aufmerksamkeit ger¨ uckt, ja, zuweilen wird das Wort Chaostheorie auch synonym mit Synergetik verwendet. Daher sollen hier noch einige Worte u ¨ber die Beziehung zwischen Chaostheorie [17] und Synergetik gesagt werden. Bei der Chaostheorie handelt es sich zun¨achst um die Untersuchung des Verhaltens scheinbar einfacher Systeme, z.B. eines Pendels, das u ¨ber eine elastische Verbindung mit einem rotierenden Motor verkn¨ upft ist. Bei nur kleinen Pendelausschl¨ agen, d.h. bei geringer Anregung durch den Motor, f¨ uhrt das Pendel sehr gleichm¨ aßige Schwingungen aus. Werden die Ausschl¨age hingegen bei gr¨oßerer Anregung st¨ arker, so kann das Pendel ein v¨ollig unregelm¨aßiges Verhalten, eben das chaotische Verhalten, zeigen. Der Bewegungszustand des Pendels kann dabei durch seinen Auslenkungswinkel und seine Geschwindigkeit gekennzeichnet werden, also durch ganz wenige Gr¨oßen. Dies ist zugleich das Charakteristikum der Chaostheorie. Sie bezieht sich auf das unregelm¨aßige Verhalten sehr weniger Gr¨ oßen, die einfachen mathematischen Gleichungen f¨ ur deren Bewegung gen¨ ugen. Obwohl aber die Gleichungen sehr einfach sind, kann die Bewegung dann sehr kompliziert werden. Was ist aber nun der Zusammenhang mit der Synergetik, die sich ja, wie wir oben gesehen haben, mit dem Verhalten sehr vieler einzelner Teile befaßt. Der Zusammenhang wird u ¨ber das Versklavungsprinzip hergestellt. Wie wir wissen, kann in der N¨ ahe von Instabilit¨atspunkten das Verhalten des Systems durch wenige Ordner wiedergegeben werden. Diese Ordner k¨onnen dann unter bestimmten Umst¨ anden gerade den Gleichungen der Chaostheorie gen¨ ugen. Somit
Synergetik: Vergangenheit, Gegenwart, Zukunft
41
schl¨ agt die Synergetik eine Br¨ ucke zwischen dem Verhalten vieler Teile und weniger Ordner, die sich unregelm¨aßig verhalten k¨onnen und damit dann auch eine unregelm¨ aßige Bewegung der einzelnen Teile eines komplexen Systems hervorrufen. So viel m¨ oge zum Zusammenhang zwischen Chaostheorie und Synergetik gesagt sein. Wenden wir uns aber nun der Zukunft der Synergetik oder vielleicht auch allgemeiner der Theorie der komplexen Systeme zu.
6
Die Zukunft
Beginnen wir mit einem einfachen, einsichtigen Beispiel. Bewegen sich nur wenige Autos auf der Autobahn, so fahren diese praktisch unabh¨angig voneinander. Wird die Dichte gr¨ oßer, so bewegen sich die Autos zwangsl¨aufig gleichm¨aßig. Es kommt zu einem geordneten Zustand. Wird die Dichte zwischen den Autos noch gr¨ oßer, so kann es entweder zu Staus kommen, oder zu Bewegungen in Form von einer Art von, man kann schon fast w¨ortlich sagen, Stoßwellen. Dies Beispiel mag als eine Parabel f¨ ur den Zustand unserer heutigen Welt gelten, sei es in wirtschaftlicher, sei es in politischer, sei es in informationstechnologischer Hinsicht. Das eklatanteste Beispiel ist wohl die Informationstechnologie, dargestellt durch das Internet, an dem jeder, der einen entsprechenden Anschluß besitzt, teilnehmen kann. Sind nur wenige Teilnehmer vorhanden, so geht der Nachrichtenfluß ungest¨ ort vor sich. Bei einer gr¨oßeren Teilnehmerzahl kann es aufgrund der B¨ undelungsvorg¨ ange im Internet zu Informationsstr¨omen kommen, w¨ahrend es bei einer noch st¨ arkeren Teilnehmerzahl zu Staus kommen kann. Was aber noch wichtiger ist, ist eine andere Fragestellung, n¨amlich die Rolle der Server, Computer im Netzwerk also, die aufgrund bestimmter Schlagworte ihre Auswahl treffen. Hierbei tritt immer deutlicher zutage, daß es nicht mehr wie bisher im Sinne der Informationstheorie auf H¨aufigkeiten ankommt, sondern daß immer mehr nach der Bedeutung gefragt wird, wobei das Wort Bedeutung verschiedene Interpretationen gestattet, z.B. Bedeutung f¨ ur den einzelnen Benutzer, aber auch Bedeutung f¨ ur die Gemeinschaft, oder Bedeutung f¨ ur die Zukunft der Gemeinschaft. Hier ergeben sich ganz neuartige Fragestellungen. Eine Reihe von Problemen der Synergetik l¨aßt sich (s. z.B. [18]) in ein informationstheoretisches Gewand kleiden, wobei deutlich wird, daß es bei den zu untersuchenden Nachrichten nur auf H¨ aufigkeiten der in ihnen auftretenden Symbole, z.B. Buchstaben, nicht aber auf die Bedeutung einer Nachricht ankommt. Gerade das Fehlen der Bedeutung erm¨ oglicht die umfassende Entwicklung der Informationstheorie. ¨ Ahnlich ist es auch in der Synergetik. In ihr spielt die Bedeutung der Ordner keine Rolle, sondern es gewinnen solche Konfigurationen der einzelnen Teile, die sich am schnellsten unter gegebenen Umweltbedingungen entwickeln. Fragestellungen wie gut oder b¨ ose, richtig oder falsch, etc. sind hierbei v¨ollig irrelevant. Es entstehen nun v¨ ollig neue Fragestellungen, wenn wir nach den mit den jeweiligen Konfigurationen verkn¨ upften Bedeutungen fragen, Bedeutung f¨ ur das System selbst, Bedeutung f¨ ur die Umwelt des Systems, Bedeutung f¨ ur Partner des Systems. Als ein kleines Beispiel f¨ ur die hier auftretenden Fragestellungen m¨oge der Vergleich zwischen dem Prozeß in einem Laser und bei dem sog. Schleimpilz
42
H. Haken
dienen. Beim Laser erzeugen die einzelnen Atome das Laserlicht, das dann auf die Atome zur¨ uckwirkt und deren Gleichtakt bestimmt. Bei den am¨obenartigen Zellen des Schleimpilzes wird eine bestimmte Substanz cAMP produziert, und zwar in einem bestimmten Takt. Diffundiert diese Substanz im Untergrund und trifft dann wieder auf die Am¨oben, so werden diese zu einer erh¨ohten Produktion von cAMP, und zwar wiederum in einem bestimmten Takt, angeregt. Im Falle des Lasers hat die erzeugte Laserwelle keine Bedeutung f¨ ur den Laser selbst, außer daß sie hier als Ordner auftritt. Die Bedeutung der Laserwelle wird erst durch ihre Anwendungen m¨oglich. Beim Schleimpilz ist dies anders. Die cAMP Konzentration dient den Am¨oben als Signal, um sie an einem bestimmten Ort zu versammeln, um dort dann eine pilzartige Struktur zu bilden. Diese pilzartige ¨ Struktur ist f¨ ur das Uberleben des Schleimpilzes wesentlich, da sich dieser Pilz dann weiter bewegen und neuen Nahrungsquellen zuwenden kann. Kann man die Zielsetzungen der Synergetik in der jetzigen Form als eine Erforschung von emergenten Eigenschaften bezeichnen, so wird die Zukunft, wie ich vermute, in einer Erforschung von Bedeutungen und Bedeutungsrelationen bestehen. Daß hierbei unter anderem Logiker, Linguisten, Computeringenieure, etc. gefragt sind, liegt auf der Hand. Gleichzeitig d¨ urfen hierbei Grundlagenfragen, wie etwa das G¨ odelsche Theorem oder Probleme der Entscheidungstheorie nicht außer acht gelassen werden, wobei ich besonders auf das Buch von Mainzer [19] hinweisen m¨ ochte. Zugleich wird deutlich, daß mit der Frage nach der Bedeutung auch die menschliche Komponente in der Wissenschaft immer mehr in den Vordergrund treten wird, und der Dialog zwischen Wissenschaftlern und den Kr¨ aften, die den politischen Willen verk¨orpern, einen immer gr¨oßer werdenden Raum einnehmen werden, ob wir es als Wissenschaftler wollen oder nicht. Dank moderner Methoden k¨ onnen wir immer mehr experimentelle und theoretische Resultate in einer f¨ ur die Mitwelt kaum mehr aufnehmbaren Weise produzieren. Was werden also die Kriterien f¨ ur die Aufnahme sein? In meinen Augen kann das nur die Bedeutung der jeweiligen Erkenntnis jeweils in einem n¨aher zu definierenden Sinne werden, wobei Fragen aufgeworfen werden, die noch Generationen von Wissenschaftlern der verschiedensten Richtungen besch¨aftigen werden. In der Sprache der Synergetik geh¨oren hierzu z.B. die Fragen: Ist Ethik ein Ord” ner?“, Welche Arten von Ethik sind m¨oglich“, usw. ” Nicht zuletzt aus diesem Grunde freue ich mich, daß die noch junge Gesellschaft f¨ ur komplexe Systeme und nichtlineare Dynamik unter ihrem Vorsitzenden Klaus Mainzer neben der naturwissenschaftlichen auch die geisteswissenschaftlichen Aspekte besonders pflegen wird, wobei h¨ochst interessante neue Einblicke zu erwarten sind.
Synergetik: Vergangenheit, Gegenwart, Zukunft
7
43
Anhang I.
Originaltext des Vorworts [2]
Preface At a first glance the reader of this book might be puzzled by the variety of its topics which range from phase-transition-like phenomena of chemical reactions, lasers and electrical currents to biological systems, like neuron networks and membranes, to population dynamics and sociology. When looking more closely at the different subjects the reader will recognize, however, that this book deals with one main problem: the behaviour of systems which are composed of many elements of one or a few kinds. We are sure the reader will be surprised in the same way as the participants of a recent symposium on synergetics, who recognized that such systems have amazingly common features. Though the subsystems (e.g. electrons,cells, human beings) are quite different in nature, their joint action is governed by only a few principles which lead to strikingly similar phenomena. It hardly needs to be mentioned that once such common principles are established, they are of an enormous stimulus and help for future research. Though the articles of this book are based on invited papers given at the first International Symposium on Synergetics at Schloß Elmau from April 30 to May 6, 1972, it differs from usual conference proceedings in a distinct way. The authors and subjects were chosen from the very beginning so that finally a well organized total book arises. We hope that the reader will feel the same pleasure and enthusiasm the participants at the symposium had. I use this occasion to express my deep gratidude to my secretary, Mrs. U. Funke, who helped me in organizing the symposium and in preparing this book in an extremely efficient way. Finally I wish to thank the Teubner Verlag, Stuttgart, whose management spontaneously agreed to edit this book on a new field. Stuttgart, Juli 1972
8
H. Haken
Anhang II
Contents [2]
H. Haken Introduction to Synergetics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
44
H. Haken
Mathematical and Physical Concepts for Cooperative Systems F.C. Sch¨ ogl Stability Criteria in Non-Equilibrium Thermodynamics . . . . . . . . . . . . . . . . . . . . 21 R. Kubo Relaxation and Fluctuation of Macrovariables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 K. Kawasaki New Method in Non-Equilibrium Statistical Mechanics of Cooperative Systems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 H. Mori Theory of Linear Non-Markoffian Processes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 S. Grossmann Fluctuations near Phase Transitions in Restricted Geometries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 Instabilities and Phase-Transition-Like Phenomena in Physical Systems far from Thermal Equilibrium R. Graham Phase-Transition-Like Phenomena in Lasers and Nonlinear Optics . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 H. Thomas Dynamics of Current Instabilities . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87 R. Landauer, J.W.F. Woo Cooperative Phenomena in Data Processing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 I. Prigogine and R. Lefever Theory of Dissipative Structures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 Biochemical Kinetics and Population Dynamics E.H. Kerner A Gibbs Ensemble Approach to Biochemical Kinetics . . . . . . . . . . . . . . . . . . . . 137 E.W. Montroll, B.J. West Models of Population Growth, Diffusion, Competition and Rearrangement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 H. Kuhn Selforganization of Nucleic Acids and the Evolution of the Genetic Apparatus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 N. Ogita, A. Ueda, T. Matsubara, F. Yonezawa, H. Matsuda Computer Simulation of Helix-Coil Transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
Synergetik: Vergangenheit, Gegenwart, Zukunft
45
Biological Structures W. Reichardt Mechanism of Pattern Recognition by the Visual System of Insects . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 B. Julesz A Cooperative Model of Stereoscopic Depth Perception . . . . . . . . . . . . . . . . . . 194 H.R. Wilson Cooperative Phenomena in a Homogeneous Cortical Tissue Model . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 G. Adam Cooperative Transitions in Biological Membranes . . . . . . . . . . . . . . . . . . . . . . . . 220 K. Tomita A Model for Muscle Contraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 H. Fr¨ ohlich Organisation and Long Range Selective Interaction in Biological and Other Pumped Systems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 M. Wagner Nonlinear Transport as a Possible Key to Physical Understanding in Biology . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 General Structures M.D. Mesarovic Theory of Hierarchical Structures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255 B. Chinitz, G. Crampton, L.P. Kadanoff, S.C. Schwartz, J.R. Tucker, H. Weinblatt Metropolitan Models and Public Policy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 W. Weidlich Fokker-Planck Equation Treatment of Interacting Social Groups . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
Literatur 1. Haken, H., Graham, R. (1971) Synergetik – Die Lehre vom Zusammenwirken. Umschau 6, 191 2. Haken, H. (ed.) (1973) Synergetics – Cooperative Phenomena in Multicomponent Systems. (Proceedings of a Symposium on Synergetics, Elmau 1972) B.G. Teubner, Stuttgart 3. Haken, H. (1991) Synergetic Computers and Cognition. Springer, Berlin 4. Haken, H. (1983) Synopsis and Introduction. In: Ba¸sar, E., Flohr, H., Haken, H., Mandell, A. J. (eds.) (1983) Synergetics of the Brain. Springer, Berlin, pp. 3–25
46
H. Haken
5. Kelso, J. A. S., Bressler, S. L., Buchanan, S., de Guzman, G. C., Ding, M., Fuchs, A., Holroyd, T. (1992) A phase transition in human brain and behavior. Phys. Lett. A169, 134–144 6. Jirsa, V., Haken, H. (1997) A derivation of a macroscopic field theory of the brain from the quasi-microscopic neural dynamics. Physica D99, 503–526 7. B´enard, H. (1900) Rev. G´en. Sci. Pures Appl. 11, 1261, 1309 8. Belousov, B. P. (1959) Sb. Ref. Radats. Med. Moscow 9. Zhabotinsky, A. M., Zaikin, A. N. (1973) J. Theor. Biology 40, 45 10. Turing, A. M. (1952) Phil. Trans. Roy. Soc. B234, 37 11. Prigogine, I., Nicolis, G. (1967) J. Chem Phys. 46, 3542. 12. Prigogine, I., Lefever, R. (1968). J. Chem. Phys. 48, 1695 13. K¨ ohler, W. (1920) Die physischen Gestalten in Ruhe und im station¨ aren Zustand. Vieweg, Braunschweig 14. Eigen, M. (1971) Naturwissenschaften 58, 465 15. Haken, H., Sauermann, H. (1963) Z. Physik 173, 261 16. Weidlich, W. (1971) Brit. J. Math. Stat. Psychol. 24, 251 17. Schuster, H. G. (1988) Deterministic Chaos: An Introduction. 2nd revised ed., VCH Verlagsgesellschaft, Weinheim 18. Haken, H. (1988) Information and Self-Organization. Springer, Berlin 19. Mainzer, K. (1997) Thinking in Complexity. 3. Aufl., Springer, Berlin
Teil II
Physikalische Systeme
48
II. Physikalische Systeme
Chaos und die Entstehung von Ordnung wurden zun¨achst f¨ ur ausgew¨ahlte niedrigdimensionale physikalische Systeme gefunden. Voraussetzung ist die nichtlineare Dynamik der Systeme. Heute zeigt sich, daß Methoden dieser Beispiele nicht einfach auf großskalige nat¨ urliche Systeme u ¨bertragen werden k¨onnen — von z.B. Erd- und Umweltwissenschaften bis zur Astrophysik. Was leistet die nichtlineare Zeitreihenanalyse solcher Systeme heute? Was ist unter Selbstorganisation komplexer physikalischer Systeme zu verstehen?
Chaos(-Theorie) in der Physik: Wo stehen wir? Siegfried Großmann Fachbereich Physik, AG Statistische Physik, Philipps-Universit¨ at Marburg, Renthof 6, D–35032 Marburg, Germany, e-mail: grossmann
[email protected] Chaos“ — ein ethymologisch beladener, die Phantasie anregender Begriff, ein ” wenig protestlerisch, wider das Geregelte, aber auch mit Kreativit¨at assoziiert. Wurzelnd im griechischen χαωσ, g¨ahnen, religi¨os u ¨berh¨oht als Tohuwabohu, erf¨ ahrt dieser Begriff in der heutigen Physik und in vielen anderen Disziplinen eine sehr n¨ uchterne Definition: Chaos kennzeichnet eine dynamische Qualit¨at, steht als K¨ urzel f¨ ur eine komplexe raum-zeitliche Dynamik. Signale x(t) heißen chaotisch, wenn sie dauernd zeitlich ver¨anderlich, nicht periodisch, aber beschr¨ ankt sind. Manchmal nimmt man in die Definition noch die Endlichkeit der Dimension mit auf, doch gibt es hierf¨ ur, außer der liebgewordenen Unterscheidung zum Rauschen (mit D = ∞) keinen besonderen sachlichen Grund. Chaotisches Verhalten wird erzeugt, wenn die Bewegungsgesetze intern expansive L¨ osungen in einem beschr¨ankten Zustandsraum erzeugen, wenn es also zu stretching and folding kommt. Viele vorher unverstandene Experimente und Ph¨anomene lassen sich qualitativ und quantitativ durch diese neue/alte dynamische Qualit¨at verstehen. Trotz statischer ¨ außerer Bedingungen zeigen Systeme mit chaotischer Dynamik so etwas wie dauernde innere Nervosit¨at, anhaltendes, aber nicht-periodisches zeitliches Schwanken auf beschr¨ankter Skala. Das u at zahlreicher Naturgesetze. ¨bergeordnete Prinzip ist die Nichtlinearit¨ Nicht nur eine schwache, bloß quantitative Abweichungen vom linearen Verhalten erzeugende Nichtlinearit¨at, sondern eine wesentliche, starke, eine neue dynamische Qualit¨ at erzeugende Nichtlinearit¨at ist gemeint. Die drei Kinder dieser Mutter Nichtlinearit¨ at“ sind ” (i) Vielskaligkeit, (ii) Selbst¨ ahnlichkeit, (iii) Chaos. Vielskaligkeit, Selbst¨ ahnlichkeit, Chaos lassen sich an zahlreichen experimentellen Befunden bei nichtlinearen Systemen aufzeigen, um so klarer, je reiner“ die ” Nichtlinearit¨ at ist, am besten von einfachem Potenzcharakter. Die nichtlinearen Ph¨ anomene haben zu ihrer Beschreibung die Entwicklung charakteristischer Begriffe bewirkt, wie Fraktalit¨at, seltsamer Attraktor, K-Entropie, LyapunovDimension, invariante Dichte ρ, usw. Die drei Kinder der Nichtlinearit¨at treten einzeln oder gemeinsam auf. So sind die sch¨onen fraktalen L¨osungen einfacher diskreter Abbildungen zwar vielskalig und selbst¨ahnlich aber alles andere als chaotisch, so gibt es chaotische L¨osungen eben solcher diskreter Abbildungen ohne einen Hauch von Selbst¨ahnlichkeit, so gibt es aber auch, z.B. in hoch tur-
50
S. Großmann
bulenten Str¨ omungen, das gleichzeitige Auftreten sehr vieler Skalen, von mm bis km, mit selbst¨ ahnlichem Potenzgesetz f¨ ur die mittlere Energieverteilung auf die Wirbel, im Einzelverlauf der Str¨omung hochgradig irregul¨ar, chaotisch. Es ist dieses Tripel Vielskaligkeit-Selbst¨ahnlichkeit-Chaos, das das Verst¨andnis großer, interessanter und f¨ ur viele Anwendungen wichtiger Ph¨anomenbereiche erm¨ oglicht hat, was disziplinen-¨ ubergreifende Erkl¨arungsmuster geschaffen, was neue Ordnung in die F¨ ulle von physikalischen Vorg¨angen gebracht hat. Wie ist der derzeitige Erkenntnisstand, was sind die aktuellen Fragen? Hier eine Auswahl an Antworten mit einer Auswahl an exemplarischen Beispielen: 1. Der Trend geht von den niedrigdimensionalen, sich nur zeitlich ver¨andernden Modellsystemen zu hochdimensionalen, sich raum-zeitlich strukturierenden Systemen. Beispiel: Wirbelverteilung und Signalanalyse hoch turbulenter Str¨ omungen. 2. Der Trend geht von den Modellen, den wunderbaren Spielzeugsystemen, zu realen/realeren Systemen, geht bei abnehmender Besch¨aftigung mit immer neuen Bifurkationen hin zum Studium komplexer, vernetzter Systeme von großer Erscheinungsvielfalt. 3. Aus den f¨ ur die niedrigdimensionalen Modelle entwickelten mathematischen Konzepten und Begriffen filtern sich nun erst allm¨ahlich die f¨ ur h¨oherdimensionale komplexe chaotische Systeme geeigneten Begriffe und Methoden heraus. Beispiele sind die Absch¨atzungen der Lyapunoff-Dimension aus den partiellen Differentialgleichungen f¨ ur die Bewegung, ist die Idee selbst¨ahnlicher Moden-Selektion zur dadurch erstmals m¨oglichen numerischen Analyse vielskaliger, hochdimensionaler Systeme, sei es in nur r¨aumlich homogener Aufl¨ osung oder in r¨ aumlich strukturierter, dann durch wavelets. Wichtige Fortschritte zeichnen sich ferner ab bei der Frage nach der numerischen Validit¨ at unserer heutigen numerik-intensiven Methoden im Angesicht der empfindlichen Abh¨ angigkeit der berechneten L¨osungen von den Anfangsbedingungen und St¨ orungen, wozu nat¨ urlich auch Rundungsfehler z¨ahlen: shadowing and beyond. Zu erw¨ahnen ist schließlich die wichtige M¨oglichkeit der linearen Antwort in den Erwartungswerten von nichtlinearen, chaotischen Systemen auf kleine ¨ außere St¨orungen. 4. Waren die neu entdeckten chaotischen Eigenschaften nichtlinearer Systeme zun¨ achst sehr u ¨berraschend, unserer an linearen Ph¨anomenen geschulten Anschauung fremd und ohne numerische L¨osungen der Bewegungsgleichungen schwerlich zu untersuchen, so scheint die allm¨ahliche Schulung eines an” schaulichen nichtlinearen Denkens“ Fortschritte zu machen. Ein a¨hnlicher Entwicklungsprozeß scheint im Gange zu sein, wie ihn die Quantenmechanik l¨ angst abgeschlossen hat: War letztere unseren Lehrern noch unheimlich, der klassischen Modellierung bed¨ urfend, so ist sie f¨ ur unsere Sch¨ uler heute eine einfache, selbstverst¨andliche, anschaulichen Umgang erlaubende, gewissermaßen klassische“ Physik der Mikrowelt. An einem analogen ” Prozeß zum Erlernen eines anschaulichen nichtlinearen Denkens“ gilt es ” derzeit zu arbeiten. Beispiele sind die anschauliche Erkl¨arung f¨ ur Instabilit¨ aten in nichtlinearen, offenen Systemen fern vom Gleichgewicht, etwa der bekannten Taylor-Couette-Instabilit¨at, deren Stabilit¨atsgrenze in ihrem viel-
Chaos(-Theorie) in der Physik: Wo stehen wir?
51
parametrigen Phasenraum, inclusive eines typischen Skalenverhalten dieser Grenze, sich mit wenigen physikalischen Argumenten herleiten l¨aßt, ohne die m¨ uhsamen Details der Stabilit¨atsanalyse eines Vektorgleichungssystems durcharbeiten zu m¨ ussen. Ein anderes Beispiel ist die einfache nichtlineare Physik von sonolumineszierenden Blasen, deren feinziselierte Charakteristika, deren auf nur kleine Bereiche im Parameterraum beschr¨ankte stabile Realisierungsm¨oglichkeit, deren Abh¨ angigkeiten von den physikalischen Parametern sich durch wenige physikalisch trotz starker Nichtlinearit¨at einfache Gesetzm¨aßigkeiten beschreiben und verstehen lassen; vielleicht auch schon sehr bald inclusive des Mechanismus f¨ ur die Lichterzeugung selbst. Ein weiteres Beispiel, diesmal weit von den u ur In¨blichen Mechanismen f¨ stabilit¨ at gegen¨ uber kleinen ¨außeren St¨orungen entfernt, zeigt einen ganz neuen Mechanismus zur Strukturbildung in nichtlinearen Systemen auf: die nichtlineare Nichtnormalit¨ at“. Diese erkl¨art, wie es zur Turbulenz kommt, ” obwohl die laminare Str¨omung im eigentlichen Sinne linear stabil bleibt. 5. Schließlich geht der Trend zu gezielten Anwendungen der Begriffswelt der nichtlinearen, chaotischen Dynamik auf konkrete Systeme. So kann man nicht nur l¨ angst bekannte, aber r¨atselhafte Ph¨anomene mit unregelm¨aßiger, selbst¨ ahnlich strukturierter Dynamik verstehen, sondern die nichtlineare Dynamik gezielt zum Zwecke“ einsetzen. Gewiß gibt es zahlreiche, insbe” sondere transdisziplin¨ are Beispiele, wie etwa ein Diagnoseverfahren zum Erkennen der Gefahr des pl¨otzlichen Herztodes, Steuerungsm¨oglichkeiten von komplexen, chaotischen Abl¨aufen, Vorhersage-Algorithmen, PredictabilityPortraits, und was man bei Klima-Vorhersagen u ¨berhaupt aussagen kann, usw. Hier, bei den Anwendungen, liegt noch ein weites offenes Feld, das f¨ ur die Weiterentwicklung der Chaosphysik von gr¨oßtem Interesse und von gr¨ oßter Bedeutung ist. Chaos — wo stehen wir? ¨ Die Pionierzeit mit ihren fast t¨aglichen Uberraschungen, unglaublich spannenden und reizvollen neuen Einsichten, mit ihren raschen begrifflichen Entwicklungen, der sich bunt entfaltenden Vielgestalt hinter so unschuldig einfach aussehenden Gleichungen, sie ist nun l¨angst abgel¨ost worden durch die Ausarbeitungsund Anwendungsphase, mit mancher m¨ uhseligen K¨arrner-Arbeit, aber andererseits mit der noch interessanteren und wichtigeren Zuwendung zur realen Welt der nat¨ urlichen Ph¨ anomene, deren anschaulicher Bew¨altigung, deren neuartiger mathematisch-methodischer Analysierbarkeit, deren Auswirkungen und Anwendungen auch außerhalb der Physik in zahlreichen Disziplinen jenseits von ihr. Chaos-Physik, ein unvermindert spannendes Feld.
Nichtlineare Dynamik in der Physik: Forschungsbeispiele und Forschungstrends J¨ urgen Kurths, Norbert Seehafer und Frank Spahn Institut f¨ ur Physik, Max-Planck-Arbeitsgruppe f¨ ur Nichtlineare Dynamik, Universit¨ at Potsdam, PF 601553, D–14415 Potsdam, Germany, e-mail:
[email protected] 1
Einleitung
Nichtlineare Prozesse sind in Natur, Technik und Gesellschaft weit verbreitet. Bei der Untersuchung dieser Ph¨anomene gibt es heute schon große Fortschritte, die sich aber haupts¨ achlich auf Systeme mit wenigen Freiheitsgraden (niedrigdimensionale Systeme) beziehen. Reale komplexe Systeme sind allerdings im allgemeinen hochdimensional; typische Beispiele daf¨ ur finden sich in den Erdund Umweltwissenschaften oder der Astrophysik. Schwerpunkt sind dabei Fragestellungen zu kritischen Ph¨anomenen, z.B. Klima-relevante Variationen der Sonnenaktivit¨ at oder die Vorhersagbarkeit starker Erdbeben. Diese nat¨ urlichen Systeme, die meist fernab vom thermodynamischen Gleichgewicht sind, zeichnen sich durch vielf¨ altige komplexe R¨ uckkopplungen und reichhaltige Dynamik in einem breitbandigen Spektrum raumzeitlichen Verhaltens aus; sie sind eine besondere Herausforderung f¨ ur die Nichtlineare Dynamik. Das f¨ ur niedrigdimensionale Systeme entwickelte Instrumentarium, wie etwa Bifurkationsanalyse oder Charakteristik mittels fraktaler Dimensionen, l¨aßt sich nicht einfach auf die Analyse derartiger großskaliger nat¨ urlicher Systeme u ¨bertragen. Im Unterschied zu Laborexperimenten, in denen die experimentellen Bedingungen weitgehend kontrollierbar sind, ergeben sich bei Messungen nat¨ urlicher Systeme zus¨ atzliche Schwierigkeiten. Besonders hervorzuheben ist dabei, daß derartige Messungen nicht unter gleichen Bedingungen wiederholt werden k¨ onnen und daß es sich h¨aufig um Beobachtungen transienter Ph¨anomene handelt. Im folgenden zeigen wir an einigen Beispielen, wie derartige komplexe Prozesse untersucht werden. Zun¨achst werden Strukturbildungsph¨anomene in magnetohydrodynamischer Turbulenz, wie sie in großskaligen kosmischen Magnetfeldern, z.B. im Zusammenhang mit der Sonnenaktivit¨at, entstehen, diskutiert. Die Dynamik und Kinetik planetarer Ringe, deren Strukturreichtum durch die Experimente der Voyager-Raumsonden aufgedeckt wurde, steht im Mittelpunkt des darauffolgenden Abschnittes. Schließlich wird auf die Vorhersagbarkeit von Erdbeben eingegangen.
Nichtlineare Dynamik in der Physik
2
53
Kontinuierliche dynamische Systeme und astrophysikalischer Magnetismus
Abbildung 1 zeigt eine R¨ ontgenaufnahme der Sonne. Erh¨ohte Emission (helle Regionen) ist dort zu erkennen, wo verst¨arkt magnetische Energie in Plasmaenergie (W¨ arme) umgewandelt wird.
Abb. 1. Die Sonne im weichen R¨ ontgenlicht, am 8. Mai 1992 vom Satelliten YOHKOH aus aufgenommen. Plasma mit Temperaturen u ¨ber einer Million Grad Kelvin ist sichtbar. Erh¨ ohte Strahlungsintensit¨ at l¨ aßt Regionen (weiß-gelb) mit starken Magnetfeldern erkennen und gibt dort die Topologie bogenartiger, in tieferen Schichten verankerter magnetischer Feldlinien wieder
Alle Formen der Sonnenaktivit¨at verdanken ihre Existenz dem variablen solaren Magnetismus. Der 22-j¨ahrige Sonnenfleckenzyklus wird durch einen im Innern der Sonne (in der Konvektionszone) arbeitenden Dynamo verursacht. Die meisten der energetischen Erscheinungen in den ¨außeren Schichten der Sonne, in die wir hineinsehen k¨ onnen, sind Manifestationen der Freisetzung magnetischer Energie. Weiterhin liefert das Magnetfeld das Verbindungsglied zwischen den verschiedenen Aktivit¨ atserscheinungen, wie z.B. Flecken und Eruptionen. Folglich ist ein wesentlicher Teil der Sonnenforschung auf Magnetfelder konzentriert. Den theoretisch-physikalischen Rahmen zum Verst¨andnis der grundlegenden Erscheinungen der Sonnenaktivit¨at liefert die Magnetohydrodynamik (MHD), die physikalische Theorie elektrisch leitender Fl¨ ussigkeiten. Die turbulente Bewegung einer Fl¨ ussigkeit, ob elektrisch leitend oder nicht, ist ein herausragendes Beispiel komplexen Verhaltens in einem r¨aumlich kontinuierlichen, also unendlich-dimensionalen System und stellt eines der fundamentalen Probleme der Physik dar. Es ist u ¨blich geworden, Turbulenz als Synonym f¨ ur einen hochangeregten Zustand in einem System mit vielen Freiheitsgraden, zumeist ein kontinuierliches Medium, zu gebrauchen. Voll entwik-
54
J. Kurths, N. Seehafer und F. Spahn
kelte Turbulenz kann im allgemeinen nur statistisch, ohne explizite L¨osung der maßgeblichen Gleichungen, behandelt werden. Im Gegensatz zu endlich-dimensionalen Systemen werden r¨aumlich kontinuierliche Systeme durch partielle Differentialgleichungen (PDE) beschrieben, und ihr Phasenraum ist ein Funktionenraum. Bislang gibt es nur wenige allgemeine mathematische Aussagen u ¨ber das qualitative Verhalten dynamischer Systeme, die auf Funktionenr¨aumen definiert sind. Theoretische Untersuchungen beschr¨ anken sich zumeist auf lineare Stabilit¨atsuntersuchungen station¨arer Zust¨ ande bzw. auf numerische Simulationen einzelner System-Trajektorien. Letztere k¨ onnen sehr n¨ utzlich sein und z.B. auch die Charakterisierung von Attraktoren erlauben. Damit bezeichnet man Zust¨ande des Systems, die nach langer Zeit (zeitasymptotisch) realisiert werden. Dennoch k¨onnen Simulationen stets nur partielle Einblicke in die Gesamtstruktur der L¨osungsmenge liefern. Ein u ¨bergeordnetes Ziel bei der Untersuchung r¨aumlich kontinuierlicher Systeme ist die qualitative Analyse. Mit ihr werden alle m¨oglichen Attraktoren des Systems bestimmt, ihre Einzugsbereiche im Phasenraum ermittelt und die bei Variation charakteristischer, extern vorgegebener Systemparameter auftretenden Bifurkationen berechnet. Als Bifurkationen bezeichnet man die qualitativen Ver¨anderungen der Attraktoren, einschließlich ihres Entstehens oder Verschwindens. W¨ ahrend voll entwickelte Turbulenz bisher noch eine statistische Beschreibung erfordert, k¨ onnen Methoden der Bifurkationsanalyse benutzt werden, den ¨ Ubergang von laminaren zu turbulenten Zust¨anden zu erforschen. Eine realistische Modellierung etwa der Vorg¨ange auf der Sonne erfordert die Untersuchung des vollen nichtlinearen Systems der partiellen Differentialgleichungen der MHD, die zudem noch nichtlinear mit thermodynamischen Gleichungen verkoppelt sind. An die L¨ osung eines derartig komplexen Problems kann man sich nur schrittweise heranarbeiten. In den folgenden Abschnitten wird auf Untersuchungen st¨ arker abgegrenzter und daher einfacherer, aber immer noch sehr komplizierte Probleme eingegangen. 2.1
Extern getriebene Wirbelstr¨ omungen
Wir beginnen mit der Beschreibung von Untersuchungen, die durch Laborexperimente motiviert sind, welche großskalige Strukturbildung zeigen [39] [7]. Im Experiment wird in einer d¨ unnen Schicht einer Elektrolytl¨osung mittels externer Permanentmagnete in Kombination mit einem durch die L¨osung geleiteten elektrischen Strom ein Feld von Str¨omungswirbeln angetrieben. Es werden die qualitativen Ver¨ anderungen der Str¨omung bei Ver¨anderung der elektrischen Stromst¨ arke, d.h. Ver¨ anderung der Reynoldszahl (der St¨arke des externen Antriebes der Str¨ omung), untersucht. Die beobachteten Erscheinungen k¨onnen mittels der zweidimensionalen (2D) Navier-Stokes-Gleichung mit ¨außerer Kraft modelliert werden [4]. Die Navier-Stokes-Gleichung ist die Bewegungsgleichung f¨ ur Fl¨ ussigkeiten. In ersten Untersuchungen beschr¨ankten wir uns auf die Betrachtung periodischer horizontaler Randbedingungen und analysierten das dynamische Langzeitverhalten in Abh¨angigkeit von der Reynoldszahl. Es zeigt sich, daß die Symmetrie des Systems, die durch die ¨außere Kraft (das sogenannte Forcing)
Nichtlineare Dynamik in der Physik
55
und die periodischen Randbedingungen bestimmt wird, einen wesentlichen Einfluß auf das Bifurkationsverhalten hat. In einer ersten Bifurkation spaltet eine zeitunabh¨ angige stabile L¨ osung, bestehend aus 8 × 8 Wirbeln, in sechzehn koexistierende instabile Zust¨ ande auf, die in einem heteroklinen Zyklus verbunden sind. Letzteres bedeutet, daß diese L¨osungen im Verlaufe der Zeit nacheinander zyklisch vom System besucht“ werden. Dieser Zyklus wiederum weicht f¨ ur h¨ohe” re Reynoldszahlen chaotischen Zust¨anden. F¨ ur ein starke Anregung wurde eine inverse Energiekaskade, die großskalige Strukturen bildet, beobachtet (Abb. 2). Bei direkten Kaskaden wird Energie von großen zu kleinen r¨aumlichen Skalen transferiert, bei inversen Kaskaden in umgekehrter Richtung.
Abb. 2. Inverse Energiekaskade von kleinen zu großen Skalen in der 2D Navier-StokesGleichung. Bei kleinen Reynoldszahlen entsteht ein Gitter entgegengesetzt rotierender kleiner Wirbel, die exakt das externe Forcing widerspiegeln (links). Bei h¨ oheren Reynoldszahlen erzeugt dasselbe kleinskalige Forcing großskalige Wirbel (rechts)
Die Gesamtdynamik in diesem Bereich wird durch mehrere parallel existierende L¨ osungszweige mit station¨aren, periodischen, quasi-periodischen und chaotischen L¨ osungen bestimmt (und nur einer der Zweige zeigt die inverse Energiekaskade). F¨ ur den Parameterbereich, in dem die großskaligen Strukturen auftreten, wurden auch die Bahnen von Fl¨ ussigkeitsteilchen (Lagrangesche Dynamik) studiert. Ziel war es, Kriterien und quantitative Maße zu finden, die die Lagrangesche Dynamik mit der des Geschwindigkeitsfeldes im Phasenraum in Verbindung setzten. Das heißt, wir wollten verschiedene Regimes des Geschwindigkeitsfeldes, wie z.B. periodische L¨osungen im Gegensatz zu Chaos, mittels der Lagrangeschen Bewegung von Testteilchen unterscheiden. In den numerischen Experimenten wurden Linienelemente, bestehend aus passiven Testteilchen, in die Fl¨ ussigkeit injiziert und deren Entwicklung verfolgt. Der Mischungsprozeß ist eine sukzessive Folge von Streckungen und Faltungen, die durch einen Streckungskoeffizienten und eine Hausdorff-Dimension quantifiziert werden k¨onnen. Diese Maße zeigen f¨ ur verschiedene L¨osungszweige signifikante Unterschiede der Lagrangeschen Turbulenz [4].
56
J. Kurths, N. Seehafer und F. Spahn
Abbildung 3 zeigt eine schon nach kurzer Zeit erfolgte Durchmischung von verschieden Fl¨ ussigkeitsbereichen im Ortsraum f¨ ur eine Fl¨ ussigkeit mit sogenannter Kolmogorov-Anregung.
Abb. 3. Mischung farbiger Tracerteilchen (rot und blau) durch das Str¨ omungsfeld, erzeugt durch Simulation der Navier-Stokes-Gleichung mit Kolmogorov-Anregung
F¨ ur diesen Fall haben wir das L¨osungsverhalten mit ¨ahnlicher Methodik wie im Beispiel der Wirbelanregung untersucht [12] [13]. Die durch dieses Forcing angetriebene Scherstr¨ omung ist nur bei hinreichend schwachem Antrieb stabil [31] [46]. Das wesentliche Ergebnis unserer Untersuchungen ist ein Bifurkationsdia¨ gramm, welches den Ubergang ins Chaos detailliert erkl¨art. Dieser f¨ uhrt u ¨ber mehrere Zweige von Gleichgewichtsl¨osungen, laufenden Wellen, modulierten laufenden Wellen, quasi-periodischen L¨osungen (sogenannte Tori mit mehreren (in diesem Falle zwei) inkommensurablen Frequenzen) und periodischen Bewegungen. Die Entstehung der fortschreitenden Wellen ist auf eine Translationssymmetrie des Systems zur¨ uckzuf¨ uhren. 2.2
3D Magnetohydrodynamik und Dynamo-Effekt
Von besonderem Interesse im Hinblick auf solare und andere kosmische Aktivit¨ atserscheinungen sind die dreidimensionalen inkompressiblen MHD-Gleichungen. Eines der Ziele bei ihrer Untersuchung ist die L¨osung des DynamoProblems [26] der kosmischen Magnetfelder. Wichtig f¨ ur das Leben auf der Erde ist die abschirmende Wirkung des Erdmagnetfeldes. Auch die durch Magnetfelder verursachte Aktivit¨ at der Sonne beeinflußt unseren Lebensraum unmittel-
Nichtlineare Dynamik in der Physik
57
bar. Somit ist die Kenntnis der Entstehung und Dynamik von Magnetfeldern von großer Bedeutung. Die sogenannten ABC-Str¨ omungen (benannt nach Arnold, Beltrami und Childress) erzeugen ein wachsendes Magnetfeld im Rahmen der kinematischen Dynamo-Theorie, in der das Geschwindigkeitsfeld vorgegeben wird und die Bewegungsgleichung der Fl¨ ussigkeit unber¨ ucksichtigt bleibt [19]. Die ABC-Str¨om¨ ungen, Uberlagerungen dreier zueinander orthogonaler schraubenf¨ormiger Bewegungen, sind exakte L¨ osungen der Navier-Stokes-Gleichung, wenn eine spezielle Anregung, das ABC-Forcing, wirkt, das die Reibungsverluste gerade kompensiert. F¨ ur diesen Fall haben wir das vollst¨andige System der MHD-Gleichungen, mit der Reynoldszahl (bzw. der St¨arke der Anregung) als Bifurkationsparameter, untersucht [14] [16] [37]. Es wurde ein isotropes Abschneiden im Wellenzahlraum angewandt, wobei die wahre L¨ osung durch eine Summe von Wellen verschiedener Wellenl¨ange approximiert wird. Das Abschneiden“ entspricht dann physikalisch der Ver” nachl¨ assigung von Fluktuationen auf sehr kleinen r¨aumlichen Skalen. In den meisten Berechnungen wurde dabei ein System von 712 gew¨ohnlichen Differentialgleichungen untersucht, wobei diese Zahl sich aus der Anzahl der Wellen ergibt, die die L¨osung repr¨asentieren sollen. Um nun den Einfluß des Abschneidens auf das L¨osungsverhalten festzustellen, wurden auch Testrechnungen mit bis zu 14776 Gleichungen durchgef¨ uhrt, die belegen, daß das 712-dimensionale System das L¨osungsverhalten qualitativ richtig wiedergibt. Zudem wurden nichtlineare Galerkin-Verfahren benutzt. Das sind numerische Verfahren, die zum Studium des Langzeitverhaltens bestimmter dissipativer partieller Differentialgleichungen im Zusammenhang mit der Theorie der Inertialmannigfaltigkeiten und approximierenden Mannigfaltigkeiten eingef¨ uhrt wurden [30]. Das wesentliche Ziel bei der Anwendung dieser Verfahren ist es, sehr komplizierte nichtlineare Gleichungen hoher (unendlicher) Dimension durch niedrigdimensionale Gleichungen zu charakterisieren, ohne daß dabei die qualitativen Eigenschaften des hochdimensionalen Systems verlorengehen. Die aktiven Moden des nichtlinearen Galerkin-Verfahrens wurden als L¨osung eines endlichen gew¨ ohnlichen Differentialgleichungssystems berechnet, w¨ahrend der Einfluß der restlichen Moden durch eine Versklavungsfunktion (approximierende Mannigfaltigkeit) ber¨ ucksichtigt wurde [36]. Das ist ein Fortschritt gegen¨ uber dem einfachen Abschneiden“. ” Die Bifurkationsanalyse verschiedener N¨aherungen ergab, daß die prim¨are nichtmagnetische Gleichgewichtsl¨osung (die ABC-Str¨omung) in einer Hopf-Bifurkation instabil wird und in eine periodische L¨osung mit Magnetfeld u ¨bergeht, was einem generischen Dynamo-Effekt entspricht. In den nachfolgenden Bifurkationen wird die urspr¨ ungliche Symmetrie, die mit der ABC-Anregung zusammenh¨ angt, sukzessive gebrochen und u ¨ber Torusl¨osungen ein chaotischer Zustand erreicht, der weiterhin ein Magnetfeld tr¨agt (Abb. 4). Eine große Rolle bei der Strukturbildung raum-zeitlicher Prozesse spielt die ¨ Symmetrie eines Problems. Es zeigen sich Ahnlichkeiten in der Entwicklung verschiedenster Systeme, selbst wenn die zugrundeliegenden Prozesse unterschiedlichen Evolutionsgleichungen gen¨ ugen.
58
J. Kurths, N. Seehafer und F. Spahn
3 branches 4 branches
R
0
5
10
15
20
stable ABC flow
unstable ABC flow
periodic branches
torus branches
chaos
Hopf bifurcation
Abb. 4. Schematisches Bifurkationsdiagramm f¨ ur die MHD-Gleichungen mit ABCAnregung. 3 branches“ bzw. 4 branches“ bedeutet, daß 3 bzw. 4 koexistierende L¨ osun” ” gen durch gewisse Symmetrietransformationen ineinander u uhrt werden k¨ onnen ¨berf¨
Die Analyse der Symmetrien f¨ uhrt zu qualitativen Aussagen u ¨ber die auftretenden L¨ osungen. Die MHD-Gleichungen mit ABC-Forcing besitzen die Symmetrie eines W¨ urfels [1]. Dies ist auch die Symmetriegruppe der urspr¨ unglichen nichtmagnetischen L¨ osung. Zudem konnten wir auch f¨ ur die periodischen magnetischen L¨ osungen die Symmetriegruppen bestimmen (das sind Untergruppen der W¨ urfelgruppe) und die zugeh¨origen generischen Bifurkationen untersuchen. Es ist eines der wesentlichen Resultate der traditionellen kinematischen Dynamo-Theorie [26], daß Helizit¨ at des Geschwindigkeitsfeldes den Dynamo-Effekt zumindest beg¨ unstigt. Ein Vektorfeld hat Helizit¨at, wenn seine Feldlinien einen bevorzugten Schraubensinn (Linksschraube oder Rechtsschraube) aufweisen. Deshalb haben wir den Einfluß der Helizit¨at auf den Dynamo-Effekt genauer untersucht. Um den Grad der Helizit¨at variieren zu k¨onnen, haben wir eine modifizierte, verallgemeinerte Anregung verwandt, welche das urspr¨ ungliche ABC-Forcing als Spezialfall maximaler Helizit¨at enth¨alt [15]. Nur wenn die (mittlere) Helizit¨ at einen bestimmten Schwellwert u uhrt eine ¨berschreitet, f¨ Hopf-Bifurkation zu magnetischen L¨osungen. Wenn dagegen die Helizit¨at unter diesem Schwellwert liegt, sind alle neuen L¨osungen, darunter auch chaotische, nicht-magnetisch. Dieses Bifurkationsverhalten best¨atigt das Ergebnis der traditionellen kinematischen Dynamo-Theorie, daß Helizit¨at eine wesentliche Rolle f¨ ur die Entstehung von kosmischen Magnetfeldern spielt. Durch die Rotation der Himmelsk¨ orper entsteht sie auf nat¨ urliche Weise. Der Grundmechanismus bei der Umwandlung kinetischer in magnetische Energie im Dynamo-Effekt ist die Streckung von Fl¨ ussigkeits-Linienelementen. Darauf aufbauend kann z.B. mittels numerischer Simulation und Berechnung ge-
Nichtlineare Dynamik in der Physik
59
eigneter Entropien und Lyapunov-Exponenten (im dreidimensionalen Ortsraum) die Dynamo-Effektivit¨ at vorgegebener turbulenter Str¨omungen abgesch¨atzt werden [3]. Wie die dabei gefundenen Maße mit der Helizit¨at der Str¨omung zusammenh¨ angen, bleibt noch zu kl¨aren. In einer k¨ urzlich durchgef¨ uhrten weiteren Bifurkationsuntersuchung der MHDGleichungen verwenden wir an Stelle des ABC-Forcings eine Anregung (die sogenannte Roberts-Anregung), welche ein Feld konvektionsartiger Rollen antreibt [34]. Eine derartige Str¨ omung kann als Modell der Konvektion im ¨außeren Erdkern angesehen werden, und es wird zur Zeit an Experimenten gearbeitet, die solche Str¨ omungen nachbilden und darauf abzielen, einen Dynamo-Effekt im Labor nachzuweisen [44]. Direkte Bifurkationsanalysen der MHD-Gleichungen, wie die soeben beschriebene, erfordern noch zahlreiche Idealisierungen, und die erreichbaren Reynoldszahlen sind um Gr¨ oßenordungen geringer als etwa die auf der Sonne vorherrschenden. Deshalb sind zur Erkl¨arung der beobachteten langfristigen Variation der Sonnenaktivit¨ at wie auch des Erdmagnetismus Modellbildungen im Rahmen der Dynamo-Theorie gemittelter Felder [26] geeigneter. In dieser Theorie wird das mittlere Magnetfeld durch differentielle Rotation und turbulente Konvektion erzeugt, wobei letztere eine mittlere kinetische Helizit¨at aufweisen muß. Wir untersuchten ein speziell zur Beschreibung des aperiodischen langfristigen Verhaltens der Sonnenaktivit¨ at entwickeltes niedrigdimensionales Modell, das aus den maßgeblichen partiellen Differentialgleichungen mittels eines Modenansatzes, der nur die ersten sieben Moden enth¨alt, abgeleitet wurde. Das qualitative Verhalten dieses Modellsystems wurde numerisch mit Hilfe des Programmsystems CANDYS/QA [17] untersucht. In Abh¨angigkeit von charakteristischen Parametern zeigt das Modell periodisches, quasi-periodisches (auf Tori T 2 und ur zwei bzw. drei inkommensurable Frequenzen) und T 3 , die Hochindizes stehen f¨ chaotisches Verhalten [18]. Zum Vergleich des Modells mit Beobachtungen der Sonnenaktivit¨ at siehe Abschn. 2.3. 2.3
Langzeitvariabilit¨ at der Sonne
Die Sonnenaktivit¨ at zeichnet sich durch ausgepr¨agte zeitliche Variationen in einem breiten Bereich von Zeitskalen aus. Wir wissen heute, daß dieser Bereich zumindest Mikrosekunden bis einige hundert Jahre umfaßt. F¨ ur die s¨akularen Variationen gibt es keine direkten systematischen Beobachtungen. Vielmehr werden sie aus historischen Quellen —insbesondere aus dem ostasiatischen Raum— m¨ uhevoll erschlossen. Dort wurde sporadisch das Auftreten großer Sonnenflecken dokumentiert. Ein Meilenstein war dabei der Nachweis von 5 sogenannten großen Minima. Das sind Epochen mehrerer Jahrzehnte, in denen die Sonnenaktivit¨ at drastisch reduziert war (Abb. 5, [10]). Derartige Variationen sind f¨ ur uns von großer Bedeutung, da sie eine markante Ver¨anderung des Klimas bewirken. Ein vertiefter Einblick in diese langskalige Dynamik der Sonnenaktivit¨at ist nur aus indirekten Messungen zu erwarten. Dazu geh¨oren insbesondere die Beobachtungen von Polarlichtern und — mehr noch — Isotopenmessungen. Die den
60
J. Kurths, N. Seehafer und F. Spahn
Abb. 5. Beobachtungen zur Sonnenaktivit¨ at seit dem Jahre 1000 n. Chr. Der Graph oben links spiegelt die Anzahl historischer Quellen aus dem asiatischen Raum wider, die von Sonnenfleckenbeobachtungen mit bloßem Auge berichten. Die Darstellung rechts daneben zeigt die Jahresmittelwerte f¨ ur die Sonnenfleckenrelativzahlen. Die Rechteckkurve darunter deutet die Zeitr¨ aume der großen Minima an. In der vorletzten Kurve sind die Resultate der Radiokohlenstoff-Messungen (∆14 C) dargestellt, die an den Jahresringen alter B¨ aume vorgenommen worden sind. Ganz unten ist die H¨ aufigkeit der Erw¨ ahnung von Polarlichtern in zeitgen¨ ossischen Schriften des europ¨ aischen Raumes wiedergegeben. Auffallend ist die Antikorrelation zwischen der Anzahl der beobachte¨ ten Sonnenflecken bzw. Polarlichter einerseits und den Meßwerten f¨ ur den 14 C-Uberschuß andererseits
Zeitraum von 7199 v. Chr. bis 1891 n. Chr. umfassende Radiokohlenstoffreihe ur die Ermittlung der Variationen der Sonnenaktivit¨at auf einer Zeit∆14 C ist f¨ skala von einigen hundert Jahren von besonderer Bedeutung. Untersucht man diese Reihe mit linearen Methoden (Spektralanalyse), l¨aßt sich eine Periode von etwas u ¨ber 200 Jahren nachweisen [40] [45]. Da die Radiokarbonreihe aber eher aperiodisch fluktuiert, bieten sich nichtlineare Verfahren zur Analyse an. Man findet schnell, daß die klassischen Charakteristika der Nichtlinearen Dynamik, wie Dimensionen oder Lyapunov-Exponenten, aus dieser Reihe nicht sch¨atzbar sind. Wir haben festgestellt, daß die Rekurrenz-Rate sehr n¨ utzlich ist, solche Langzeit-Variationen zu erfassen. Sie gibt an, wie h¨aufig das System einen bestimmten Bereich im Zustandsraum besucht – oder kurz, wie oft sich ein Zustand wiederholt. Sie gestattet insbesondere, verschiedene große Minima der Sonnenaktivit¨ at in der Vergangenheit aufzufinden [29]. Wenn man die Rekurrenz-Rate des gesamten Datensatzes betrachtet, zeigt sich, daß das Auftreten großer Minima ein typisches Ph¨ anomen der Sonnenaktivit¨at ist. Die großen Minima der solaren Aktivit¨ at sind in ihrer Wiederkehr sehr verschieden. Auff¨allig ist auch, daß die ¨ j¨ ungste Epoche eine große Ahnlichkeit zu jener der mittelalterlichen Warmzeit hat.
Nichtlineare Dynamik in der Physik
61
Um die Frage zu kl¨ aren, ob der der ∆14 C-Reihe zugrundeliegende Prozeß ein durch Rauschen getriebener linearer – oder nichtlinearer Vorgang ist, haben wir die Methode der Ersatzdaten benutzt. Ersatzdaten sind Zeitreihen, die den Originaldatensatz im Hinblick auf bestimmte Eigenschaften repr¨asentieren. Mit ihrer Hilfe werden statistische Tests aufgebaut, um die Eigenschaften der Originalzeitreihe zu bestimmen. Man erzeugt Zeitreihenersatzdaten durch gezielte Modifikation aus den Originalzeitreihen oder durch Simulation physikalisch motivierter Modelle. Das f¨ uhrte zu dem Ergebnis, daß der zugrundeliegende Prozeß auf kurzen Zeitskalen nichtlinear sein muß. Nach einer Filterung der ∆14 C-Reihe zur Entfernung der langzeitlichen St¨orungen kann man die Positionen der historisch bekannten großen Minima gut lokalisieren. Durch Einbeziehung aller historischen Beobachtungen [50] [28] und Extrapolation in die fernere Vergangenheit konnten wir insgesamt 34 große Minima bestimmen [48]. Dieses indirekt aus Messungen gefundene Verhalten kann als Pr¨ ufstein zur Evaluierung theoretischer Modelle (vgl. Abschn. 2.2) benutzt werden. Dabei geht es zun¨ achst darum zu testen, ob ein Modell ein qualitativ ¨ahnliches Verhalten zeigt. Beispielsweise werden die großen Minima, die sich aus der Meßreihe bzw. aus vereinfachten nichtlinearen Dynamomodellen ergeben, mit analoger Analysetechnik bestimmt und dann verglichen. Das Histogramm der beobachteten zeitlichen Abst¨ ande zwischen den großen Minima ¨ahnelt einer Normalverteilung, wohingegen die Verteilung der Zyklenl¨angen f¨ ur Dynamomodelle in Richtung sehr kurzer Abst¨ ande zwischen den Minima verschoben ist und zudem einen exponentiellen Abfall zeigt [48] – d.h. die Modellverteilungen weichen sehr deutlich von den beobachteten ab. Aus diesen qualitativen Unterschieden folgt, daß die vereinfachten Dynamomodelle noch weit davon entfernt sind, die Langzeitdynamik der Sonnenaktivit¨at angemessen wiederzugeben. Als wichtige Aufgabe sind also realistische Modelle zu entwickeln, die man zugleich langzeitig simulieren kann. Derartige Modelle sind von besonderer Bedeutung um zu unterscheiden, welche Klimavariationen a) anthropogene Ursachen haben, b) im internen dynamischen System Erde entstehen, c) prim¨ ar durch Variationen der Sonne bewirkt werden. 2.4
Polarit¨ atswechsel des Erdmagnetfeldes
Das Magnetfeld der Erde ist ebenfalls durch vielf¨altige Variationen gekennzeichnet. Besonders auff¨ allig sind die Wechsel in der Polarit¨at des Erdmagnetfeldes (Abb. 6). Ihre Abfolge wird oft als ein außerordentliches Beispiel komplexer Prozesse diskutiert. Es ist allgemein anerkannt, daß die unregelm¨aßige Aufeinanderfolge der Umpolungen eine inh¨arente Signatur des im fl¨ ussigen, elektrisch ¨ leitenden a ußeren Erdkerns arbeitenden Geodynamos darstellt. Ahnlich wie ¨ im Fall der Sonne ist es bisher nicht gelungen, umfassende dreidimensionale Dynamomodelle zur Beschreibung dieser Polarit¨atswechsel langzeitig numerisch zu simulieren. Mit Hilfe der leistungsf¨ahigsten Supercomputer konnten Glatzmaier und Roberts [21] [22] eine derartige Umpolung numerisch nachvollziehen. Deshalb wurden verschiedene vereinfachte nichtlineare Modelle zur Beschreibung des Langzeitverhaltens des geomagnetischen Feldes entwickelt.
62
J. Kurths, N. Seehafer und F. Spahn
Abb. 6. Oben: Zeitliche Abfolge von Perioden konstanter Polarit¨ at des Erdmagnetfeldes; die schwarzen und weißen Abschnitte geben die beiden Polarisationsrichtungen an. Unten: Verteilung der L¨ angen der Umkehrperioden
Krause und Schmidt [27] haben ein stark vereinfachtes nichtlineares Modell vorgeschlagen, das die R¨ uckwirkung des Magnetfeldes auf die Bewegung durch einen kubischen Term beschreibt. Wir haben dieses Modell mit geologischen Daten verglichen (vgl. Abb. 6, [49]). Die Daten umfassen 150 derartiger Umkehrungen. Deshalb ist die Berechnung nichtlinearer Charakteristika, wie Lyapunov-Exponenten oder Korrelationsdimension, ausgeschlossen. Verschiedene datenanalytische Standardmethoden, wie Korrelationsfunktion oder Wahrscheinlichkeitsdichte zeigen eine u ¨ber¨ raschend gute Ubereinstimmung von Modell und Daten. Jedoch konnten wir mit Methoden der symbolischen Dynamik nachweisen [49], daß das betrachtete Modell nicht in der Lage ist, die dynamischen Eigenschaften des beobachteten Prozesses wiederzugeben. Genauer gesagt, die Aufeinanderfolge kurzer und langer Zeiten konstanter Polarit¨at unterscheidet sich in Modell und Daten. Bei der symbolischen Dynamik werden statt einer kontinuierlichen Zustandsvariable einige wenige markante Symbole eingef¨ uhrt, die einen bestimmten Zustandsbereich kennzeichnen, aber trotzdem das Wesen des Prozesses qualitativ gut erfassen. Es handelt sich also hier um Vereinfachungen, die das Wesentliche hervorheben und unwichtigere Details vernachl¨assigen. Die signifikanten Unterschiede werden durch Algorithmische Komplexit¨at bzw. Renyi-Information der dynamisch transformierten Symbolfolgen zum Ausdruck gebracht. Folglich ergibt sich die Aufgabe, Modelle zu entwickeln, die auch die komplexe Dynamik der Polarit¨ atswechsel wiederzugeben verm¨ogen. Das ist von großer Aktualit¨ at, weil kleinerskalige Fluktuationen des Erdmagnetfeldes auf einen nahe bevorstehenden weiteren Polarit¨atswechsel hindeuten.
Nichtlineare Dynamik in der Physik
3
63
Planetare Ringe: Granulare Gase im All
Die Experimente der Raumsonden Pioneer und Voyager offenbarten eine ungeahnte Strukturvielfalt der Ringsysteme der vier Riesenplaneten Jupiter, Saturn, Uranus und Neptun. Die wohl u ¨berraschendsten Resultate der VoyagerMissionen bez¨ uglich planetarer Ringe waren: • der Nachweis von Ringsystemen bei allen Riesenplaneten • ihre extrem geringe vertikale Ausdehnung (Dicke) von weniger als 100 m • die Beobachtung von Feinstrukturen bis hinunter zu den Aufl¨osungsgrenzen der Raumsondenexperimente von ca. 100 m Die Ursache f¨ ur diese Strukturen ist eine komplexe Dynamik der Ringteilchen, die durch ¨ außere Kraftfelder und nichtlineare Wechselwirkungen der Teilchen untereinander bestimmt ist.
Abb. 7. Saturn und seine Ringe: Eine Aufnahme von Voyager 1 (aus ca. 1.5 Millionen Kilometer Entfernung) als die Sonde das Saturn-System verl¨ aßt. Zu den Gr¨ oßenverh¨ altnissen: Der Durchmesser Saturns betr¨ agt 120 000 km, die radiale Ausdehnung der Ringe ca. 70 000 km.
¨ In diesem Abschnitt geben wir einen Uberblick u ¨ber einige Typen von Ringstrukturen sowie deren physikalische Ursachen. Dabei gilt unser Interesse den Hauptringen (im Gegensatz zu den diffusen Staubringen, wie z.B. dem Jupiterring) der Planeten Saturn, Uranus und Neptun, die eine sehr geringe Ringdicke H 100 m haben und deren Dynamik im wesentlichen durch gravitative Wechselwirkungen und durch dissipative St¨oße zwischen den Teilchen bestimmt wird. Zudem wird das Teilchenensemble durch die Gravitation zahlreicher Monde – inmitten und außerhalb der Ringe – stetig gest¨ort. Die Herausbildung der reichen Strukturwelt ist eine Reaktion des Ringmaterials auf diese Einfl¨ usse.
64
3.1
J. Kurths, N. Seehafer und F. Spahn
Kinetische Beschreibung – Dicke der Ringe
Die Ringsysteme der Riesenplaneten bestehen, vergleichbar mit einem Mol eines Gases oder einer Fl¨ ussigkeit, aus einer unvorstellbar großen Zahl von einzelnen Teilchen, deren Gr¨ oßen von mikrometergroßem Staub bis hin zu kilometergroßen Brocken (sogenannte Moonlets) reichen. Trotz der offensichtlichen Unterschiede zwischen Gasmolek¨ ulen und granularen Teilchen – in Gr¨oße, Form, Art der Wechselwirkung mit anderen Mitgliedern des Ensembles – finden die Methoden der klassischen, kinetischen Theorie der Gase erfolgreich Anwendung bei der Erkl¨ arung der in den Ringen beobachteten Strukturen. Den gr¨ oßten Einfluß auf alle Teilchen des Ensembles hat die Gravitation des Planeten. Vernachl¨ assigt man alle St¨orungen bis auf die Schwerkraft des Zentralk¨ orpers, bewegen sich alle Ringpartikel auf Kepler-Ellipsen. Das ist tats¨ achlich in erster N¨ aherung der Fall, aber es bleiben Fragen offen: Warum sind die beobachteten Bahnen fast exakt kreisf¨ormig und warum bewegen sich auch nahezu alle Teilchen – mit sehr geringen Abweichungen – in einer Ebene? Zur Illustration sei als Vergleich das Verh¨altnis Dicke zu L¨ange einer Rasierklinge erw¨ ahnt, welches 1000 − 10 000 mal gr¨oßer ist als das entsprechende Verh¨altnis bei den Ringen. Antwort auf die oben genannten Fragen gibt die kinetische Theorie granularer Gase, deren Kernst¨ uck die dissipativen St¨oße zwischen den Teilchen sind. Deshalb haben wir die Dynamik des Stoßes zwischen zwei kugelf¨ormigen (der Einfachheit wegen) Eis- oder Gesteinsk¨ornern eingehend untersucht. Im Rahmen einer visko-elastischen Kontinuumstheorie gelang es [6] [41], die Ergebnisse von Laborexperimenten zum Stoß von zwei Eiskugeln [5] recht gut zu reproduzieren. Es zeigte sich, daß die beim Stoß dissipierte Bewegungsenergie in nichtlinearer Weise von der Geschwindigkeit abh¨angt, mit der die Teilchen stoßen. Die Kenntnis dieses Zusammenhangs ist einerseits wichtig f¨ ur die kinetische Beschreibung eines Systems vieler Teilchen, andererseits macht der komplizierte, nichtlineare Charakter der Wechselwirkung eine analytische Beschreibung unm¨oglich. Dennoch ist die gewonnene Einsicht in die Dynamik des Stoßes granularer Teilchen ein Fortschritt gegen¨ uber der oft verwendeten Vernachl¨assigung der Abh¨ angigkeit der Dissipation von der Stoßgeschwindigkeit. Genauer genommen h¨ angt die Dissipation von der Impuls¨anderung beim Stoß – und damit von den Massen der an der Kollision beteiligten Teilchen – ab. Aber der Einfachheit halber behandeln wir hier nur den Fall identischer Teilchen. Um die Bedeutung dieses Zusammenhangs f¨ ur die Dynamik der planetaren Ringe zu illustrieren, sei die Folge o.g. Vernachl¨ assigung f¨ ur die Beschreibung der Stabilit¨at planetarer Ringe kurz erw¨ ahnt. Goldreich und Tremaine [23] zeigten, daß diese Abh¨angigkeit in den Ringen f¨ ur die Einstellung eines Quasi-Gleichgewichtes sorgt. Wird sie vernachl¨ assigt und statt dessen angenommen, daß bei jedem Stoß gleichviel Energie dissipiert wird, dann w¨ urde, je nachdem wie groß der Anteil an dissipierter Energie pro Stoß angenommen wird, der Ring entweder in eine Monolage kollabieren (alle Teilchen liegen in einer Ebene – kalter“ Ring), oder ” die thermischen Bewegungen w¨ urden ohne Grenze wachsen – die Ringe w¨ urden verdampfen“ ( heißer“ Ring). ” ”
Nichtlineare Dynamik in der Physik
65
H¨ angt jedoch die Dissipation von der Geschwindigkeit der stoßenden Teilchen ab, dann sorgt eine Balance zwischen durch Reibung verursachter Heizung und der stoßbedingten K¨ uhlung f¨ ur die Einstellung einer Gleichgewichts- Tem” peratur“ und eine endliche Dicke der Ringe. Die Reibung wiederum wird durch die Abnahme der Kepler-Bahngeschwindigkeit der granularen Materie mit dem Abstand vom Planeten verursacht.
Abb. 8. Links: Vertikale Verteilung der Teilchen in einem Modellring f¨ ur weniger dissipative (breitere Verteilung) und sehr dissipativ stoßende Granulen, gewonnen mit numerischen Teilchensimulationen. Mitte: Teilchenkonfiguration zu Beginn der Simulation. Die vertikale Achse stellt die z-Richtung (senkrecht zur Ringebene) dar. Rechts: Teilchenkonfiguration im station¨ aren Gleichgewicht. Es hat sich eine vertikale Stratifikation herausgebildet, die von der thermischen Bewegung des Ringteilchenensembles ( Temperatur“) bestimmt wird ”
Die Einstellung dieser Balance wurde numerisch simuliert [35] und die Ergebnisse sind in Abb. 8 dargestellt. Dieses Gleichgewicht – erm¨oglicht durch die variable Stoßdynamik – verhindert, daß alle Teilchen in eine Ebene herabsinken und daß die thermischen Bewegungen ganz ausged¨ampft werden. Heikki Salo, ein f¨ uhrender Theoretiker auf diesem Gebiet, faßt diesen Sachverhalt mit folgenden Worten zusammen: Planetary rings are extremely flat - but (!) not ” two-dimensional“, wie wir es auch mit unseren Simulationen – siehe Abb. 8 – reproduzieren. Eine andere Folge der inelastischen St¨oße ist die Eigenschaft granularer Stoffe, Klumpen ( Cluster“) zu bilden. Diese sogenannte Cluster“-Instabilit¨at ha” ” ben wir in einer weiteren Arbeit untersucht [42], wobei uns die Unterschiede dieses Strukturbildungsprozesses im kr¨aftefreien Fall (ein granulares Gas weit ab von jeder St¨ orung – z.B. intergalaktische Staubwolken) zu dem in einem Zentralkraftfeld vorrangig interessiert haben. Einige Ergebnisse dieser Untersuchungen sind in Abb. 9 dargestellt. Man sieht deutlich die Unterschiede. W¨ahrend sich die Cluster“ im kr¨aftefreien Fall ” nahezu in allen Richtungen herausbilden, f¨ uhrt die Scherung der Geschwindigkeit in den Ringen zu der Herausbildung einer Vorzugsrichtung der Strukturen. Der interessanteste Unterschied liegt allerdings in der Stabilit¨at der gebildeten Cluster“. Die Strukturen sind im kr¨aftefreien Fall quasi-stabil und die ” Gr¨ oße der Klumpen h¨ angt von der Dissipation (also von der Stoßdynamik) ab.
66
J. Kurths, N. Seehafer und F. Spahn
Im Gegensatz dazu sind die Cluster“ in einem Kraftfeld nicht stabil, wenn ” beim Teilchenstoß keine attraktiven Wechselwirkungen eine Rolle spielen (z.B. Adh¨ asion, siehe [42]).
Abb. 9. Links: Schnappschuß einer Simulation mit 20 000 inelastisch stoßenden Teilchen (Radius = 1 cm). Man sieht deutlich die Formierung von Clustern“. Rechts: ” Schnappschuß einer Simulation mit 20 000 Teilchen (Radius = 1 cm) im Kraftfeld eines Planeten. Der Mittelpunkt der Simulationsbox (Koordinaten: 0, 0) bewegt sich auf einer Kepler-Kreisbahn, die negative x-Achse zeigt in die Richtung der mittleren Bahnbewegung, der Planet befindet sich in der negativen y-Richtung. Die Situation entspricht den Verh¨ altnissen im B Ring von Saturn (s. Abb. 1: das hellste = dichteste Gebiet inmitten der Ringe)
Wenn also dissipative St¨oße allein nicht f¨ ur die beobachtete Strukturvielfalt in planetaren Ringen verantwortlich sein k¨onnen, m¨ ussen noch andere Prozesse wirken, die das Dichtefeld beeinflussen. 3.2
Einfluß von Satelliten
Neben der Vielzahl interessanter, meist noch ungekl¨arter, Ph¨anomene werden in diesem Unterabschnitt Strukturen beschrieben, die durch kleine, inmitten der Ringe befindliche Satelliten (sogenannte Moonlets) verursacht werden. Wichtig sind auch hier die inelastischen St¨oße in dem von einem Mond gest¨ orten Ring. Sie bewirken, daß die sich die entwickelnden Strukturen einen station¨ aren Zustand anstreben, den sie ohne Dissipation nie erreichen w¨ urden. ¨ Ahnlich wie bei der physikalischen Beschreibung der Ringdicke erm¨oglichen die dissipativen St¨ oße wieder die Einstellung eines Quasi-Gleichgewichts zwischen dem Energieeintrag durch die vom Mond verursachte St¨orung und dem Verlust“ ” an mechanischer Energie infolge der inelastischen St¨oße. Es ist nat¨ urlich auch hier kein echter Energieverlust, sondern mechanische Energie wird in Deformations- bzw. W¨ armeenergie in den Teilchen selbst umgewandelt, die letztlich abgestrahlt wird. Wichtig ist aber, daß ohne die St¨oße die Strukturen nicht beobachtbar w¨aren, da die stetige Energiezufuhr durch den st¨orenden Satelliten den Ring aufheizen
Nichtlineare Dynamik in der Physik
67
Abb. 10. Die farbkodierte Teilchendichte eines Ringes, der aus 219 = 524288 granularen Partikeln besteht und der von einem kleinem Mond (Position: (1, 0)) gravitativ beeinflußt wird. Beide Bildteile muß man sich als aufgeschnittenen geschlossenen Ring vorstellen. Mit dem radialen Abstand ist die Entfernung vom Planeten bezeichnet und die azimutale L¨ ange mißt die Position eines Teilchens in Bezug auf die des Mondes. Links: Simulation bei Vernachl¨ assigung der Teilchenst¨ oße; Rechts: Simulation, bei der teilweise inelastische St¨ oße ber¨ ucksichtigt worden sind
und er samt seiner Strukturen dispergieren w¨ urde. Diese Effekte wurden ebenfalls mit numerischen Methoden untersucht [25]. Einige Resultate sind in Abb. 10 dargestellt, wo eine halbe Million Teilchen in einem Modellring der St¨orung eines Satelliten ausgesetzt waren, der sich inmitten des Ringes bewegte. In beiden Bildteilen ist die farbkodierte Teilchendichte eines kompletten Ringes dargestellt. Schwarz bedeutet niedrige Dichte; Gelb bis Orange markieren die Maxima des Dichtefeldes. Der linke Teil der Abbildung geh¨ort zu einer Simulation ohne St¨oße. Es ist nur ein Schnappschuß zu einer bestimmten Zeit. Die Strukturen ¨andern sich noch unabl¨ assig und werden, wie die Theorie zeigt, zeitlich asymptotisch verschwinden. Der rechte Bildabschnitt zeigt eine Simulation mit Teilchenst¨oßen, bei der die Strukturen sich kaum noch ¨andern. Die hierbei gefunden Merkmale des Dichtefeldes – im wesentlichen eine L¨ ucke um die Bahn des Mondes sowie die markanten Wellenerscheinungen – sind sp¨ater tats¨achlich in einem einzigen Fall in den Ringen des Saturn beobachtet worden, was dann zur Entdeckung des Satelliten Pan f¨ uhrte [38] [43]. Fazit: Die Einstellung eines Gleichgewichts zwischen der Dissipation von Bewegungsenergie durch teilweise inelastische St¨oße zwischen den Ringteilchen und dem Forcing“ durch die Gravitationsfelder des Planeten und einer Vielzahl von ” Satelliten bzw. Moonlets sichert die Stationarit¨at und damit die Beobachtbarkeit vieler Strukturen. Dazu geh¨oren sowohl die extrem geringe Dicke aller Ringe
68
J. Kurths, N. Seehafer und F. Spahn
Abb. 11. Folgen eines Erdbebens der Magnitude 5.6
als auch viele L¨ ucken und Wellenerscheinungen, die von Monden hervorgerufen werden. Allerdings limitiert die stetige Dissipation von Bewegungsenergie auch das Alter der Ringe, so daß heute klar zu sein scheint, daß planetare Ringe nicht zeitgleich mit den Planeten entstanden sein k¨onnen [11] [9] [8]. Die Entstehung dieser kosmischen Strukturexoten ist bis heute noch nicht endg¨ ultig gekl¨art.
4
Nichtlineare Analyse von Erdbebendaten
Seismische Aktivit¨ at ist ein typisches Beispiel komplexer Raum-Zeit-Dynamik. Besondere Beachtung findet dabei das Auftreten starker Erdbeben, f¨ uhren sie doch meist zu katastrophalen Sch¨aden (Abb. 11). Seismische Aktivit¨at schließt aber auch vielf¨ altige Mikroereignisse ein. Die Summe aller Ereignisse ist im Gutenberg-Richter-Gesetz zusammengefaßt [24] log10 N = a − bM ,
(1)
wobei N die Anzahl der Erdbeben in einer Region mit einer St¨arke von mindestens M und a, b regional abh¨angige Parameter sind (Abb. 12). Wegen dieses Potenzgesetzes werden Erdbeben oft als Ausdruck selbstorganisierter Kritizit¨ at (SOC) angesehen [47]. Darunter wird das Verhalten eines hochdimensionalen dissipativen Systems verstanden, einen kritischen Zustand zu entwickeln, der weder durch charakteristische L¨angen noch Zeiten ausgezeichnet ist. Am einfachsten l¨ aßt sich das am Beispiel des Sandhaufen-Modells erkl¨aren: Sch¨ uttet man stetig Sand auf die Spitze eines Sandhaufens, dann erh¨oht sich der Neigungswinkel seiner Oberfl¨ache solange, bis ein kritischer Wert erreicht wird, bei dem eine Kaskade von Lawinen einsetzt. Diese sorgt daf¨ ur, daß sich der Winkel wieder verringert und das System f¨ ur eine Weile – solange der Sch¨ uttwinkel kleiner als der kritische Winkel ist – zur Ruhe kommt. Die r¨aumliche und
Nichtlineare Dynamik in der Physik (a)
(b) 10 0
5
10 - 1 P ( Mag > M )
6
4 log(N)
69
b = 0.88
3 2
b=0.9 10 - 2 10 - 3 10 - 4
1 0 1
2
3
4
5 M
6
7
8
0
1
2
3
4
M
Abb. 12. Die Verteilung der Magnituden f¨ ur (a) den NCSN-Erdbebenkatalog von Nordkalifornien und f¨ ur (b) eine Simulation des SOC-Modells von Olami, Feder und Christensen [32], wobei N die Anzahl und P die Wahrscheinlichkeit beschreibt. Die Geraden entsprechen jeweils dem Gutenberg-Richter-Gesetz mit b = 0.88 bzw. b = 0.9
zeitliche Abfolge der Lawinen zeichnet sich dann durch keine charakteristischen Skalen aus – es gibt Lawinen jeder Gr¨oße (der Systemgr¨oße entsprechend) und zu allen Zeitpunkten, solange der Winkel im kritischen Bereich ist [2]. ¨ Ahnliche kritische Zust¨ande scheinen die Spannungen in unserer Erdkruste anzunehmen, die sich, wenn kritische Werte u ¨berschritten werden, in Beben unterschiedlicher St¨ arke entladen. Diese wichtige Eigenschaft erm¨oglicht jedoch leider keine quantitativen Aussagen zur Dynamik von Erdbeben, insbesondere zu deren Vorhersagbarkeit. Die bisher bekannten Verfahren zur Analyse von Erdbebenkatalogen verwenden zumeist Standardtechniken der linearen und nichtlinearen Zeitreihenanalyse, wobei die mehrdimensionalen Daten (Zeit, r¨aumliche Koordinaten und Magnitude) zun¨ achst zu eindimensionalen Zeitreihen vereinfacht werden. In unserer Arbeit bildet die Charakterisierung der Raum–Zeit–Dynamik den Schwerpunkt. Als erster Zugang wurde die Suche nach charakteristischen r¨ aumlichen Skalen gew¨ ahlt. Ausgangspunkt ist dabei eine Idee, die Rand und Wilson [33] f¨ ur Systeme vorgeschlagen haben, deren Dynamik auf großen Skalen station¨ ar wird. Da diese Voraussetzung f¨ ur Erdbebendaten nicht erf¨ ullt ist, muß das Konzept von Rand geeignet modifiziert werden. Da auf kleinen Raumskalen stochastische Effekte die Dynamik dominieren und auf großen Skalen starke r¨ aumliche Mittelung erforderlich ist, suchen wir nach mittleren Skalen, auf denen einerseits ein deterministisches Signal erkennbar ist und andererseits m¨oglichst wenig dynamische Information durch Mittelung verloren geht. Zur Bestimmung von mittleren Skalen wurde ein Verfahren entwickelt, das auch f¨ ur andere r¨ aumlich ausgedehnte Systeme vielversprechend erscheint. Es basiert auf der Annahme der Existenz instabiler periodischer Orbits als Maß f¨ ur niedrigdimensionale und deterministische Dynamik [51]. Durch Vergleich mit Ersatzdaten ergibt sich als Resultat ein Satz von Raumbereichen, der sich durch sehr hohe Signifikanzen f¨ ur niedrigdimensionalen und
70
J. Kurths, N. Seehafer und F. Spahn
nichtlinearen Determinismus auszeichnet. Diese charakteristischen Raumbereiche eignen sich somit f¨ ur weitere Untersuchungen des dynamischen Verhaltens. Von besonderem Interesse ist die Frage nach der Vorhersagbarkeit von großen Erdbeben. Wichtiger Ausgangspunkt ist hierbei das Auftreten von Vorl¨auferph¨ anomenen. So treten in den letzten Tagen vor dem Hauptbeben h¨aufig einige Vorbeben auf. Die Rate R der Vorbeben wie der Nachbeben l¨aßt sich im Mittel mit derselben Gesetzm¨ aßigkeit R ∼ (c + |4t|)−p ,
p≈1,
(2)
beschreiben, wobei 4t die Zeitdifferenz zum Hauptbeben und c eine kleine Konstante angibt. Lediglich in der Proportionalit¨atskonstanten unterscheiden sich Vor- und Nachbeben, wobei die Anzahl der Nachbeben die Zahl der Vorbeben um ein Vielfaches u ¨berschreitet. Außerdem wurde in vielen Einzelf¨allen eine seismische Ruhe, d.h. eine u ¨ber Monate und Jahre anhaltende Periode niedrigerer Seismizit¨ at, als weiteres Vorl¨auferph¨anomen beobachtet. Trotz dieser bekannten Vorl¨auferph¨anomene ist es bis jetzt nur in Einzelf¨allen gelungen, ein Hauptbeben erfolgreich vorherzusagen. Dies liegt daran, daß sich Vorbeben im Moment ihres Auftretens nicht signifikant von anderen Erdbeben unterscheiden und daß Schwankungen in der Seismizit¨at auch ohne folgendes Hauptbeben auftreten. Aufgrund der vielen fehlgeschlagenen Versuche wird in letzter Zeit diskutiert, ob Erdbeben inh¨arent unvorhersagbar sind, weil sich die Erdkruste wahrscheinlich in einem Zustand der selbstorganisierten Kritizit¨at (SOC) befindet [20]. Wir haben uns dieser Diskussion mit zwei Fragestellungen gen¨ahert: (i) Kann ein einfaches SOC-Modell gefunden werden, welches neben der Magnitudenverteilung (Gutenberg-Richter-Gesetz) auch die Vor- und Nachbeben richtig beschreibt? (ii) Falls ein entsprechendes SOC-Modell existiert, was kann u ¨ber die Vorhersagbarkeit großer Ereignisse in diesem Modell ausgesagt werden? Die erste Frage kann positiv beantwortet werden: Durch eine zus¨atzliche Ber¨ ucksichtigung eines Relaxationsprozesses in der Kruste konnten wir ein bestehendes SOC-Modell f¨ ur Erdbeben [32] so modifizieren, daß Vor- und Nachbebensequenzen mit der beobachteten Charakteristik (2) auftreten (Abb. 13). Ebenso beobachtet man in denselben Modellsimulationen auch eine seismische Ruhephase vor vielen großen Ereignisse. In ersten Untersuchungen bez¨ uglich der Vorhersagbarkeit in diesem SOCModell zeigt sich, daß mit Hilfe der seismischen Ruhe und der Vorbeben zwar keine direkte Vorhersage des n¨achsten Hauptbebens m¨oglich ist, daß aber die Analyse seismischer Schwankungen zu einer verbesserten Gefahrenabsch¨atzung f¨ uhren kann. Zu dem gleichen Ergebnis f¨ uhren auch entsprechende Analysen von realen Erdbebenkatalogen, die aber f¨ ur sich genommen wegen des beschr¨ankten Umfangs und der Qualit¨ at der Daten nur eine schwache statistische Aussage erm¨ oglichen.
Nichtlineare Dynamik in der Physik
71
Rate/Volumen
0 < r < 10 10 < r < 20 r > 20
0.1
0.05
0 -4
-2
0
2
4
6
2 . 10 1 1
∼ (0.6 − 4t)−1.1
10
10
2
10
1
Rate
Rate
10
∼ (0.4 + 4t)−1.1
10 0
0
-5 . 10
0
-10
0
-10
-1
10
-1
10
0
10
1
10
2
4t Abb. 13. Raumzeitliche Anh¨ aufung von Erdbeben vor und nach Hauptbeben in dem modifizierten SOC-Modell. Oben: Die Rate in Abh¨ angigkeit vom Abstand r zum Epizentrum des Hauptbebens. Unten: Die u ¨ber viele Hauptbeben gemittelten Kurven der Vorbeben (links) und Nachbeben (rechts) mit angepaßten Potenzgesetzen entsprechend Gleichung (2)
Literatur 1. Arnold, V. I. (1984) On the evolution of a magnetic field under the influence of advection and diffusion (in Russian). In: Tikhomirov, V. M. (ed.) Some Problems of Modern Analysis. Moscow State University, Moscow, pp. 8–21 2. Bak, P., Tang, C., Wiesenfeld, K. (1987) Self-organized criticality: An explanation of 1/f noise. prl 59, 381–384 3. Brandenburg, A., Klapper, I., Kurths, J. (1995) Generalized entropies in a turbulent dynamo simulation. Phys. Rev. E 52, R4602–R4605 4. Braun, R., Feudel, F., Seehafer, N. (1997) Bifurcations and chaos in an array of forced vortices. Phys. Rev. E 55, 6979–6984 5. Bridges, F.G., Hatzes, A.P., Lin, D.N.C. (1984) Structure, stability and evolution of Saturn’s rings. Nature 309, 333–338 6. Brilliantov, N., P¨ oschel, T., Spahn, F., Hertzsch, J.-M. (1996) Model for collisions in granular gases. Phys. Rev. E 53, 5382–5392 7. Cardoso, O., Marteau, D., Tabeling, P. (1994) Quantitative experimental study of free decay of quasi-two-dimensional turbulence. Phys. Rev. E 49, 454–461 8. Colwell, J. E. (1994) The disruption of planetary satellites and the creation of planetary rings. Planetary and Space Science 42, 1139–114
72
J. Kurths, N. Seehafer und F. Spahn
9. Colwell, Joshua E., Esposito, Larry W. (1992) Origins of the rings of Uranus and Neptune. I - Statistics of satellite disruptions. Journal of Geophys. Research 97, 110227–+ 10. Eddy, J. A. (1977) The case of missing sunspots. Sci. American 236, 80–92 11. Esposito, Larry W. (1993) Understanding planetary rings. Annual Review of Earth and Planetary Sciences 21, 487–523 12. Feudel, F, Seehafer, N. (1995) Bifurcations and pattern formation in a twodimensional Navier-Stokes fluid. Phys. Rev. E 52, 3506–3511 13. Feudel, F., Seehafer, N. (1995) On the bifurcation phenomena in truncations of the 2D Navier-Stokes equations. Chaos, Solitons & Fractals 5, 1805–1816 14. Feudel, F., Seehafer, N., Galanti, B., R¨ udiger, S. (1996) Symmetry-breaking bifurcations for the magnetohydrodynamic equations with helical forcing. Phys. Rev. E54(3), 2589–2596 15. Feudel, F., Seehafer, N., Schmidtmann, O. (1995) Fluid helicity and dynamo bifurcations. Phys. Lett. A202, 73–78 16. Feudel, F., Seehafer, N., Schmidtmann, O. (1996) Bifurcation phenomena of the magnetofluid equations. Math. Comput. Simula. 40(3), 235–246 17. Feudel, F., Jansen, W. (1992) CANDYS/QA - a software system for the qualitative analysis of nonlinear dynamical systems. Int. J. Bifurcation and Chaos 2, 773–794 18. Feudel, U., Jansen, W., Kurths, J. (1993) Tori and chaos in a nonlinear dynamo model for solar activity. Int. J. Bifurcation and Chaos 3, 131–138 19. Galloway, D., Frisch, U. (1986) Dynamo action in a family of flows with chaotic streamlines. Geophys. Astrophys. Fluid Dyn. 36, 53–83 20. Geller, R. J., Jackson, D. D., Kagan, Y. Y., Mulargia, F. (1997) Earthquake cannot be predicted. Science 275, 1616–1617 21. Glatzmaier, G. A., Roberts, P. H. (1995) A three-dimensional convective dynamo solution with rotating and finitely conducting inner core and mantle. Phys. Earth. Planet. Int. 91, 63–75 22. Glatzmaier, G. A., Roberts, P. H. (1995) A three-dimensional self-consistent computer simulation of a geomagnetic field reversal. Nature 377, 203–209 23. Goldreich, P., Tremaine, S. (1978) Velocity dispersion in Saturn’s rings. Icarus 34, 227–239 24. Gutenberg, B., Richter, C. F. (1954) Earthquake magnitude, intensity, energy and acceleration. Bull. Seismol. Soc. Am. 46, 105–145 25. Hertzsch, J. M., Scholl, H., Spahn, F., Katzorke, I. (1997) Simulation of collisions in planetary rings. Astronomy and Astrophysics 320, 319–324 26. Krause, F., R¨ adler, K.-H. (1980) Mean-Field Magnetohydrodynamics and Dynamo Theory. Akademie-Verlag, Berlin 27. Krause, F., Schmidt, H.-J. (1988) A low-dimensional attractor for modelling the reversals of the Earth’s magnetic field. Phys. Earth. Planet. Int. 52, 23–29 28. K˘rivck´ y, L. (1984) Long-term fluctuations of solar activity during the last thousand years. Solar Phys. 93, 189–194 29. Kurths, J., Schwarz, U., Sonett, C.P., Parlitz, U. (1994) Testing for nonlinearity in radiocarbon data. Nonlin. Processes Geophys. 1, 72–75 30. Marion, M., Temam, R. (1989) Nonlinear Galerkin methods. SIAM J. Num. Anal. 26, 1139–1157 31. Meshalkin, L. D. Sinai, Y. G. (1961) Investigation of the stability of a stationary solution of a system of equations for the plane movement of an incompressible viscous liquid. J. Appl. Math. Mech. 25, 1700–1705 32. Olami, Z., Feder, H. S., Christensen, K. (1992) Self-organized criticality in a continuous, nonconservative cellular automaton modeling earthquakes. Phys. Rev. Lett. 68, 1244–1247
Nichtlineare Dynamik in der Physik
73
33. Rand, D.A., Wilson, H.B. (1995) Using spatio-temporal chaos and intermediatescale determinism to quantify spatially extended ecosystems. Proc. R. Soc. Lond. B259, 111–117 34. R¨ udiger, S., Feudel, F., Seehafer, N. (1998) Dynamo bifurcations in an array of driven convectionlike rolls. Phys. Rev. E 57, 5533–5538 35. Schmidt, J., Spahn, F., Petzschmann, O. (1998) Vertical distribution of temperature and density in a planetary ring. Icarus (submitted) 36. Schmidtmann, O., Feudel, F., Seehafer, N. (1997) Nonlinear Galerkin methods for the 3D magnetohydrodynamic equations. Int. J. Bifurcation and Chaos 7, 1497– 1507 37. Seehafer, N., Feudel, F., Schmidtmann, O. (1996) Nonlinear dynamo with ABC forcing. Astron. Astrophys. 314, 693–699 38. Showalter, Mark R. (1991) Visual detection of 1981S13, Saturn’s eighteenth satellite, and its role in the Encke gap. Nature 351, 709–713 39. Sommeria, J. (1986) Experimental study of the two-dimensional inverse energy cascade in a square box. J. Fluid Mech. 170, 139–168 40. Sonett, C. P. (1984) Very long solar periods and the radiocarbon record. Rev. Geophys. Space Phys. 22, 239–254 41. Spahn, F., Hertzsch, J.-M., Brilliantov, N.V. (1995) The role of particle collisions for the dynamics in planetary rings. Chaos, Solitons and Fractals 5, 1945 42. Spahn, F., Schwarz, U., Kurths, J. (1997) Clustering of granular assemblies with temperatur dependent restitution and under differential rotation. Phys. Rev. Lett. 78, 1596–1601 43. Spahn, F., Greiner, J., Schwarz, U. (1992) Moonlets in Saturn’s rings. Advances in Space Research 12, 141–147 44. Stieglitz, R., M¨ uller, U. (1996) GEODYNAMO — Eine Versuchsanlage zum Nachweis des homogenen Dynamoeffektes. Research Report FZKA-5716, Forschungszentrum Karlsruhe 45. Stuiver, M., Braziunas, T. F. (1989) Atmospheric 14 C and century-scale solar oscillations. Nature 338, 405–408 46. Thess, A. (1992) Instabilities in two-dimensional spatially periodic flows. Part I: Kolmogorov flow. Phys. Fluids A 4, 1385–1395 47. Turcotte, D. L. (1997) Fractals and Chaos in Geology and Geophysics. Cambridge University Press, Cambridge 48. Voss, H., Kurths, J., Schwarz, U. (1996) Reconstruction of grand minima of solar activity from ∆14 C data: Linear and nonlinear signal analysis. J. Geophys. Res. A (Space Physics) 101, 15637–15643 49. Witt, A., Kurths, J., Krause, F., Fischer, K. (1994) On the validity of a model for the reversals of the Earth’s magnetic field. Geophys. Astrophys. Fluid Dyn. 77, 79–91 50. Wittmann, A. (1978) The sunspot cycle before the Maunder minimum. Astron. Astrophys. 66, 93–97 51. Z¨ oller, G., Engbert, R., Hainzl, S., Kurths, J. (1998) Testing for unstable periodic orbits to characterize spatiotemporal dynamics. Chaos, Solitons & Fractals 9(8), 1–20
Nichtlineare Zeitreihenanalyse in der Physik: Mo ¨glichkeiten und Grenzen Holger Kantz Max-Planck-Institut f¨ ur Physik komplexer Systeme, N¨ othnitzer Straße 38, D–01187 Dresden, Germany, e-mail:
[email protected] Zusammenfassung Nichtlineare Zeitreihenanalyse beruht auf dem Konzept des niedrigdimensionalen deterministischen Chaos, das jedoch in offenen Systemen selten realisiert wird. In geeigneten Situationen lassen sich diese Konzepte auch bei nichtdeterministischen Systemen und Signalen mit großem Erfolg einsetzen. Grundprinzipien, M¨ oglichkeiten und Grenzen der nichtlinearen Zeitreihenanalyse werden diskutiert und durch zwei Anwendungen illustriert.
1
Einleitung
In fast allen Bereichen unserer allt¨aglichen Umwelt, in vielen Bereichen der Wissenschaft und in der Technik spielt komplexes dynamisches Verhalten eine we¨ sentliche Rolle. Viele Prozesse, z.B. in der Medizin, Okonomie und Meteorologie liefern aperiodische, schwer vorhersagbare und oftmals auch schwer klassifizierbare Signale, die eine entsprechend komplizierte Dynamik des zugrundeliegenden Systems widerspiegeln. Klassifizierbarkeit, Vorhersagbarkeit und Steuerbarkeit sind jedoch im allgemeinen w¨ unschenswerte Eigenschaften, die man auch f¨ ur komplexe Dynamik anstrebt. Ausschließlich ausgehend von beobachteten Daten, bietet Zeitreihenanalyse einen Zugang, m¨oglichst viel u ¨ber die Eigenschaften oder den Zustand eines Systems zu lernen. Welche Methoden der Analyse verwendet werden, h¨ angt dabei von der Art des Signals und letztendlich auch von der Arbeitshypothese ab, wie das Signal zustandekommt. Das in anderen Beitr¨ agen in diesem Band n¨aher beschriebene Ph¨anomen deterministisches Chaos liefert hier einen neuen Ansatzpunkt zur Interpretation, Beschreibung und letztendlich aber auch zur Manipulation von Signalen oder Systemen. Man weiß, daß relativ einfache Systeme chaotisches Verhalten entwickeln k¨ onnen, Systeme, die so einfach sind, daß man sie durch die Analyse beobachteter Daten weitgehend identifizieren und verstehen kann. Diese Erkenntnis ist der Ausgangspunkt der nichtlinearen Zeitreihenanalyse. Angesichts der m¨ oglichen Vielzahl von Systemvariablen scheint die Erwartung, ein einfaches dynamisches System in einem Prozeß unserer Umwelt auszumachen, verfehlt. Jedoch kann es durch eine dissipative Kopplung der Freiheitsgrade zu effektiv niedrigdimensionaler Dynamik kommen. Die einfachsten Beispiele daf¨ ur sind periodische Bewegungen, bei der alle Variablen zeitlich synchron oszillieren, oder ein station¨arer Zustand, bei dem alle Variablen zeitlich konstant sind (ein bzw. kein aktiver Freiheitsgrad). F¨ ur chaotisches Verhalten m¨ ussen mindestens drei aktive Freiheitsgrade vorliegen.
Nichtlineare Zeitreihenanalyse
75
Trotz dieser prinzipiellen M¨oglichkeit f¨ ur niedrigdimensional chaotisches Verhalten darf man aber nicht u ¨bersehen, daß Chaos im allgemeinen keine sehr plausible Erkl¨ arung f¨ ur aperiodisches Zeitverhalten in offenen Systemen und Feldmessungen ist. Eine Kopplung einer Vielzahl von aktiven Freiheitsgraden, egal ob chaotisch oder nicht, erzeugt immer sehr komplexe Dynamik, und oft ist eine als System betrachtete Einheit an die Umwelt gekoppelt und erf¨ahrt von dort Einfl¨ usse, die zur Auspr¨agung von Unvorhersagbarkeit und Nichtstationarit¨ at f¨ uhren. Dementsprechend wurde Chaos im engeren Sinne nur in isolierten, wohlkontrollierten Laborexperimenten beobachtet, und es ist nicht zu erwarten, daß reale Systeme unserer Umwelt dieses Ph¨anomen in nachweisbarer Form zeigen. Die Hauptaussage dieses Artikels wird sein, daß nichtlineare Analysen auch dann sinnvoll eingesetzt werden k¨onnen, wenn statt striktem Determinismus nur Determinimus-¨ ahnliche Strukturen vorliegen. Historisch gesehen befinden wir uns heute in der dritten Phase der nichtlinearen Zeitreihenanalyse. Die Verbreitung der Grundidee Chaos“ f¨ uhrte Ende ” der 80-er Jahre zu einer Vielzahl von Arbeiten, in denen nach Evidenz f¨ ur niedrigdimensionales Chaos in Zeitreihen aus Feldmessungen gesucht und zum Teil auch gefunden wurde. Leider halten diese Ergebnisse einer genaueren und kritischen Betrachtung nicht Stand. Sei es niedrigdimensionales Chaos im Hirn, in der Fluktuation des Wasserspiegels des Great Salt Lake in Utah oder der sogenannte Klima-Attraktor, alle die u ¨blicherweise durch Dimensionsanalyse gewonnenen Ergebnisse sind nach neueren Erkenntnissen (vor allem besserem Verst¨andnis der Methoden) nicht u ¨berzeugend oder sogar falsch, wenn man die Schwierigkeiten dieser Analyse kennt. Je mehr sich das Bewußtsein f¨ ur die Unzul¨anglichkeit der Analyse, aber st¨ arker noch f¨ ur die Unwahrscheinlichkeit des Vorliegens von niedrigdimensionalem Chaos durchsetzte, um so skeptischer wurde diese ganze Idee gesehen. In dieser zweiten Phase wurden Anwendungen des Konzepts nichtlineare Dyna” mik“ zunehmend als nur in konstruierten Einzelf¨allen m¨oglich“ eingestuft und ” dieses Arbeitsfeld mehr dem reinen Erkenntnisgewinn zugesprochen. Je nach Vertrautheit mit der neueren Literatur sind viele Physiker und Mathematiker heute dieser Ansicht, Wissenschaftler anderer Disziplinen befinden sich aufgrund der Langsamkeit des Informationsflusses zum Teil noch in der ersten, euphorischen Phase. Ausgehend von dieser Ern¨ uchterung wurde in den letzten Jahren akzeptiert, daß die Welt komplizierter ist, aber nicht zu kompliziert, um nicht dennoch Fortschritte erzielen zu k¨ onnen. Einerseits wird erfolgreich daran gearbeitet, die theoretischen Konzepte in Richtung hochdimensionales Chaos, Kopplung chaotischer Prozesse an stochastische Prozesse und Nichtstationarit¨at weiterzuentwickeln. Gleichzeitig wurden Anwendungen gefunden, bei denen auch ohne das Vorhandensein von deterministischem Chaos mit nichtlinearen Methoden unerwartet positive Ergebnisse erzielt wurden. Welche Strukturen f¨ ur einen erfolgreichen Einsatz nichtlinearer Konzepte vorliegen m¨ ussen, ist dabei Gegenstand aktueller Forschung.
76
H. Kantz
In diesem Artikel werden die Grundideen der nichtlinearen Zeitreihenanalyse kurz skizziert und vor allem prinzipielle und praktische Schwierigkeiten mit Daten aus Feldmessungen er¨ ortert. Daran anschließend werden zwei Beispiele diskutiert, deren Dynamik komplex und aperiodisch ist, aber nicht deterministisch. Anhand dieser Fallstudien soll deutlich werden, wie diese Konzepte in modifizierter Form, vor allem aber mit modifizierten Zielen, zur Anwendung kommen k¨ onnen, auch wenn ein System nicht chaotisch im engeren Sinne ist.
2
Nichtlineare Zeitreihenanalyse und ihre Grenzen
Klassisches Chaos ist ein Konzept zum Verst¨andnis und zur Charakterisierung einer ganz bestimmten Form von dynamischer Komplexit¨at, n¨amlich solcher, die aus dem Vorhandensein nichtlinearer Wechselwirkungen und R¨ uckkopplungen bei wenigen Variablen und in Abwesenheit ¨außerer aperiodischer Einfl¨ usse entsteht. Determinismus bedeutet, daß der Systemzustand xn zum gegenw¨artigen Zeitpunkt, der durch die Werte aller Systemvariablen charakterisiert ist, in eindeutiger Weise den Systemzustand zu jedem beliebigen zuk¨ unftigen Zeitpunkt festlegt. Dies geschieht u ¨ber Bewegungsgleichungen, im einfachsten Fall1 xn+1 = F(xn ). Dabei ist xn der Zustandsvektor, der einen Punkt in einem Zustandsraum beschreibt. Chaotische Dynamik ist strikt deterministisch, aber aufgrund des exponentiellen Wachstums kleinster Ungenauigkeiten effektiv unvorhersagbar. Nur wenn der gegenw¨artige Systemzustand exakt bekannt ist und man u ¨ber ein absolut fehlerfreies numerisches L¨osungsverfahren z.B. einer Differentialgleichung verf¨ ugt (geschlossene Ausdr¨ ucke f¨ ur L¨osungen chaotischer Systeme existieren im allgemeinen nicht), folgt aus der Bewegungsgleichung der Systemzustand zu jedem beliebigen Zeitpunkt in der Zukunft. Mißt man in einem Experiment den gegenw¨ artigen Systemzustand mit dem unvermeidlichen Meßfehler, hat man zus¨ atzlich nur eine ungef¨ahre Kenntnis der das System beschreibenden Bewegungsgleichung, so hat nach relativ kurzer Zeit der Zustand des auf dem Computer simulierten Modells mit dem Zustand des wirklichen Systems ¨ keine Ahnlichkeit mehr. Die Wirklichkeit ist u ¨ber l¨angere Zeit unvorhersagbar. Diese Instabilit¨ at der L¨ osungen ist gekoppelt an ihr komplexes Erscheinungsbild: sie besitzen keinerlei Periodizit¨at. Chaotische Dynamik erzeugt im Zustandsraum interessante Strukturen, die mit Gr¨ oßen wie Dimensionen, Lyapunov-Exponenten und Entropien, die in anderen Beitr¨ agen zu diesem Buch eingef¨ uhrt wurden, quantitativ erfaßt werden. Ein Konzept, das auch in diesem Artikel relevant wird, ist das des Attraktors und seiner Dimension. Wie bereits gesagt, f¨ uhrt die allgegenw¨artige Dissipation zu einer mehr oder weniger starken Synchronisation der Zeitentwicklung verschiedener Systemvariablen. Es gibt dann weniger aktive Freiheitsgrade als Systemvariable, was sich dadurch bemerkbar macht, daß die L¨osung als Funktion der Zeit nicht den ganzen Zustandsraum f¨ ullt, sondern nur einen Unterraum, 1
Physikalisch sinnvoller ist die Darstellung eines dynamischen Systems als Differentialgleichung x˙ = f (x) mit kontinuierlicher Zeit, durch die zeitdiskrete Messung wird daraus aber effektiv eine Abbildung. In obiger Iterationsvorschrift ist F die u ¨ber einen Zeitschritt integrierte Dynamik f .
Nichtlineare Zeitreihenanalyse
77
den Attraktor. Dieser Attraktor l¨aßt sich durch eine Dimensionszahl charakterisieren, die im wesentlichen die Zahl der aktiven Freiheitsgrade angibt. Seit der Pionierarbeit von Packard et al. [12] zur Analyse einer skalaren Meßreihe wurden Methoden entwickelt, um die Eigenschaften chaotischer Dynamik aus gemessenen Daten zu extrahieren, Methoden der nichtlinearen Zeitreihenanalyse [7]. Den wesentlichen Ausgangspunkt bilden dabei die sogenannten Einbettungstheoreme: Konzepte zur Charakterisierung chaotischer Dynamik sind Zustandsraumkonzepte, d.h. sie verlangen die Kenntnis des Systemzustandes als Funktion der Zeit, {xn }. In einem typischen Experiment wird nur eine Meßgr¨oße als Funktion der Zeit aufgezeichnet, also eine skalare Zeitreihe {sn } erzeugt. Die Meßvorschrift sn = h(xn ) stellt somit eine Art Projektion des Zustandsraumes auf die reellen Zahlen dar. Sie kann z.B. lauten, eine Komponente des Zustandsvektors oder seinen Betrag zu messen2 . Die beim Projezieren verlorene Information l¨ aßt sich durch keine geschickte Transformation zur¨ uckholen – wenn man nur eine Menge statistisch unabh¨angiger Ereignisse hat. Im Fall eines deterministischen dynamischen Systems existieren aber Korrelationen, die diese Umkehrung erlauben: Seien x1 , x2 , . . . , Zustandsvektoren des dynamischen Systems zu Zeiten t1 , t2 , . . . , und durch die Dynamik F verbunden, x2 = F(x1 ), x3 = F(x2 ) = F(F(x1 )), . . . . Dann sind x2 , x3 , . . . (nichtlineare) Transformationen des Ausgangspunktes x1 . Es ist plausibel, daß jede der Beobachtungen si = h(xi ) = h(F(. . . (F(x1 )))) die nicht beobachteten Komponenten von x1 auf andere Art enth¨ alt. Die Frage ist dann nur, wieviele aufeinanderfolgende Messungen man ben¨ otigt, um u ¨ber sie implizit die volle Information u ¨ber x1 zu erhalten (w¨ are die Meßfunktion h bekannt, k¨onnte man x1 selbst bestimmen, aber das ist im allgemeinen weder m¨oglich noch n¨otig). Die Einbettungstheoreme von Takens [17] und Sauer et al. [13] beleuchten nicht nur die Bedingungen, unter denen die gerade skizzierte Zeitversatzeinbettung erfolgreich ist, sondern machen auch eine Aussage u ¨ber die Einbettungsdimension m: Wenn das dynamische System xn+1 = F(xn ) einen Attraktor mit der Box-counting Dimension D0 erzeugt, so reichen m > 2D0 aufeinanderfolgende Meßwerte aus, um den Systemzustand eindeutig festzulegen. Ist also {sn } eine skalare Zeitreihe, so ist die Menge der Zeitversatzvektoren sn = (sn , sn−τ , . . . , sn−(m−1)τ ) ¨aquivalent zur Menge der nicht beobachteten Systemzust¨ande {xn }. Die Zeitverz¨ogerung τ wird im n¨ achsten Absatz erkl¨art. In der Praxis ist nicht nur m (und damit die a priori unbekannte Box-counting Dimension D0 ) zu bestimmen, sondern auch eine Zeitverz¨ogerung τ zu w¨ahlen: Die mathematischen Theoreme beziehen sich nur auf mathematisch exakte Meßdaten. Sie besitzen dann ihre G¨ ultigkeit unabh¨angig von der Abtastrate, also dem zeitlichen Abstand der Meßwerte. Da wir in der Realit¨at mit endlicher Meßgenauigkeit leben m¨ ussen, wird in der Praxis dieser zeitliche Abstand, die Zeitverz¨ ogerung τ , relevant. Verwendet man eine hohe Abtastrate und kleines τ , so sind die verschiedenen Komponenten eines Zeitversatzvektors sn sehr a¨hnlich, und die Menge aller dieser Vektoren liegt nahe der Diagonalen im Einbettungsraum. Strukturen transvers zur Diagonalen sind also schlecht aufgel¨ost und 2
Werden simultan mehrere Gr¨ oßen gemessen, so sind auch sie selten mit den Zustandsvektoren xn identisch, und ein ¨ ahnliches Problem tritt auf.
78
H. Kantz
werden durch geringe Rauschamplituden ausgel¨oscht. Bei chaotischen Systemen sind zeitlich weit auseinanderliegende Meßwerte nur schwach korreliert – Autokorrelationsfunktionen zerfallen oft exponentiell schnell. Schwach korrelierte Komponenten von Zeitversatzvektoren f¨ uhren zu unn¨otig komplizierten Strukturen, die ebenfalls schwer aufzul¨osen und sensibel gegen¨ uber Rauschen sind (das wird im n¨ achsten Abschnitt in anderem Zusammenhang noch deutlicher werden). Man muß also versuchen, eine optimale Abtastrate bzw. bei hoher Abtastrate eine geeignete Zeitverz¨ ogerung τ zwischen den Komponenten der Vektoren zu finden. Im rekonstruktierten Zustandsraum lassen sich die dynamischen Strukturen mit den Konzepten der nichtlinearen Dynamik charakterisieren. Die bereits erw¨ ahnten Gr¨ oßen, Lyapunov-Exponenten, Dimensionen und Entropien, sind invariant unter Koordinatentransformationen. Ihre Werte sind deshalb im Einbettungsraum die gleichen wie f¨ ur das System in seinem physikalischen Zustandsraum. Vom Aspekt der Anwendung sei vermerkt, daß die bloße Charakterisierung von Dynamik durch Zahlen oft weniger relevant ist als der konsistente Nachweis, daß diese Konzepte wohlbestimmte numerische Ergebnisse liefern, die robust gegen¨ uber Details sind. Sie dienen dem Nachweis, daß die in der Zeitreihe beobachtbare Aperiodizit¨ at tats¨achlich auf deterministisch chaotische Dynamik zur¨ uckzuf¨ uhren ist. Neben einer solchen Signalklassifikation ist Modellierung oft eine wesentliche Aufgabe. Man kann im Einbettungraum Bewegungsgleichungen an die beobachteten Daten anpassen, die unter Integration bzw. Iteration die beobachteten dynamischen Strukturen reproduzieren. Solche Modelle erlauben z.B. Kurzzeitvorhersagen, w¨ ahrend Langzeitvorhersagen f¨ ur chaotische Dynamik prinzipiell nicht m¨ oglich sind. Unter dem Stichwort Chaos-Steuerung hat die Stabilisierung instabiler periodischer Orbits durch kleine St¨orungen Bekanntheit erlangt und ist tats¨ achlich in technischen Anwendungen von potentieller Relevanz. Die dazu notwendige Information u ¨ber das System gewinnt man ebenfalls durch Zeitreihenanalyse. Eine Schwierigkeit bei der Anwendung aller dieser Methoden ist die schon erw¨ ahnte Kontamination mit Rauschen. Rauschen kann als reine Meßungenauigkeit auftreten (im einfachsten Fall als eine Art Rundungsfehler bei digitaler ¨ Ausgabe der Meßwerte), als Rauschen im Ubertragungskanal wie z.B. bei astronomischen Beobachtungen oder bei elektrischen Signalen in der Medizin (EKG: St¨ orsignale durch Muskelschichten und ver¨anderlichen Hautwiderstand), oder als dynamisches Rauschen durch Kopplung des betrachteten Systems an die Außenwelt. In allen diesen F¨ allen ist die Bezeichung Rauschen“ f¨ ur diese St¨orungen ” eine Vereinfachung, denn sie k¨onnen nat¨ urlich sehr komplizierter deterministischer Natur sein. Betr¨ agt die Amplitude dieser St¨orprozesse mehr als ca. 2% der Signalamplitude, lassen sich Lyapunov-Exponenten, Dimensionen und Entropien nicht mehr bestimmen und nicht einmal die Endlichkeit ihrer Werte konsistent nachweisen [14]. Die Option, Modellgleichungen zu gewinnen, besteht bis zu weit h¨ oheren Rauschamplituden, aber bei mehr als ca. 25% Rauschen wird die Modellverifikation sehr schwierig, sprich, die verrauschten Daten sind kompatibel
Nichtlineare Zeitreihenanalyse
79
mit einer Vielzahl von Modellen, und der die Daten produzierende Prozeß ist unter statistischen Aspekten nicht mehr notwendigerweise der wahrscheinlichste. Eine andere vieldiskutierte Limitierung liegt in der Zahl der verf¨ ugbaren Datenpunkte. Eine endliche Anzahl von Meßwerten soll Information liefern u ¨ber die dynamischen Strukturen, die eine ganze Funktion, n¨amlich f in der Differentialgleichung x˙ = f (x) oder F in xn+1 = F(xn ), erzeugt. Eine auch nur ungef¨ ahre Rekonstruktion dieser Information verlangt Annahmen, u ¨blicherweise die der Glattheit von F und die der Extrapolierbarkeit der Strukturen von kleinen aber endlichen Skalen zu infinitesimalen Skalen. Das wesentliche Argument, das die Zahl der verf¨ ugbaren Daten mit der Dimension des Attraktors in Beziehung setzt, betrachtet ausschließlich die Geometrie [2]. Wenn man N Punkte uniform in einem D-dimensionalen Volumen mit Durchmesser 1 verteilt, erh¨ alt man einen mittleren Punkt-zu-Punkt Abstand von N −1/D . Verlangt man f¨ ur eine typische Anwendung wie eine Dimensionsanalyse einen mittleren Abstand von 1/100, so ben¨ otigt man 102D Punkte. Die Korrelationssumme mit ihrer Paar-Statistik [3] geht mit der Datenmenge ¨okonomischer um und erlaubt bereits bei ca. 10D Punkten, bis zur L¨angenskala 1/100 vorzudringen und die Dimension abzusch¨ atzen. Diese Argumente gelten so nur im physikalischen Zustandsraum eines Systems. F¨ ur Zeitversatzeinbettungen skalarer Signale sind sie unvollst¨andig. Die Zeitversatzeinbettung f¨ uhrt f¨ ur chaotische Zeitreihen zu Effekten, die die Zahl der ben¨ otigten Punkte stark in die H¨ohe treibt. Die weiter oben gebotene anschauliche Erkl¨ arung f¨ ur die G¨ ultigkeit der Zeitversatzeinbettung zeigt, daß es sich dabei um eine hochgradig nichtlineare Transformation vom urspr¨ unglichen Zustandsraum in den Einbettungsraum handelt. Diese Nichtlinearit¨at ¨außert sich im Erscheinungsbild des Attraktors im Einbettungsraum: Er wird sehr viel komplizierter, desto komplizierter umso gr¨oßer die durch einen Einbettungsvektor abgedeckte Zeitspanne ist. Das hat Konsequenzen f¨ ur die Datenanalyse. Determinismus bedeutet, daß die Datenpunkte nicht irgendwie den Raum f¨ ullen, sondern in einer (unbekannten) Untermannigfaltigkeit liegen. Diese Einschr¨ ankung ist die mathematische Formulierung der Existenz deterministischer Bewegungsgesetze. Alle Formen, den Determinismus zu charakteriseren, k¨onnen deshalb nur greifen, wenn man mindestens diese Mannigfaltigkeit identifizieren kann. Die Zeitversatzeinbettung f¨ uhrt zu zus¨atzlicher starker Faltung dieser Mannigfaltigkeit. Sie kann aber nur identifiziert werden, wenn der Punkt-zuPunkt Abstand innerhalb der Mannigfaltigkeit kleiner ist als der Abstand zwischen den Falten der Mannigfaltigkeit. Dies ist in Abb.1 f¨ ur ein eindimensionales dynamisches System illustriert. Eine genauere Analyse zeigt, daß dieser Faltungsprozeß durch das Produkt von Entropie und Dimension der Dynamik auf dem Attraktor bestimmt wird, genauer, daß man Gr¨oßenordnung ehD Datenpunkte ben¨ otigt, um eine Dynamik mit (Kolmogorov-Sinai-) Entropie h auf einem Attraktor mit fraktaler Dimension D als deterministisch zu identifizieren. Hat man weniger Datenpunkte, so kann man die L¨angenskalen, auf denen Determinismus sichtbar wird, nicht beobachten. Auf gr¨oßeren Skalen ist der Prozeß nicht von einem stochastischen mit gleicher Verteilung und gleichen Korrelationen zu unterscheiden [9].
H. Kantz 1
1
0.8
0.8
0.6
0.6
xn+1
sn+1
80
0.4
0.4
0.2
0.2
0
0 0
sn
1
0
xn
1
Abb. 1. Repr¨ asentieren zu wenige Beobachtungen (links) eine kompliziert gefaltete Mannigfaltigkeit (rechts), so ist deren Struktur nicht zu erkennen (am Beispiel des verallgemeinertern Bernoulli-Shifts, einem 1-dimensionalen dynamischen System, xn+1 = 8xn mod 1)
Aufgrund dieser Tatsache macht es Sinn, im Zusammenhang mit Zeitreihenanalyse von dem Produkt von Dimension und Entropie als dynamischer Komplexit¨ at zu sprechen. Die Zahl der minimal notwendigen Datenpunkte steigt also exponentiell mit dieser Komplexit¨at und damit schneller als mit der Attraktordimension, wenn man eine Einbettung einer skalaren Meßgr¨oße verwenden muß. Diese Erkenntnis erkl¨ art, warum man bei der Analyse von Laborexperimenten, wo man mit geringem Rauschen, minimaler Instationarit¨at und langen Zeitreihen ideale Bedingungen zur Datenanalyse besitzt, selten endliche Attraktordimensionen gr¨ oßer als 3 nachgewiesen hat. Nichtlineare Zeitreihenanalyse in ihrer unmittelbaren Form, Rekonstruktion eines Zustandsraumes, Bestimmung von Dimension, Lyapunov-Exponenten und Bewegungsgleichungen, gelingt im allgemeinen nur bei Systemen mit wenigen aktiven Freiheitsgraden und sehr schwachen stochastischen St¨orungen. Weiterhin verlangt sie v¨ ollige Stationarit¨at. Dar¨ uber hinaus darf man nicht vergessen, daß diese Konzepte zwar geeignet sind, dynamische Komplexit¨at im Sinne von Sensitivit¨ at gegen¨ uber Anfangsbedingungen und Selbst¨ahnlichkeitseigenschaften zu charakterisieren, aber keinen Ansatz zur Beschreibung von Kompliziertheit eines Systems liefern. Letzteres soll heißen, daß in interessanten Systemen die verschiedenen Freiheitsgrade auf sehr verschiedenen Zeit- und L¨angenskalen aktiv sein k¨ onnen und sehr verschiedene Bedeutung haben k¨onnen. Es gibt Ans¨atze zur Entwicklung von Konzepten, die auch in dieser Hinsicht neue Einblicke erlauben. Dennoch: Ein von sich aus kompliziertes System mit vielen aktiven Freiheitsgraden wird oft eine vollst¨andige, d.h. entsprechend komplizierte Beschreibung verlangen, und nichtlineare Zeitreihenanalyse wird dann eine Reduktion auf bestimmte Aspekte darstellen.
3
Anwendungen nichtlinearer Zeitreihenanalyse
Trotz der gerade diskutierten Schwierigkeiten gibt es außerhalb des Labors des Physikers Systeme und Fragestellungen, bei denen Zustandsraummethoden und
Nichtlineare Zeitreihenanalyse
81
Erkenntnisse der nichtlinearen Dynamik erfolgreich eingesetzt werden k¨onnen. Anhand von zwei Beispielen soll eine solche out of area-Anwendung illustriert werden. Als erstes wird ein Verfahren zur Fehlerfr¨ uherkennung durch Zeitreihenanalyse beschrieben, als zweites nichtlineare Rauschunterdr¨ uckung f¨ ur menschliche Sprache. In beiden Beispielen werden also nichtdeterministische Signale behandelt, im ersten Falle mit dem Ziel der Klassifikation, im zweiten mit dem Ziel der Signalmanipulation. 3.1
Fehlerfr¨ uherkennung f¨ ur Elektromotoren
¨ Eine wesentliche Aufgabe der Datenanalyse k¨onnte die Online-Uberwachung von komplexen technischen Systemen werden. Die gegenw¨artige Standardl¨osung zur Fehlererkennung ist die folgende: Alle relevanten Kenngr¨oßen (z.B. im Auto Tem¨ peratur, Oldruck, Reifendruck) werden zeitkontinuierlich gemessen. Verl¨aßt eine dieser Gr¨ oßen ihren Toleranzbereich, liegt eine St¨orung vor. Die im folgenden vorgestellte Methode verwendet das gleiche Grundkonzept, unterscheidet sich aber in zwei wesentlichen Punkten: Zur Vereinfachung der Meßtechnik (z.B. billiger, robuster, wartungs¨ armer) soll nur eine Meßgr¨oße, also eine skalare Zeitreihe aufgezeichnet werden. Mit Methoden der Zeitreihenanalyse werden daraus in kurzen Zeitintervallen systemspezifische Merkmale berechnet, die den Kenngr¨ oßen entsprechen. Da diese Merkmale meist keine direkte technische Interpretation zulassen, ist ihr Toleranzbereich a priori unbekannt und muß in einer Trainingsphase bestimmt werden. Zur Erh¨ohung der Sensitivit¨at werden nichtlineare Korrelationen zwischen den verschiedenen Merkmalen ausgenutzt, d.h. eine St¨ orung wird nicht erst vermutet, wenn eins der Merkmale seinen Toleranzbereich verl¨ aßt, sondern bereits, wenn eine zuvor nicht beobachtete Kombination von Werten auftritt, von denen jeder einzelne aber noch tolerierbar w¨are. Dieses Konzept enth¨ alt zwei Teilprobleme: Erstens die geeignete Wahl der Merkmale und ihre numerische, statistisch robuste Bestimmung f¨ ur relativ kurze Zeitreihensegmente, sowie zweitens das Erkennungsverfahren f¨ ur Fehler durch den Vergleich von Merkmalsvektoren. W¨ahrend das zweite Problem eine geometrische und somit durch das Phasenraumkonzept motivierte L¨osung besitzt, kann man f¨ ur das erste sowohl Verfahren der klassischen Statistik als auch nichtlineare Methoden verwenden. Diese Fehlererkennungsmethode wurde von uns auf Messungen des Statorstroms von Induktionsmotoren angewendet und erprobt. Diese Motoren laufen mit einer Drehfrequenz von etwa 29 Hz bei einer Netzfrequenz von 60 Hz. Eine Phase des Stroms durch den Motor wurde mit einer Abtastrate von 1920 Hz als Funktion der Zeit gemessen. Alle 2.5 s wird das letzte 2.5 s lange Zeitreihensegment auf seine Vertr¨ aglichkeit mit den Merkmalen des intakten Motors u ¨berpr¨ uft. Da das Verfahren mit ver¨anderlichen Betriebssituationen zurecht kommen soll, wurden Messungen mit verschiedenen Lastzust¨anden durchgef¨ uhrt. Erg¨ anzend zu den intakten Motoren wurden Motoren mit k¨ unstlich eingebauten Fehlern verwendet (Unwucht, Lagerschaden, Stabbruch). Zwei Arten von Merkmalen wurden bisher erprobt: Ausgew¨ahlte Frequenzb¨ ander des Leistungsspektrums und Kreuzvorhersagefehler. Aufgrund der ausge-
82
H. Kantz
pr¨ agten Grundperiodizit¨ at der Signale und der bedingten Interpretierbarkeit der Frequenzanteile f¨ ur diese Systeme liefern erstere hier gute Ergebnisse (obwohl die Auswahl der relevanten Spektralkomponenten nicht trivial ist). Dabei soll nicht verschwiegen werden, daß Spektralanalyse eine klassische lineare Methode ist. Die Konzepte der nichtlinearen Dynamik treten dann erst bei der Auswertung und dem Vergleich der Merkmalsverktoren auf. Diese Situation ist jedoch nicht untypisch: Oft liefert eine Kombination traditioneller Methoden mit nichtlinearen Methoden die besten Ergebnisse. Im folgenden wird zur Illustration der nichtlinearen Statistiken nur auf die Kreuzvorhersagefehler eingegangen.
0
! 0
Zeit Index n
1
! 0
Zeit Index n
!
Signal sn
Signal sn
?
1 Signal sn
1 Signal sn
1
0 Zeit Index n
Zeit Index n
1
sn+2
1
Signal sn
1
0
0
0 sn
1
0
sn+1
Zeit Index n
¨ Abb. 2. Ahnliche Zeitreihensegmente entsprechen benachbarten Punkten im Einbettungsraum. Vorhersagen (?) werden durch Mittelwerte u ahnlicher ¨ber die Zukunft (!) ¨ Zeitreihensegmente m¨ oglich
Kreuzvorhersagefehler sind eine Verallgemeinerung des Konzepts der Vorhersagefehler: Um die Zukunft eines aktuellen Systemszustandes vorherzusagen, mittelt man in geeigneter Weise u ¨ber die (schon bekannte) Zukunft von ¨ahnlichen Systemzust¨ anden aus der Vergangenheit. Im Zeitversatzeinbettungsraum sind ¨ ahnliche Zust¨ ande r¨ aumlich benachbart, so daß dieses Konzept sowohl formal als auch als Algorithmus leicht zu beherrschen ist (Abb. 2). Die Abweichung dieser Vorhersage von der danach gemessenen Zukunft ist der Vorhersagefehler. Je kleiner er im Mittel ist, desto deterministischer ist das System, und desto besser hat man die deterministischen Strukturen aus der Datenmenge extrahiert. Bei Kreuzvorhersagefehlern nimmt man die ¨ahnlichen Systemzust¨ande nicht aus der gleichen Zeitreihe, sondern aus einer anderen. Erlaubt die Kenntnis der anderen Zeitreihe eine vern¨ unftige Vorsage der einen, so sind die dynamischen Strukturen offenbar sehr ¨ ahnlich. Solche Kreuzvorhersagefehler, im Vergleich zu ¨ den Autovorhersagefehlern, lassen also eine Aussage u von ¨ber die Ahnlichkeit Zeitreihen und damit von dynamischem Verhalten zu. F¨ ur die Elektromotoren werden Zeitreihensegmente 10 verschiedener Lastzust¨ande des Motors als Re-
Nichtlineare Zeitreihenanalyse
83
ferenzzeitreihen verwendet, um 10 verschiedene Kreuzvorhersagefehler f¨ ur das ¨ aktuelle Segment zu berechnen. Diese 10 Fehler charakterisieren die Ahnlichkeit bzw. Un¨ ahnlichkeit der aktuellen Dynamik mit diesen Referenzdynamiken und bilden zusammen den Merkmalsvektor des aktuellen Segments. Eine H¨ alfte der Meßdaten eines intakten Motors wird als Trainingsmenge verwendet. Subsequenzen von 2.5 s (5000 Daten) werden in die gerade beschriebenen Merkmalsvektoren umgewandelt. Wie zu fordern, aber nicht unbedingt zu erwarten ist, erzeugen verschiedene Messungen des gleichen Lastzustandes sehr ¨ ahnliche Merkmalsvektoren. In der Arbeitsphase werden die jeweils aktuellen letzten 5000 Meßpunkte in ihren Merkmalsvektor umgewandelt. Liegt er nicht in vern¨ unftiger N¨ ahe zu einem Vektor der Trainingsmenge, so wird er als potentieller Fehler eingestuft. Zu viele potentielle Fehler in Folge machen einen tats¨ achlichen Fehler sehr wahrscheinlich. Diese Art der Fehlererkennung (allgemeiner kann man auch sagen, der Signalklassifikation) besitzt zwei Arten des Versagens: Ein tats¨achlich intakter Motor kann irrt¨ umlich als defekt klassifiziert werden, wenn der aktuelle Betriebszustand in der Trainingsmenge nicht enthalten ist und der aktuelle Merkmalsvektor deshalb keinen Nachbarn findet. Umgekehrt kann ein Merkmalsvektor eines fehlerhaften Zustandes dennoch nah an Vektoren der Trainingsmenge liegen, wenn entweder die Merkmale nicht sensitiv auf den Fehler reagieren oder statistische Fluktuationen zu groß sind. Welcher der Irrt¨ umer h¨aufiger auftritt, h¨angt von einem Toleranzparameter λ ab, mit dem der tats¨achliche Abstand zwischen aktuellem und n¨ achstem Vektor der Referenzmenge verglichen wird. In Abb. 3 wird das dargestellt. Offensichtlich existiert ein großes Intervall 12 < λ < 22, in dem die Trennung in fehlerhaft“ und fehlerfrei“ hervorragend gelingt. Dabei macht ” ” das Verfahren keinen Gebrauch von der Kenntnis der Signaturen der Fehler, und die Kurve der irrt¨ umlichen Zur¨ uckweisung wurde out-of-sample gewonnen.
1.0
% der Zustaende
0.8
0.6
0.4
0.2
0.0 0.0
10.0
20.0
30.0
40.0
50.0
Toleranzwert
Abb. 3. Relativer Anteil falscher Zur¨ uckweisungen (links) und irrt¨ umlicher Akzeptanz (rechts, verschiedene Fehlertypen von oben nach unten: Unwucht, Lagerschaden, Mittelwert aller Fehler, Stabbruch) als Funktion des Toleranzparameters λ. 10 PS Induktionsmotor
84
H. Kantz
In der Praxis werden nicht beobachtete Normalzust¨ande st¨arker als auf diesen Testdaten ein Problem darstellen: Ver¨anderte Umweltbedingungen wie Umgebungstemperaturen k¨ onnen sich negativ auswirken. Verfeinerungen des Verfahrens k¨ onnen aber auch mit dieser Schwierigkeit in gewissem Maße zurechtkommen [5]. 3.2
Nichtlineare Rauschunterdr¨ uckung auf Sprache
Obwohl intuitiv meist klar ist, wie sich Rauschen auf Meßdaten ¨außert, muß man f¨ ur eine erfolgreiche Zerlegung in Signal und Rauschen quantitative Kriterien zu deren Unterscheidung besitzen. G¨angige Ans¨atze basieren auf den Leistungsspektren von Signal und Rauschen: Stochastisches Rauschen ist meist breitbandig, oft weiß, so daß man bei Signalen mit gepeakten Spektren durch Filtern im Fourierraum eine Zerlegung in Rauschen und Signal vornehmen kann. Ist das Signal jedoch selbst breitbandig, zerst¨ort man durch diese Filter auch einen Teil des Signals und erh¨ alt somit unzul¨angliche Ergebnisse. Hier soll als Beispiel menschliche Sprache betrachtet werden. Versucht man, sie durch einen low-pass Filter von hochfrequentem Rauschen zu befreien, so wird das Signal sehr verzerrt.
sn+1
sn+1
b
sn+1
a
c sn
sn
sn
Abb. 4. Unverrauschte Punkte einer deterministischen Zeitreihe liegen in einer glatten Mannigfaltigkeit (+ in Abb. a), durch Rauschen werden sie in der Umgebung der Mannigfaltigkeit verstreut (× in Abb. b), Rauschreduktion findet durch Projektion auf die (approximierte) Mannigfaltigkeit statt (Abb. c)
F¨ ur Zeitreihen chaotischer deterministischer Systeme wurden recht erfolgreich Verfahren zur Rauschunterdr¨ uckung entwickelt, die keine Trennung im Frequenzbereich vornehmen, sondern explizit auf die deterministische Struktur des Signals zur¨ uckgreifen [4]. Repr¨asentiert eine Zeitreihe ein deterministisches System, so liegen die im zweiten Kapitel eingef¨ uhrten Zeitversatzvektoren in einer niedrigdimensionalen Mannigfaltigkeit im Einbettungsraum (Abb. 4a). Diese Aussage gilt aber nur f¨ ur rauschfreie Daten. Rauschen zerst¨ort die exakte deterministische Beziehung und ersetzt sie durch eine approximative. Die Daten liegen nicht mehr auf der Untermannigfaltigkeit, aber in ihrer N¨ahe (Abb. 4b). Die Unterscheidung von Rauschen und Signal kann also u ¨ber die Dimensionalit¨ at erfolgen: Alles, was aus dieser Untermannigfaltigkeit herausragt, ist auf den Einfluß des Rauschens zur¨ uckzuf¨ uhren.
Nichtlineare Zeitreihenanalyse
85
2
sn
1.6 1.2 0.8 0.4 0 0
2000 4000 6000 8000 10000 12000 14000 16000 18000 20000 n
Abb. 5. Mit 10 kHz aufgezeichnete Signalamplitude von buon giorno“ (extrem rausch” armes Signal von CD)
Rauschunterdr¨ uckung f¨ ur deterministisch chaotische Signale gliedert sich deshalb in 3 Schritte: In Vorabanalysen muß die Dimension m des Einbettungsraumes und die Dimension der Mannigfaltigkeit, in der die sauberen Daten l¨agen, abgesch¨ atzt werden. Zur eigentlichen Korrektur muß f¨ ur jeden einzelnen Punkt die Mannigfaltigkeit in seiner N¨ahe identifiziert werden. Das kann in lokal linearer N¨ aherung geschehen, etwa durch Hauptachsenzerlegung der Kovarianzmatrix einer Umgebung des Punktes. Zur Rauschreduktion wird dann der betrachtete Punkt auf die Mannigfaltigkeit projeziert (Abb. 4c). Dieses Verfahren kann nur zusammen mit Konsistenzchecks angewendet werden, da eine falsche Wahl einiger Parameter das Signal auch zerst¨oren kann. Da diese Art der Rauschunterdr¨ uckung Signalanteile anhand ihrer Dimensionalit¨ at und ihrer Amplitude trennt, kann man sie allgemeiner anwenden, sofern das Konzept des rekonstruierten Phasenraums Sinn macht. Wenn also die Signalform charakteristisch ist wie z.B. beim EKG, so kann man annehmen, daß die lokale Einbettbarkeit auch ohne Determinismus m¨oglich ist. Das Verfahren wurde erfolgreich eingesetzt, um f¨otale EKGs aus dem abdomialen Mutter-EKG zu extrahieren [15]. Hier soll auf die Behandlung von Sprachsignalen eingegangen werden. Menschliche Sprache ist eine Aneinanderreihung von Phonemen, die charakteristische Muster besitzen. Auf mittleren Zeitskalen ist Sprache nichtstation¨ar, auf langen Zeitskalen ist sie hochkomplex, mit vielen aktiven Freiheitsgraden und langreichweitigen Korrelationen. Es gibt jedoch Zeitskalen, auf denen repetetive Muster bestehen, die f¨ ur eine quasi-Einbettbarkeit genutzt werden k¨onnen. In Abb. 5 ist das italienische Buon giorno“ als Wellenzug abgebildet. Man sieht ” neben dem typischen Amplituden- und Frequenzgang auf k¨ urzerer Zeitskala eine mehrfache Wiederholung der Wellenform (Abb. 6). In einer Zeitversatzeinbettung (m und τ geeignet gew¨ahlt) bilden diese Wiederholungen benachbarte ¨ Punkte. Ist nun die Variablit¨at in diesen Punkten durch eine Uberlagerung durch Rauschen gr¨ oßer als die nat¨ urliche Variablilit¨at aufgrund der Nichtstationarit¨at, so wird eine approximative Identifikation der Mannigfaltigkeit und die Projektion darauf das Rauschen st¨ arker reduzieren, als es das eigentliche Signal zerst¨ort. In Abb. 7 ist der Erfolg dieses Verfahrens gezeigt: Der zuvor gezeigte Laut wurde mit 10% Rauschen u uckung ist der gr¨oßte ¨berlagert. Nach Rauschunterdr¨ Teil des Rauschens eliminiert. In diesem Fall wurde farbiges Rauschen mit dem
86
H. Kantz 1.8 1.6 1.4 sn
1.2 1 0.8 0.6 0.4 0.2 13000
13500
14000
14500
15000
15500
n
2 1.8 1.6 1.4 1.2 1 0.8 0.6 0.4 0.2 0 13000
1.8 1.6 1.4 1.2 sn
sn
Abb. 6. Ausschnitt aus dem unverrauschten Wellenzug von buon giorno“. Man sieht ” eine bedingte Wiederholung des Signals, die die zur Reduktion von Rauschen notwendige Redundanz enth¨ alt
1 0.8 0.6 0.4
13500
14000
14500 n
15000
15500
0.2 13000
13500
14000
14500
15000
15500
n
Abb. 7. Der in Abb. 6 gezeigte Ausschnitt von buon giorno“ mit Rauschen (links) und ” nach Rauschreduktion (rechts). Ein Vergleich mit Abb. 6 zeigt, daß das Originalsignal zum gr¨ oßten Teil rekonstruiert werden konnte
gleichen Frequenzspektrum des Signals verwendet, so daß Filter im Frequenzbereich nicht anwendbar sind. Solches Rauschen ist dann typisch, wenn die St¨orsi¨ gnale durch Uberlagerung von Hintergrundgespr¨achen entstehen. Eine potentielle Anwendung dieses Verfahrens liegt im Bereich von H¨orger¨aten und der automatischen Spracherkennung.
4
Ausblick
Nicht jede Form von komplexer Dynamik ist chaotisch, und nicht jedes aperiodische Signal kann mit Methoden der nichtlinearen Zeitreihenanalyse erfolgreich behandelt werden. Die hier vorgestellten Beispiele zeigen aber, daß auch schwache deterministische Strukturen ausreichen k¨onnen, um bestimmte Aspekte dieser Strukturen auszunutzen. Eine Dimensionsanalyse oder die Bestimmung von Lyapunov-Exponenten etwa lassen sich zur Signalklassifizierung der Elektromotoren nicht verwenden - wohl aber die Kreuzvorhersagefehler, die zwar das Zustandsraumkonzept ausnutzen, aber nicht auf strikten Determinismus angewie¨ sen sind. Ahnlich verh¨ alt es sich bei der Rauschunterdr¨ uckung: Ein unverrauschtes Signal sollte einen guten Rauschunterdr¨ uckungsalgorithmus unver¨andert pas-
Nichtlineare Zeitreihenanalyse
87
sieren. Das trifft bei dem hier vorgestellten Filter nur auf wirklich deterministische Signale zu. Ein unverrauschtes Sprachsignal wird wegen fehlendem Determinismus auf den relevanten Zeitskalen geringf¨ ugig ver¨andert. Allerdings ist die unerw¨ unschte Ver¨ anderung des Signals klein im Vergleich zum Gewinn bei der Unterdr¨ uckung zus¨ atzlichen Rauschens, da auf mittleren Zeitskalen die Approximation durch eine Mannigfaltigkeit in guter N¨aherung m¨oglich ist. Ich halte diese Weise, Konzepte der nichtlinearen Dynamik zum Einsatz zu bringen, in gr¨ oßerem Umfang f¨ ur erfolgversprechend. Wesentlich ist, den Grundgedanken einer Methode zu verstehen und so zur Anwendung zu bringen, daß wesentliche Eigenschaften nicht oder nur gut kontrolliert verloren gehen. Als weiteres Beispiel denke man an Signalklassifikation durch Dimensionsanalyse. Wenn die Daten offensichtlich keine wohldefinierte endliche Dimension zeigen, wurde in verschiedenen Arbeiten die L¨angenskala, auf der man die effektive Dimension abliest, willk¨ urlich festgelegt. Diese dimensions¨ahnliche Gr¨oße ist aber nicht invariant unter Umskalieren der Daten. Haben die Datens¨atze, die man damit klassifizieren will, keine nat¨ urliche Amplitude, so ist der Verlust der Skaleninvarianz unkontrolliert und man kann erwarten, daß die damit gewonnenen Ergebnisse wertlos sind. Gibt es dagegen nat¨ urliche L¨angeneinheiten, in denen die zu vergleichenden Signale gemessen werden, dann kann der Verlust der Invarianz durch die Existenz einer f¨ ur alle Signale gleichermaßen relevanten L¨angenskala ausgeglichen werden. Stationarit¨ at ist eine Voraussetzung, die sowohl die nichtlineare wie auch die traditionelle lineare Analyse ben¨otigt, die jedoch in Anwendungen meist nicht erf¨ ullt ist. Beide in diesem Beitrag diskutierten Signale, Motorstrom und Sprache, sind hochgradig nichtstation¨ar. In beiden F¨allen existieren jedoch Zeitskalen, auf denen Stationarit¨ at ausreichend gegeben ist. Wesentlich f¨ ur das Gelingen der Anwendungen ist dabei, daß die verwendete Methode nur auf diese Zeitskalen zugreift. Wiederum sei die Dimensionsanalyse als Gegenbeispiel strapaziert: Es macht keinen Sinn, auf den kurzen Zeitintervallen, w¨ahrend derer das Sprachsignal station¨ ar aussieht, eine Dimensionsanalyse zu machen. Die Zahl der verf¨ ugbaren Datenpunkte w¨are viel zu klein. F¨ ur eine erfolgreiche Rauschunterdr¨ uckung finden sich jedoch genug Nachbarpunkte, und eine sorgf¨altige Wahl des Einbettungsfensters sorgt dar¨ uber hinaus daf¨ ur, daß diese Nachbarpunkte aus gleichen quasistation¨ aren Phasen stammen. Somit ergibt sich f¨ ur mich die positive Erwartung, daß Zustandsraummethoden der nichtlinearen Zeitreihenanalyse in den n¨achsten Jahren f¨ ur viele Anwendungen angepaßte L¨ osungen bieten werden, sei es zur Signalklassifikation (Diagnose), zur Signalmanipulation oder zu Fragen der Sensitivit¨at von Systemen gegen¨ uber Parameter- und Zustandsver¨anderungen und Vorhersagen. Angepaßt heißt dabei jedoch, daß in jedem Einzelfall das Problem erneut genau studiert werden muß und daß universelle black-box Algorithmen3 nicht sehr hilfreich sein werden. Eine enge Zusammenarbeit zwischen denen, die die theoretischen Kon3
Zusammen mit T. Schreiber und R. Hegger wurde das Softwarepacket TISEAN98 mit allen g¨ angigen Routinen zur nichtlinearen Analyse zusammengestellt. Es kann unter http://www.mpipks-dresden.mpg.de/˜tsa/TISEAN/docs/welcome.html in C bzw. FORTRAN Version bezogen werden.
88
H. Kantz
zepte dieser Methoden beherrschen und modifizieren k¨onnen, und denen, die das Expertenwissen u ¨ber das zu behandelnde Problem besitzen, wird deshalb erforderlich sein. Danksagung Ich danke allen meinen Mitarbeitern der letzten Jahre, insbesondere Stefan G¨ uttler, Rainer Hegger, Lorenzo Matassini und Eckehard Olbrich, deren Arbeit hier mit dargestellt wird, und meinem Kollegen Thomas Schreiber aus Wuppertal.
Literatur 1. Abarbanel, H. D. I. (1996) Analysis of Observed Chaotic Data. Springer, New York 2. Eckmann, J. P., Ruelle, D. (1992) Fundamental limitations for estimating dimensions and Lyapunov exponents in dynamical systems. Physica D 56, 185 ff. 3. Grassberger, P., Procaccia, I. (1983) Characterization of strange attractors. Phys. Rev. Lett. 50, 346 ff. 4. Grassberger, P., Hegger, R., Kantz, H., Schaffrath, C., Schreiber, T. (1993) On Noise Reduction Methods for Chaotic Data. Chaos 3, 127 ff. 5. G¨ uttler, S., Kantz, H. (1998) Induction motor failure prediction. preprint mpi-pks 9803011 6. Holzfuss, J., Mayer-Kress, G. (1986) An approach to error estimation in the application of dimension algorithms. In: Mayer-Kress, G. (ed.) Dimensions and Entropies in Chaotic Systems. Springer, New York 7. Kantz, H., Schreiber, T. (1997) Nonlinear Time Series Analysis. Cambridge Nonlinear Science Series No. 7, Cambridge University Press, Cambridge 8. Kantz, H., Schreiber, T., Hoffmann, I., Buzug, T., Pfister, G., Flepp, L. G., Simonet, J., Badii, R., Brun, E. (1993) Nonlinear Noise Reduction: A Case Study on Experimental Data. Phys. Rev. E 48, 1529 9. Kantz, H., Olbrich, E. (1997) Scalar observations from a class of high-dimensional chaotic systems: Limitations of the time delay embedding. Chaos 7, 423 10. Kostelich, E. J., Schreiber, T. (1993) Noise reduction in chaotic time-series data: a survey of common methods. Phys. Rev. E 48, 1752 11. Olbrich, E., Kantz, H. (1997) Inferring chaotic dynamics from time series: On which length scale determinism becomes visible. Phys. Lett. A 232, 63–69 12. Packard, N. H., Crutchfield, J. P., Farmer, J. D., Shaw, R. S. (1980) Geometry from a time series. Phys. Rev. Lett. 45, 712–716 13. Sauer, T., Yorke, J., Casdagli, M. (1991) Embedology. J. Stat. Phys. 65, 579 ff. 14. Schreiber, T., Kantz, H. (1995) Noise in Chaotic Data: Diagnosis and treatment. Chaos 5, 133–142 15. Schreiber, T., Kaplan, D. T. (1995) Signal separation by nonlinear projections: The fetal electrocardiogramm. Phys. Rev. E 53, 4326 ff. 16. Smith, L. (1988) Intrinsic limits of dimension calculation. Phys. Lett. A133, 283 17. Takens, F. (1981) Detecting strange attractors in turbulence. Lecture Notes in Math. Vol. 898, Springer, New York
Was ist Komplexit¨ at?? Eiichi Ryoku Nakamura1 und Takashi Mori2 1 2
Department of Bioscience, Fukui Prefectural University, Matsuoka, Fukui 910-1195, Japan Department of Applied Physics, Fukui University, Fukui 910-8507, Japan, e-mail:
[email protected] Zusammenfassung Wir werden eine Zusammenfassung des Standardszenarios selbstordnender Teilchensysteme geben und die Selbstorganisation komplexer Systeme untersuchen. Diese Systeme werden auf der Grundlage des Prinzips der (R¨ uck-) Bez¨ uglichkeit (relationarity) in die zwei Klassen der komplexen Systeme der ersten und der zweiten Art unterteilt. Komplexe Systeme der zweiten Art werden durch starke (R¨ uck-) Bez¨ uglichkeit charakterisiert, die die Wechselwirkungen zwischen Elementen dieser Systeme betrifft. Als ein Beispiel dieses charakteristischen Merkmals, werden wir eine Modellrechnung regel-ver¨ andernder zellul¨ arer Automaten (ZA) vorstellen.
1
Standardszenario des Selbstordnens komplexer Systeme
In der fundamentalen Theorie physikalischer Systeme kennen wir das Standardszenario selbstordnender Teilchensysteme, das der Selbstorganisation komplexer Systeme ¨ ahnlich ist. Entsprechend diesem Szenario k¨onnen wir das Auftreten makroskopischer Ordnung in der molekularen Dynamik in Analogie zur Erzeugung von Teilchen in der Elementarteilchenphysik betrachten. Es ist bekannt, daß es eine Entsprechung zwischen der statistischen Mechanik und der Feldtheorie in Teilchensystemen gibt [1]. Die Dichte der freien Energie in der statistischen Mechanik entspricht der Energiedichte des Vakuums in der Feldtheorie. Verschiedene Zust¨ande molekularer Systeme werden wegen stochastischen Molekularbewegungen statistisch dargestellt, w¨ahrend die Vakuumzust¨ ande, die Teilchen ergeben, via Quantisierung der entsprechenden Eigenwerte von verschiedenen Zustandskonfigurationen realisiert werden. Wir k¨onnen in den zuf¨ alligen Zust¨ anden aus der freien Energiedichte kein makroskopisches Ordnen erhalten, ebenso wie symmetrische Vakuumzust¨ande keine Teilchen erzeugen. Um makroskopisches Ordnen zu erhalten, ben¨otigen wir irgendeine Fluktuationsneigung der stochastischen molekularen Bewegungen wie spontane Symmetriebrechung von Feldern im symmetrischen Phasenraum. Eine lokale Fluktuationsneigung erweist sich als eine globale und folglich haben wir makroskopische Ph¨ anomene des Selbstordnens, was das gleiche Ph¨anomen ist wie das Auftreten ?
Die vorliegende Arbeit wurde in Zusammenarbeit mit K. Kudo, O. Yamakawa, Y. Tamagawa, H. Suzuki und T. Uesugi verfaßt. Das Originalmanuskript der Autoren wurde aus dem Englischen u ¨bersetzt von Theodor Leiber (Augsburg).
90
E.R. Nakamura und T. Mori
von Eichteilchen aus den symmetrischen Vakuumzust¨anden in der Felddynamik. In der geordneten Phase n¨ahert sich die Eichkopplung Λ dem kritischen Wert Λm . Wir halten die Eichinvarianz und Renormierbarkeit im konservativen Feldraum f¨ ur fundamentale Annahmen im Rahmen des Standardszenarios der Felddynamik. Selbst in nicht-konservativen molekularen Feldern, wie wir sie im kritischen Verhalten typischer dissipativer Systeme finden, k¨onnen wir erwarten, daß der Ordnungsparameter ϕ sich dem kritischen Wert ϕc ann¨ahert. Diese kritischen Ph¨ anomene zeigen an, daß sich lokale Fluktuationen zu makroskopischen aufschaukeln und es taucht die charakteristische Struktur geordneter Systeme auf, wie sich durch das Anwachsen des Ordnungsparameters zeigt. Diese kritischen Verhaltensweisen werden allgemein im Rahmen der Vorstellung von Ordnungs-Unordnungs-Phasen¨ uberg¨angen erfaßt. Lokale Fluktuationen sind in der ungeordneten Phase beschr¨ankt, wo der Phasenraum als symmetrisch angenommen wird. Komplexe Systeme gehen aufgrund spontaner Symmetriebrechung und spontaner lokaler Fluktuationsneigung in die geordnete Phase u ubergang auf nichtlineare Wech¨ber. Im Standardszenario geht dieser Phasen¨ selwirkungen zwischen den Elementen dieser Systeme zur¨ uck. Insbesondere ist in der geordneten Phase Potenzgesetzverhalten als typisches makroskopisches Ph¨ anomen bekannt. Falls komplexe Systeme skaleninvariante nichtlineare Wechselwirkungen haben, zeigen sowohl konservative als auch nicht-konservative Systeme wohlbekanntes Potenzgesetzverhalten, was das charakteristische Merkmal dieser Systeme in der geordneten Phase ist. Die fraktale Geometrie ist f¨ ur skaleninvariante geordnete Systeme n¨ utzlich. Wir k¨onnen Potenzgesetzverhalten der Korrelationsl¨ange ξ zwischen Elementen in der Form ξ = N 1/D
(1)
darstellen, wobei N die Anzahl der Unterteilungen der zu untersuchenden Systeme ist und D die fraktale Dimension bedeutet. In Ph¨ anomenen des Chaos zwischen zwei distanten Punkten finden wir ¨ahnliches Verhalten. Die charakteristischen Merkmale dieser Ph¨anomene zeigen sich anhand des zeitabh¨ angigen Abstands d(t) zwischen zwei Punkten folgendermaßen: d(t) = eλt ,
(2)
wobei λ der Lyapunov-Exponent ist. Falls wir d(t) mit ξ identifizieren und t = log N setzen, erhalten wir λ = D−1 im gleichen Potenzgesetzverhalten. Wir k¨ onnen dieses charakteristische Potenzgesetzverhalten des Ordnungsparameters ϕ allgemein auf der Grundlage der Konvolutionsformel [2] hinsichtlich von in Untersysteme unterteilten Systemen erhalten, wie wir ϕ = ϕ 1 ∗ ϕ 2 ∗ · · · ∗ ϕN
(3)
durch die statistische bootstrap-Relation erhalten. Entsprechend dieser Formel ist es m¨ oglich zu verstehen, daß wiederholt in Subsysteme unterteilte Systeme im thermodynamischen Limes Potenzgesetzverhalten zeigen.
Was ist Komplexit¨ at?
91
Im Standardszenario geht die ungeordnete Phase spontan aufgrund nichtlinearer Wechselwirkungen in die geordnete Phase u ¨ber, wo komplexe Systeme in Subsysteme mit der gleichen dynamischen Struktur unterteilt werden k¨onnen, und somit zeigen diese Systeme charakteristisches Potenzgesetzverhalten. Sowohl chaotische als auch fraktale Ph¨anomene werden durch dieses Potenzgesetzverhalten charakterisiert, das aus nichtlinearen Wechselwirkungen zwischen Elementen komplexer Systeme resultiert.
2
Zwei Arten komplexer Systeme
Ist es m¨ oglich oder nicht, die charakteristischen Merkmale komplexer Systeme aus der gewohnten Dynamik einfacher System abzuleiten? Dies ist ein herausforderndes Problem f¨ ur die Wissenschaften und die Technologie unserer Zeit. Die Entwicklung der Sozial- und Humanwissenschaften wird von der L¨osung dieses Problems stark betroffen sein, da sowohl menschliche Kommunikation als auch soziale Netzwerke recht komplexe Strukturen aufweisen. Komplexe Systeme sind keine geschlossenen Systeme und sie werden durch nichtlineare Wechselwirkungen zwischen den Elementen charakterisiert. Dies ist der Grund, weshalb sie makroskopische singul¨are Ph¨anomene zeigen, die wir in ihrer Zeitentwicklung beobachten k¨onnen. Hinsichtlich typischer singul¨arer Ph¨anomene komplexer Systeme, k¨onnen wir Selbstordnen aufzeigen, das aus Clusterbildung der Elemente resultiert aufgrund einer starken Kopplung zwischen ihnen. Allerdings ver¨andern diese Elemente komplexer Systeme ihre dynamische Struktur nicht. Wir nennen sie komplexe ” Systeme der ersten Art“. Falls spezielle nichtlineare Wechselwirkungen die dynamische Struktur zwischen den Elementen ver¨ andern, mag es m¨oglich sein, raum-zeitliche Evolution komplexer Systeme wie in der biologischen Evolution zu erwarten. Wir werden diese Systeme im Unterschied zu den ersteren komplexe Systeme der zweiten ” Art“ nennen. 2.1
Komplexe Systeme der ersten Art
Wir k¨ onnen die raum-zeitliche Evolution komplexer Systeme in der Form singul¨ arer r¨ aumlicher Musterbildung oder rhythmischer Zeitentwicklung in den entsprechenden Zeitsequenzen darstellen. Komplexe Systeme der ersten Art werden durch diese kooperativen Ph¨anomene in der geordneten Phase charakterisiert, die eine Anzahl von Variablen in einige wenige Parameter reduzieren. Es zeigt sich aufgrund spontaner Symmetriebrechung, daß die zuf¨allige Phase aufgrund nichtlinearer Wechselwirkungen in die geordnete Phase u ¨bergeht. Sowohl die nichtlinearen Wechselwirkungen als auch die dissipative Struktur sind wichtige Schl¨ usselbegriffe komplexer Systeme der ersten Art. Entsprechend der Theorie dissipativer Strukturen [3] ¨andert sich die makroskopische Variable aß der Zeitableitung unter der Zwangsbedingung Xi gem¨ ∂Xi /∂t = Fi ({Xi }, λ),
(4)
92
E.R. Nakamura und T. Mori
wobei {Xi } eine Klasse von Xi bedeutet. Gleichung (4) wird als die FeedbackWirkung der Umgebung betrachtet. Nichtlineare Wechselwirkungen ergeben Ordnungs-Unordnungs-Phasen¨ uberg¨ ange. Es ist m¨ oglich, die Mastergleichungen auf kooperative Ph¨anomene in der geordneten Phase physikalischer und nichtphysikalischer komplexer Systeme anzuwenden [4]. Diese stochastischen Gleichungen werden benutzt auf der Grundlage, daß der dissipative Prozeß als Markovprozeß identifiziert wird. Der Markovprozeß ist ein stochastischer Prozeß, der mit Hilfe der Wahr¨ scheinlichkeitsdichte p und der Ubergangswahrscheinlichkeit w folgendermaßen dargestellt wird: p(q1 , q2 ) = w(q1 |q2 )p(q2 ),
(5)
wobei q1 und q2 die Zustandsvariablen entsprechend der zeitlichen Folge t1 , t2 , . . . , tN sind. Gleichung (5) zeigt an, daß Systeme im Markovprozeß nur ein Ged¨ achtnis des vorherigen Schritts besitzen. Deswegen handelt es sich nicht um einen historischen Prozeß, in den eine Reihe von vergangenen Erinnerungen eingesetzt wird. Es sollte festgehalten werden, daß komplexe Systeme der ersten Art durch den nicht-historischen Markovprozeß charakterisiert werden. Es ist einfach, aus Gl. (5) die folgende Chapman-Kolmogorov-Gleichung zu erhalten: Z (6) w(q1 |q2 )w(q2 |q3 ) dq2 = w(q1 |q3 ). 2.2
Komplexe Systeme der zweiten Art
Komplexe Systeme der zweiten Art werden durch das Merkmal der Selbstorganisation charakterisiert, was im Gegensatz zum Selbstordnen, das durch den nicht-historischen Markovprozeß dargestellt wird, einem historischen Prozeß wie der biologischen Evolution entspricht. Es werde gem¨ aß (5) der allgemeine Markovprozeß p(q1 , q2 , . . . , qN ) = w(q1 |q2 )w(q2 |q3 ) · · · w(qN −1 |qN )p(qN )
(7)
betrachtet. Die Faktorisierung in (7) bedeutet, daß eine Anzahl von vergangenen Erinnerungen unabh¨ angig in die Form w(qi−1 |qi ) eingesetzt wird. Im Fall eines ¨ historischen Prozesses sollte die Ubergangswahrscheinlichkeit w allerdings mit Hilfe der Zustandsvariablen {qi } als p(q1 , q2 , . . . , qN ) = w({qi }, κ)p(qN )
(8)
dargestellt werden, wobei κ der Parameter der (R¨ uck-) Bez¨ uglichkeit ist. Falls κ ∼ 0, haben wir den Markovprozeß w({qi }, κ) ∼ w(q1 |q2 )w(q2 |q3 ) · · · w(qN −1 |qN ).
(9)
Der (R¨ uck-) Bez¨ uglichkeits-Parameter κ klassifiziert komplexe Systeme in zwei Klassen, n¨ amlich diejenigen der ersten Art (κ ∼ 0) und diejenigen der
Was ist Komplexit¨ at?
93
zweiten Art (κ 6= 0). Dieser Parameter zeigt an, daß komplexe Systeme der zweiten Art im Gegensatz zum Fall komplexer Systeme der ersten Art nicht aus der gewohnten Dynamik einfacher Systeme abgeleitet werden k¨onnen [5], weil man die gew¨ ohnliche Formel des stochastischen Markovprozesses f¨ ur diese Systeme nicht benutzen kann. Komplexe Systeme, die vom nicht-Markovprozeß (8) repr¨asentiert werden, zeigen kein einfaches stochastisches Verhalten. Außerdem k¨onnen wir ihre Prozesse auf der Grundlage deterministischer klassischer Dynamik nicht definit bestimmen, da diese Systeme die dynamische Struktur ver¨andern und sich somit wie biologische Evolution entwickeln. Es sollte das Prinzip der (R¨ uck-) Bez¨ uglichkeit geben, das Evolutionen komplexer Systeme kontrolliert, den Parameter κ in Verbindung mit der Umgebung im vern¨ unftigen Wertebereich zu halten. Wir m¨ ussen verschiedene Evolutionsprozesse komplexer Systeme der zweiten Art erforschen, um dieses Prinzip deutlich zu machen. Im n¨ achsten Abschnitt werden wir als ein Beispiel komplexer Systeme der zweiten Art eine Modellrechnung an regel-ver¨ andernden zellul¨aren Automaten zeigen. In diesem Modell mag der Kehrwert des Schwellenwertes η (der Grad des Mangels an Sensitivit¨ at) mit dem Parameter der (R¨ uck-) Bez¨ uglichkeit verkn¨ upft werden.
3
Ein Beispiel komplexer Systeme der zweiten Art: Regel-ver¨ andernde zellul¨ are Automaten
In diesem Abschnitt werden wir regel-ver¨andernde zellul¨are Automaten [6] als ein Beispiel vorstellen. In unserem Modell wird die Regel zellul¨arer Automaten (ZA) sukzessive durch Umgebungszust¨ande ver¨andert. Aus Gr¨ unden der Einfachheit benutzen wir elementare ZA [7], in denen die Eingabe aus drei benachbarten Zust¨ anden erzeugt wird und wir f¨ uhren folgenden dynamischen Prozeß ein: (i) Output des Rezeptors: Jede Zelle besitzt 8 Rezeptoren, die 8 Inputmoden entsprechen. Der Rezeptor meldet seinen prim¨ aren Output entsprechend der zust¨andigen Quellenregel zur¨ uck. Es gibt 256 Quellenregeln, die Beziehungen zwischen Rezeptoren und ihren prim¨ aren Outputs bestimmen. (ii) Ver¨ anderung der Inputfrequenz: Wir f¨ uhren die Eingabefrequenz f f¨ ur jeden Rezeptor ein als einen Weg, umgebende Zust¨ ande zu quantifizieren. Falls der Rezeptor α nicht benutzt wird, nimmt die Eingabefrequenz fα wie fα → fα − 1
(10)
ab. Allerdings w¨ achst fα wegen der Wirkung der anderen 7 Rezeptoren gem¨ aß fα → fα + 7
(11)
an, wenn der Rezeptor α benutzt wird. Wir nehmen 0 ≤ fα ≤ M ax an und w¨ ahlen f¨ ur die Modellrechnung M ax = 160.
94
E.R. Nakamura und T. Mori
(iii) Versklavungsprozeß des Rezeptors: Jeder Rezeptor beh¨ alt seinen prim¨aren Outputwert, wenn fα gr¨oßer als Null ist. Der Wert fα = 0 bedeutet, daß der Rezeptor seinen prim¨aren Output verliert und einen Output eines anderen Rezeptors zur¨ uckmeldet. Wir nennen den ersteren Rezeptor Sklavenrezeptor und den letzteren Rezeptor Masterrezeptor. Der Rezeptor, der nicht versklavt ist, heißt unabh¨ angiger Rezeptor. Dieser Versklavungsprozeß wird folgendermaßen durchgef¨ uhrt. Wenn fα gegen Null geht, wird ein unabh¨angiger Rezeptor α von dem anderen unabh¨ angigen Rezeptor β mit der Wahrscheinlichkeit X fβ (12) Pβ = fβ / versklavt, wobei der Hamming-Abstand zwischen α und β Eins ist. Der Sklavenrezeptor kann seinen prim¨aren Output nicht zur¨ uckmelden, w¨ahrend der Masterrezeptor seinen prim¨aren Output zur¨ uckmeldet, wenn der Input ihm selbst oder seinen Sklavenrezeptoren entspricht. Gem¨aß diesem Prozeß kann die Regel einer Zelle ver¨ andert werden. Wenn eine Zelle entsprechend einem Sklavenrezeptor Input erh¨alt, dann wachsen die f -Werte sowohl des Sklavenrezeptors als auch seines Masterrezeptors wie in (11) an. Falls fα des Masterrezeptors Null wird, wird er zusammen mit seinen Sklavenrezeptoren von anderen unabh¨ angigen Rezeptoren versklavt. (iv) (Wieder-) Erholungsprozeß des Rezeptors: Der Sklavenrezeptor kann sich von seinem Masterrezeptor wieder erholen, falls fα des Sklavenrezeptors bis zu einem bestimmten Schwellenwert η anw¨ achst. Der Wert η bedeutet den Grad des Mangels an Sensitivit¨at, vom Sklavenzustand in den prim¨aren Zustand zur¨ uckzukehren. Mit anderen Worten, er bedeutet den Grad des Mangels an Sensitivit¨at gegen¨ uber umgebenden Zellen. Der Parameter η wird als x = 7k mit k = 0, 1, 2, . . . umgeschrieben. Durch diesen Erholungsprozeß des Rezeptors ver¨andert sich auch die Regel einer Zelle. Ein Beispiel f¨ ur Versklavungs- und Erholungsprozesse ist in Tabelle 1 gezeigt. In unserer Modellsimulation setzen wir die entsprechenden Zust¨ ande von Zellen und die Werte von fα zuf¨allig und benutzen periodische Randbedingungen auf dem Zellenraum. 3.1
Raum-zeitliche Evolution von Zellen
Es gibt in elementaren zellul¨aren Automaten 256 Quellenregeln. Unter diesen Regeln w¨ ahlen wir Regel 22 aus, die das charakteristischste komplexe Verhalten ergibt. Wir werden die raum-zeitliche Evolution von Zellen unter Ber¨ ucksichtigung von Outputverhalten und regel-¨anderndem Verhalten zeigen. Die Abb. 1a (η = 7), 2a (η = 21) und 3a (η = 140) zeigen Outputverhalten von Zellen in der Raum-Zeit-Evolution, wobei die schwarzen Punkte den Outputwert 1 bedeuten. Es gen¨ ugt, 8 Zust¨ ande entsprechend der Anzahl unabh¨angiger Rezeptoren zu verwenden, um die raum-zeitliche Evolution von Regeln zu zeigen. Die Abb. 1b (η = 7), 2b (η = 21) und 3b (η = 140) zeigen regel-ver¨anderndes Verhalten von Zellen in der raumzeitlichen Evolution.
Was ist Komplexit¨ at?
95
Tabelle 1. Beispiel f¨ ur Versklavungs- und Erholungsprozesse einer Zelle in einem regel-ver¨ andernden zellul¨ aren Automaten mit der Quellenregel 22. Wenn im ersten Schritt f000 gegen Null geht, wird der unabh¨ angige Rezeptor (000) durch einen der unabh¨ angigen Rezeptoren (001), (010), (100) entsprechend der Wahrscheinlichkeit von (12) versklavt werden. Falls der Rezeptor (001) ausgew¨ ahlt wird, wird der Rezeptor (000) zu einem Versklaver des Rezeptors (001). Der Output eines Sklavenrezeptors ver¨ andert sich von prim¨ aren zu Masterrezeptoren. Dies ruft eine zellinterne Dynamik von Regel 22 zu Regel 23 hervor. Wenn f000 im zweiten Schritt gr¨ oßer als der Wert η wird, wird sich der Sklavenrezeptor (000) von seinem Masterrezeptor (001) erholen und zum prim¨ aren Zustand zur¨ uckkehren. In diesem Erholungsprozeß ¨ andert sich die Regel von Regel 23 zu Regel 22 Rezeptor 1 1 1 1 1 0 1 0 1 1 0 0 0 1 1 0 1 0 0 0 1 0 0 0 Regel Prim¨ arer Output 0 0 0 0 1 0 1 0 22 durch den Versklavungsprozeß 0 0 0 0 1 0 1 1 23 ver¨ anderter Output durch den Erholungsprozeß 0 0 0 0 1 0 1 0 22 ver¨ anderter Output
Abb. 1. (a) Raum-zeitliche Evolution des Outputverhaltens bei der Quellenregel 22 mit 200 Zellen beginnend mit zuf¨ alligen Anfangsbedingungen. Aus der Sequenz von 1 bis 50000 Zeitschritten ist jeder f¨ unfzigste Zeitschritt in dem kleinen η-Bereich, η = 7, aufgezeichnet. Falls der Output 1 ist, ist die entsprechende Raum-Zeit-Zelle schwarz gemalt, andernfalls bleibt sie leer
96
E.R. Nakamura und T. Mori
Abb. 1. (b) Raum-zeitliche Evolution des regel-ver¨ andernden Verhaltens entsprechend Abb. 1a. Jeder f¨ unfhundertste Zeitschritt ist aufgezeichnet. Die z-Achse bezeichnet die Anzahl unabh¨ angiger Rezeptoren
In unserem Modell tauchten zwei Typen von regel-ver¨anderndem Verhalten auf. Einer ist derjenige der Zellen vom Typ A, die die Regel w¨ahrend der Versklavungs- und Erholungsprozesse st¨andig ¨andern. Der andere ist derjenige der Zellen vom Typ B, die die vom Masterrezeptor gegebene Regel beibehalten. Wir starten unsere Simulationen mit dem kleinen Schwellenwert (η = 7). In diesem Fall zeigt die raum-zeitliche Evolution chaotisches Verhalten an, wie in Abb. 1a gezeigt. Dieses Verhalten wird durch die chaotische Quellenregel 22 verursacht, die verschiedene Inputs f¨ ur eine Zelle ergibt. Jede Zelle beh¨alt viele unabh¨ angige Rezeptoren, da der Sklavenrezeptor schnell entkommt, wenn er Input erh¨ alt. Deswegen geh¨oren w¨ahrend der Versklavungs- und Erholungsprozesse alle Zellen zum Typ A, wie in Abb. 1b gezeigt. Das System beh¨alt somit eine der Regel 22 ¨ ahnliche Regel und zeigt chaotisches Verhalten. F¨ ur den mittleren Schwellenwert (η = 21) finden wir komplexe raum-zeitliche Muster, in denen sowohl chaotische als auch periodische Bereiche existieren, und folglich kann die Konkurrenzstruktur deutlich gesehen werden wie in Abb. 2a. Diese raum-zeitliche Evolution h¨angt sensitiv von den Anfangsbedingungen ab. Es sollte bemerkt werden, daß dieses Verhalten dem Verhalten von zellul¨aren Automaten mit vielen Nachbarzust¨anden ¨ahnlich ist, das als Klasse IV klassifiziert wird und das als Verhalten am Rand des Chaos“ (edge of chaos [8]) bezeichnet ” wird. In unserem Modell wird der Rand des Chaos“ durch den folgenden regel” ver¨ andernden Prozeß hervorgerufen. Im mittleren η-Bereich erscheinen zwei Ty-
Was ist Komplexit¨ at?
97
Abb. 2. (a) Raum-zeitliche Evolution des Outputverhaltens im mittleren η-Bereich, η = 21, unter den gleichen Simulationsbedingungen wie in Abb. 1a
Abb. 2. (b) Raum-zeitliche Evolution des regel-ver¨ andernden Verhaltens entsprechend Abb. 2a
98
E.R. Nakamura und T. Mori
pen von regel-ver¨ anderndem Verhalten, da der Erholungsprozeß im Vergleich mit dem Fall kleiner η langsam auftritt. Ein regel-ver¨andernder Verhaltenstyp ist derjenige der Zellen vom Typ A, der chaotisches Verhalten erzeugt, wie im Bereich kleiner η zu sehen ist. Zellen vom Typ A sind geh¨auft, wie in Abb. 2b gezeigt. Der andere Verhaltenstyp ist derjenige der Zellen vom Typ B, der die Regel beibeh¨ alt. Typ-B-Zellen werden im Versklavungsprozeß von Typ-A-Zellen erzeugt. Wenn Typ-A-Zellen nicht viele Eingaben erhalten k¨onnen, nimmt die Anzahl der unabh¨ angigen Rezeptoren im Versklavungsprozeß ab. Ensprechend der Abnahme unabh¨ angiger Rezeptoren beginnen die Zellen, in den Bereich der periodischen Regel zu fallen, da in diesem Prozeß viele Sklavenrezeptoren durch einige wenige Masterrezeptoren versklavt werden. Sobald die Masterrezeptoren ihre Inputs einmal stabilisieren, k¨ onnen die Zellen die Regel nicht mehr ver¨andern. In diesem Prozeß werden Typ-B-Zellen erzeugt und geh¨auft.
Abb. 3. (a) Raum-zeitliche Evolution des Outputverhaltens im gr¨ oßeren η-Bereich, η = 140, unter den gleichen Simulationsbedingungen wie in Abb. 1a
Falls eine Typ-B-Zelle einer Typ-A-Zelle nahe ist, erholt sich der Sklavenrezeptor einer Typ-B-Zelle und geh¨ort zu einer Typ-A-Zelle, da Typ-A-Zellen f¨ ur die Umgebungen verschiedene Inputs erzeugen. Dieses Verhalten u ¨bertr¨agt sich auf andere n¨ achste Typ-B-Zellen. Dies ist die Konkurrenzstruktur in diesem Zellsystem. Nat¨ urlich kann auch der gegenl¨aufige Prozeß beobachtet werden. In diesem Fall wird eine Typ-A-Zelle zu einer Typ-B-Zelle und folglich wird die periodische Struktur ausgedehnt werden. Der Rand des Chaos“ tritt somit durch ” konkurrierende Verhaltensweisen zwischen Typ-A- und Typ-B-Zellen auf. F¨ ur den großen Schwellenwert (η = 140) wird des Outputverhalten periodischer Evolution dominant, wie in Abb. 3a gezeigt. Der Erholungsprozeß tritt kaum auf, da der Sklavenrezeptor viele Inputs erhalten muß, um sich zu erholen. Deswegen sind eine Menge Typ-B-Zellen aufgetreten, wie in Abb. 3b gezeigt. Wir haben gezeigt, daß unsere regel-ver¨andernden zellul¨aren Automaten ver¨ schiedene Verhaltensweisen zeigen und insbesondere im Ubergangsbereich mitt-
Was ist Komplexit¨ at?
99
Abb. 3. (b) Raum-zeitliche Evolution des regel-ver¨ andernden Verhaltens entsprechend Abb. 3a
lerer η-Werte werden charakteristische Verhaltensweisen beobachtet. Die anderen interessanten Verhaltensweisen k¨onnen mittels der anderen Quellenregeln beobachtet werden, z.B. Regel 18, 54, 110, 122. Somit erzeugt unser System eines zellul¨ aren Automaten verglichen mit dem ordinalen System zellul¨arer Automaten unterschiedlich komplexe Ph¨anomene. Unser ZA-System ist ein Beispiel komplexer Systeme der zweiten Art. Es mag m¨oglich sein, komplexere Verhaltensweisen hinsichtlich anderer komplexer Systeme zu erforschen, in denen sich die Wechselwirkungen zwischen den Elementen der Systeme entsprechend der Zeitentwicklung ver¨ andern.
Literatur 1. Kogut, J. B. (1979) An introduction to lattice gauge theory and spin systems. Reviews of Modern Physics 51, 659–713 2. Nakamura, E. R., Kudo, K. (1990) Convolution theory of a phase transition between hadronic and quark matter and the characteristic multiplicity distributions. Physical Review D 41, 281–284 3. Nicolis, G., Prigogine, I. (1989) Exploring Complexity: An Introduction. Freeman, M¨ unchen 4. Haken, H. (1983) Synergetics. An Introduction. 3rd ed., Springer, Berlin 5. Gell-Mann, M. (1995) What is Complexity? Complexity 1, 16–19 6. Mori, T., Kudo, K., Tanagawa, Y., Nakamura, R., Yamakawa, O., Suzuki, H., Uesugi, T. (1999) Edge of chaos in rule-changing cellular automata. Physica D (in press)
100
E.R. Nakamura und T. Mori
7. Wolfram, S. (1983) Statistical mechanics of cellular automata. Reviews of Modern Physics 55, 601–644 8. Langton, C. G. (1990) Computation at the edge of chaos: phase transitions and emergent computation. Physica D 42, 12–37
Teil III
Chemische und Biologische Systeme
102
III. Chemische und Biologische Systeme
Die Selbstorganisation komplexer molekularer Systeme steht im Forschungszentrum der supramolekularen Chemie. Die Gr¨oße dieser Molek¨ ule ist mit der von Proteinen vergleichbar und daher f¨ ur die pr¨abiotische Chemie und Evolution von Bedeutung. Die Analyse der molekularen Evolution konnte durch nichtlineare mathematische Methoden und Computerexperimente wesentlich pr¨azisiert werden. W¨ ahrend der Darwinsche Optimierungsmechanismus der molekularen Evolution gut verstanden erscheint, erweist sich die Erforschung der großen Spr¨ unge in der Entwicklung der Biosph¨are als unvergleichlich schwieriger. Was wissen wir heute u ¨ber die nichtlineare Dynamik bei der Entwicklung komplexer biologischer Organismen?
Vom Einfachen zum Komplexen: Bildung von chemischen Strukturen Achim M¨ uller und Paul K¨ ogerler? Fakult¨ at f¨ ur Chemie der Universit¨ at Bielefeld, Postfach 100 131, D–33501 Bielefeld, Germany,
[email protected] [...] nothing we imagine is absolutely impossible.“ ” D. Hume [1]
1
Einleitung I can hardly doubt that when we have some control of the arrangement ” of things on a small scale we will get an enormously greater range of possible properties that substances can have.“
So ¨ außerte sich R. P. Feynman einmal seherisch zu den Perspektiven der Chemie, f¨ ur die es ein vorrangiges Ziel sein sollte, molekulare Gebilde mit zunehmender Gr¨ oße und Funktionalit¨at herstellen zu k¨onnen. Im allgemeinen ist aber der synthetisch arbeitende Chemiker darauf angewiesen, komplexe gr¨ oßere Systeme in aufwendigen Prozeduren Schritt f¨ ur Schritt durch sukzessive Isolierung und Reinigung der einzelnen Zwischenprodukte darzustellen. Diese Strategie bedeutet im uns hier interessierenden Fall der Metallsauerstoffcluster- oder Polyoxometallatchemie, relativ Metallsauerstoffclusteroder Polyoxometallatchemie, relativ große molekulare Fragmente mit funktionellen Gruppen zu versehen, welche sich durch eine spezielle Reaktion verkn¨ upfen lassen1 oder große zueinander komplement¨are Fragmente darzustellen, die man zum Beispiel diesem Prinzip folgend als Nukleophile und Elektrophile zur Reaktion bringt bzw. verkn¨ upft.2
2
Verknu ¨ pfung von Baueinheiten unter Selbstaggregationsbedingungen
Wir stellen uns die zentrale Frage: Welche generellen Eigenschaften m¨ ussen nun Bausteine in einer Reaktionsl¨osung aufweisen, damit durch einen Selbstaggrega?
1 2
Der vorliegende Aufsatz bezieht sich auf unsere Arbeiten u ¨ber sogenannte Polyoxometallate, insofern beschr¨ ankt sich die Literaturangabe auf die Zitierung eigener ¨ Ubersichtsartikel, in denen Grunds¨ atzliches zur Thematik ausgesagt wird, aber auch weitere Details beschrieben werden. Die Protonierung von hochreaktiven MoO3 -Gruppen auf Clusterstrukturen f¨ uhrt z.B. unmittelbar zu einer Kondensationsreaktion unter Bildung von H2 O-Molek¨ ulen. Wie z.B. hochreaktive, koordinativ nicht abges¨ attigte nukleophile Lakunar-KegginEinheiten mit elektrophilen Aquaionen, die H2 O-Liganden als geeignete leaving ” groups“ besitzen.
104
A. M¨ uller und P. K¨ ogerler
tions-Prozeß auch unter Eintopfbedingungen, d.h. unter Wegfall aller sukzessiven Schritte der konventionellen Synthesechemie, extrem große, komplexe und multifunktionale Gebilde im Sinne von Feynman entstehen k¨onnen? Nach unserer Ansicht sind folgende Bedingungen f¨ ur die Erzeugung molekularer Komplexit¨ at (¨ uber mehrere Reaktionsschritte) unter Eintopfbedingungen g¨ unstig: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12.
Das Vorhandensein verkn¨ upfbarer Teilchen bzw. Baueinheiten. Die M¨ oglichkeit der Erzeugung von Teilchen mit großer freier Enthalpie. Die M¨ oglichkeit einer einfachen Ver¨anderung der Struktur der Baueinheiten. Die M¨ oglichkeit des Einbaus von Heteroatomen. Ausgehend von den einfachen Baueinheiten die M¨oglichkeit der Bildung von gr¨ oßeren und dar¨ uber hinaus verschiedenartig u ¨bertragbaren Fragmenten. Bindungen, die die Verkn¨ upfung der Fragmente bewirken, sollten weder zu stark noch zu schwach sein. Die M¨ oglichkeit der Steuerung der Strukturbildung durch Template. Die Erzeugung von Defekten in Fragmenten (bzw. Zwischenprodukten) mit der Konsequenz, daß dies zu ver¨anderten Verkn¨ upfungsarten f¨ uhrt. Energetisch niedrig liegende, unbesetzte Molek¨ ulorbitale in den Fragmenten. Die M¨ oglichkeit, Elektronen verschiedenartig zu lokalisieren und zu delokalisieren, was Variabilit¨ at bewirkt. Die M¨ oglichkeit der Ladungsvariation und -kontrolle (z.B. durch Protonierung, Elektronentransfer und Substitution von Baueinheiten). Eine Quelle von freier Enthalpie als Triebkraft zum Wachstum bzw. zur Polymerisation, z.B. durch Dehydratisationsprozesse.
Aufbauend auf diesen Erkenntnissen ist es in der Tat m¨oglich, schrittweise zu immer gr¨ oßeren molekularen Gebilden bzw. Clustern zu gelangen, deren Gr¨ oße sogar mit der von Proteinen vergleichbar ist. Die relevanten Eintopfreaktionen sind u ur Fragen der pr¨abiotischen Chemie und Evolution ¨brigens auch f¨ von Interesse. Hierzu las man k¨ urzlich im Scientific American u ¨ber Arbeiten eines renommierten Mitglieds des Santa-Fe-Instituts, an dem man sich mit Selbstorganisationsproblemen befaßt: [Stuart A.] Kauffman’s simulations have led him to several conclusions. ” One is that when a system of simple chemicals reaches a certain level of complexity [...], it undergoes a dramatic transition, or phase change. The molecules begin spontaneously combining to create larger molecules of increasing complexity and catalytic capability. Kauffman has argued that this process of autocatalysis‘ – rather than the fortuitous formation ’ of a molecule with the ability to replicate and evolve – led to life.“ [3] Wir haben grunds¨ atzlich zur Kenntnis zu nehmen, daß der fundamentale Prozeß der Natur zur Erzeugung von großen komplexen molekularen Systemen in der (gesteuerten und nicht-gesteuerten) Verkn¨ upfung von Basisfragmenten liegt. Ein eindrucksvolles Beispiel hierzu ist der in jedem Lehrbuch der Biochemie beschriebene Selbstaggregations-Prozeß des Tabak-Mosaik-Virus (TMV), der auf pr¨aorganisierten Einheiten aufbaut. Diesem Vorgang entspricht nun etwa unsere Vorgehensweise der Kontrolle der Verkn¨ upfung von Fragmenten zu gr¨ oßeren Einheiten und der Verkn¨ upfung letzterer zu wiederum gr¨ oßeren. Ein passendes Beispiel
Vom Einfachen zum Komplexen: Bildung von chemischen Strukturen
105
Abb. 1. Polyederdarstellung des {Mo57 }-Clusters entlang der C3 (links)- und einer C2 -Achse unter Hervorhebung einer {Mo17 }-Einheit, die aus je zwei {Mo8 }- und einer {Mo1 }-Gruppe bestehen (rechts) bzw. drei {Mo8 }-Einheiten (links) (vgl. Text). Die Polyeder werden von Sauerstoffatomen aufgespannt, die an Metallatome in den Zentren der Polyeder gebunden sind
aus der Polyoxometallatchemie stellt die Verkn¨ upfung von Bausteinen, die 17 Metallatome enthalten ({Mo17 }-Einheiten), zu solchen Clusteranionen dar, die sich aus zwei oder drei dieser Einheiten zusammensetzen. Zu nennen sind die Cluster vom {Mo36 }-Typ (z.B. [(MoO2 )2 (H12 Mo17 (NO)2 O58 (H2 O)2 )2 ]12− ) und der {Mo57 }-Clustertyp ([(Z(H2 O))6 (Mo2 (H2 O)2 (OH))3 (Mo17 (NO)2 O58 (H2 O)2 )3 ]n−, Z = VO, n = 21; Z = Fe(H2 O), n = 15). Die Struktur der {Mo17 }-Einheiten kann wiederum auf zwei u ¨ber ein Molybd¨anzentrum (eine {Mo1 }-Gruppe) verkn¨ upfte und f¨ ur viele andere Polyoxometallate archetypische {Mo8 }-Einheiten zur¨ uckgef¨ uhrt werden (Abb. 1, 2).
3
Der Weg vom Mikro- in den Mesokosmos
Nach unserer Publikation [2] u ¨ber ein radf¨ormiges Clusteranion aus 154 Molybd¨ anatomen ([Mo154 (NO)14 O434 (OH)14 (H2 O)70 ]28− , {Mo154 }) von der Gr¨oße von Proteinen, das aus genau den genannten {Mo8 }-Einheiten aufgebaut werden kann, schrieb David Bradley [4] im New Scientist“ metapherhaft: ” Big wheel rolls back the molecular frontier“. ” Dies umschreibt das Interesse der modernen Chemie, den molekularen Bereich, charakterisiert durch vergleichsweise kleine diskrete Molek¨ ule, (vielleicht rol” lend“) zu verlassen und in den des Mesokosmos u ¨berzugehen, um neue Ph¨anomene bzw. Systemqualit¨ aten zu entdecken. Eine geeignetes chemisches System
106
A. M¨ uller und P. K¨ ogerler
Abb. 2. Ball and Stick“-Darstellung des Clusteranions {Mo154 } mit hervorgehobener ” {Mo8 }-Baueinheit in Polyederdarstellung. Ein C60 -Fulleren-Molek¨ ul ist zum Gr¨ oßenvergleich im Zentrum des Rings gezeigt
f¨ ur derartige Untersuchungen stellen L¨osungen von tetraederf¨ormigen Oxoanionen dar, in denen ein zentrales Metallatom von vier Sauerstoffatomen umgeben ist, wie etwa das Molybdatanion MoO2− 4 . Mit der gleichen einfachen Reaktion – n¨ amlich durch Ans¨ auern von w¨aßrigen L¨osungen dieser Oxoanionen – werden durch die sich bildenden Produkte bemerkenswerterweise drei wichtige Bereiche der Materie u ¨berstrichen, und zwar ausgehend vom molekularen Mikro- der Meso- und der Makrokosmos mit den kristallinen Substanzen, deren Strukturen Translationsinvarianz zeigen (Abb. 3). Der Mesokosmos ist im vorliegenden Fall f¨ ur uns wegen seiner extrem großen Vielfalt von molekularen Strukturen von Interesse. Die Strukturvielfalt l¨aßt sich durch weitere externe chemische Eingriffe (im speziellen Fall beispielsweise durch Zugabe von Reduktionsmitteln) entsprechend den Aussagen aus Kapitel 2 vergr¨oßern.
Vom Einfachen zum Komplexen: Bildung von chemischen Strukturen
107
Abb. 3. Schematische Gegen¨ uberstellung der Wachstumsprozesse zu kristallinen Metallen (oben) und Metalloxiden (unten)
Bemerkenswert ist nun, daß mit den vorliegenden elementaren Baueinheiten, die interessanterweise meist die Form platonischer K¨orper aufweisen, infolge ihrer strukturellen Vielfalt mehr Variabilit¨at erzeugt werden kann als mit hochsymmetrischen kugelf¨ ormigen“ Metallatomen, deren Verkn¨ upfung zu reinen“ ” ” Metallclustern f¨ uhrt. Im ersten Fall ist das makroskopische Endprodukt das kristalline Metalloxid, im zweiten das kristalline Metall.
4
Templatgesteuerte Verknu ¨ pfungen fu at zwischen Templat ¨ hren zu Komplementarit¨ und Reaktionsprodukt
Der erste Verkn¨ upfungsschritt k¨onnte nun – wie bereits eingangs erw¨ahnt – in einer templatgesteuerten Aneinanderreihung von relativ kleinen Baueinheiten bestehen. In der Tat gelingt es zum Beispiel, in L¨osung quadratische Pyramiden aus einem zentralen Vanadiumatom und f¨ unf umgebenden Sauerstoffatomen (templatgesteuert) zu K¨afigsystemen zu verkn¨ upfen. Der K¨afig bzw. die Clusterschale bildet sich hierbei komplement¨ar zum Templat, das dann im Reaktionsprodukt eingeschlossen vorliegt (der Kondensationsprozeß erfolgt hierbei durch einfache Zugabe von negativ geladenen (Templat-)Ionen zu einer w¨aßrigen L¨ osung, die Vanadationen enth¨alt). Ein kugelsymmetrisches Halogenid-Ion (z.B. Cl− ) induziert als Templat die Bildung einer kugelsymmetrischen, das l¨anglich ausgedehnte Azid-Ion dagegen eine mehr l¨anglich gestreckte Clusterschale (Abb.
108
A. M¨ uller und P. K¨ ogerler
4). Man kann hier auch von einer Versklavung“ sprechen: das Templat erzwingt ” die Art der gleichartig gerichteten (!) Verkn¨ upfung der Teilchen in L¨osung. Die Analogie dieser Wirt-Gast-Chemie, in der die Metall-Sauerstoffschale sich als Wirt und das eingeschlossene Anion sich als Gast bezeichnen lassen, mit der der endohedralen Fullerene (in denen jedoch Kationen eingeschlossen sind) ist offensichtlich. Bemerkenswert ist in diesem Kontext auch, daß alle so erhaltenen Schalen Ausschnitte aus einer Schicht des Vanadiumpentoxids (V2 O5 ) darstellen. Dies bedeutet, daß man sich die entstehenden Clusterschalen formal als aus den Kristallgitterschichten herausgeschnitten vorstellen kann.
Abb. 4. Zur Komplementarit¨ at von Polyoxovanadatschale und eingeschlossenem Anion, dem Templat (vgl. Text)
Besonders interessant im Sinne der im Kapitel 2 gemachten Aussagen ist eine Situation, in der in einer Initialphase das Templat selbst in L¨osung erzeugt wird und dann dirigierend den Folgeprozeß determiniert. Ein in w¨aßriger L¨osung erzeugtes kubusf¨ ormiges (V4 O4 O(term)4 )-Fragment induziert z.B. die nachfolgen-
Vom Einfachen zum Komplexen: Bildung von chemischen Strukturen
109
de Bildung eines Clustersegmentes mit einem zum Templat komplement¨aren, ann¨ ahernd kubanartigen Gebilde, das einen Ausschnitt aus einer NaCl-DefektStruktur darstellt (Abb. 5).
Abb. 5. Schematisierte Struktur des Clusteranions [V34 O82 ]10− mit hervorgehobenem kubanartigem (V4 O4 O(term)4 )-Templat (vgl. Text)
5 5.1
Auf dem Weg zu immer gr¨ oßeren Gebilden, auch solchen mit emergenten Eigenschaften Grunds¨ atzliches
Die Vorgehensweise beruht auf der Erzeugung von negativ geladenen Fragmenten (Intermediaten), was einerseits Wachstum erm¨oglicht und andererseits eine destruktive Hydrolyse verhindert. Dies erfolgt im Fall der Polyoxometallatchemie z.B. durch die Substitution“ von Metallzentren mit h¨oherer durch ” solche mit niedrigerer Oxidationsstufe, kann aber ebenfalls – was das gleiche bewirkt – durch Austausch von h¨oher positiv geladenen durch geringer positiv geladene Gruppe bewirkt werden. Ersetzt“ man beispielsweise in dem ” zw¨ olf Molybd¨ anatome enthaltenden, hochsymmetrischen sogenannten Keggin3− (das u Ion [Mo12 O36 (PO4 )] ¨brigens zum ersten Mal von dem bedeutenden Chemiker Berzelius beschrieben wurde und f¨ ur dessen bemerkenswerte Struktur sich die Nobelpreistr¨ ager Pauling und Werner interessiert haben) vier MoVI durch vier VIV -Zentren, so resultiert ein hoch negativ geladenes Teilchen. Im Reaktionssystem MoO2− aßt sich ein entsprechend geladenes Ion 4 /H2 O/NH2 OH l¨ mit der Ladung −11 erzeugen, das dann z.B. durch ein Elektrophil wie AsIII abgefangen werden kann, wobei ein stabiles Teilchen ([As2 Mo8 V4 O36 (AsO4 )]5− ) mit geringerer Ladung resultiert. Es bilden sich auch andere negativ geladene
110
A. M¨ uller und P. K¨ ogerler
Fragmente, die in Abwesenheit dieses Elektrophils mit bestimmten Metallkationen zu gr¨ oßeren Gebilden verkn¨ upft werden. Hierbei resultieren dann u.a. die oben bereits erw¨ ahnten Cluster des Typs {Mo36 } und {Mo57 } mit zwei oder drei negativ geladenen {Mo17 }-Einheiten. 5.2
Große Cluster und das Form-Funktions-Prinzip
Eine zentrale Arbeitshypothese beruht darauf, daß mit zunehmender Gr¨oße grunds¨ atzlich auch Multifunktionalit¨at entstehen kann (generell kann entsprechend mit zunehmender Systemgr¨oße das Form/Funktion-Konzeptpaar an Bedeutung gewinnen). Beim besagten {Mo57 }-Cluster mit drei {Mo17 }-Fragmenten lassen sich z.B. die relevanten Linker-Positionen stufenweise mit verschiedenen (para-) magnetischen Zentren wie z.B. FeII , FeIII und VO2+ besetzen und sich auf diese Weise interessante magnetische Eigenschaften erzeugen bzw. variieren. Der gleiche Cluster weist dar¨ uberhinaus auf seiner Peripherie offene Koordinationsstellen (Hohlr¨ aume) auf. Das ist besonders interessant, weil in diese Positionen unter reduzierenden bzw. oxidierenden Bedingungen reversibel positiv geladene Teilchen eingebaut bzw. wieder abgespalten werden k¨onnen. Die Reaktion stellt daher ein Modell f¨ ur Metallzentrenaufnahme in Metallospeicherproteinen aber auch f¨ ur molekulare Schalter dar (Abb. 6).
Abb. 6. Ein molekularer Schalter: Reversibles molekulares Wachstum im System der Cluster {Mo57 }/{Mo63 }. Unter reduzierenden Bedingungen reagiert der {Mo57 }Cluster (formal) mit sechs [MoO]4+ -Gruppen zum {Mo63 }-System. Wird der {Mo63 }Cluster oxidiert, so werden die sechs [MoO]4+ -Gruppen wieder abgespalten
6
Molekulares Wachstum zu Komplexit¨ at als Folge von Symmetriebruch und Ru ¨ ckkopplung
Gibt es nun eine M¨ oglichkeit, auch unter Eintopfbedingungen molekulare Komplexit¨ at vielleicht sogar durch eine Folge molekularer Symmetriebr¨ uche“ z.B. ” entsprechend dem folgenden Reaktionsschema zu erzeugen?
Vom Einfachen zum Komplexen: Bildung von chemischen Strukturen
111
I =⇒ III =⇒ V =⇒ V II (2N − 1) & ⇑ & ⇑ & ⇑ 2 4 6 (2n) Hier stehen die r¨ omischen Zahlen 2N − 1 f¨ ur einen stufenweisen Wachstumsprozeß und die arabischen Zahlen 2n f¨ ur Ingredienzen, die jeweils nur mit dem Zwischenprodukt 2N − 1 reagieren. Die Spezies 2n k¨onnen ihrerseits Produkte eines Self-Assembly-Prozesses sein, aber auch – was interessanter ist – durch Templatwirkung des zugeh¨origen Zwischenproduktes 2N − 1 gebildet werden. Dies beinhaltet einen interessanten R¨ uckkopplungseffekt. Ein erstes Beispiel f¨ ur ein Wachstum entsprechend diesem Modell ist gefunden worden: Die Bildung eines Clusteranions aus 37 Molybd¨anatomen ([H14 Mo37 O112 ]14− ) verl¨auft entsprechend offensichtlich u ¨ber Intermediate, wobei der u ¨brigens auch isolierbare {Mo16 }-Cluster als Templat die Bildung weiterer Reaktanden“ ({Mo10 } und ” {Mo11 }) induziert, mit denen er (d.h. als Templat!) unter Symmetriebruch zu dem Endprodukt weiterreagiert (Abb. 7).
Abb. 7. Molekulares Wachstum basierend auf einem Symmetriebruch entsprechend des obigen Reaktionsschemas bzw. der Angaben im Text. Der resultierende Cluster {Mo37 } weist kein Symmetrieelement mehr auf
112
7
A. M¨ uller und P. K¨ ogerler
Das molekulare Riesenrad“: Multifunktionalit¨ at ” und Emergenz
Es ist von entscheidender Bedeutung, daß die hier genannten Cluster in L¨osung stabil sind und spektroskopisch z.B. durch Resonanz-Raman-Spektroskopie nachgewiesen bzw. identifiziert werden k¨onnen. Man kann so Stabilit¨atsbereiche erfassen und weitere Aggregation in L¨osung unter ver¨anderten Bedingungen untersuchen bzw. erkennen. Aus dem genannten {Mo36 }-Cluster mit zwei {Mo17 }Einheiten l¨ aßt sich in L¨ osung der ebenfalls genannte {Mo57 }-Cluster mit drei Einheiten nach Zugabe des elektrophilen Linkers VO2+ darstellen. Aus L¨osungen, die diesen Cluster enthalten, bildet sich dann bei Erniedrigung des pHWertes und unter st¨ arkerer reduzierenden Bedingungen der erw¨ahnte, st¨arker reduzierte radf¨ ormige Cluster {Mo154 }. Der {Mo154 }-Cluster stellt ein Tetradekamer mit approximativer D7d -Symmetrie dar. Er enth¨alt 140 MoO6 -Oktaeder und 14 pentagonale MoO6 (NO)-Bipyramiden. Der Terminus Tetradekamer bezieht sich auf die Tatsache, daß im Cluster bestimmte Baugruppen (vom Typ ¨ die relevante Ver¨of{Mo8 }, {Mo2 } und {Mo1 }) jeweils 14 mal vorkommen. Uber fentlichung wurde in zahlreichen europ¨aischen Zeitungen, Magazinen und Wisuhlte sich senschaftsmagazinen enthusiastisch berichtet 3 – auch eine Malerin f¨ aufgrund eines Berichtes im Magazin Der Spiegel“ stimuliert, das molekulare ” Abbild auf eine Leinwand zu bannen. Eindrucksvoll l¨aßt sich f¨ ur den radf¨ormigen Cluster aufzeigen, daß hier Multifunktionalit¨at vorliegt: 1. Er weist einen nanometergroßen Hohlraum auf, der Perspektiven f¨ ur eine neuartige Wirt-Gast-Chemie er¨offnet. In Abb. 2 ist der Gr¨oßenvergleich mit ul dargestellt. einem C60 -Molek¨ 2. Er besitzt, bedingt durch die Anwesenheit von 70 H2 O-Liganden, die bestimmte Bereiche der Oberfl¨ache regelm¨aßig u ¨berdecken, eine ausgedehnte hydrophile Oberfl¨ ache. 3. Die große Oberfl¨ ache bewirkt eine hohe Affinit¨at zu Adsorbentien wie z.B. Aktivkohle oder Seide. 4. Er stellt ein Modell f¨ ur katalytisch aktive Metalloxide dar. 5. Die w¨ aßrige L¨ osung zeigt Aggregationsverhalten (mit dynamischer Lichtstreuung konnte sogar die Bildung eines Kolloids mit einem hydrodynamischen Radius von ca. 40 nm nachgewiesen werden). 6. Die Peripherie des Clusterrings (als molekularer Halbleiter) weist eine hohe Elektronendichte auf. 7. Es besteht die M¨ oglichkeit, gezielt strukturelle Defekte an den Innenbereichen des Clusterrings zu erzeugen, d.h. positive {Mo2 }-Baugruppen aus den Ringen abzuspalten. Hieraus resultiert eine ver¨anderte Reaktivit¨at wie etwa die M¨ oglichkeit der Verkn¨ upfung mehrerer Ringe durch Mo-O-MoBindungen zu Ketten mit interessanten elektronischen Eigenschaften, aber auch zu mesopor¨ osen Schichtstrukturen. Letztere weisen im Gegensatz zu 3
Vgl. z.B. Die Welt (27.12.1995): Deutsche Chemiker entdeckten das Rad im Rea” genzglas neu“.
Vom Einfachen zum Komplexen: Bildung von chemischen Strukturen
113
Abb. 8. Struktureller Vergleich der Clustertypen {Mo154 } und {Mo176 }, unter Hervorhebung der {Mo8 }- und der {Mo2 }-Baueinheiten (in dieser Darstellung sind die aquatorialen {Mo1 }-Baueinheiten verdeckt) ¨
den strukturell vergleichbaren, in der Technik vielfach benutzten sauren Zeoliten basische Kan¨ ale auf, die z.B. kleine organische Molek¨ ule wie Ameisens¨ aure aufnehmen k¨ onnen. Von den gleichen Baueinheiten leitet sich ein noch gr¨oßerer Cluster mit 176 Molybd¨ anatomen ({Mo176 }) beziehungsweise mit hexadekamerer Ringstruktur ab. Dieser enth¨ alt entsprechend 16 statt 14 der genannten Baueinheiten (Abb. 8). Noch bemerkenswerter ist, daß unter reduzierenden Reaktionsbedingungen radkappen¨ ahnliche Polyoxometallatfragmente in den Hohlraum dieses Clusters hineinwachsen, wobei ein Cluster mit 248 Molybd¨anatomen resultiert. Dies ist u ¨brigens der mit Abstand gr¨ oßte bekannte Cluster, dessen Struktur bestimmt werden konnte. Die ringf¨ ormigen Cluster k¨onnen dar¨ uberhinaus auch als Wirte fungieren und kleinere Cluster als G¨ aste aufnehmen. Hierbei entstehen Wirt-Gast- oder supramolekulare Verbindungen, in denen Wirtspezies und Gastspezies u ¨ber Was-
114
A. M¨ uller und P. K¨ ogerler
serstoffbr¨ uckenbindungen wechselwirken. Ein Beispiel f¨ ur eine solche Struktur, upften {Mo154−X }-Ringen als G¨aste in der {Mo36 }-Cluster in zu Ketten verkn¨ vorliegen, zeigt Abb. 9.
Abb. 9. Strukturdetails des neuartigen supramolekularen Systems {Mo36 ⊂ Mo154−X }: Ausschnitt aus der Kettenstruktur mit verkn¨ upften {Mo154−X }-Ringen. Die Wechselwirkung zwischen Wirt und Gast erfolgt durch 16 Wasserstoffbr¨ ucken (gepunktet dargestellt), wird aber auch durch vier Natrium-Kationen, die zwischen Wirt und Gast positioniert sind, vermittelt
Vom Einfachen zum Komplexen: Bildung von chemischen Strukturen
8
115
Ausblick
Wie groß k¨ onnen nun Cluster dieses Typs werden?4 Aufgrund von Untersuchungen mit dynamischer Lichtstreuung zeigte sich, daß in bestimmten L¨osungen des {Mo154 }-Clusters wie schon erw¨ahnt extrem große Kolloide existent sind. Im Bezug zu biologischen Systemen haben wir es hier mit einer Gr¨oßenordnung vom Typ kugelf¨ ormiger Viren zu tun. Da bez¨ uglich der Zahl der Atome und der Gr¨oße der relevanten Gebilde bei den hier diskutierten Polyoxometallaten ein Bereich von mehreren Zehnerpotenzen abgedeckt wird, ist es sicherlich gerechtfertigt, von ur die Zukunft einer ZehnHOCH“-Chemie zu sprechen. Eine Herausforderung f¨ ” wird es sein, durch Verkn¨ upfung der hier betrachteten Teilchen in einem offenen System – vergleichbar der Bildung der Schalen von maritimen Diatomeen, die auch durch Verkn¨ upfung von einfachen Elementsauerstoffeinheiten entstehen – auch Gebilde mit makroskopischer Strukturierung und noch gr¨oßerer Vielfalt zu erzeugen. Hoffen wir also mit Hume: [...] nothing we imagine is absolutely impossible.“ [1] ” Wir danken der DFG und dem Fonds der Chemischen Industrie f¨ ur die großz¨ ugige finanzielle Unterst¨ utzung.
Literatur 1. Hume, D. (1956) A Treatise of Human Nature. Vol. 1. (John Noon, London 1739), Oxford University Press, Oxford, p. 32 2. M¨ uller, A., Reuter, H., Dillinger, S. (1995) SupramolekulareAnorganische Chemie: von G¨ asten in kleinen und großen Wirten. Angew. Chem. 107, 2505 3. Horgan, J. (1995) From Complexity to Perplexity. Scientific American, June Issue 4. Bradley, D. (1995) New Scientist 148, No. 2003, 18 5. M¨ uller, A., Peters, F., Pope, M. T., Gatteschi, D. (1998) Very Large Clusters – Nanoscale Magnets. Chem. Rev. 98, 239 6. Pope, M. T., M¨ uller, A. (1991) Chemie der Polyoxometallate: Aktuelle Variationen u aren Bez¨ ugen. Angew. Chem. 103, 56 ¨ber ein altes Thema mit interdisziplin¨ 7. M¨ uller, A., Meyer, J. (1996) Ungew¨ ohnliche Riesenmolek¨ ule. Forschung an der Universit¨ at Bielefeld, Heft 14, 2 8. M¨ uller, A. (1994) Supramolecular inorganic species: An expedition into a fascinating, rather unknown land mesoscopia with interdisciplinary expectations and discoveries. J. Mol. Struct. 325, 13 4
Ein prinzipielles Problem besteht allerdings in der Kristallisation, die f¨ ur die Isolierung und die r¨ ontgenographische Charakterisierung entscheidend ist: Es ist evident, daß sich die nanostrukturierten Ringe in L¨ osung entsprechend der die Bewegung der Teilchen beschreibenden Langevin-Gleichung nur sehr langsam bewegen und daß w¨ ahrend der Nukleationsphase der Kristallbildung ein Heilungs-/Abl¨ osungseffekt bei falscher Position oder falscher Orientierung der Teilchen aufgrund ihrer Tr¨ agheit praktisch ausgeschlossen ist.
116
A. M¨ uller und P. K¨ ogerler
9. M¨ uller, A., Pope, M. T. (1998) Increasing the Size of Polyoxometalates: Emergent Properties upon Self-Assembly and Condensation Processes. In: Mainzer, K., M¨ uller, A., Saltzer, W. G. (eds.) (1998) From Simplicity to Complexity. Part II, Information, Interaction, Emergence. Vieweg, Wiesbaden, p. 57 10. M¨ uller, A. (1991) Multifunktionelle Sch¨ onheiten. Chemie Heute, Ausgabe 1997/98, p. 100 11. M¨ uller, A., Beugholt, C. (1996) The Medium is the Message. Nature 383, 296 12. Zu allgemeinen Aspekten vgl. auch: M¨ uller, A., Dress, A., V¨ ogtle, F. (Hrsg.) (1996) From Simplicity to Complexity in Chemistry – and Beyond. Part I. Vieweg, Wiesbaden; Mainzer, K., M¨ uller, A., Saltzer, W. G. (eds.) (1998) From Simplicity to Complexity. Part II: Information – Interaction – Emergence. Vieweg, Wiesbaden
Beherrschung von Komplexit¨ at in der molekularen Evolution? Peter Schuster Institut f¨ ur Theoretische Chemie und Strahlenchemie, Universit¨ at Wien, W¨ ahringerstraße 17, A–1090 Wien, Austria, e-mail:
[email protected] Zusammenfassung Die Evolution von RNA-Molek¨ ulen in vitro wird als Kletterprozeß auf einer Fitness-Landschaft visualisiert, die aus molekularen Eigenschaften und Funktionen abgeleitet werden kann. Der Optimierungsprozeß ist von einem hohen Redundanzgrad in den Abbildungen von den Polynukleotidsequenzen auf die Molek¨ ulstrukturen gepr¨ agt: Es gibt viel mehr Sequenzen als Strukturen und die Sequenzen, die in dieselbe Struktur falten, sind (beinahe) zuf¨ allig im Sequenzraum verteilt. Zwei Konsequenzen dieser Redundanz sind f¨ ur die Evolution wichtig: die Gestaltraum¨ uberdeckung durch kleine verbundene Gebiete im Sequenzraum und die Existenz ausgedehnter neutraler Netzwerke. Beide Resultate erkl¨ aren zusammen, wie die Natur durch Versuch und Irrtum schnell und effizient L¨ osungen f¨ ur komplexe Optimierungsprobleme finden kann, w¨ ahrend die Anzahl m¨ oglicher Genotypen jede Vorstellung u ¨bersteigt. In Gegenwart neutraler Netzwerke vermeiden Populationen, in evolution¨ aren Fallen gefangen zu werden, und sie erreichen schließlich das globale Optimum durch eine zusammengesetzte Dynamik von adaptiven Wanderungen und zuf¨ alliger Drift. Aus mathematischer Analyse abgeleitete Resultate werden mit den Resultaten von Computersimulationen und verf¨ ugbaren experimentellen Daten konfrontiert.
1
Evolution und Landschaften
Sewall Wright [82] schuf f¨ ur die Darwinsche Evolution die Metapher des Kletterprozesses auf einer Fitness-Landschaft. Optimierung entspricht dann einer adaptiven Wanderung, d.h. einem Prozeß, der es erlaubt, die Richtung f¨ ur den n¨achsten Schritt zuf¨ allig aus allen Richtungen auszuw¨ahlen, entlang deren die Fitness nicht abnimmt. Station¨ are Zust¨ande von Populationen entsprechen lokalen Op¨ tima der Fitness-Landschaft. Die Evolution wird als eine Reihe von Uberg¨ angen zwischen Optima mit anwachsenden Fitness-Werten betrachtet. Wrights Metapher erlebte in j¨ ungster Zeit eine Wiederbelebung, als hinreichend einfache Modelle von Fitness-Landschaften verf¨ ugbar wurden [1] [45]. Diese Modelle basieren auf der Spinglastheorie [72] [75] oder sind ihr wie Kauffmans Nk-Modell [46] eng verwandt. Die Evolution von RNA-Molek¨ ulen ist durch realistischere Modelle untersucht worden, die explizit molekulare Strukturen behandeln, die aus dem Falten von RNA-Sequenzen erhalten werden [25] [26] [65]. FitnessWerte, die als Eingabeparameter f¨ ur die evolution¨are Dynamik dienen, wurden durch die Evaluation der Strukturen abgeleitet. Die Komplexit¨at der RNAFitness-Landschaften entspringt aus konfligierenden Konsequenzen struktureller ?
Das Originalmanuskript des Autors wurde aus dem Englischen u ¨bersetzt von Theodor Leiber (Augsburg).
118
P. Schuster
Ver¨ anderungen, die an die Frustration“ in der Theorie der Spingl¨aser erinnern ” [2]. Fitness im Darwinschen Sinne bedeutet zahlreiche Nachkommenschaft. Hohe Fitness-Werte k¨ onnen durch eine hohe Replikationsrate oder Langlebigkeit, d.h. eine kleine Degradations- oder Sterberate erreicht werden. Strukturen, die f¨ ur die Replikation im RNA-Modell optimal sind, werden auch leicht degradiert, und es gibt folglich keine einfache optimale L¨osung mit hoher Replikationsrate und niedriger Degradationsrate. Die biologische Evolution ist ein hochentwickeltes dynamisches Ph¨anomen und ihre Komplexit¨ at ist oft verwirrend. F¨ ur den Zweck der Analyse und des besseren Verst¨ andnisses wird sie in drei einfachere Prozesse unterteilt, die in Abb. 1 dargestellt sind [63] [65]: Populationsdynamik, Populationstr¨agerdynamik und Genotyp-Ph¨ anotyp-Abbildung. Die drei Prozesse werden in drei abstrakten metrischen R¨ aumen geeignet visualisiert: (1) der Konzentrationsraum der biochemischen Reaktionskinetik, (2) der Sequenzraum der Polynukleotidsequenzen und (3) der Gestaltraum von Biopolymerstrukturen. Die Kinetik chemischer Reaktionen oder die Ver¨anderungen in Populationen werden im Konzentrationsraum, dem konventionellen Raum chemischer Reaktionskinetik, aufgezeichnet, der von Martin Feinberg [21] formalisiert und in pr¨ azise mathematische Begriffe gefaßt wurde. Die Variablen z¨ahlen zum Beispiel die Anzahl von Teilchen, Molek¨ ulen, Virionen, Zellen oder Organismen und stellen ihre Ver¨ anderungen u ¨ber der Zeit dar. Eine Population von N Individuen, die u ber m Varianten verteilt sind, wird durch x = (x1 , x2 , . . . , xm ) bezeichnet ¨P m mit i=1 xi = N . Die Populationsdynamik wird gew¨ohnlich durch Differentialgleichungen der Form dx = x˙ = f (x), dt
f (x) = (f1 (x), f2 (x), . . . , fm (x))
(1)
und im Fall synchronisierter Erzeugungen durch Differenzengleichungen oder im Fall kleiner Teilchenzahlen durch einen stochastischen Prozeß beschrieben. Der Konzentrationsraum ist auf die tats¨achlich vorhandenen Klassen von Genotypen beschr¨ ankt. Wenn eine Mutante erzeugt wird, tritt eine neue Variable im Konzentrationsraum auf; wenn eine Variante ausstirbt, verschwindet die zugeh¨orige Variable. Die Anzahl der Varibalen (m) entspricht der Anzahl der gegenw¨artig existierenden Genotyp-Klassen. Als wohlbekanntes Beispiel erw¨ahnen wir die Selektions-Mutations-Gleichung f¨ ur asexuell reproduzierende Individuen, die von Manfred Eigen [14] eingef¨ uhrt wurde: X dxi kj Qji xj , = xi (ki Qii − di − φ(x)) + dt
i = 1, 2, . . . , m.
(2)
j6=i
Die Replikations- bzw. Degradationsratenkonstanten werden durch ki bzw. di bezeichnet, die Replikationsgenauigkeiten Mutationsh¨ Pund Pmaufigkeiten sind in der . m (biostochastischen) Matrix Q = {Qij } ( j=1 Qij = 1, i=1 Qij = 1) enthalten, Pm Pm ¨ und φ(x) = i=1 (ki − di )xi = i=1 ei xi ist die mittlere Uberschußproduktion der Population. Die Populationsvariablen werden als normiert angenommen, und
Beherrschung von Komplexit¨ at in der molekularen Evolution
119
Abb. 1. Evolution¨ are Dynamik. Die in vitro Evolution von Biomolek¨ ulen ist in drei einfachere Prozesse unterteilt: (i) Populationsdynamik, (ii) Populationstr¨ agerdynamik und (iii) Genotyp-Ph¨ anotyp-Abbildung. Die Populationsdynamik ist gleichbedeutend mit chemischer Reaktionskinetik der Replikation, Mutation und Selektion. Die Populationstr¨ agerdynamik beschreibt die Migration von Populationen im Raum der Genotypen (vgl. Abschn. 6). Die Genotyp-Ph¨ anotyp-Abbildung entwickelt biologische Information, die in Polynukleotidsequenzen gespeichert ist. Es werden zwei Klassen von Abbildungen unterschieden: Kombinatorische Abbildungen von einem Genotyp-Raum in einen anderen Vektorraum oder einen anderen Raum nicht-skalarer Objekte und Landschaften, die den Genotyp-Raum auf die reellen Zahlen abbilden. In der molekularen Evolution stellen Landschaften Ratenkonstanten, Gleichgewichtskonstanten und andere komplexere skalare Eigenschaften von Ph¨ anotypen bereit, zum Beispiel FitnessWerte. Diese Landschaften werden gew¨ ohnlich in zwei Schritten konstruiert: (i) eine Abbildung von Polynukleotidsequenzen in molekulare Strukturen und (ii) eine Evolution von Strukturen, um die (skalaren) molekularen Eigenschaften zu ergeben
120
P. Schuster
der physikalisch bedeutungsvolle VariablenbereichPist deswegen auf die Konzen. m ankt. trationssimplex Sm = {xi ≥ 0 ∀i = 1, . . . , m; i=1 xi = 1} beschr¨ Der Sequenzraum ist ein metrischer Punktraum (S; h), der alle κn m¨oglichen Genotypen gegebener Kettenl¨ange n enth¨alt. Durch κ bezeichnen wir die Gr¨oße des Polynukleotid-Alphabets (AUGC: κ = 4 und GC: κ = 2). Abst¨ande im Sequenzraum werden durch die Minimalzahl einzelner Nukleotidaustausche oder Punktmutationen ausgedr¨ uckt, die eine Sequenz in eine andere u uhren. Die¨berf¨ ser Abstand, der Hamming-Abstand h genannt wird [31], induziert eine Metrik im Sequenzraum. Indem man alle Paare von bin¨aren Sequenzen der Kettenl¨ange n mit Hamming-Abstand Eins durch gerade Linien verbindet, erh¨alt man einen Hyperw¨ urfel der Dimension n. Abb. 2 zeigt, wie der Sequenzraum im Vier-Buchstaben-Alphabet zum entsprechenden bin¨aren Sequenzraum in Beziehung gesetzt werden kann. Die Konzeption des Sequenzraumes ist n¨ utzlich f¨ ur die Modellierung von Mutationsh¨ aufigkeiten, weil Genotypen entsprechend von Fehlerklassen gruppiert sind. Zum Beispiel erlaubt das gleichf¨ormige Fehlerraten-Modell [16] [17], alle Mutationsraten mittels nur eines Einstellparameters, der Einzeldezimalengenauigkeit q (oder der Fehlerrate p = 1 − q), der Kettenl¨ange n und des ucken: Hamming-Abstandes hij zwischen Mustersequenz und Mutante auszudr¨ Qij = q n
1−q q
hij
= qn
p 1−p
hij
.
(3)
Hier ist die Genauigkeit der Replikation (Qij = q n ) unabh¨angig von der Nukleotidsequenz. Der Gestaltraum enth¨ alt alle Ph¨anotypen, die von prozeßaktiven Genotypen in einem gegebenen Kontext gebildet werden. In der molekularen Evolution sind Ph¨ anotypen gleichbedeutend mit r¨aumlichen Strukturen von Biopolymeren [74]. Bedeutungsvolle Strukturkonzeptionen h¨angen allerdings vom Kontext ab: Zum Beispiel erfordern erfolgreiche Beschreibungen aktiver Lagen von Enzymen (oder Ribozymen) oder spezifischer Bindungslagen f¨ ur regulatorische Elemente der DNA hohe Pr¨ azision der atomaren Aufl¨osung, wie sie von der R¨ontgenstrahl-Kristallographie bereitgestellt wird, w¨ahrend Untersuchungen an phylogenetischer Erhaltung von Strukturen viel besser auf der grob-aufl¨osenden Ebene von Ribbon-Diagrammen ausgef¨ uhrt werden k¨onnen. Einige Ebenen der Grobaufl¨osung, zum Beispiel sekund¨ are Strukturen von RNA-Molek¨ ulen, sind nicht nur von physikalischer Relevanz, sondern auch f¨ ur die mathematische Modellierung geeignet. Wir nehmen an, daß Ph¨ anotypen Elemente eines metrischen Raumes (Y; η) sind. Mit anderen Worten, es wird die Existenz eines Abstandes η postuliert, der die Verwandtschaft von Ph¨ anotypen mißt (obwohl er f¨ ur die meisten Anwendungen nicht explizit erforderlich ist). Die Zuschreibung von Fitness-Werten an individuelle Genotypen erfolgt in zwei separaten Schritten (verschiedene Modelle wie zum Beispiel Kauffmans NkModell [46] u ucksichtigung eines Ph¨anotyps und schreiben die ¨bergehen die Ber¨ Fitness-Werte den Genotypen direkt zu): Genotyp =⇒ Ph¨anotyp =⇒ Fitness.
Beherrschung von Komplexit¨ at in der molekularen Evolution
121
Abb. 2. Sequenzraum. Sequenzen werden durch Punkte im Sequenzraum dargestellt. Kanten verbinden Sequenzen des Hamming-Abstandes Eins, d.h. Sequenzen, die sich nur in einer Position unterscheiden. Der Index der Fehlerklasse z¨ ahlt den HammingAbstand von der Referenzsequenz. Der obere Teil zeigt den Sequenzraum von reinen GC-Sequenzen der Kettenl¨ ange n = 3. Er hat die Form eines W¨ urfels im gew¨ ohnlichen dreidimensionalen Raum. Im allgemeinen sind die Sequenzr¨ aume bin¨ arer Sequenzen Hyperw¨ urfel der Dimension n. Der untere Teil enth¨ alt den Sequenzraum der nat¨ urlichen (AUGC)-Sequenzen der Kettenl¨ ange n = 3. Es ist zu beachten, daß jede Base durch drei andere Basen ersetzt werden kann, zum Beispiel A → U, A → G, A → C. Die unterschiedlichen Ersetzungen sind in unterschiedlichen Graut¨ onen kodiert. Kanten werden nur f¨ ur die Fehlerklassen 0 und 1 gezeigt
122
P. Schuster
Der erste Schritt, die Genotyp-Ph¨anotyp-Abbildung, bildet einen Vektorraum auf einen anderen nicht-skalaren Raum ab Σ:
(S; h) =⇒ (Y; η),
(4)
und ist als eine kombinatorische Abbildung charakterisiert worden [23] [24], um anzudeuten, daß es keine eigentliche Landschaft ist. Fitness-Werte sind Funktionen der evolution¨ ar relevanten Eigenschaften von Ph¨anotypen und eine FitnessLandschaft ist dementsprechend eine Abbildung vom Gestaltraum auf die reellen Zahlen (Abb. 1): Λ:
(Y; η) =⇒ R1 .
(5)
Der Ausdruck Landschaft“ in diesem allgemeinen Sinn wird hier f¨ ur eine Ab” bildung vom Sequenzraum auf die reellen Zahlen benutzt werden, unabh¨angig von seiner Bedeutung f¨ ur die evolution¨are Dynamik [69].
2
Gradientendynamik
Im Falle der Optimierung durch Darwins Prinzip der Variation und Selekti¨ on, das zum Uberleben des T¨ uchtigsten“ (survival of the fittest) f¨ uhrt, be” steht die Populationsdynamik einfach aus einer monotonen Ann¨aherung an einen best¨ andigen Zustand, der aus einer homogenen Population des t¨ uchtigsten (fittesten) Genotyps besteht. Diesem Ph¨anomen wurde durch R. A. Fishers fundamentales Theorem der nat¨ urlichen Selektion [22] eine mathematische Formulierung gegeben, die feststellt, daß die mittlere Fitness einer Population, Pm ϕ(t) = i=1 ϕi xi (t), st¨ andig anw¨achst. Das Theorem ist gleichbedeutend damit zu sagen, daß die mittlere Fitness eine Lyapunov-Funktion des dynamischen Systems (1) ist. In den einfachsten F¨allen repr¨asentiert die rechte Seite der Differentialgeichung, die die Populationsdynamik beschreibt, einen Gradienten x˙ = grad V (x),
(6)
der impliziert, daß alle Trajektorien der gew¨ohnlichen Differentialgleichung (lokal) orthogonal zu den Mengen konstanter Ebenen von V (x) sind. In anderen F¨ allen ist (anstelle der konventionellen Euklidischen Metrik) eine Riemannsche Metrik des Sequenzraumes eingef¨ uhrt worden, um (6) in ein verallgemeinertes Gradientensystem zu transformieren [34] [62] [71] [73]. Insbesondere definierte Shahshahani [71] einen Pm solchen Gradienten (Grad) auf der Grundlage des Skalarprodukts |x, y|z = i=1 xi yi /zi , dessen Anwendung die Selektionsgleichung ((2) mit Q = 1, der Einheitsmatrix) in einen Gradienten umwandelt: x˙ = Grad φ(x). Es sollte festgehalten werden, daß die Einf¨ uhrung von nicht-verschwindenden Mutationsraten die Optimierung von φ(x) auf Teile der Konzentrationssimplex beschr¨ ankt. In anderen Teilen des Konzentrationsraumes mag φ(x(t)) monoton abnehmen oder sogar eine nicht-monotone Funktion der Zeit sein [62] [70]. Tats¨ achlich ist die Gradientenform der Selektionsgleichung die mathematische Grundlage zur Betrachtung evolvierender Populationen als Wanderer, die
Beherrschung von Komplexit¨ at in der molekularen Evolution
123
auf einer (zerkl¨ ufteten) Fitness-Landschaft bergaufw¨arts klettern [44] [82] (vgl. Abschn. 6). Allerdings interferieren viele nat¨ urliche Prozesse mit der reinen Selektion und beschr¨ anken das Kletter-Szenario auf Teile der Konzentrationssimplex oder machen sie vollst¨andig u ussig. Beispiele sind Mutation, Rekom¨berfl¨ bination und frequenzabh¨ angige Reproduktion. Der letztere Fall ist mit Hil¨ fe von Replikatorgleichungen ausgiebig untersucht worden (f¨ ur einen Uberblick vgl. zum Beispiel [37]). Die Populationsdynamik kann in der Tat so komplex sein wie deterministisches Chaos. Falls man sich auf die Replikatordynamik konzentriert [68], sind Konzentrationsoszillationen [18], deterministisches Chaos in homogenen L¨ osungen [60] und Spiralwellen in r¨aumlich aufgel¨osten Systemen [7] berichtet worden.
3
Evolution von RNA-Moleku ¨ len
Experimentelle Untersuchungen zur biologischen Evolution sehen sich drei qu¨alenden Problemen gegen¨ ubergestellt: (i) Evolution¨are Ph¨anomene wie Adaptation ben¨ otigen 10000 bis Millionen von Generationen, um in Populationen beobachtbar zu werden, und die f¨ ur Experimente erforderlichen Zeitspannen sind viel zu lang, (ii) kombinatorische Explosion f¨ uhrt zu zahlreichen m¨oglichen Genotypen, die alle Vorstellungen weit u ¨bertreffen und (iii) Beziehungen zwischen Genotypen und Ph¨ anotypen sind so komplex, daß eine realistische Modellierung unm¨oglich ist. Selbst im Fall schnell replizierender Bakterien mit Generationszeiten von ungef¨ ahr einer Stunde erfordern 10000 Generationen mehr als ein Jahr und Evolutionsexperimente w¨ urden mehrere Jahre dauern. (Zum Beispiel sind geduldige Mikrobiologen unter kontrollierten Bedingungen gerade bei etwa 10000 Generationen von Escherichia coli angekommen [50].) Die Anzahl m¨oglicher Sequenzen verhindert systematische Studien: Viroidgenome sind etwa 300 Nukleotide lang und dies impliziert bereits 4 × 10180 verschiedene RNA-Sequenzen dieser Kettenl¨ ange. Die Komplexit¨ at der Relation zwischen Genotypen und Ph¨anotypen ist noch entmutigender: Die r¨aumliche Struktur eines einzigen Biopolymermolek¨ uls aus seiner Sequenz vorherzusagen, ist ein sehr schwieriges (und immer noch ungel¨ ostes) Problem, und die einfachsten Bakterien bestehen aus mehreren Tausend verschiedenen Proteinmolek¨ ulen und Nukleins¨auremolek¨ ulen. Die ersten in vitro Evolutionsexperimente wurden im Jahre 1960 von Sol ¨ Spiegelman durchgef¨ uhrt (f¨ ur einen Uberblick vgl. [74]): Replikationsratenkonstanten der RNA des Bakteriophagen Qβ wurden in seriellen Transferexperimenten in geeigneten Replikationsmedien optimiert. Diese Untersuchungen zeigten, daß evolution¨ are Ph¨ anomene nicht auf die Existenz zellul¨aren Lebens beschr¨ankt sind: Molek¨ ule, die zur Reproduktion und Mutation in der Lage sind, erf¨ ullen die Voraussetzungen f¨ ur Darwins Prinzip und verhalten sich wie asexuell replizierende Individuen (soweit Selektion und Adaptation an Umweltbedingungen betroffen sind). Um dieselbe Zeit entwickelte Manfred Eigen [14] einen theoretischen Rahmen f¨ ur molekulare Evolution, die ihre Wurzeln in der chemischen Reaktionskinetik hatte. Die in vitro Evolution von RNA-Molek¨ ulen umgeht die drei oben erw¨ ahnten Probleme: (i) Generationszeiten k¨onnen unter g¨ unstigen Bedingungen auf einige wenige Sekunden reduziert werden und evolution¨are Ph¨ano-
124
P. Schuster
mene werden innerhalb einiger weniger Tage beobachtbar, (ii) viele Genotypen bilden den gleichen Ph¨ anotyp und sind deswegen selektiv neutral im Sinne von Motoo Kimura [47], und (iii) Genotyp und Ph¨anotyp sind zwei Eigenschaften desselben Molek¨ uls, n¨ amlich Sequenz bzw. r¨aumliche Struktur. Die Evolution der RNA im Reagenzglas repr¨asentiert das einfachste konzipierbare System, das erlaubt, Adaptation im Labor zu untersuchen. Seit Spieglemans Pionierarbeiten wurden viele verschiedene Studien u ¨ber evolution¨ are Ph¨ anomene mit RNA-Molek¨ ulen durchgef¨ uhrt. Zum Beispiel ist die RNA-Replikationskinetik im Detail untersucht worden. Sie wird durch einen Mehrschritt-Polykondensationsmechanismus repr¨asentiert, und die individuellen Schritte sind nun genauso verstanden wie bei anderen chemischen Reaktionen [6]. Serielle Transferexperimente in Gegenwart anwachsender Konzentration des RNA-degradierenden Enzyms RNase A ergaben resistente“ RNA-Molek¨ ule [76]. ” Katalytische RNA-Molek¨ ule der Gruppe-1 Intron-Familie wurden trainiert, DNA und nicht RNA zu spalten [5] [49], die SELEX-Technik [79] wurde auf die Selektion von RNA-Molek¨ ulen angewendet, die sich an vordefinierte Zielk¨orper mit hoher Spezifizit¨ at anbinden [40], und Ribozyme mit neuartigen katalytischen Funktionen wurden aus B¨ uchereien zuf¨alliger RNA-Sequenzen abgeleitet [3] [8] [52]. Andere Zug¨ ange benutzten in vivo Selektion, um neue Varianten von Biopolymeren abzuleiten [9] [55] oder nutzten die Kapazit¨aten des Immunsystems f¨ ur die evolution¨ are Optimierung des Entwerfens von katalytischen Antik¨orpern aus [51] [61]. In der Tat bereiteten in vitro Evolutionsexperimente die Grundlage einer neuen Disziplin, die evolution¨ are Biotechnologie (oder angewandte molekulare Evolution) genannt wird [15] [41] [42] [43]. Insbesondere ist das RNA-basierte evolution¨ are Entwerfen von Biomolek¨ ulen bereits zur Routine geworden [20] [64]. Um Molek¨ ule f¨ ur vordefinierte Zwecke auszubr¨ uten“, kann man nicht mit nat¨ urli” cher Selektion zufrieden sein, die gleichbedeutend ist mit einer Suche nach der am schnellsten replizierenden molekularen Spezies. In der k¨ unstlichen Selek” tion“ m¨ ussen die zu optimierenden Eigenschaften von der bloßen Replikation getrennt werden. Das Prinzip evolution¨aren Designs von Biomolek¨ ulen ist in Abb. 3 gezeigt. Molekulare Eigenschaften werden iterativ in Selektionszyklen optimiert. Der erste Zyklus wird durch eine Probe von zuf¨alligen Sequenzen oder alternativ durch eine Population initiiert, die aus fehleranf¨alliger Replikation von RNA- (oder DNA-) Sequenzen abgleitet ist. Jeder Selektionszyklus besteht aus drei Schritten: (i) Selektion geeigneter RNA-Molek¨ ule, (ii) Verst¨arkung durch Replikation und (iii) Diversifikation durch Mutation (mit k¨ unstlich angehobenen Fehlerraten). Der erste Schritt, die Selektion der Genotypen, die die vordefinierten Kriterien am besten erf¨ ullen, erfordert biochemische und biophysikalische Intuition oder technische Fertigkeit. Zwei Strategien werden gew¨ohnlich benutzt: Selektion von bestgeeigneten Kandidaten aus einer großen Probe verschiedener Genotypen in homogenen L¨osungen oder r¨aumliche Trennung von Genotypen und massiv paralleles Abschirmen. Varianten werden getestet und f¨ ur den Fall, daß sie die vordefinierten Kriterien nicht erf¨ ullen, ausgesondert. Selektierte Genotypen werden durch Mutation mit Fehlerraten, die auf das vorliegende Problem angepaßt sind, verst¨ arkt und diversifiziert, und dann ist die neue Population der
Beherrschung von Komplexit¨ at in der molekularen Evolution
125
Selektion unterworfen. Optimal adaptierte Genotypen werden gew¨ohnlich nach einigen 20-50 Selektionszyklen erhalten. Nach ihrer Isolation k¨onnen sie mit konventionellen Methoden der Molekularbiologie und der genetischen Manipulation verarbeitet werden.
4
RNA-Ph¨ anotypen und Gestaltraumu ¨ berdeckung
In der in vitro Evolution von RNA-Molek¨ ulen sind Genotypen und Ph¨anotypen Merkmale desselben Molek¨ uls, wobei die Sequenz der Genotyp und die r¨aumliche Struktur der Ph¨ anotyp ist. Abbildungen von Genotypen auf Ph¨anotypen werden dann auf die Beziehung zwischen Sequenzen und Strukturen von RNA-Molek¨ ulen reduziert (Abb. 4). Der gegenw¨artige Wissensstand u ¨ber dreidimensionale Strukturen von RNA-Molek¨ ulen ist rudiment¨ar: Lediglich sehr wenige Strukturen sind bislang durch Kristallographie und NMR-Spektroskopie bestimmt worden. Es muß kaum erw¨ ahnt werden, daß die r¨aumlichen Strukturen von RNA-Molek¨ ulen ebenfalls sehr schwer vorherzusagen sind. Die sogenannte sekund¨are Struktur der RNA ist eine grob-aufgel¨oste Strukturversion, die nur Watson-Crick- und GU-Basenpaare auflistet. Sie ist konzeptionell viel einfacher und erlaubt die Durchf¨ uhrung einer strengen mathematischen Analyse und großskaliger Berechnungen. Vorhersagen der RNA-Sekund¨arstruktur sind verl¨aßlicher als diejenigen von vollen r¨ aumlichen Strukturen. Sekund¨arstrukturen der RNA machen es auch m¨ oglich, formal konsistente Abstandsmaße (η) im Gestaltraum zu definieren [24] [38] [48] [58]. Zus¨ atzlich wurde herausgefunden, daß einige statistische Eigenschaften von RNA-Sekund¨arstrukturen sehr wenig von den Wahlen von Algorithmen und Parametermengen abh¨angen [78]. RNA-Sekund¨ arstrukturen stellen ein exzellentes Modell zur Untersuchung allgemeiner Relationen zwischen Genotypen und Ph¨anotypen bereit. Der konventionelle Zugang der Strukturbiologie, die sich im wesentlichen mit der Faltung einer einzigen Sequenz in eine Struktur unter den Bedingungen minimaler freier Energie konzentriert, muß auf einen globalen Begriff ausgeweitet werden, der Sequenzstrukturrelationen als (nicht-invertierbare) Abbildungen vom Sequenzraum in den Gestaltraum betrachtet [24] [59] [69]. Die Anwendung der Kombinatorik erlaubt die Ableitung eines asymptotischen Ausdrucks f¨ ur die Anzahl akzeptabler Strukturen als eine Funktion der Kettenl¨ange n [36] [67]: Sn ≈ 1.4848 × n3/2 (1.8488)n .
(7)
Dieser Ausdruck basiert auf zwei Annahmen: (i) Die minimale Stapell¨ange ist zwei Basenpaare (nstack ≥ 2, d.h. isolierte Basenpaare sind ausgeschlossen) und (ii) die minimale Gr¨ oße von Haarnadelschleifen ist drei (nloops ≥ 3). Die Anzahur reine GClen der Sequenzen sind f¨ ur nat¨ urliche RNA-Molek¨ ule durch 4n und f¨ oder reine AU-Sequenzen durch 2n gegeben (vgl. Tabelle 1). In beiden F¨allen gibt es mehr RNA-Sequenzen als sekund¨are Strukturen und wir haben es mit Neutralit¨ at zu tun in dem Sinne, daß viele RNA-Sequenzen dieselbe (sekund¨are) Struktur bilden. Nicht alle akzeptablen sekund¨aren Strukturen erweisen sich als Strukturen minimaler freier Energie. Die Anzahlen stabiler Strukturen wurden durch
126
P. Schuster
Abb. 3. Evolution¨ ares Design von Biopolymeren. Eigenschaften und Funktionen von Biomolek¨ ulen werden iterativ durch Selektionszyklen optimiert. Jeder Zyklus besteht aus drei unterschiedlichen Phasen: Verst¨ arkung, Diversifikation durch Replikation mit hohen Fehlerraten oder zuf¨ allige Synthese und Selektion. Gegenw¨ artig erfolgreiche Selektionstechniken wenden eine von zwei Strategien an: (i) Selektion in (homogenen) Mischungen, wobei die Bindung an Zielk¨ orper der festen Phase (SELEX) benutzt wird, oder reaktive Zus¨ atze, die eine Trennung geeigneter Molek¨ ule vom Rest erlauben, und (ii) r¨ aumliche Trennung individueller molekularer Genotypen und großskaliges Abschirmen
Beherrschung von Komplexit¨ at in der molekularen Evolution
127
Abb. 4. Faltung der nat¨ urlichen t-RNAphe -Sequenz in ihre dreidimensionale Struktur. Die Bildung der r¨ aumlichen Struktur ist in zwei Schritte unterteilt: Zuerst wird die sekund¨ are Struktur, eine grob-aufgel¨ oste Strukturversion, die durch einen Graphen repr¨ asentiert werden kann, aufgebaut, indem Watson-Crick- und GU-Basenpaare gebildet werden, und dann wird die sekund¨ are Struktur gefaltet, um die volle dreidimensionale Struktur zu ergeben Tabelle 1. Verbreitete Sekund¨ arstrukturen von reinen GC-Sequenzen
n 7 10 15 20 25 30 a
Anzahl der Sequenzen Anzahl der Strukturen 4n 2n Sn 16384 128 6 1.05 × 106 1024 22 1.07 × 109 32768 258 1.10 × 1012 1.05 × 106 3613 1.13 × 1015 3.36 × 107 55848 1.15 × 1018 1.07 × 109 917665
GC
a
SGC 2 11 116 1610 18590 218820
Rc 1 4 43 286 2869 22718
nc 120 859 28935 902918 30745861 999508805
Die Gesamtzahl der Sekund¨ arstrukturen mit minimaler freier Energie, die von reinen GC-Sequenzen gebildet werden, wird mit SGC bezeichnet, Rc ist der Rang der am wenigsten h¨ aufigen verbreiteten Struktur und ist deswegen gleichbedeutend mit der Anzahl von verbreiteten Strukturen, und nc ist die Anzahl der Sequenzen, die in verbreitete Strukturen falten.
128
P. Schuster
ersch¨ opfendes Falten [29] [30] aller reinen GC-Sequenzen mit Kettenl¨angen bis zu n = 30 bestimmt (Tabelle 2). Der Bruchteil akzeptierbarer Strukturen, der tats¨ achlich durch Faltung von GC-Sequenzen erhalten wurde, liegt zwischen 20 % und 50 %. Er nimmt mit anwachsender Kettenl¨ange n ab. Sekund¨are Strukturen werden geeigneterweise in zwei Klassen gruppiert, verbreitete und seltene Strukturen. Eine unmittelbar einsichtige Definition von verbreiteten Strukturen erwies sich als sehr hilfreich: C := common (verbreitet) g.d.w. NC ≥ N S = κn /Sn = Anzahl der Sequenzen/Anzahl der Strukturen,
(8)
wobei NC die Anzahl der Sequenzen ist, die die Struktur C bilden, und κ die Gr¨ oße des Alphabets bezeichnet (κ = 2 f¨ ur reine GC- oder reine AU-Sequenzen und κ = 4 f¨ ur nat¨ urliche RNA-Molek¨ ule). Eine Struktur C ist verbreitet, falls sie von mehr Sequenzen gebildet wird als die durchschnittliche Struktur. Betrachtet man des spezifische Beispiel von reinen GC-Sequenzen der Kettenl¨ange n = 30, so findet man, daß 10.4 % aller Strukturen verbreitet sind. Die verbreitetsten Strukturen (Rang 1 und Rang 2) werden von etwa 1.5 Millionen Sequenzen gebildet; dies entspricht ungef¨ahr 0.13 % des Sequenzraumes. Insgesamt falten beinahe eine Billion Sequenzen, die 93.1 % des Sequenzraumes ausmachen, in die verbreiteten Strukturen. Es lohnt sich auch, einen Blick auf das seltene Ende der Strukturverteilung zu werfen (Tabelle 2). Mehr als 50 % aller Strukturen werden je von 100 oder weniger Sequenzen gebildet, und 12362 Strukturen treten nur einmal im gesamten Sequenzraum auf. Tabelle 2. Verteilung seltener Strukturen mit reinen GC-Sequenzen der Kettenl¨ ange n = 30 Gr¨ oße des neutralen Netzwerks (m) 1 ≤5 ≤ 10 ≤ 20 ≤ 50 ≤ 100 a
Anzahl verschiedener Strukturen N (m) a 12362 41487 60202 80355 106129 124187
Es sind kumulative Anzahlen N (m) angegeben, die die Anzahlen der Strukturen z¨ ahlen, die von weniger als m (neutralen) Sequenzen gebildet werden.
Die Resultate des ersch¨opfenden Faltens legen zwei wichtige allgemeine Eigenschaften der oben gegebenen Definition von verbreiteten Strukturen nahe [29] [30]: (i) Die verbreiteten Strukturen repr¨asentieren nur einen kleinen Bruchteil aller Strukturen und dieser Bruchteil nimmt mit anwachsender Kettenl¨ange ab, und (ii) der Bruchteil der Sequenzen, die in die verbreiteten Strukturen falten, w¨ achst mit der Kettenl¨ange an und n¨ahert sich der Einheit im Grenzfall langer Ketten. F¨ ur hinreichend lange Ketten falten deswegen beinahe alle RNASequenzen in einen kleinen Bruchteil der sekund¨aren Strukturen. Das effektive
Beherrschung von Komplexit¨ at in der molekularen Evolution
129
Verh¨ altnis von Sequenzen zu Strukturen ist gr¨oßer als nach (8) berechnet, da nur verbreitete Strukturen in der nat¨ urlichen Evolution und in der evolution¨aren Biotechnologie ein Rolle spielen. Inverses Falten bestimmt die Sequenzen, die in eine gegebene Struktur falten. Die Anwendung des inversen Faltens auf RNA-Sekund¨arstrukturen [35] hat gezeigt, daß Sequenzen, die in dieselbe Struktur falten, (beinahe) zuf¨allig im Sequenzraum verteilt sind. Es ist dann folgerichtig, eine sph¨arische Umgebung (um irgendeinen zuf¨ allig gew¨ ahlten Referenzpunkt im Sequenzraum) zu berechnen, die (im Mittel) zumindest eine Sequenz f¨ ur jede verbreitete Struktur enth¨alt. Der ¨ Radius einer solchen Sph¨ are wird der Uberdeckungsradius genannt und kann aus einfachen probabilistischen Argumenten abgesch¨atzt werden [64]: rcov = min{h = 1, 2, . . . , n|Bh ≥ κn /N S = Sn },
(9)
wobei Bh die Anzahl der in einem Ball vom Radius h enthaltenen Sequenzen be¨ zeichnet. Der Uberdeckungsradius ist viel kleiner als der Radius des Sequenzrau¨ mes. Die Uberdeckungskugel repr¨asentiert nur eine kleine zusammenh¨angende Untermenge aller Sequenzen, enth¨alt aber dennoch alle verbreiteten Strukturen (Abb. 5) und bildet einen evolution¨aren repr¨asentativen Teil des Gestaltraumes.
Abb. 5. Gestaltraum¨ uberdeckung. Nur eine (relativ kleine) sph¨ arische Umgebung um irgendeine beliebig gew¨ ahlte Referenzsequenz muß gesucht werden, um RNA-Sequenzen f¨ ur jede verbreitete sekund¨ are Struktur zu finden
¨ Numerische Werte von Uberdeckungsradien werden in Tabelle 3 dargestellt. ¨ Im Fall von nat¨ urlichen Sequenzen der Kettenl¨ange n = 100 impliziert ein Uberdeckungsradius von rcov = 15, daß die Anzahl der Sequenzen, die gesucht werden m¨ ussen, um alle verbreiteten Strukturen zu finden, ungef¨ahr 4×1024 ist. Obgleich ugba1024 eine sehr große Zahl ist (und die Kapazit¨aten aller gegenw¨artig verf¨ ren Polynukleotidb¨ uchereien u ¨bersteigt), ist sie verglichen mit dem gesamten Sequenzraum, der 1.6×1060 Sequenzen enth¨alt, vernachl¨assigbar klein. Ersch¨opfen-
130
P. Schuster
des Falten erlaubt es, die aus einfacher Statistik abgeleiteten Absch¨atzungen ¨ zu testen [30]. Die Ubereinstimmung ist f¨ ur reine GC-Sequenzen kurzer Ket¨ tenl¨ ange u w¨achst linear mit der Ket¨berraschend gut. Der Uberdeckungsradius tenl¨ ange mit einem Faktor von etwa 14 an. Der Bruchteil des Sequenzraumes, der erforderlich ist, um den Gestaltraum zu u ¨berdecken, nimmt deswegen exponentiell mit anwachsender Gr¨ oße der RNA-Molek¨ ule ab (Tabelle 3). Wir bemerken, ¨ daß die absolute Zahl von Sequenzen, die in der Uberdeckungssph¨ are enthalten sind, dennoch auch (exponentiell) mit der Kettenl¨ange anw¨achst. ¨ Tabelle 3. Uberdeckungsradius des Gestaltraums f¨ ur verbreitete sekund¨ are Strukturen ¨ Uberdeckungsradius r a n Ersch¨ opfendes Falten GC c AU 20 3 (3.4) 2 25 4 (4.7) 2 30 6 (6.1) 3 50 100 a
b c
5
Asymptotische Werte Sn (9) κ=2κ=4 4 2 4 3 7 4 12 6 26 15
Brcov /4κ
b
3.29 × 10−9 4.96 × 10−11 7.96 × 10−13 7.32 × 10−20 4.52 × 10−37
¨ Der Uberdeckungsradius wird mittels einer unmittelbar einsichtigen statistischen Absch¨ atzuung auf der Grundlage der Annahme vorgenommen, daß Sequenzen, die in dieselbe Struktur falten, im Sequenzraum zuf¨ allig verteilt sind. Bruchteil des AUGC-Sequenzraumes, der im Mittel abgesucht werden muß, um ein Minimum von zumindest einer Sequenz f¨ ur jede verbreitete Struktur zu finden. Exakte Werte, die aus ersch¨ opfendem Falten abgeleitet sind, sind in Klammern angegeben.
Neutrale Netzwerke
Da jede verbreitete Struktur von einer großen Anzahl von Sequenzen gebildet wird, m¨ ussen wir auch wissen, wie Sequenzen, die in dieselbe Struktur falten, im Sequenzraum organisiert sind. Mengen von Sequenzen, die dieselbe Struktur bilden, sind neutrale Netzwerke genannt worden. Bislang sind zwei Zug¨ange angewendet worden, um neutrale Netzwerke zu untersuchen: Ein mathematisches Modell auf der Grundlage der Zufallsgraphentheorie [59] und ersch¨opfendes Falten [30]. Das mathematische Modell nimmt an, daß Sequenzen, die dieselbe Struktur bilden, im Raum der kompatiblen Sequenzen zuf¨allig verteilt sind. Eine Sequenz ist mit einer Struktur kompatibel, wenn sie im Prinzip in die fragliche Struktur falten kann. Sie hat in allen Paaren von Positionen komplement¨are Basen, die in der Struktur Basenpaare bilden (Abb. 6). Das neutrale Netzwerk einer Struktur ist die Untermenge ihrer kompatiblen Sequenzen, die die Struktur unter der Bedingung minimaler freier Energie bilden. Neutrale Netzwerke werden durch zuf¨ allige Graphen im Sequenzraum modelliert. Die Analyse wird durch
Beherrschung von Komplexit¨ at in der molekularen Evolution
131
die Unterteilung des Sequenzraumes in einen Unterraum ungepaarter Basen und einen Unterraum von Basenpaaren vereinfacht (Abb. 6). Neutrale Nachbarn in beiden Unterr¨ aumen werden zuf¨allig ausgew¨ahlt und verkn¨ upft, um die Kanten des zuf¨ alligen Graphen zu ergeben. Der Bruchteil benachbarter Paare, die als neutral ausgezeichnet werden, wird durch einen Parameter λ kontrolliert. Mit anderen Worten, λ mißt den mittleren Bruchteil neutraler Nachbarn im Sequenzraum. Die Statistik von Zufallsgraphen wird als Funktion von λ untersucht. Zum Beispiel ver¨ andert sich die Konnektivit¨at von Netzwerken drastisch, wenn λ einen Schwellenwert u ¨berschreitet: r κ−1 1 . (10) λcr (κ) = 1 − κ Der Parameter κ in dieser Gleichung repr¨asentiert die Gr¨oße des Alphabets. Wie in Abb. 6 gezeigt, haben wir κ = 4 (A, U , G, C) f¨ ur Basen in unpaarigen Bereichen von RNA-Molek¨ ulen und κ = 6 (AU, UA , UG, GU, GC, CG) f¨ ur Basenpaare. Abh¨ angig von der spezifischen betrachteten Struktur ist der Bruchteil neutraler Nachbarn in der Regel in den zwei Unterr¨aumen ungepaarter und gepaarter Basen unterschiedlich und wir hantieren mit zwei unterschiedlichen Parameterwerten λu und λp . Neutrale Netzwerke bestehen aus einer einzelnen Komponente, die den gesamten Sequenzraum aufspannt, falls λ > λcr , und unterhalb des Schwellenwertes, λ < λcr , ist das Netzwerk in eine große Zahl von Komponenten unterteilt, im allgemeinen eine Giganten-Komponente und viele kleine Komponenten (Abb. 7). Ersch¨ opfendes Falten erlaubt es, die Vorhersagen der Zufallsgraphentheorie zu pr¨ ufen, und deckt weitere Details neutraler Netzwerke auf. Die typische Komponentensequenz f¨ ur neutrale Netzwerke (entweder ein verkn¨ upftes Netzwerk, das den gesamten Sequenzraum aufspannt, oder eine sehr große Komponente, die von mehreren kleineren begleitet wird) wird in der Tat bei vielen verbreiteten Strukturen gefunden. Es gibt allerdings auch zahlreiche Netzwerke mit signifikant unterschiedlichen Sequenzen von Komponenten. Wir finden Netzwerke sowohl mit zwei als auch mit vier gleich großen Komponenten und mit drei Komponenten mit einem n¨aherungsweisen Gr¨oßenverh¨altnis von 1:2:1. Unterschiede zwischen den Vorhersagen der Zufallsgraphentheorie und die Resultate des ersch¨ opfenden Faltens wurden mit Hilfe von speziellen Eigenschaften der RNA-Sekund¨ arstrukturen schnell erkl¨art [30]. Die Abweichungen vom idealen Netzwerk (wie sie von der Zufallsgraphentheorie vorhergesagt werden) k¨onnen als strukturelle Merkmale identifiziert werden, die durch einfache Basenpaarungslogik nicht erfaßt werden k¨onnen. Alle Strukturen, die nicht leicht zus¨atzliche Basenpaare bilden k¨onnen, wenn Sequenzenerfordernisse erf¨ ullt sind, verhalten sich perfekt normal (Klasse I in Abb. 8). Es gibt allerdings Strukturen, die zus¨atzliche Basenpaare bilden k¨onnen (und dies in der Regel unter dem Kriterium der minimalen freien Energie tun werden), wenn immer die Sequenzen komplement¨are Basen an den entsprechenden Positionen tragen. Zum Beispiel ist die Bildung von Strukturen der Klasse II (Abb. 8) am wenigsten wahrscheinlich, wenn die Gesamt-Basenzusammensetzung 50 % G und 50 % C betr¨ agt, weil die Wahrscheinlichkeit der Bildung eines zus¨atz-
132
P. Schuster
Abb. 6. Kompatible Sequenzen und Unterteilung des Sequenzraumes. Eine Sequenz wird mit einer Struktur kompatibel genannt, falls sie zwei zueinander passende Basen enth¨ alt, wo immer es ein Basenpaar in der Struktur gibt (oberer Teil). Eine kompatible Sequenz muß die fragliche Struktur nicht unter den Bedingungen minimaler freier Energie bilden. Die Struktur wird allerdings stets in der Menge der suboptimalen Faltungen der Sequenz gefunden werden. Der untere Teil der Skizze zeigt die Unterteilung des Sequenzraumes in einen Raum ungepaarter Nukleotide und einen Raum von Basenpaaren, wie er in der Anwendung der Zufallsgraphentheorie auf neutrale Netzwerke von RNA-Sekund¨ arstrukturen benutzt wird
Beherrschung von Komplexit¨ at in der molekularen Evolution
133
Abb. 7. Konnektivit¨ at neutraler Netzwerke. Ein neutrales Netzwerk besteht aus vielen Komponenten, falls der durchschnittliche Bruchteil neutraler Nachbarn im Sequenzraum (λ) unterhalb eines Schwellenwertes (λcr ) liegt. Die Theorie der Zufallsgraphen sagt die Existenz einer Giganten-Komponente vorher, die viel gr¨ oßer ist als jede andere Komponente (A). Falls λ den Schwellenwert (B) u ¨berschreitet, ist das Netzwerk verkn¨ upft und spannt den gesamten Sequenzraum auf
lichen Basenpaares und des Faltens in eine andere Struktur dann am gr¨oßten ¨ ist. Wenn es einen Uberschuß von G ({50 + δ} %) gibt, ist es sehr viel wahrscheinlicher, daß eine solche Struktur tats¨achlich gebildet werden wird. Dasselbe ¨ gilt f¨ ur einen Uberschuß an C, und dies wird durch die neutralen Netzwerke der Strukturen der Klasse II mit zwei (Haupt-) Komponenten pr¨azise wiedergegeben: Die maximalen Wahrscheinlichkeiten f¨ ur die Bildung von Strukturen der Klasse II sind G:C = (50 + δ) : (50 − δ) f¨ ur eine Komponente und G:C = (50 + δ) : (50 − δ) f¨ ur die zweite. Nach demselben Muster besitzen Strukturen der Klasse III zwei (unabh¨angige) M¨oglichkeiten, ein zus¨atzliches Basenpaar zu bilden, und sie haben somit die h¨ochste Wahrscheinlichkeit, gebildet zu wer¨ den, falls die Sequenzen den Uberschuß δ und haben. Falls keine zus¨atzliche ¨ Information verf¨ ugbar ist, k¨onnen wir = δ annehmen. Unabh¨angige Uberlagerung ergibt dann vier gleich große Komponenten mit G:C-Kompositionen von (50 + 2δ) : (50 − 2δ), 2 × (50 : 50) und (50 − 2δ) : (50 + 2δ), pr¨azise so wie es tats¨ achlich f¨ ur neutrale Netzwerke mit vier Komponenten beobachtet wird. Netzwerke mit drei Komponenten sind de facto Netzwerke mit vier Komponenten, in denen die zwei zentralen (50:50) Komponenten zu einer einzigen verschmolzen sind. Neutrale Netzwerke werden somit vom Zufallsgraphenmodell gut beschrieben: Die Annahme, daß Sequenzen, die in dieselbe Struktur falten, im Raum der kompatiblen Sequenzen zuf¨allig verteilt sind, ist gerechtfertigt, solange keine speziellen Merkmale zu systematischen Beeinflussungen f¨ uhren.
134
P. Schuster
Abb. 8. Drei Klassen von RNA-Sekund¨ arstrukturen, die verschiedene Typen neutraler Netzwerke bilden. Strukturen der Klasse I enthalten keine mobilen Elemente (freie Enden, große Schleifen oder Ankn¨ upfungspunkte) oder besitzen nur mobile Elemente, die keine zus¨ atzlichen Basenpaare bilden k¨ onnen. Die mobilen Elemente von Strukturen der Klasse II erlauben die Ausweitung von Stapeln durch zus¨ atzliche Basenpaare an einer Position. Stapel in Strukturen der Klasse III k¨ onnen in zwei Positionen ausgeweitet werden. Im Prinzip gibt es auch Strukturen, die Ausweitungen von Stapeln auf mehr als zwei Weisen erlauben, sie spielen jedoch f¨ ur kurze Kettenl¨ ange (n < 30) keine Rolle
6
Optimierung auf kombinatorischen Landschaften
In der Darwinschen Sicht der Tr¨agerdynamik (Abb. 1) wird davon ausgegangen, daß Populationen die mittlere Fitness durch adaptive Wanderungen durch den Sequenzraum optimieren. Der Optimierungsprozeß findet auf zwei Zeitskalen statt: schnelle Etablierung eines Quasi-Gleichgewichts zwischen Genotypen innerhalb der Population und langsame Migration von Populationen, die vom Auftreten und der Fixierung seltener Mutanten h¨oherer Fitness angetrieben wird. Der erstere Bereich wird durch den Begriff der molekularen Quasi-Spezies [14] [16] [17] modelliert, der den station¨aren Zustand von Populationen in einem kinetischen Gleichgewicht zwischen dem fittesten Typ, der Master-Sequenz genannt wird, und seinen h¨ aufigen Mutanten beschreibt (Abb. 9). H¨aufigkeiten von Mutanten werden sowohl durch ihre Fitness-Werte als auch durch ihre HammingAbst¨ ande von der Master-Sequenz bestimmt. Die Quasi-Spezies repr¨asentiert das genetische Reservoir bei asexuell reproduzierenden Arten. Der Begriff wurde urspr¨ unglich f¨ ur infinite haploide Populationen entwickelt, kann aber leicht auf endliche Populationsgr¨oßen [11] [56] und diploide Populationen [81] erweitert werden. Intuitiv w¨ urde die Quasi-Spezies in der Evolution daf¨ ur sorgen, eine m¨ oglichst variante Nachkommenschaft zu erzeugen, um sich so schnell als m¨ oglich an Umweltver¨ anderungen anzupassen. Die Intuition ist in diesem Fall allerdings irref¨ uhrend: Es gibt eine wohldefinierte (genotypische) Fehlerschwelle; bei Mutationsraten u ¨ber diesem Schwellenwert bricht die Vererbung zusammen,
Beherrschung von Komplexit¨ at in der molekularen Evolution
135
da die Anzahl korrekter Kopien des fittesten Genotyps stetig abnimmt, bis er schließlich verloren ist. Der langsame Prozeß basiert auf der gelegentlichen Bildung von seltenen Mutanten, die h¨ohere Fitness haben als der vorherige MasterGenotyp. Die Populationstr¨agerdynamik wurde mittels Computersimulation auf Landschaften modelliert, die zur Spinglastheorie [46] verwandt sind, oder auf denjenigen Landschaften, die daraus abgeleitet werden, daß RNA-Molek¨ ule in Strukturen gefaltet werden und fitness-bezogene Eigenschaften entwickeln [23] [25] [26]. Eine Ausweitung von adaptiver Evolution auf die Migration von Populationen durch den Sequenzraum in Abwesenheit von Fitness-Differenzen ist unmittelbar naheliegend. Der genotypische Fehlerschwellenwert wird in diesem Grenzfall Null, was anzeigt, daß es keine station¨aren Populationen bei konstanter Fitness gibt. Neutrale Evolution ist durch analytische Zug¨ange auf Modellandschaften [13] untersucht worden, die aus dem Zufalls-Energie-Modell [12] abgeleitet wurden, wie auch durch Computersimulationen [32] [33]. In j¨ ungerer Zeit wurden die Computersimulationen auf die neutrale Evolution auf RNA-faltenden Landschaften ausgeweitet [39]. Im Falle selektiver Neutralit¨at driften Populationen durch einen diffusions-¨ ahnlichen Mechanismus zuf¨allig im Sequenzraum. Populationen, die großen Bereichen im Sequenzraum entsprechen, werden in kleinere Teilst¨ ucke unterteilt, die eine mittlere Lebensdauer haben. Dieses Merkmal der Populationsdynamik in neutraler Evolution wurde in Analogie zur Bildung und Evolution biologischer Spezies gesehen [33]. Die Populationsdynamik auf neutralen Netzwerken ist mittels stochastischer Prozesse und Computersimulationen analysiert worden [80]. In Analogie zum genotypischen Fehlerschwellenwert gibt es auch einen ph¨ anotypischen Fehlerschwellenwert, der der Fehlerrate eine Grenze setzt, die einen station¨ aren Master-Ph¨anotyp (trotz sich stets ver¨andernder Genotypen) unterst¨ utzt. Um den Verlauf von adaptiven Wanderungen auf Fitness-Landschaften, die von RNA-Faltprozessen abgeleitet sind, zu visualisieren, unterscheiden wir einzelne Wanderer von der Migration von Populationen und nicht-neutrale“ Land” schaften von denjenigen, die auf ausgedehnten neutralen Netzwerken gebildet wurden (Abb. 10): (i) Einzelne Wanderer k¨ onnen im nicht-neutralen Fall nur naheliegende lokale Optima erreichen, da sie in jedem lokalen Minimum der Fitness-Landschaft eingefangen werden [23]. Einzelne Wanderer sind nicht in der Lage, irgendeinen Zwischenwert geringerer Fitness zu u ucken, und die Wanderung ¨berbr¨ endet folglich, immer wenn es keine Nicht-Fehler-Variante h¨oherer Fitness gibt. (ii) Populationen haben somit eine gl¨attende“ Wirkung auf Landschaften. Selbst ” im nicht-neutralen Fall werden hinreichend große Populationen in der Lage sein, aus lokalen Optima zu entkommen, vorausgesetzt daß der HammingAbstand zum n¨ achsten Punkt mit einem nicht kleineren Fitness-Wert durch Mutation u berspannt werden kann. In Computersimulationen von Popula¨ tionen mit etwa 3000 RNA-Molek¨ ulen wurden Spr¨ unge u ¨ber von bis zu sechs Hamming-Abst¨ ande beobachtet [26].
136
P. Schuster
Abb. 9. Molekulare Quasi-Spezies im Sequenzraum. Die Quasi-Spezies ist eine station¨ are Mutantenverteilung, die eine (fitteste und h¨ aufigste) Master-Sequenz umgibt. Die H¨ aufgkeiten individueller Mutanten werden durch ihre Fitness-Werte und durch ihre Hamming-Abst¨ ande vom Master bestimmt. Eine Quasi-Spezies besetzt eine Region im Sequenzraum, die Populationstr¨ ager genannt wird. Im station¨ aren Fall wandert der (Populations-) Tr¨ ager durch den Sequenzraum
Beherrschung von Komplexit¨ at in der molekularen Evolution
137
(iii) In Anwesenheit ausgedehnter neutraler Netzwerke folgt die Optimierung einem kombinierten Mechanismus: Adaptive Wanderungen, die zu untergeordneten Gipfeln f¨ uhren, werden durch zuf¨allige Drift entlang der Netzwerke erg¨ anzt, die Populationen in die Lage versetzen, im Sequenzraum zu Bereichen mit h¨ oheren Fitness-Werten zu wandern (Abb. 10). Schließlich wird ein lokales Maximum hoher Fitness oder das globale Fitness-Optimum erreicht. Es ist beachtenswert, wie der gr¨oßte Evolutionsforscher, Charles Darwin selbst, die Rolle neutraler Varianten einsch¨atzte [10]: . . . This preservati” on of favourable individual differences and variations, and the destruction of those which are injurious, I have called Natural Selection, or the Survival of the Fittest. Variations neither useful nor injurious would not be affected by natural selection, and would be left either a fluctuating element, . . . , or would ultimately become fixed, owing to the nature of the organism and the nature of the conditions.“ Diese klare Anerkennung selektiver Neutralit¨at in der Evolution durch Darwin ist bemerkenswert. Was er nicht wissen konnte, sind das Ausmaß der in der molekularen Evolution entdeckten Neutralit¨at [47] und die positive Rolle, die Neutralit¨ at bei der Unterst¨ utzung adaptiver Selektion durch zuf¨allige Drift spielt.
7
Abschließende Bemerkungen
Molekulare Evolutionsexperimente mit RNA-Molek¨ ulen stellten im wesentlichen zwei wichtige Einsichten in die Natur evolution¨arer Prozesse bereit: (i) Das Darwinsche Prinzip der (nat¨ urlichen) Selektion ist kein Privileg des zellul¨aren Lebens, da es auch in der Evolution im Reagenzglas g¨ ultig ist, und (ii) die Adaptation an die Umwelt und die Optimierung molekularer Eigenschaften kann in wenigen Tagen oder Wochen w¨ahrend des Ablaufs eines typischen Laborexperiments beobachtet werden. Die meisten der hier diskutierten Untersuchungen basierten auf Strukturen, die mittels des Kriteriums der minimalen freien Energie bei der RNAFaltung entwickelt wurden. Die G¨ ultigkeit der statistischen Resultate, wie Gestaltraum¨ uberdeckung oder die Existenz ausgedehnter neutraler Netzwerke, ist allerdings nicht auf das Falten unter minimaler freier Energie beschr¨ankt, da sie zu den (weitgehend) algorithmenunabh¨angigen Eigenschaften der RNA-Sekund¨ arstrukturen geh¨ oren [78]. RNA-Sekund¨arstrukturen stellen uns eine Spielzeugwelt ungeheuer ausgepr¨ agter Neutralit¨at bereit, die ein Studium des kraftvollen Wechselspiels von adaptiver und neutraler Evolution erlaubt. Ob die Resultate, die f¨ ur sekund¨are Strukturen erhalten wurden, auf dreidimensionale Strukturen von RNA-Molek¨ ulen u ¨bertragen werden k¨onnen oder nicht, ist eine offene Frage. Es gibt starke Anzeichen daf¨ ur, daß dies so sein wird, obwohl der Grad der Neutralit¨at als etwas kleiner erwartet wird als f¨ ur sekund¨are Strukturen. Die Antwort auf diese Frage wird nur durch die Durchf¨ uhrung geeigneter Experimente u ber das Abschirmen von RNA-Strukturen und RNA¨ Eigenschaften im Sequenzraum gegeben werden. Entsprechende Experimente, die sich mit der Anbindung von RNA-Molek¨ ulen an vordefinierte Zielk¨orper als
138
P. Schuster
Abb. 10. Optimierung im Sequenzraum durch adaptive Wanderungen von Populationen. Adaptive Wanderungen erlauben es, den n¨ achsten Schritt beliebig aus allen Richtungen, in denen die Fitness (lokal) nicht-abnehmend ist, auszuw¨ ahlen. Populationen k¨ onnen enge T¨ aler mit Weiten von einigen Punktmutationen u ucken. In ¨berbr¨ Abwesenheit selektiver Neutralit¨ at (oberer Teil) sind sie allerdings nicht in der Lage, gr¨ oßere Hamming-Abst¨ ande zu u ¨berspannen, und sie werden sich deswegen nur dem n¨ achsten Fitness-Hauptgipfel ann¨ ahern. Populationen auf zerkl¨ ufteten Landschaften mit ausgedehnten neutralen Netzwerken evolvieren durch eine Kombination von adaptiven Wanderungen und zuf¨ alliger Drift bei konstanter Fitness entlang des Netzwerks (unterer Teil). Schließlich erreichen die Populationen das globale Maximum der Fitness-Landschaft
Beherrschung von Komplexit¨ at in der molekularen Evolution
139
der zu optimierenden Funktion besch¨aftigen, werden von mehreren Gruppen unternommen. Vorl¨ aufige Daten best¨atigen die Existenz neutraler Netzwerke hinsichtlich (grob-aufgel¨ oster) Bindungskonstanten. Eine u ¨berreiche Datenmenge u uber dem ¨ber Proteinfalten und die Elastizit¨at von Proteinstrukturen gegen¨ Austausch von Aminos¨ aurenresten scheint Evidenz f¨ ur die G¨ ultigkeit der Gestaltraum¨ uberdeckung und auch der Existenz ausgedehnter neutraler Netzwerke f¨ ur Proteine bereitzustellen. Neutrale Evolution ist offensichtlich kein verzichtbares Addendum zur evolution¨ aren Optimierung, wie es oft vorgeschlagen worden ist. Im Gegenteil, stellen neutrale Netzwerke ein machtvolles Medium bereit, durch das die Evolution wirklich effizient werden kann. Adaptive Wanderungen von Populationen, die gew¨ ohnlich in einem der nahen untergeordneten Gipfel der Fitness-Landschaft enden, werden durch zuf¨ allige Drift auf neutralen Netzwerken erg¨anzt. Die Phase neutraler Diffusion endet, wenn die Population einen Bereich h¨oherer FitnessWerte erreicht. Folgen von adaptiven Wanderungen, die von Perioden (selektiv neutraler) zuf¨ alliger Drift unterbrochen werden, erlauben es, das globale Minimum anzun¨ ahern, vorausgesetzt die neutralen Netzwerke sind hinreichend groß.
8
Epilog und Ausblick
Seit dem Erscheinen von [65] gab es in unserem Bereich zwei Weiterentwicklungen in der Theorie der molekularen Evolution. Zum einen wurde die ph¨anomenologische Reaktionskinetik von Replikation und Mutation der Nukleins¨auren um die Erfassung neutraler Netzwerke erweitert und zur Beschreibung der Entwicklung der Verteilungen von Ph¨anotypen in Populationen herangezogen [57] [66]. Der Begriff der Fehlerschwelle im Raum der Genotypen (oder Sequenzraum) wurde auf eine analoge Regularit¨at im Raum der Ph¨anotypen u ¨bertragen. Die ph¨ anotypische Fehlerschwelle trennt einen Bereich niedriger Fehlerraten, in welchem sich zwar die Genotypen laufend ver¨andern, aber die Ph¨anotypen einer station¨ aren Verteilung zustreben, von dem Bereich hoher Fehlerraten, der durch st¨ andig wechselnde Genotypen und Ph¨anotypen gekennzeichnet ist. Mit steigendem Anteil an neutralen Nachbarn — im allgemeinen ausgedr¨ uckt durch ¯ der Sequenzen in den u ¨ber das gesamte neutrale Netz gemittelten Bruchteil λ Hamming-Distanz Eins, welche dieselbe Struktur ausbilden — k¨onnen mehr Mutationen ohne Verlust der Stationarit¨at der Ph¨anotypenverteilung toleriert werden. Die zweite Weiterentwicklung baut auf Computersimulationen von Optimierungsexperimenten mit RNA-Molek¨ ulen auf [27] [28], welche bis in molekulare Details aufgel¨ ost werden konnten. Diese Untersuchungen simulieren die Entwicklung von molekularen Populationen in einem Flußreaktor, welcher so konzipiert wurde, daß die Gesamtzahl der RNA-Molek¨ √ ule um einen vorgegebenen Wert von N (mit einer Standardabweichung von N ) normalverteilt ist. Die Fitness der Molek¨ ule wird ausgedr¨ uckt in Form der Replikationsgeschwindigkeitskonstante, welche als eine mit zunehmender Ann¨aherung an das Ziel monoton steigende Funktion des Abstandes zur Referenzstruktur angesetzt wird. Die Mutationsrate wurde in diesen Computerexperimenten so klein gew¨ahlt, daß nahezu alle
140
P. Schuster
Ver¨ anderungen der Genotypen durch Einzelpunktmutationen zustande kommen. In den genannten Untersuchungen wurde eine Zielstruktur fest vorgegeben. Nach Ablauf des Computerexperimentes wird die Reihenfolge der Ph¨anotypen rekonstruiert, welche von der Ausgangsstruktur zur Zielstruktur f¨ uhrte. Diese Simulationen brachten eine Reihe von interessanten molekularen Einzelheiten des Optimierungsprozesses ans Licht und zeigten unter anderem, daß evolution¨are Optimierung in diesen Systemen auch unter v¨ollig konstanten ¨außeren Bedingungen nicht kontinuierlich, sondern stufenweise erfolgt. Es gibt daher eine innere, auf die Regularit¨ aten der Genotyp-Ph¨anotyp-Abbildung zur¨ uckf¨ uhrbare Ursache f¨ ur diese Diskontinuit¨ aten in der evolution¨aren Entwicklung. Die Struktur¨anderungen in den RNA-Molek¨ ulen, welche als Folge der Einzelpunktmutationen in ¨ den Sequenzen auftreten, lassen sich in einfache oder kontinuierliche Uberg¨ ange ¨ und schwierige oder diskontinuierliche Uberg¨ange einteilen. Eine Daumenregel“ ” ¨ identifiziert einfache Uberg¨ ange als solche, bei denen ein einziges Basenpaar be¨ troffen ist, wogegen bei schwierigen Uberg¨ angen stets mehrere Basenpaare gleichzeitig ge¨ andert werden. In den vorliegenden Beispielen kann gezeigt werden, daß auf den quasi-station¨ aren Plateaus der mittleren Fitness (Abb. 10) entweder bei konstantem Ph¨ anotyp nur die Genotypen nach Art einer Zufallsfolge wechseln oder daß Genotypen und Ph¨anotypen variieren. Im letzteren Fall beobachtet man eine Abfolge von nahe verwandten Ph¨anotypen, welche untereinander durch ¨ kontinuierliche Uberg¨ ange verkn¨ upft sind. Am Ende jedes Fitness-Plateaus steht ¨ ein gr¨ oßerer Umbau der Struktur durch einen diskontinuierlichen Ubergang. Das hier beschriebene RNA-Modell gestattet es anhand der Sekund¨arstrukturen die Beziehungen zwischen Genotypen und Ph¨anotypen in allen Einzelheiten zu beschreiben. Durch die zugegebenermaßen drastische Reduktion wird es m¨ oglich, den Mechanismus der Darwinschen Optimierung bis ins letzte Detail zu verfolgen und mit Hilfe von Computersimulation und mathematischen Analysen anders nicht zug¨ angliche Antworten auf Grundfragen der biologischen Evolution zu erhalten. In einem n¨achsten Schritt ist es nunmehr naheliegend die an Hand des einfachen RNA-Modells gewonnenen Resultate zu verallgemei¨ nern. Ein erster Schritt ist die Ubertragung auf dreidimensionale Strukturen von RNA-Molek¨ ulen. Dabei wird ohne Zweifel der im Fall der Sekund¨arstrukturen extrem große Anteil an Neutralit¨at im Sequenzraum verringert werden. Anderer¨ seits entsteht zus¨ atzliche Neutralit¨at durch den Ubergang von der Struktur zur Funktion, da auch unterschiedliche Ph¨anotpyen dieselbe Fitness haben k¨onnen. F¨ ur die experimentelle Analyse der RNA-Evolution eignet sich die Evolution in Kapillaren besonders gut [4]: Das Replikationsmedium wird in eine Kapillare eingebracht und der evolution¨are Prozeß breitet sich in Form einer Welle etwa wie ein Buschfeuer“ unter Zur¨ ucklassen seiner Geschichte aus. Die Aufar” beitung der Kapillaren erm¨oglicht die Betimmung einer zeitlichen Abfolge von Ph¨ anotypen, welche weitgehend den in Computerexperimenten erhaltenen Folgen entsprechen sollte und damit eine Basis f¨ ur direkte Vergleiche von Simulation und Experiment bietet. Wenn auch der Darwinsche Optimierungsmechanismus nunmehr in allen sei¨ nen Einzelheiten sehr gut verstanden erscheint, so kann nichts Ahnliches f¨ ur die großen Spr¨ unge in der Entwicklung der Biosph¨are angeboten werden [19] [53]
Beherrschung von Komplexit¨ at in der molekularen Evolution
141
[77]. Solche großen Spr¨ unge betreffen beispielsweise die Entstehung der Transla¨ tion und des genetischen Codes, den Ubergang von der prokaryotischen zur eu¨ karyotischen Zelle, den Ubergang vom Einzeller zum Vielzellerorganismus oder ¨ den Ubergang von Einzelindividuen zu Tiergesellschaften und schließlich zum Menschen. Das gr¨ oßte Hindernis auf dem Weg zu einem tieferen Verst¨andnis ¨ m¨ oglicher Mechanismen f¨ ur diese Uberg¨ ange ist das Fehlen geeigneter Experimentalsysteme, welche die Ausbildung von Kooperation zwischen Konkurrenten an Molek¨ ulen zu studieren gestatten. Zum Abschluß erw¨ahnen wir hier nur einen vielversprechenden Ansatz zur Entwicklung eines solchen Ansatzes f¨ ur molekulare Kooperation [54].
Literatur 1. Amitrano, C., Peliti, L., Saber, M. (1991) A spin-glass model of evolution. In: Perelson, A. S., Kauffman, S. A. (eds.) (1991) Molecular Evolution on Rugged Landscapes. Santa Fe Institute Studies in the Sciences of Complexity, Vol. IX. Addison-Wesley, Redwood City (CA), pp. 27–38 2. Anderson, P. W. (1978) The concept of frustration in spin glasses. Journal of LessCommon Metals 62, 291–294 3. Bartel, D. P., Szostak, J. W. (1993) Isolation of new ribozymes from a large pool of random sequences. Science 261, 1411–1418 4. Bauer, G. J., McCaskill, J. S., Otten, H. (1989) Travelling waves of in vitro evolving RNA. Proceedings of the National Academy of the Sciences (USA) 86, 7937–7941 5. Beaudry, A. A., Joyce, G. F. (1992) Directed evolution of an RNA enzyme. Science 257, 635–641 6. Biebricher, C. K., Eigen, M. (1988) Kinetics of RNA replication by Qβ replicase. In: Domingo, E., Holland, J. J., Ahlquist, P. (eds.) (1988) RNA Genetics. Vol. I: RNA Directed Virus Replication. CRC Press, Boca Raton (FL), pp. 1–21 7. Boerlijst, M. C., Hogeweg, P. (1991) Spiral wave structure in pre-biotic evolution — hypercycles stable against parasites. Physica D48, 17–28 8. Chapman, K. B., Szostak, J. W. (1994) In vitro selection of catalytic RNAs. Current Opinion in Structural Biology 4, 618–622 9. Christians, F. C., Loch, L. A. (1996) Novel human DNA alkyltranferases obtained by random substitution and genetic selection in bacteria. Proceedings of the National Academy of the Sciences (USA) 93, 6124–6128 10. Darwin, C. R. (1928) The Origin of Species. In Everyman’s Library No. 811. J.M. Dent & Sons, Aldine House, Bedford Street, London (UK), p. 81 11. Demetrius, L., Schuster, P., Sigmund, K. (1985) Polynucleotide evolution and branching processes. Bulletin of Mathematical Biology 47, 239–262 12. Derrida, B. (1981) Random-energy model: An exactly solvable model of disordered systems. Physical Review B24, 2613–2626 13. Derrida, B., Peliti, L. (1991) Evolution in a flat fitness landscape. Bulletin of Mathematical Biology 53, 355–382 14. Eigen, M. (1971) Self-organization of matter and the evolution of biological macromolecules. Naturwissenschaften 58, 465–523 15. Eigen, M., Gardiner, W. C. (1984) Evolutionary molecular engineering based on RNA replication. Pure and Applied Chemistry 56, 967–978
142
P. Schuster
16. Eigen, M., McCaskill, J., Schuster, P. (1989) The molecular quasispecies. Advances of Chemical Physics 75, 149–263 17. Eigen, M., Schuster, P. (1977) The hypercycle. A principle of natural selforganization. Part A: Emergence of the hypercycle. Naturwissenschaften 64, 541– 565 18. Eigen, M., Schuster, P. (1978) The hypercycle. A principle of natural selforganization Part B: The abstract hypercycle. Naturwissenschaften 65, 7–41 19. Eigen, M., Schuster, P. (1982) Stages of emerging life — Five principles of early organization. Journal of Molecular Evolution 19, 47–61 20. Ellington, A. D. (1994) Aptamers achieve the desired recognition. Current Biology 4, 427–429 21. Feinberg, M. (1977) Mathematical aspects of mass action kinetics. In: Lapidus, L., Amundson, N. R. (eds.) (1977) Chemical Reactor Theory. A Review. Prentice-Hall, Englewood Cliffs (NJ), pp. 1–78 22. Fisher, R. A. (1930) The Genetical Theory of Natural Selection. Oxford University Press, Oxford (UK) 23. Fontana, W., Griesmacher, T., Schnabl, W., Stadler, P., Schuster, P. (1991) Statistics of landscapes based on free energies, replication and degradation rate constants of RNP secondary structures. Mh. Chem. 122, 795–819 24. Fontana, W., Konings, D. A., Stadler, P., Schuster, P. (1993) Statistics of RNA secondary structures. Biopolymers 3, 1389–1404 25. Fontana, W., Schnabl, W., Schuster, P. (1989) Physical aspects of evolutionary optimization and adaptation. Physical Review A40, 3301–3321 26. Fontana, W., Schuster, P. (1987) A computer model of evolutionary optimization. Biophys. Chem. 26, 123–147 27. Fontana, W., Schuster, P. (1998) Continuity in evolution. On the nature of transitions. Science 280, 1451–1455. Also published as: Preprint No. 98-04-030, Santa Fe Institute, Santa Fe (NM) 1998 28. Fontana, W., Schuster, P. (1998) Shaping space. The possible and the attainable in RNA genotype-phenotype mapping. Journal of Theoretical Biology (in press) 29. Gr¨ uner, W., Giegerich, R., Strothmann, D., Reidys, C., Weber, J., Hofacker, I., Stadler, P., Schuster, P. (1996) Analysis of RNA sequence structure maps by exhaustive enumeration I. Neutral networks, Mh. Chem. 127, 355–374 30. Gr¨ uner, W., Giegerich, R., Strothmann, D., Reidys, C., Weber, J., Hofacker, I., Stadler, P., Schuster, P. (1996) Analysis of RNA sequence structure maps by exhaustive enumeration II. Structure of neutral networks and shape space covering. Mh. Chem. 127, 375–389 31. Hamming, R .W. (1950) Error detecting and error correcting codes. Bell Syst. Tech. J. 29, 147–160 32. Higgs, P. G., Derrida, B. (1991) Stochastic models for species formation in evolving populations. Journal of Physics A24, L985–L991 33. Higgs, P. G., Derrida, B. (1992) Genetic distance and species formation in evolving populations. Journal of Molecular Evolution 35, 454–465 34. Hofbauer, J. (1985) The selection mutation equation. Journal of Mathematical Biology 23, 41–53 35. Hofacker, I., Fontana, W., Stadler, P., Bonhoeffer, S., Tacker, M., Schuster, P. (1994) Fast folding and comparison of RNA secondary structures. Mh. Chem. 125, 167–188 36. Hofacker, I., Schuster, P., Stadler, P. (1998) Combinatorics of RNA secondary structures. Disc. Appl. Math. 89, 177–207
Beherrschung von Komplexit¨ at in der molekularen Evolution
143
37. Hofbauer, J., Sigmund, K. (1988) The Theory of Evolution and Dynamical Systems. Cambridge University Press, Cambridge (UK) 38. Hogeweg, P., Hesper, B. (1984) Energy directed folding of RNA sequences. Nucleic Acids Research 12, 67–74 39. Huynen, M. A., Stadler, P. F., Fontana, W. (1996) Smoothness within ruggedness: The role of neutrality in adaptation. Proceedings of the National Academy of the Sciences (USA) 93, 397–401 40. Jenison, R. D., Gill, S. C., Pardi, A., Polisky, B. (1994) Highresolution molecular discrimination by RNA. Science 263, 1425–1429 41. Joyce, G. F. (1992) Directed molecular evolution. Scientific American 267(6), 48– 55 42. Kauffman, S. A. (1986) Autocatalytic sets of proteins. Journal of Theoretical Biology 119, 1–24 43. Kauffman, S. A. (1992) Applied molecular evolution. Journal of Theoretical Biology 157, 1–7 44. Kauffman, S. A. (1993) The Origins of Order, Self-Organization and Selection in Evolution. Oxford University Press, Oxford, UK 45. Kauffman, S. A., Levine, S. (1987) Towards a general theory of adaptive walks on rugged landscapes. Journal of Theoretical Biology 128, 11–45 46. Kauffman, S. A., Weinberger, E.D. (1989) The n-k model of rugged fitness landscapes and its application to maturation of the immune response. Journal of Theoretical Biology 141, 211–245 47. Kimura, M. (1983) The Neutral Theory of Molecular Evolution. Cambridge University Press, Cambridge, UK 48. Konings, D., Hogeweg, P. (1989) Pattern analysis of RNA secondary structure, Similarity and consensus of minimal-energy folding. Journal of Molecular Biology 207, 597–614 49. Lehman, N., Joyce, G. F. (1993) Evolution in vitro: Analysis of a lineage of ribozymes. Current Biology 3, 723–734 50. Lenski, R. E., Travisano, M. (1994) Dynamics of adaptation and diversification: A 10000-generation experiment with bacterial populations. Proceedings of the National Academy of the Sciences (USA) 91, 6808–6814 51. Lerner, R. A., Benkovic, S. J., Schultz, P.G. (1991) At the crossroads of chemistry and immunology: Catalytic antibodies. Science 252, 659–667 52. Lorsch, J. R., Szostak, J. W. (1994) In vitro evolution of new ribozymes with polynucleotide kinase activity. Nature 371, 31–36 53. Maynard Smith, J., Szathm´ ary, E. (1995) The Major Transitions in Evolution. W.H. Freeman, Oxford (UK) 54. McCaskill, J. S. (1997) Spatially resolved in vitro molecular ecology. Biophys. Chem. 66, 145–158 55. Munir, K. M., French, D. C., Loeb, L. A. (1993) Thymidine kinase mutants obtained by random selection. Proceedings of the National Academy of the Sciences (USA) 90, 4012–4016 56. Nowak, M., Schuster, P. (1989) Error thresholds of replication in finite populations, Mutation frequencies and the onset of Muller’s ratchet. Journal of Theoretical Biology 137, 375–395 57. Reidys, C., Forst, C., Schuster, P. (1998) Replication and mutation on neutral networks. Bulletin of Mathematical Biology (in press) 58. Reidys, C., Stadler, P. F. (1996) Bio-molecular shapes and algebraic structures. Computers Chemistry 20, 85–94
144
P. Schuster
59. Reidys, C., Stadler, P. F., Schuster, P. (1997) Generic properties of combinatory maps — Neutral networks of RNA secondary structures. Bulletin of Mathematical Biology 59, 339–397 60. Schnabl, W., Stadler, P. F., Forst, C., Schuster, P. (1991) Full characterization of a strange attractor. Chaotic dynamics on low-dimensional replicator systems. Physica D48, 65–90 61. Schultz, P. G. (1989) Catalytic antibodies. Angewandte Chemie 28, 1283–1295 62. Schuster, P. (1988) Potential functions and molecular evolution, In: Markus, M., M¨ uller, S. C., Nicolis, G. (eds.) (1988) From Chemical to Biochemical Organization. Springer Series in Synergetics, Vol. 39. Springer, Berlin, pp. 149–165 63. Schuster, P. (1995) Artificial life and molecular evolutionary biology. In: Mor´ an, F., Moreno, A., Morelo, J. J., Chac´ on, P. (eds.) (1995) Advances in Artificial Life. Lecture Notes in Artificial Intelligence. Springer, Berlin, Vol. 929, pp. 3–19 64. Schuster, P. (1995) How to search for RNA structures. Theoretical concepts in evolutionary biotechnology. Journal of Biotechnology 41, 239–257 65. Schuster, P. (1997) Landscapes and molecular evolution. Physica D107, 351–365 66. Schuster, P. (1997) Genotypes with phenotypes: Adventures in an RNA toy world. Biophys. Chem. 66, 75–110 67. Schuster, P., Fontana, W., Stadler, P., Hofacker, I. (1994) From sequences to shapes and back: A case study in RNA secondary structures. Proceedings of the Royal Society (London) B255, 279–284 68. Schuster, P., Sigmund, K. (1983) Replicator dynamics. Journal of Theoretical Biology 100, 533–538 69. Schuster, P., Stadler, P. (1994) Landscapes: Complex optimization problems and biopolymer structures. Computers Chemistry 18, 295–314 70. Schuster, P., Swetina, J. (1988) Stationary mutant distribution and evolutionary optimization. Bulletin of Mathematical Biology 50, 635–660 71. Shahshahani, S. (1979) A new mathematical framework for the study of linkage and selection. Memoirs of the American Mathematical Society 211 72. Sherrington, D., Kirkpatrick, S. (1975) Solvable model of a spin glass. Physical Review Letters 35, 1792–1796 73. Sigmund, K. (1985) The maximum principle for replicator equations. In: Ebeling, W., Peschel, M. (eds.) (1985) Lotka-Volterra Approach to Cooperation and Competition in Dynamical Systems. Akademie-Verlag, Berlin, pp. 63–71 74. Spiegelman, S. (1971) An approach to the experimental analysis of precellular evolution. Quarterly Reviews of Biophysics 4, 213–253 75. Stein, D. L. (1989) Disordered systems: Mostly spin glasses. In: Stein, L. (ed.) (1989) Lectures in the Sciences of Complexity. Addison-Wesley, Redwood City, CA, Vol. 1, pp. 301–353 76. Strunk, G. (1993) Automatized evolution experiments in vitro and natural selection under controlled conditions by means of the serial transfer technique. Universit¨ at Braunschweig, Ph.D. thesis 77. Szathm´ ary, E., Maynard Smith, J. (1995) The major evolutionary transitions. Nature 374, 227–232 78. Tacker, M., Stadler, P., Bornberg-Bauer, E., Hofacker, I., Schuster, P. (1996) Algorithm independent properties of RNA secondary structure predictions. European Biophysics Journal 25, 115–130 79. Tuerk, C., Gold, L. (1990) Systematic evolution of ligands by exponential enrichment: RNA ligands to bacteriophage T4 DNA polymerase. Science 249, 505–510 80. Weber, J., Reidys, C., Forst, C., Schuster, P. (1996) Evolutionary dynamics on neutral networks, IMB Jena, Germany, preprint
Beherrschung von Komplexit¨ at in der molekularen Evolution
145
81. Wiehe, T., Baake, E., Schuster, P. (1995) Error propagation in reproduction of diploid organisms. A case study in single peaked landscapes. Journal of Theoretical Biology 177, 1–15 82. Wright, S. (1932) The roles of mutation, inbreeding, crossbreeding and selection in evolution. In: Jones, D. F. (ed.) (1932) International Proceedings of the 6th International Congress on Genetics. Vol. 1, pp. 356–366
Nichtlineare Selbstverst¨ arkung: Die treibende Kraft in der biologischen Musterbildung Hans Meinhardt Max-Planck-Institut f¨ ur Entwicklungsbiologie, Spemannstraße 35, D–72076 T¨ ubingen, Germany, e-mail:
[email protected] Zusammenfassung H¨ ohere Organismen entwickeln sich aus einer einzigen Zelle, der befruchteten Eizelle. Wie kann sich der ganze Reichtum an Strukturen aus dieser einen Zelle entwickeln? Es werden Modelle diskutiert, die wichtige Schritte darin beschreiben. Prim¨ are Musterbildung erfordert lokale Selbst-Verst¨ arkung und langreichweite Inhibition. Stabile differenzierte Zust¨ ande werden erreicht durch eine R¨ uckkopplung von Genen auf ihre eigene Aktivierung zusammen mit einer Kompetition zwischen alternativen Genen. Das hat zur Folge, daß in einer bestimmten Zelle nur eines der alternativen Gene aktiviert werden kann. Unter dem Einfluß gradierter Konzentrationsverteilungen entstehen scharf begrenzte Regionen in denen jeweils bestimmte Gene aktiv sind. Durch Kooperation zwischen zwei solchen Bereichen k¨ onnen an der gemeinsamen Grenze neue Molek¨ ule synthetisiert werden, die dann als Positionsinformation f¨ ur einen kleineren Bereich eingesetzt werden kann, usw. Eine solche iterative Musterbildung erm¨ oglicht eine immer feinere r¨ aumliche Unterteilung in einer sehr zuverl¨ assigen Weise. Strukturen wie Arme, Beine oder Fl¨ ugel werden an den Schnittpunkten zweier Grenzen angelegt. Sie haben damit immer die richtige Position, Orientierung und Rechts-Links-Asymmetrie im Verh¨ altnis zu den embryonalen Hauptachsen. Es werden auch Modelle diskutiert bei denen mehr zuf¨ allige Ereignisse eine entscheidende Rolle spielen. Die Bildung netzartiger Strukturen (z.B. Blattadern) und die Musterbildung auf Schneckenschalen sind Beispiele.
1
Die Embryonalentwicklung – komplex und doch reproduzierbar
Eines der faszinierenden Aspekte biologischer Systeme ist ihre F¨ahigkeit, die komplexe Struktur eines Organismus in jedem Generationszyklus neu aufzubauen. Dazu m¨ ussen viele Reaktionen miteinander gekoppelt sein. Wie sp¨ater diskutiert, spielen dabei Reaktionen mit nichtlinearer R¨ uckkopplung eine wichtige Rolle. Wenn aber in einer solchen Kette von Reaktionen eine Abweichung auftritt, so besteht die Gefahr, daß diese Abweichung im n¨achsten Schritt zu einer noch gr¨ oßeren Abweichung f¨ uhrt, usw. Damit w¨are das Ergebnis einer Kette von Reaktionen unvorhersagbar – eine Eigenschaft, wie man sie z.B. von langfristigen Wetterprognosen her kennt. Ganz im Gegensatz ist aber die Entwicklung eines ¨ Organismus sehr genau durch die Gene festgelegt, wie man an der Ahnlichkeit eineiiger Zwillinge sehen kann. Das zeigt, daß in den einzelnen Schritten eine Korrektur m¨ oglicher Fehler stattfinden muß. Damit wird zwischen den einzelnen Schritten eine gewisse Fehlertoleranz erreicht.
Biologische Musterbildung
147
Die F¨ ahigkeit zur Fehlerkorrektur ist besonders auff¨allig bei regenerativen Prozessen. Entfernt man z.B. bei dem S¨ ußwasserpolyp Hydra den Kopf, so regeneriert ein neuer (Abb. 1). Dazu muß im Organismus ein Kommunikationssystem vorhanden sein, das in der Lage ist, das Fehlen eines Teiles festzustellen und vorhandene Zellen so umzuprogrammieren, daß ein normaler und voll funktionsf¨ahiger Organismus wiederhergestellt werden kann. Wir haben Theorien f¨ ur diese Kommunikationssysteme entwickelt [4]. Durch Computersimulationen haben wir gezeigt, daß die Theorien die beobachteten Ph¨anomene sehr genau wiedergeben k¨ onnen. Viele der Theorien haben zwischenzeitlich eine direkte Best¨atigung auf ¨ molekularem Niveau erhalten. Eine kurze Ubersicht u ¨ber diese Modelle soll hier gegeben werden. Eine ausf¨ uhrliche Darstellung der mathematischen Grundlagen sowie PC-Programme f¨ ur die hier gezeigten Simulationen sind an anderer Stelle zu finden [16].
Abb. 1. Ein Beispiel f¨ ur die Stabilit¨ at eines entwicklungsbiologischen Systems: der kleine S¨ ußwasserpolyp Hydra. Kleine St¨ ucke regenerieren einen vollst¨ andigen Polypen. Dabei bleibt die urspr¨ ungliche Kopf-Fuß-Polarit¨ at erhalten
Die Struktur des fertigen Organismus kann sicher nicht in einer latenten Form bereits im Ei vorhanden sein. Sie muß w¨ahrend der Entwicklung gebildet werden. Die Entwicklung muß in den Genen codiert sein. In der Regel wird aber bei jeder Teilung an die beiden Tochterzellen die gleiche Erbinformation weitergegeben. Es stellt sich daher die Frage, wie die Information auf der DNA, die in allen Zellen mehr oder weniger die gleiche ist, in r¨aumlich-zeitliche Muster u ¨bersetzt werden kann. Grundlegende Einsichten wurden durch Experimente gewonnen, bei denen die normale Entwicklung gest¨ort wurde. Erst in neuerer Zeit ist eine direkter Zugang zu den die Entwicklung steuernden Molek¨ ulen m¨oglich geworden.
148
2
H. Meinhardt
Prim¨ are Musterbildung durch lokale Selbstverst¨ arkung und langreichweitige Inhibition
Die Bildung von Strukturen ist kein Privileg der Biologie. Auch in der unbelebten Natur entstehen strukturierte Gebilde aus homogenen Anfangsverteilungen, nat¨ urlich ohne daß dabei die Gesetze der Physik verletzt werden. Zum Beispiel kann aus einer diffusen Wolke ein fein strukturierter Blitz schlagen oder gleichm¨ aßig u ¨ber das Land verteilter Regen kann im Laufe der Zeit scharf abgegrenzte Fl¨ usse auswaschen. Diesen strukturerzeugenden Prozessen ist gemeinsam, daß kleine St¨ orungen eine so starke R¨ uckwirkung auf sich selbst haben, daß diese St¨ orungen weiter anwachsen. Betrachten wir z.B. die Geschichte einer Sandd¨ une. Vielleicht war ein Stein der Ausgangspunkt. Der Stein erzeugte einen Windschatten, in dem sich Sand ablagern konnte. Der abgelagerte Sand vergr¨ oßerte den Windschatten – noch mehr Sand wird abgelagert, usw., – ein sich selbst verst¨ arkender Prozeß. Neben der Selbstverst¨arkung muß aber noch eine andere Bedingung erf¨ ullt sein, wenn Strukturbildung stattfinden soll. Selbstverst¨ arkung allein w¨ urde zu einer immer weiteren Ausbreitung dieser Reaktion f¨ uhren, so wie etwa ein Waldbrand um sich greift. Dadurch w¨ urde nur ein Zustand in einen anderen, wieder strukturlosen Zustand u ¨bergehen. Strukturbildung impliziert aber, daß an einem Ort etwas geschieht, was an einem anderen Ort nicht geschieht. Von einem sich bildenden Zentrum muß eine Inhibition (Hemmung) ausgegen, die dieser Selbstverst¨arkung entgegenwirkt. Diese Inhibition muß sich schneller ausbreiten als die autokatalytische Reaktion selbst. Eine lokale Begrenzung der Selbstverst¨arkung wird demnach dadurch erreicht, daß diese nur auf Kosten einer gr¨oßeren Umgebung m¨oglich ist. Dieses Grundprinzip, lokale Selbstverst¨arkung und langreichweitige Inhibition, ist leicht auf molekulare Wechselwirkungen u ¨bertragbar [4]. Eine denkbare Wechselwirkung besteht aus einem ‘Aktivator’, der seine eigene Synthese direkt oder indirekt verst¨ arkt. F¨ ur die erforderliche inhibitorische Reaktion soll der Aktivator die Synthese eines Inhibitors steuern, der seinerseits die SelbstVerst¨ arkung hemmt. Da sich die Inhibition schnell ausbreiten muß, wird angenommen daß der Inhibitor schneller diffundiert als der Aktivator. Bei Systemen mit starker R¨ uckkopplung ist unsere Intuition u ¨ber deren Verhalten v¨ ollig unzureichend. Eine pr¨azise mathematische Formulierung der Hypothesen, im vorliegenden Fall der Produktionsraten von Stoffen und ihrer gegenseitigen Beeinflussung, gestattet es aber, die Entwicklung eines Systems zu berechnen. Dadurch ist ein genauer Vergleich zwischen Hypothese und Experiment m¨ oglich. Abweichungen von der Erwartung erlauben eine Verbesserung der Hypothesen. Wir haben ein Kriterium angeben, welche Reaktionen zu einem stabilen Konzentrationsmuster f¨ uhren und welche nicht. Die folgenden Gleichun¨ gen f¨ ur die zeitliche Anderung der Aktivator a(x)- bzw. Inhibitorkonzentration h(x) erf¨ ullen diese Bedingung: ρa2 ∂2a ∂a = − µa + Da 2 + ρa , ∂t h ∂x
(1)
Biologische Musterbildung
149
Abb. 2. Bildung und Regeneration einer Aktivator- und Inhibitor-Verteilung. (a) Das Reaktions-Schema. Der Aktivator hat eine positive R¨ uckwirkung auf seine eigene Produktion und auf die des Inhibitors. Letzterer breitet sich schnell aus und unterdr¨ uckt die Autokatalyse. (b) Angenommen ist eine wachsende Kette von Zellen. Die Konzentrationen sind als Funktion der Zeit dargestellt. Wenn das Feld eine bestimmte Gr¨ oße u ¨berschritten hat, setzt die Musterbildung ein: es bildet sich eine hohe Konzentration auf der einen und eine niedrige Konzentration auf der anderen Seite. (c) Regeneration: nach Entfernen der aktivierten, d.h., der Inhibitor-produzierenden Zellen (Pfeil) zerf¨ allt der verbliebene Inhibitor (Pfeilspitze) bis die Selbstverst¨ arkung der Aktivatorproduktion wieder einsetzt. Die urspr¨ ungliche Verteilung wird wiederhergestellt (gerechnet mit Gleichung (1) und (2))
∂h ∂2h = ρa2 − νh + Dh 2 + ρh . ∂t ∂x
(2)
Dabei beschreibt ρa2 die Auto- bzw. Kreuzkatalyse, 1/h die Wirkung des Inhibitors, −µa bzw. −νh die Zerfallsraten, Da ∂ 2 a/∂x2 bzw. Dh ∂ 2 h/∂x2 die Diffusion; ρa bzw. ρh sind kleine, aktivator-unabh¨angige Produktionsterme. Die autokatalytische Produktion muß nichtlinear sein (mindestes a2 ), da der Abbau biologischer Molek¨ ule als linear abh¨angig von der Konzentration angesetzt werden muß (¨ ahnlich wie die Zahl der Menschen, die im Mittel in einer Stadt sterben, proportional zur Einwohnerzahl ist). Mit einer solchen Gleichung kann man, von einer bestimmten Anfangsverteilung ausgehend, die Konzentrations¨anderungen in einem kurzen Zeitinvervall berechnen. Viele solche Berechnungen hintereinan-
150
H. Meinhardt
der ergeben den gesamten zeitlichen Verlauf. Im folgenden werden Computersimulationen dieser Gleichung mit dem Verhalten biologischer Systeme verglichen. In einem kleinen Areal von Zellen, in dem sich eine lokale Schwankung der Aktivatorkonzentration schnell ausgleichen kann, bildet sich ein stabiles Gleichgewicht der beiden Stoffe aus. Zum Beispiel f¨ uhrt eine Erniedrigung der Aktivatorkonzentration zu einer solchen Erniedrigung der Inhibitorproduktion, daß das System durch die autokatalytische Aktivatorproduktion wieder in das Gleichgewicht zur¨ uckkehrt. Wenn aber ein solches ‘Feld’ w¨achst, werden die homogenen Aktivator- und Inhibitor-Verteilungen instabil. Eine kleine, z.B. durch eine statistische Schwankung bedingte lokale Erh¨ ohung des Aktivators erzeugt zwar nach wie vor eine erh¨ ohte Inhibitorproduktion. Jetzt ist aber genug Raum vorhanden, in den der u ussige Inhibitor diffundieren kann. Die lokale Erh¨ohung wird also durch ¨bersch¨ den Inhibitor nicht vollst¨ andig zur¨ uckgeregelt sondern w¨achst durch die Autokatalyse weiter an. Dieses geschieht auf Kosten der Umgebung, denn der zus¨atzlich produzierte Inhibitor unterdr¨ uckt dort mehr und mehr die Aktivatorproduktion. Es entsteht eine zeitlich stabile, inhomogene Verteilung von beiden Substanzen.
3
Morphogenetische Gradienten
Eine klassische Vorstellung in der Entwicklungsbiologie ist die der Steuerung der Entwicklung durch gradierte Konzentrationsverteilungen. Wolpert [24] hat daf¨ ur den Begriff der Positional Information gepr¨agt. Abh¨angig von der Konzentration werden positionsabh¨ angig verschiedene Gene aktiviert. Das bisher eindeutigste Beispiel f¨ ur einen solchen Morphogen-Gradienten ist die Verteilung des sogenannten bicoid-Proteins im Ei der Fruchtfliege Drosophila ([2]; die Bildung dieses Gradienten geschieht aber auf eine komplexere Weise). F¨ ur biologische Anwendungen des Modelles ist daher wichtig, daß in einem kleinen Feld eine Schwankung am Rand schon zur Ausbildung eines Maximums f¨ uhren kann, w¨ ahrend eine Schwankung im Zentrum noch zur¨ uckgeregelt wird.
Abb. 3. Bildung eines fast-periodischen Musters in einer Zellschicht. Wenn die Reichweite des Inhibitors kleiner ist als die Feldgr¨ oße, bilden sich mehrere Maxima in etwas unregelm¨ aßiger Anordnung. Ein maximaler und minimaler Abstand wird aber eingehalten. Regelm¨ aßigere Muster entstehen, wenn die Musterbildung w¨ ahrend des Wachstums abl¨ auft. Die regelm¨ aßige Anlage von Bl¨ attern auf einem wachsenden Sproß ist daf¨ ur ein Beispiel
Biologische Musterbildung
151
Es wird also die Bildung von gradierten Konzentrationsverteilungen erkl¨art, die auch bei weiterem Wachstum des Feldes stabil bleiben k¨onnen (Abb. 2b). Durch solche Gradienten kann eine ortsabh¨angige Gen-Aktivierung erfolgen und damit eine entsprechende Differenzierung der Zellen eingeleitet werden (siehe Abb. 5). Das ist f¨ ur die Ausbildung embryonaler Achsen (z.B. der Kopf-Schwanz oder der R¨ ucken-Bauch Achse) eines sich entwickelnden Embryos von zentraler Bedeutung. Wenn dagegen das Feld von Zellen sehr viel gr¨oßer ist als die Reichweite des Inhibitors, so k¨ onnen viele Maxima entstehen, die einen bestimmten maximalen und minimalen Abstand von einander haben. Solche Muster sind f¨ ur die Anlage periodischer Strukturen wie z.B. Haare, Borsten etc. notwendig (Abb. 3).
4
Regeneration
Eine solche Wechselwirkung zwischen einem Aktivator und einem Inhibitor hat nicht nur die Eigenschaft, Muster zu bilden, sie kann auch Regelprozesse wie die oben erw¨ ahnte Regeneration einer Hydra erkl¨aren. Nehmen wir an, eine hohe Aktivatorkonzentration ist das Signal zur Kopfbildung. Entfernt man den Kopf, so entfernt man damit auch die Zellen, die den Inhibitor produzieren. Der verbleibende Inhibitor zerf¨ allt, bis ein erneute Autokatalyse des Aktivators m¨oglich wird. Ein neues Maximum und damit ein neues Signal f¨ ur eine Kopfbildung entsteht. Durch den neu synthetisierten Inhibitor wird das System wieder in ein Gleichgewicht gebracht (Abb. 2c). Die tats¨achliche Musterbildung in der Hydra ist aber noch komplizierter, da neben dem Kopf-Signal auch Signale f¨ ur Fuß-, Tentakel- und Knospen-Bildung generiert werden m¨ ussen. Ein entsprechendes Modell [14] hat in der Zwischenzeit direkte experimentelle Unterst¨ utzung erfahren [22].
5
Gen-Aktivierung: molekular-genetische Analog-Digital-Konvertierung
Die Bildung eines Kopfes, Rumpfes oder Schwanzes erfordert die stabile Aktivierung jeweils verschiedener Gene. Ein auf Diffusion basierendes Kommunikationssystem kann nur u ur den ¨ber kurze Distanzen aufrecht erhalten werden. F¨ (ungerichteten) Transport von Molek¨ ulen u ¨ber gr¨oßere Strecken w¨are die Zeit, die f¨ ur die Kommunikation notwendig w¨are, viel zu lang. In der Tat sind die Gewebe zu dem Zeitpunkt, wo unterschiedliche Entwicklungsprogramme aufgerufen werden, immer klein. Sie haben eine Ausdehnung von weniger als 1mm oder 100 Zellen [24]. Das legt nahe, daß die labilen und nur in kleinen Regionen generierbaren Verteilungen von Signal-Molek¨ ulen positions-abh¨angig verschiedene Gene aktivieren. Eine solche Aktivierung soll stattfinden, wenn eine bestimmte Schwelle u ¨berschritten ist und sie soll stabil bleiben k¨onnen, auch wenn das Signal in den sp¨ ateren Stadien nicht mehr verf¨ ugbar ist. Eine einfache Reaktion, die ein solches Ged¨achtnis f¨ ur einmal gesehene Signale hat, besteht aus einem Stoff, der eine positive, nichtlineare und bei hohen Konzentrationen begrenzte R¨ uckwirkung auf seine eigene Produktion hat. Eine
152
H. Meinhardt
Abb. 4. Nichtlineare autokatalytische Genaktivierung als biochemischer Schalter (a) Eine Wechselwirkung wie in Gleichung (3) wiedergegeben, f¨ uhrt zu einem niedrigem und zu einem hohen stabilen Zustand (∂g/∂t = 0;). Ein externes Signal (m > 0) l¨ aßt den niedrigen Zustand instabil werden. (b) Eine gradierte Verteilung des Signals m f¨ uhrt zu einer scharf abgegrenzten Genaktivierung in einem Teilbereich wenn immer das Signal eine bestimmte Schwelle u ¨berschreitet
biologische Realisierung kann aus einem Gen bestehen, dessen Genprodukt einen aktivierenden Einfluß auf das eigene Gen hat. Die folgende Gleichung gibt ein Beispiel [9]: cg 2 ∂g = − µg + m (3) ∂t 1 + κg 2 Wenn kein ¨ außeres Signal vorhanden ist, d.h., wenn m = 0, so u ¨berwiegt bei niedrigen Konzentrationen der lineare Zerfallsterm, −µg. Die Konzentrations¨ anderung des Genproduktes ist negativ und das System kehrt zu einer sehr niedrigen Konzentration zur¨ uck (Abb. 4a). Bei h¨oheren Konzentrationen u ¨berwiegt dagegen die nichtlineare Autoregulation, die Konzentrations¨anderung bleibt positiv bis ein oberer Gleichgewichtspunkt erreicht ist. Durch ein externes stimulierendes Signal m kann die Produktionsrate soweit erh¨oht werden, daß der Zustand bei kleiner Konzentration instabil wird. Das System springt in den hohen Zustand. Da dieser Zustand auch ohne externes Signal stabil ist, verbleibt das System in diesem Zustand, auch wenn das Signal nicht mehr vorhanden ist. Abbildung 4b zeigt eine Simulation, in der eine gradierte Verteilung angenommen wurde. Alle Zellen, die einer Mindestkonzentration des Signals ausgesetzt sind, schalten irreversibel in den aktivierten Zustand um. Unter dem Einfluß einer gradierten Verteilung werden h¨aufig aber mehr als ¨ nur ein Gen in positions-abh¨angiger Weise aktiviert. F¨ ur eine Uberlegung, welche Wechselwirkungen daf¨ ur notwendig sind, ist es hilfreich, sich klar zu machen, daß Gen-Aktivierung und r¨aumliche Musterbildung formale Aspekte gemeinsam haben. In der r¨ aumlichen Musterbildung sollen z.B. die Zellen in einer kleinen Region aktiviert werden, die u ¨brigen Zellen aber nicht. Bei der Gen-Aktivierung soll z.B. das Gen C in einer Zelle aktiviert werden, die alternativ in dieser Entwicklungs-Situation m¨ oglichen Gene A, B und D aber nicht. Gen-Aktivierung erfordert also eine Musterbildung zwischen alternativen Genen. In einer entsprechenden Theorie habe ich postuliert, daß eine stabile Gen-Aktivierung durch eine direkte oder indirekte R¨ uckwirkung eines Genprodukts auf die Aktivierung des eigenen Genes erreicht wird [10] [16]. Heute sind viele Beispiele f¨ ur eine solche
Biologische Musterbildung
153
Abb. 5. Gen-Aktivierung und ‘Bef¨ orderung’. Die Bildung stabiler Determinationen von Zellen erfordert eine R¨ uckkopplung von Genen auf ihre eigene Aktivierung sowie eine Kompetition zwischen alternativen Genen. Das hat zur Folge, daß nur eines der alternativen Gene aktiviert sein kann. Gezeigt sind Stadien einer ortsabh¨ angigen GenAktivierung unter dem Einfluß eines Morphogen-Gradienten (jeweils ganz oben). (a) Von einem Grundzustand (Gen 1) werden weitere Gene (Gen 2, 3...) aktiviert. (b) Zwischenzustand: Jeder Schritt erfordert eine h¨ ohere Konzentration des Signal-Molek¨ uls. (c) Endzustand: durch die Kompetition entstehen scharfe Grenzen zwischen den Bereichen, in denen ein bestimmtes Gen aktiviert ist. (d) Eine einmal erreichte Aufteilung bleibt durch die Selbstaktivierung auch dann erhalten, auch wenn das Signalmolek¨ ul verschwindet. Die Stufenkurve oben in jeder Darstellung ist ein Maß f¨ ur die Kompetition zwischen den alternativen Genen. Sie erh¨ oht sich mit jeder ‘Bef¨ orderung’ von einem Gen zum n¨ achsten und wird benutzt, um je nach lokaler Konzentration diese Bef¨ orderung fr¨ uher oder sp¨ ater zu beenden
positive Autoregulation bekannt. Das Gen Deformed in Drosophila [7] ist eines der vielen Beispiele. F¨ ur die positions-abh¨ angige Aktivierung mehrerer Gene unter dem Einfluß einer gradierten Konzentrationsverteilung ist eine Art Analog-Digital-Konvertierung notwendig. Eine Analyse von Experimenten mit fr¨ uhen Insekten-Embryonen ergab, daß die Messung einer bestimmten Konzentration nicht ein einmaliges Ereignis ist, sondern daß die Determination der Zellen schrittweise ge¨andert wird, bis die erreichte Determination der lokalen Morphogenkonzentration entspricht.
154
H. Meinhardt
Die Zellen werden sozusagen ‘bef¨ordert’; wie weit, bestimmt die lokale Konzentration des Morphogens (Abb. 5). Jeder dieser Schritte ist irreversibel. Durch die Selbst-Aktivierung der Gene bleibt das System auch dann stabil, wenn das Signal nicht mehr vorhanden ist. Eine Analogie soll den Vorgang anschaulicher machen: Nehmen wir ein Holzst¨ uck an, daß am Fuße einer Kellertreppe liegt. ¨ Durch eine Uberschwemmung kann es auf eine h¨ohere Stufe gehoben werden, auf der es dann liegen bleibt, auch wenn die Flut wieder abl¨auft. Diese Stufe ist ein Maß f¨ ur den h¨ ochsten Wasserstand. Eine sp¨atere noch h¨ohere Flut kann das St¨ uck noch um weitere Stufen hochsetzen, eine sp¨atere niedrigere Flut ist aber ohne Einfluß auf ein schon h¨oher liegendes Holzst¨ uck. Der Grund f¨ ur diese Art der Regelung ist leicht zu verstehen. Wenn eine gradierte Verteilung durch eine lokale Quelle und Diffusion aufgebaut wird, dann f¨ uhrt jedes Wachstum zu einer Vergr¨oßerung des Abstandes einer Zelle von der Quelle und damit zu einer Erniedrigung der lokalen Konzentration. Wenn nun eine einmal erreichte Gen-Aktivierung stabil gegen¨ uber einer Erniedrigung der Signalkonzentration ist, dann bleibt eine einmal erreichte Aufteilung erhalten.
6
Segmentierung und Muster innerhalb von Segmenten
Viele h¨ oher entwickelte Lebewesen zeigen in ihrem Bauplan eine periodische Aneinanderreihung von bestimmten Strukturen. Eine solche Segmentierung ist bei Insekten besonders ausgepr¨agt und kann sowohl entlang der Achse Kopf-Schwanz als auch bei K¨ orperanh¨ angen wie Beinen und Antennen auftreten. Die Segmente m¨ ussen nicht identisch sein. W¨ahrend z.B. bei einem Regenwurm die Segmente ¨ außerlich eine große Ahnlichkeit haben, sind diese bei Insekten sehr verschie¨ den. Z.B. tr¨ agt bei zweifl¨ ugeligen Insekten nur das zweite Thorax-Segment ein Fl¨ ugelpaar. Innerhalb von Segmenten sind an bestimmten Stellen bestimmte Strukturen zu erkennen. Durch operative Eingriffe, bei denen Gewebe aus verschiedenen Teilen eines Segments miteinander konfrontiert wurde, konnte man wichtige Informationen erhalten, wie die Muster innerhalb eines Segments reguliert werden. Dabei hat sich gezeigt, daß durch regulative Prozesse nicht die nat¨ urliche Struktur sondern die korrekte Nachbarschaft wiederhergestellt wird. Experimente, die Bohn [1] an Beinen von K¨ uchenschaben gemacht hat, sind daf¨ ur ein Beispiel. Bezeichnen wir die normalen Strukturen eines Segmentes willk¨ urlich mit 123456789, so kann man einen Typ von Transplantationen wie folgt beschreiben. Ein Bein wird in einem bestimmten Segment (T ibia) an einer distalen Stelle amputiert (Abb. 6a). Es bleibt ein Stumpf 12345678. Bei einem zweiten Tier wird im gleichen Segment der Schnitt an einer mehr k¨orper-nahen Stelle ausgef¨ uhrt. An dem abgeschnittenen Bein verbleibt von dem Tibia-Segment die Struktur 456789. Transplantiert man dieses Gewebe auf den Stumpf, so erh¨alt man zun¨achst eine Struktur 12345678/456789, d.h., es tritt eine Konfrontation zwischen Strukturen auf, die normalerweise keine Nachbarn sind (8/4). Das l¨ost eine Regulation aus. Obwohl das Segment durch die Transplantation u ¨berz¨ahliger Teile zu groß geworden ist, wird es noch gr¨ oßer: es bildet sich eine Struktur 12345678765456789. Mit anderen Worten, es werden genau die Strukturen eingesetzt, die notwendig
Biologische Musterbildung
155
Abb. 6. (a) Experimenteller Hinweis auf eine Regelung der Nachbarschaft: Experimente mit Beinen der K¨ uchenschabe [1]: Schneidet man ein Bein an einer mehr distalen Stelle ab und setzt daran eine Beinspitze, die mehr proximal abgeschnitten wurde, so wird nicht etwa das u ahlige Gewebe zur¨ uckgebildet, sondern es wird neues Gewe¨berz¨ be durch intercalare Regeneration gebildet (Reg), bis die Diskontinuit¨ at ausgeglichen ist. Offenbar wird nicht die normale Struktur, sondern die normale Nachbarschaft von Zellzust¨ anden reguliert. (b) Vorgeschlagenes Reakionsschema: Zellzust¨ ande aktivieren sich gegenseitig langreichweitig, schließen sich aber lokal aus. (c) Simulation: w¨ ahrend des Wachstums werden nacheinander R¨ uckkoppelkreise (Gene) aktiviert, die f¨ ur benachbarte Strukturen verantwortlich sind. (d) Nach einer St¨ orung wie in (a) wird die Diskontinuit¨ at beseitigt [17]
156
H. Meinhardt
sind um eine korrekte Nachbarschaft wiederherzustellen. Offenbar ist der Regelmechanismus nicht so ausgelegt, daß in jedem Fall die nat¨ urliche Struktur wieder hergestellt wird, sondern so, daß nur legale Nachbarn nebeneinander erlaubt sind. Um das zu erreichen, mußten im vorliegenden Experiment daf¨ ur die Elemente 765 mit umgekehrter Polarit¨at eingesetzt werden, was an der Umkehrung der Z¨ ahnchen in dem neu gebildeten Gewebe (Reg in Abb. 6) gut zu erkennen ist. Wenn also eine Konfrontation von Strukturelementen, die normalerweise keine Nachbarn sind, auftritt, so werden so lange neue Elemente eingesetzt, bis die Nachbarschaft wieder in Ordnung ist (diese Regel gilt aber nur f¨ ur die Muster innerhalb eines Segmentes; die Reihenfolge der Segmente wird vermutlich durch einen Mechanismus wie in Abb. 5 dargestellt, erreicht). Eine Situation wie in Abb. 6 beschrieben, tritt unter nat¨ urlichen Umst¨anden nie auf. Die beobachtete Regulationsf¨ahigkeit muß also einen anderen Grund haben. Vermutlich werden in der normalen Entwicklung zun¨achst erst wenige Strukturen angelegt (z.B. 149 im obigen Beispiel) und die fehlenden Strukturen werden dann im Lauf der Entwicklung erg¨anzt. Beobachtungen wie in Abb. 6a gezeigt wurden bisher meist durch Annahme von Gradienten zu erkl¨ arten versucht, die innerhalb eines Segmentes einen monotonen Verlauf haben und an der Segmentgrenze einen Sprung aufweisen. Diese Gradienten h¨ atten also die Form von S¨agez¨ahnen. Damit kann man aber nicht die Polarit¨ atsumkehr verstehen, denn z.B. wenn an der vorderen Segmentgrenze eine Senke, an der hinteren eine Quelle f¨ ur eine Substanz angelegt w¨are, so m¨ ußte nach einer Operation wie sie in Abb. 6 gezeigt ist, die normale Polarit¨at der Gradienten wiederhergestellt werden.
7
Kontrollierte Nachbarschaft: Zellzust¨ ande, die sich lokal ausschließen und sich langreichweitig aktivieren
Da die Polari¨ atsumkehr bei Transplantationen wie in Abb. 6 gezeigt, nicht durch Gradienten zu erkl¨ aren war, haben wir vorgeschlagen, daß Segmente durch eine wiederholte Abfolge von diskreten Zellzust¨anden gebildet werden [17]. Wie oben gezeigt wurde (Abb. 5), entstehen stabile Zellzust¨ande wenn Gene eine positive R¨ uckwirkung auf ihre eigenen Aktivierung haben und wenn durch eine gegenseitige Kompetition innerhalb einer Zelle nur eines der alternativen Zellzust¨ande stabil ist. Um sicherzustellen, daß die richtigen Zellzust¨ande nebeneinander gebildet werden, ist eine gegenseitige langreichweitige Stabilisierung notwendig. Ein solches Reaktions-Schema (Abb. 6b) mag sehr kompliziert erscheinen, aber die theoretischen Voraussagen wurden durch neuere Experimente voll best¨atigt. Bei der Segmentierung von Drosophila sind zwei benachbarte Zellzust¨ande durch die Aktivit¨ at des Gens engrailed (en) bzw. wingless (wg) ausgezeichnet; en ist, wie vorausgesagt, autokatalytisch und es unterdr¨ uckt lokal die Bildung von wg. Langreichweitig unterst¨ utzt en jedoch den wg-Zustand durch die diffusible Substanz hedgehog (hh). Unter der Annahme mehrerer solcher miteinander verketteter Zellzust¨ ande kann man auch die Polarit¨atsumkehr, wie sie im Experiment Abb. 6a beobachtet wurde, richtig beschreiben (Abb. 6d). Von der Drosophila weiß man, daß die Zellen, in denen die Gene engrailed oder wingless aktiviert
Biologische Musterbildung
157
sind, eine streifenartige Anordnung haben. F¨ ur den Vergleich mit den biologischen Systemen ist daher wichtig, daß der beschriebene Mechanismus auch eine Streifenbildung erlaubt. Bei Streifen ist jede Zelle eines Typs dicht benachbart zu Zellen des anderen Typs, der f¨ ur die gegenseitige Stabilisierung notwendig ist. Damit eine repetitive Abfolge von Zellzust¨anden eine Polarit¨at hat, sind mindestens drei Zellzust¨ ande notwendig: Eine Reihenfolge ...ABCABCABC... hat eine Polarit¨ at, und z.B. die Konfrontation C/A k¨onnte jeweils zur Ausbildung einer Segmentgrenze f¨ uhren. Dagegen hat eine Sequenz von nur zwei Zellzust¨anden ...ABABAB.... keine Polarit¨at, eine A/B Konfrontation w¨are von einer B/A Konfrontation nicht zu unterscheiden. Die Untersuchung der Expressionsmuster der Gene engrailed und wingless legen nahe, daß zu Anfang der DrosophilaEntwicklung eine Wiederholung von vier verschiedenen Zellzust¨anden angelegt wird (siehe [6]).
8
Anlage der Gliedmaßen: Bildung neuer Strukturen an den Grenzen verschiedener Gen-Aktivit¨ aten
Die Komplexit¨ at eines h¨ oheren Organismus ist viel gr¨oßer, als daß sie durch zwei orthogonale Gradienten erreicht werden k¨onnte. Experimentell hat sich gezeigt, daß Unterstrukturen wie Arme, Beine und Fl¨ ugel ihr eigenes Koordinaten-System haben. Im Axolotl (ein mexikanischer H¨ohlen-Molch) kann man zum Beispiel von einem bestimmten Stadium an die Region, die den Arm machen wird (der aber zu diesem Zeitpunkt noch nicht sichtbar ist), auf die Kopf-Kapsel transplantieren, und der vollst¨andige Arm entwicklt sich dort [20]. Die klassische Vorstellung f¨ ur solche sekund¨aren embryonalen Felder wurde wesentlich durch den amerikanischen Zoologen R. G. Harrison zu Beginn der zwanziger Jahre gepr¨ agt. Er nahm an, daß die Zellen, die sp¨ater ein Bein bilden sollen, in einem ersten Schritt von anderen Zellen abgegrenzt und verschieden werden. Zu diesem Zeitpunkt wird ein solches ‘Beinfeld’ als noch ohne innere Struktur angenommen. Erst in sp¨ateren Schritten soll die Differenzierung innerhalb des Beinfeldes erfolgen, d.h. anteriore und posteriore sowie dorsale und ventrale Zellen werden voneinander verschieden. Versuche, entsprechende Modelle zu entwerfen, haben aber zu inneren Widerspr¨ uchen gef¨ uhrt oder erforderten molekular unrealistische Annahmen. Aus diesem Grunde habe ich vorgeschlagen, daß sekund¨are Strukturen um existierende Grenzen angelegt werden [12] [13]. Nehmen wir an, daß durch die prim¨are Unterteilung eine Reihe von scharf voneinander abgegrenzten Regionen gebildet wurden, darunter auch die benachbarten Regionen P (posterior) und A (anterior) (siehe Abb. 5). Wenn ein Molek¨ ul m nur durch eine Kooperation der Aund der P-Zellen produziert werden kann, so ist die Produktion nur an der P/AGrenze m¨ oglich. Wenn z.B. in einem Bereich nur die Vorl¨aufer-Molek¨ ule und im anderen nur das Endprodukt m synthetisiert werden kann, so sind nur in einem Grenzbereich beide Voraussetzungen erf¨ ullt, das Vorhandensein der Vorl¨auferMolek¨ ule und die F¨ ahigkeit, das Endprodukt herzustellen. Diffundiert dieses Molek¨ ul in die Umgebung, so ist die sich einstellende lokale m-Konzentration ein Maß f¨ ur die Entfernung von der P/A-Grenze (Abb. 7a). Obwohl das Signal
158
H. Meinhardt
Abb. 7. Modell zur Bildung einer Bein-Anlage. (a) Wenn zwei verschieden determinierte Regionen (A und P) zusammenarbeiten m¨ ussen, um eine neue Substanz zu produzieren, so kann deren Produktion nur an der gemeinsamen Grenze stattfinden. Die lokale Konzentration ist ein Maß f¨ ur die Entfernung von der Grenze. (b) Wenn die Kooperation von zwei Paaren von differenzierten Zellen (A/P und D/V) erforderlich ist, so entstehen die Organisator-Regionen an den Schnittpunkten der beiden Grenzen. In einem zylindrischen Embryo entstehen diese immer in Paaren, eines auf der linken, das andere auf der rechten Seite. (c) Lage des Bein-Feldes im Embryo. Die Finger entstehen entlang der D/V-Grenze, der Fingertyp ist von der Entfernung zur A/P-Grenze abh¨ angig. (d-f) Erkl¨ arung der Experimente von Harrison [5] und Slack [20]. (d) normale Situation: nur der Gradient in der A-Region wird verwendet. (e) Transplantation von polarisierendem Gewebe (P) vor die kompetente A-Region: es entsteht ein symmetrischer Gradient und damit ein symmetrischer Arm. (f) Bildung eines u ahligen ¨berz¨ (linken) Beines nach Transplantation von (rechtem) Gewebe an eine mehr posterior (weiter hinten) gelegene Stelle. Nach dem Modell entsteht durch die Transplantation einer A-Region hinter eine P-Region ein zweiter A/P Schnittpunkt und damit ein zweiter Gradient in einer A-Region. Er hat eine umgekehrte A/P, aber gleiche D/VPolarit¨ at. Bei einer Operation auf der rechten Seite hat das zus¨ atzliche Bein also die Struktur eines linken Beines (nach [11] [12]). Das Modell kann inzwischen als gesichert gelten [8]
Biologische Musterbildung
159
symmetrisch ist, kann die entstehende Struktur asymmetrisch sein, denn die Aund die P-Zellen k¨ onnen sehr verschieden auf das Signal reagieren (I-IV bzw. 4-1). Besonders ausgepr¨ agt ist dieses in der Arm- oder Fl¨ ugelbildung bei Vertebraten, wo nur die A-Zellen auf das Signal reagieren. Die Abfolge unserer Finger vom kleinen Finger bis zum Daumen entsteht durch die wachsende Distanz von einer solchen prim¨ aren Grenze. In der Maus sind Gene, die zu der Bildung einer solchen Grenze an dieser Stelle f¨ uhren, bekannt [19]. Harrison [5] und Slack [20] haben Gewebe, von dem sie wußten, das es sp¨ater einen Arm bilden w¨ urde, in eine mehr schwanznahe Position eines anderen Tieres verpflanzt. Das Ergebnis war ein zus¨atzliches Bein mit umgekehrter Orientierung (Abb. 7e). F¨ ur Harrison war das Ergebnis sehr unerwartet. Warum sollte sich bei einer reinen Verschiebung von Gewebe dessen Polarit¨at ¨andern? Damals diente der Magnet oft als Analogie f¨ ur die Ausbildung polarer Strukturen (einen Magneten kann man auch in zwei Teile teilen und jeder Teil ‘regeneriert’ den fehlenden Pol, wobei die Polarit¨ at erhalten bleibt). Die von Harrison und Slack gemachten Beobachtungen werden dagegen durch die Annahme einer Organisation um existierende Grenzen zwanglos erkl¨art (Abb. 7) Eine solche A/P-Grenze umspannt einen (zylinderf¨ormigen) Embryo wie ein G¨ urtel. Um z.B. die Lage eines Bein-Paares entlang einer solchen Grenze zu bestimmen, ist ein Schnittpunkt mit einer zweiten Grenze notwendig, die eine R¨ ucken- gegen eine Bauch-Region abgrenzt (d.h. eine dorsoventrale Grenze, D/V). Solche A/P- und D/V-Schnittpunkte treten notwendiger Weise immer in Paaren auf, einer auf der linken und einer auf der rechten Seite des Organismus (Abb. 7b). Beide haben entgegengesetzte H¨andigkeit. Ein Arm vom linken Typus entsteht auf der linken K¨ orperseite nicht, weil dort z.B. ein Gen ‘links’ aktiviert worden ist. Um einen Schnittpunkt von zwei (orthogonalen) Grenzen entstehen vier Quadranten. Ihre Anordnung hat einen Drehsinn. Beim linken Bein ist die Reihenfolge der Quadranten AD, AV, PV und PD gegen den Uhrzeiger-Sinn angeordnet, bei dem rechten Bein folgt deren Anordnung dem Uhrzeigersinn. Damit erkl¨ art das Model die paarige Anlage der Extremit¨aten und ihre Symmetrie. Im Gegensatz zum klassischen Model ist bei dem Anlegen einer neuen Struktur um eine Grenze nie ein strukturloser Zustand vorhanden, der dann organisiert werden muß. Das Model hat in der Zwischenzeit viel Unterst¨ utzung von molekular-genetischer Seite erfahren [15] [8] [23].
9
Die Bildung netzartiger Strukturen
Das bisher Gesagte k¨ onnte den Eindruck erwecken, daß die Entwicklung eines Organismus bis in alle Details durch die Gene festgelegt ist. Das ist aber sicher nicht der Fall. Die Adern der Bl¨atter einer Pflanze sind alle etwas unterschiedlich angeordnet, obwohl sie nat¨ urlich unter dem Einfluß der gleichen genetischen Information gebildet wurden. Solche filamentartigen verzweigten Strukturen sind Bestandteil wichtiger Organe in allen h¨ oheren Organismen. Blutgef¨aße, Lymphgef¨aße, Tracheen oder Nierentubuli sind Beispiele. Sie dienen zur Versorgung oder Drainage des Gewebes. Der f¨ ur die Netzbildung vorgeschlagene Mechanismus beruht auf folgender Idee
160
H. Meinhardt
[9] [11] [16]: Ein lokales Signal (generiert z.B. durch ein Aktivator-InhibitorSystem) bewirkt eine lokale Differenzierung in einen zum Netzwerk geh¨orenden Zelltyp. Hat sich aber eine Zelle unter dem Einfluß dieses Signals differenziert, so wird das Signal unterdr¨ uckt. Damit sinkt auch die Produktion des Inhibitors und das Signal wird in einer Nachbarzelle neu aufgebaut, die sich nun ebenfalls differenziert. Das Verschieben des Signals soll in eine Richtung erfolgen, wo Zellen noch nicht gen¨ ugend durch Adern versorgt sind. Das kann auf folgende Weise erreicht werden: Eine differenzierte Zelle in einem Netz hat eine Aufgabe; sie soll z.B. ein Substrat aus dem Gewebe entfernen. So bildet sich um eine differenzierte Zelle eine Zone verminderter Substratkonzentration. Ist die Aktivatorproduktion von diesem Substrat abh¨ angig, wird sich das Aktivator-Maximum in Richtung der h¨ ochsten Substratkonzentration verschieben, also genau in die Richtung, in der noch Adern gebraucht werden. Lange Filamente von differenzierten Zellen entstehen gleichsam als Spur hinter dem wandernden Aktivator-Maximum. Sind die Wachstumspunkte – in ihnen wird Inhibitor ausgesch¨ uttet – weit genug voneinander entfernt, k¨onnen neue Maxima entlang existierender Filamente entstehen, die wiederum von den differenzierten Zellen wegstreben. Das f¨ uhrt zu Verzweigungen (Abb. 8) . Das Pflanzen-Hormon Auxin ist ein Kandidat f¨ ur eine Substanz, die die Adern-Bildung in Bl¨attern steuert. Es wird aus den Bl¨attern u ¨ber das Leitungs-System in die Wurzel transportiert. Das Beispiel zeigt, daß nicht die Details dieser komplexen Strukturen festgelegt sein m¨ ussen, sondern das Bildungsprinzip: Entstehung einer ‘Ader’ hinter einem wandernden Maximum und die Bildung von Abzweigungen, wenn die Zwischenr¨ aume zwischen den Adern noch zu groß sind. Dabei spielen auch statistische Schwankungen eine Rolle. In der Simulation bleibt es zum Beispiel dem
Abb. 8. Modell zur Bildung einer netzartigen Struktur. Hohe Aktivatorkonzentrationen l¨ osen eine Differenzierung der betroffenen Zellen aus. Die differenzierten Zellen (Quadrate) entfernen ein Substrat, was f¨ ur die Aktivatorproduktion gebraucht wird. Dadurch wird das Signal lokal destabilisiert und in eine Nachbarzelle verschoben, die sich ebenfalls differenziert, usw. Lange Ketten differenzierter Zellen bilden sich hinter wandernden Aktivator-Maxima. In der Rechnung wurde oben im Feld eine verst¨ arkte ¨ Substratproduktion angenommen, was zu einer dichteren Aderung f¨ uhrt. In der Mitte (graues Feld) wurde dagegen eine erh¨ ohte Inhibitorproduktion angenommen. Dadurch wird schon bei geringerer Dichte eine weitere Verl¨ angerung oder ein Verzweigen der Filamente unterdr¨ uckt. Solche Manipulationen der Aderndichte lassen sich mit Stoffen erreichen, die aus Tumoren bzw. aus Knorpelgewebe isoliert wurden [3]
Biologische Musterbildung
161
Zufall u ¨berlassen, ob die erste Abzweigung nach links oder rechts erfolgt. Diese Details brauchen nicht genetisch determiniert zu sein. Sie sind f¨ ur den Organismus unwichtig. Wichtig ist, daß jede Zelle durch eine nahegelegene Ader versorgt wird. Eine einmal eingetretene Differenzierung hat aber einen großen Einfluß auf die weitere Entwicklung. Darum f¨ uhren minimale Unterschiede in den Zellen zu der Verschiedenheit der entstehenden Strukturen im Detail. Auch bei eineiigen Zwillingen ist das im Augenhintergrund sichtbare Muster der Blutgef¨aße trotz gleicher Erbinformation sehr verschieden. Wenn aber f¨ ur den Organismus die Details einer Struktur wichtig sind, so ist das f¨ ur die Biologie kein un¨ uberwindliches Hindernis. Z.B. sind die Fl¨ ugelvenen in jeder Drosophila-Fliege identisch. Das ist notwendig, da diese f¨ ur die Aerodynamik optimiert sind. In diesem Fall wird durch eine Vielzahl von beteiligten Genen ein genaues Koordinaten-System angelegt, die eine eindeutige Instruktion der Zellen erm¨ oglichen [21].
10
Die Bildung von Pigmentmustern auf Schnecken- und Muschelschalen
Die Adern waren ein Beispiel f¨ ur ein nicht vollst¨andig determiniertes Muster. Noch offensichtlicher ist das bei den Farbmustern auf Schalen tropischer Meeresschnecken. Auch innerhalb der gleichen Species gleicht kein Muster genau dem eines anderen Tieres. Diese Muster k¨onnen aus Linien bestehen, die parallel, senkrecht oder schr¨ ag zur Richtung des Schalenwachstums angeordnet sind. Sie k¨ onnen sich verzweigen, kreuzen oder zu Punktreihen aufgel¨ost sein. Es war ¨ f¨ ur uns eine Uberraschung, daß diese Muster auch durch Wechselwirkungen des oben genannten Typs - Selbstverst¨arkung und antagonistische Reaktion - simuliert werden k¨ onnten [18]. Wie k¨onnen Muster, die so verschieden aussehen, auf dem gleichen Prinzip beruhen? Um die Bildung dieser Muster auf den Geh¨ausen von Schnecken oder Muscheln zu verstehen, muß man sich zun¨achst vor Augen halten, daß sie in einer besonderen Weise entstehen. Die Schale kann naturgem¨aß nur durch Anlage von Material an der ¨ außersten Kante vergr¨oßert werden; das Geh¨ause selbst ist starr. In der Regel findet nur in dieser Wachstumsregion Pigmenteinbau statt. Die Muster sind also eine zeitliche ‘Aufzeichnung’ von Prozessen, die an der wachsenden Kante stattgefunden haben. Denken wir uns eine Schale flach ausgebreitet, so bedeutet eine Achse die Position entlang der Kante, die andere die Zeit-Koordinate. Es kann hier nur beispielhaft eine Erkl¨arung f¨ ur die Entstehung von einem bestimmten Schalenmuster gegeben werden. Abbildung 9 zeigt zwei Schalen der Schnecke Oliva porphyria. Man sieht Linien ungef¨ahr diagonal zur Wachstumsrichtung, die sich h¨ aufig verzweigen. An einer Verzweigung bildet sich eine neue, ebenfalls diagonal verlaufenden Linie, die aber die umgekehrte Orientierung hat. Wie entstehen diagonale Linien? Offenbar lagern kleine Gruppen von Zellen jeweils nur f¨ ur eine kurze Zeitspanne Pigment ein. Etwas verz¨ogert beginnt eine benachbarte Zelle, ebenfalls nur f¨ ur kurze Zeit, mit Pigmenteinlagerung usw. Unmittelbar nach einer Pigmenteinlagerung sind die Zellen jedoch f¨ ur eine bestimm-
162
H. Meinhardt
te Zeit ‘immun’ gegen eine weitere Infektion. Nach dem oben beschriebenen Aktivator-Inhibitor Modell entstehen solche Wanderwellen wenn der Aktivator diffundiert und k¨ urzer lebt als der Inhibitor und der Inhibitor nicht diffundiert. Im Vergleich zur oben beschriebenen Bildung stabiler Muster (Abb. 2 und 3) haben die Parameter gerade die umgegehrten Eigenschaften. Durch den diffundierenden autokatalytischen Aktivator entsteht die Infektiosit¨at. Durch die auf die Aktivierung folgende Produktion des Inhibitors und seines langsameren Abbaues wird die Aktivierung nach kurzer Zeit wieder unterdr¨ uckt, und es entsteht die refrakt¨ are Phase. Nach dem Abbau des Inhibitors ist wieder eine erneute Autokatalyse m¨ oglich. Das System verh¨alt sich so, als ob die Pigmentproduktion ein ansteckender Prozeß sei, wie man es von einer Grippe-Welle her kennt (eine Grippe-Welle entsteht auch durch die Kopplung eines sich selbst-verst¨arkenden und eines antagonistischen Prozesses. Die Viren sind selbst-vermehrend. Deshalb gen¨ ugen wenige Viren, um uns krank zu machen. Aber die Viren l¨osen auch eine Immun-Reaktion aus, die das Abt¨oten der Viren bewirkt). Die kurzen, in Nachbarzellen aufeinander folgenden Phasen von Pigmentproduktion f¨ uhren in der zeitlichen Aufzeichnung zu den schr¨agen Linien. Die Neigung der Linien ergibt sich aus dem Verh¨ altnis von Wachstumsgeschwindigkeit der Schale und der Geschwindigkeit der Infektions-Welle. Wenn eine Zelle spontan aktiviert wird, k¨ onnen beide Nachbarzellen angesteckt werden, denn keine Zelle ist im Zustand der Immunit¨ at. Eine solche Zelle wird zum Ausgangspunkt von zwei Linien mit entgegengesetzter Neigung. Wenn zwei Wellen aufeinander treffen, sind alle infrage kommenden Zellen immun, und die Wellen l¨oschen sich gegenseitig aus (V-artiges Musterelement). Wodurch entstehen aber Verzweigungen? Da sich zwei ineinanderlaufende Wellen gegenseitig ausl¨ oschen, wird die Zahl der Wellen, die entlang der Wachstumskante laufen, immer kleiner; es sei denn, ein separater Mechanismus sorgt f¨ ur die Bildung neuer Wellen. Ein solcher Mechanismus ist die Bildung von Verzweigungen, wie es in Oliva porphyria offenbar realisiert ist. Eine Verzweigung zeugt von einer Welle, die sich in eine normal weiterlaufende Welle und in eine r¨ uckw¨ artslaufende Welle aufgespalten hat. Das geschieht, wenn eine Zelle so lange aktiviert bleibt, bis die refrakt¨are Phase ihrer Nachbarzelle vor¨ uber ist und diese also wieder angesteckt werden kann. In der Simulation Abb. 9 wurde angenommen, daß jede Wanderwelle zur Produktion einer hormonartigen Substanz beitr¨ agt, die den Abbau des Inhibitors blockiert. Mit abnehmender Anzahl der Wanderwellen wird also auch die Hormonkonzentration immer kleiner und damit die Lebensdauer des Inhibitors immer k¨ urzer, bis sich die Inhibitorkonzentration so schnell auf eine ver¨anderte Aktivatorkonzentration einstellt, daß die puls-artige Aktivierung zugunsten einer permanenten Aktivierung aufgegeben wird. Wenn die Zahl der Wanderwellen und damit die Hormonkonzentration einen bestimmten Wert unterschreitet, bleiben die neu aktivierten Zellen so lange aktiv bis R¨ uckw¨ artswellen initiiert worden sind. Damit steigt die Hormonkonzentration wieder an, es tritt wieder eine pulsartige Aktivierung auf und normale Wanderwellen werden wieder gebildet. In der zeitlichen Aufzeichnung auf der Schale f¨ uhrt dieser Prozeß zu einer Verzweigung.
Biologische Musterbildung
163
Abb. 9. Pigmentmuster auf Geh¨ ausen der Schnecke Oliva porphyria und Simulation. Die schr¨ agen Linien werden durch Pigment-ausl¨ osende Wanderwellen erzeugt. Abzweigungen sind m¨ oglich, wenn die Zahl der Wellen, d.h., die Zahl der Linien zu einem bestimmten Zeitpunkt, zu gering geworden ist. Die Regelung erfolgt u ¨ber ein Hormon. Regionen mit dichter Linienbildung k¨ onnen entstehen, wenn durch Zufall große nicht-pigmentierte Regionen entstanden sind [18] [16]
Soweit dieses Beispiel. Eine Vielzahl solcher Schalenmuster l¨aßt sich mit kleinen Ver¨ anderungen dieses Prinzips deuten und durch Computersimulationen reproduzieren. Komplizierte Muster deuten auf zwei miteinander wechselwirkende Systeme hin. Dabei ist nur ein System sichtbar, das zweite System modifiziert die Parameter des ersten. Die Modelle machen den Reichtum an Mustern auf Schnecken- und Muschelschalen verst¨andlich. Weil diese Muster offenbar keinem starken selektiven Druck ausgesetzt waren, konnte diese Vielzahl von Mustern gebildet werden. Da die gesamte r¨aumlich-zeitliche Entwicklung im Muster konserviert ist, sind sie ein wunderbares Bilderbuch der Natur, um dynamische Systeme zu studieren. Ein Buch mit vielen solchen Simulationen ist k¨ urzlich erschienen [16]. Es enth¨ alt auch eine Programm-Diskette, mit der die Simulationen auf einem PC wiederholt und ver¨andert werden k¨onnen.
164
11
H. Meinhardt
Schlußbetrachtung
Sich selbst verst¨ arkende Reaktionen, die mit antagonistischen Reaktionen gekoppelt sind, k¨ onnen eine Vielzahl von Mustern bilden. Breitet sich die antagonistische Reaktion schnell aus und hat sie eine kurze Zeit-Konstante, so bilden sich stabile Muster im Raum. Selbst nach einer St¨orung kann das normale Muster wieder gebildet werden - eine Stabilit¨at, die f¨ ur sich entwickelnde Organismen sehr wichtig ist. Hat dagegen die antagonistische Reaktion eine lange Zeitkonstante, so treten Oszillationen auf. Wenn, wie bei der Pigment-Bildung auf den Schalen tropischer Meeres-Schnecken, eine Vielzahl solcher Oszillatoren gekoppelt sind, so kann chaotisches Verhalten stattfinden, mit der Folge, daß alle Muster voneinander verschieden sind. Ob also robuste Muster gebildet werden, oder solche, die auf kleine Variationen ¨außerst empfindlich reagieren, ist nicht eine Frage der Wechselwirkung, sondern eine Frage der Lebensdauern und der Ausbreitung der beteiligten Stoffe. Die Natur macht bei passender Gelegenheit von allen diesen M¨ oglichkeiten Gebrauch. Danksagung: Viele dieser Modelle sind in einer f¨ ur mich sehr sch¨onen Zusammenarbeit mit Alfred Gierer entstanden, f¨ ur die ich mich hier herzlich bedanken m¨ ochte. Das Max-Planck-Institut f¨ ur Entwicklungsbiologie hat mir u ¨ber viele Jahre hinweg optimale Arbeitsm¨oglichkeiten bereitgestellt.
Literatur 1. Bohn, H. (1970) Interkalare Regeneration und segmentale Gradienten bei den Extremit¨ aten von Leucophaea-Larven (Blattari). I. Femur und Tibia. Wilhelm Roux’ Arch. 165, 303–341 2. Driever, W., N¨ usslein-Volhard, C. (1988) The bicoid protein determines position in the Drosophila embryo in a concentration dependent manner. Cell 54, 95–104 3. Folkman, J. (1976) The vascularization of a tumor. Sci. American 234, (MaiAusgabe), 58–73 4. Gierer, A., Meinhardt, H. (1972) A theory of biological pattern formation. Kybernetik 12, 30–39 5. Harrison, R. G. (1918) Experiments on the development of the fore-limb of Amblystoma, a self-differentiating equipotential system. J. exp. Zool. 25, 413–46 6. Ingham, P. W. (1991) Segment polarity genes and cell patterning within the Drosophila body segment. Curr. Op. Gen. and Dev. 1, 261–267 7. Kuziora, M. A., McGinnis, W. (1990) Altering the regulatory targets of the deformed protein in Drosophila embryos by substituting the abdominal-b homeodomain. Mech. Dev. 33, 83–94 8. Martin, G. R. (1995) Why thumbs are up. Nature 374, 410–411 9. Meinhardt, H. (1976) Morphogenesis of lines and nets. Differentiation 6, 117–123 10. Meinhardt, H. (1978) Space-dependent cell determination under the control of a morphogen gradient. J. theor. Biol. 74, 307–321 11. Meinhardt, H. (1982) Models of biological pattern formation. Academic Press, London 12. Meinhardt, H. (1983) A boundary model for pattern formation in vertebrate limbs. J. Embryol. exp. Morphol. 76, 115–137 13. Meinhardt, H. (1983) Cell determination boundaries as organizing regions for secondary embryonic fields. Devl. Biol. 96, 375–385
Biologische Musterbildung
165
14. Meinhardt, H. (1993) A model for pattern-formation of hypostome, tentacles, and foot in hydra: how to form structures close to each other, how to form them at a distance. Dev. Biol. 157, 321–333 15. Meinhardt, H. (1994) Biological pattern-formation - new observations provide support for theoretical predictions. Bioessays 16, 627–632 16. Meinhardt, H. (1997) Wie Schnecken sich in Schale werfen. Springer Verlag, Heidelberg (mit Programm-Diskette f¨ ur PC) 17. Meinhardt, H., Gierer, A. (1980) Generation and regeneration of sequences of structures during morphogenesis. J. theor. Biol. 85, 429–450 18. Meinhardt, H., Klingler, M. (1987) A model for pattern formation on the shells of molluscs. J. theor. Biol. 126, 63–69 19. Oliver, G., Sidell, N., Fiske, W., Heinzmann, C., Mohandas, T., Sparkes, R. S., De Robertis, E. D. (1989) Complementary homeo protein gradients in developing limb buds. Genes Dev. 3, 641–650 20. Slack, J. M. W. (1976) Determination of polarity in the amphibian limb. Nature 261, 44–46 21. Sturtevant, M. A., Bier, E. (1995) Analysis of the genetic hierarchy guiding wing vein development in Drosophila. Development 121, 785–801 22. Technau, U., Holstein, T. W. (1995) Head formation in hydra is different at apical and basal levels. Development 121, 1273–1282 23. Vincent, J. P., Lawrence, P. A. (1994) It takes three to distalize. Nature 372, 132–133 24. Wolpert, L. (1969) Positional information and the spatial pattern of cellular differentiation. J. theor. Biol. 25, 1–47
Teil IV
Kognitive Systeme
168
IV. Kognitive Systeme
Die biologische Evolution hat unterschiedlich komplexe neuronale Netzwerke und Lernverfahren entwickelt. Die Neuroinformatik untersucht ihre Architektur und nichtlineare Dynamik, um sie als Blaupausen f¨ ur technische Modelle zu verwenden. Erkennen und Wiedererkennen komplexer physikalischer Umwelten werden in der kognitiven Psychologie durch nichtlineare Musterbildung erkl¨art. Hier liegt der Erfolg biologischer Systeme gegen¨ uber technischen Systemen der Bildverarbeitung, die klassische symbolische Algorithmen verwenden. Technische Fortschritte werden daher von k¨ unstlichen neuronalen Netzen erwartet. Musterbildung liegt auch den Lehr-Lernprozessen des Bewegungssystems zugrunde.
Objekterkennung in einem selbstorganisierenden neuronalen System? Laurenz Wiskott?? und Christoph von der Malsburg??? Institut f¨ ur Neuroinformatik, Ruhr Universit¨ at Bochum, D–44780 Bochum, Germany, e-mail:
[email protected] Zusammenfassung Wir stellen hier ein System f¨ ur invariante und robuste Erkennung von Objekten aus Kamerabildern vor. Das System beansprucht, sowohl ein Modell f¨ ur biologisches Objektsehen (zumindest f¨ ur eine ontogenetisch fr¨ uhe Form davon) zu sein, als auch auf der H¨ ohe des technischen Fortschritts zu stehen. Unser Modell basiert auf den Prinzipien zeitlicher Merkmalsbindung und schneller reversibler synaptischer Plastizit¨ at. Objekte werden in Form zweidimensionaler Ansichten gespeichert. Diese werden kompetitiv an Testbilder angepaßt. W¨ ahrend des Anpassungsprozesses werden vollst¨ andige Matrizen dynamischer Bindungen zwischen dem Bild und allen Modellen durch einen Prozeß rascher Selbstorganisation verfeinert, wobei im Endzustand nur noch einander entsprechende Punkte im Bild und in den Objektmodellen (besonders dem erkannten) verbunden sind. Als Datenformat f¨ ur die Repr¨ asentation von Bildern benutzen wir lokale Mengen ( jets“) von Gabor-basierten Wavelets. Wir demonstrieren ” das Leistungsverm¨ ogen unseres Systems, indem wir es menschliche Gesichter wiedererkennen lassen, u.zw. aus Datenbasen von mehr als hundert Bildern. Das System ist invariant hinsichtlich retinaler Position und es ist robust hinsichtlich Kopfdrehung, Skalierung, Gesichtsdeformation und Beleuchtung.
1
Einleitung
F¨ ur den theoretischen Biologen ist die gr¨oßte durch das Gehirn gestellte Herausforderung dessen ungeheure F¨ahigkeit, von einer Situation auf andere zu verallgemeinern. Diese F¨ ahigkeit wird vielleicht am besten am Beispiel der invarianten Objekterkennung verdeutlicht — der F¨ahigkeit des visuellen Systems, das Bild eines Objekts aufzunehmen und dieses Objekt sp¨ater trotz Variationen der retinalen Lokalisierung (so wie auch anderer wichtiger Ver¨anderungen wie Gr¨oße, Orientierung, ver¨ anderte Perspektive und Hintergrund, Deformation, Ausleuchtung ?
Diese Arbeit erhielt F¨ orderung vom deutschen Bundesministerium f¨ ur Wissenschaft und Technologie (413-5839-01 IN 101 B/9), von AFOSR (F49620-93-1-0109), von der Europ¨ aischen Union (ERBCHRX-CT-930097) und vom Human Frontier Science Program. Das Originalmanuskript der Autoren wurde aus dem Englischen u ¨bersetzt von Theodor Leiber (Augsburg). ?? Gegenw¨ artig am Wissenschaftskolleg zu Berlin, Wallotstraße 19, D–14193 Berlin, Germany, e-mail:
[email protected] ??? Auch Department of Computer Science and Section for Neurobiology, University of Southern California, Los Angeles, CA 90089, USA.
170
L. Wiskott und C. von der Malsburg
und Rauschen) wiederzuerkennen. Diese F¨ahigkeit ist experimentell dadurch demonstriert worden, daß Bilder unbekannter Objekte blitzlichtartig kurz an einer Foveaposition gezeigt wurden, woraufhin Subjekte in der Lage waren, die Objekte an anderen Foveapositionen (und unter Tiefenrotation) wiederzuerkennen [4]. Der begriffliche Großvater vieler der neuronalen Modelle invarianter Objekterkennung ist Frank Rosenblatts Vierschichten-Perzeptron [18]. Seine erste Schicht ist die Retina. Die zweite enth¨alt Detektoren lokaler Merkmale (d.h. kleiner Muster) in der Eingabeschicht, von denen jede durch einen Merkmalstyp α und eine Position x charakterisiert ist. Die dritte Schicht enth¨alt positions-invariante Merkmalsdetektoren, von denen jeder einem Merkmalstyp α entspricht und auf das Auftreten seines Merkmalstyps an beliebiger Stelle in der Eingabeschicht antwortet. Sie kann dies, da sie mit allen Zellen zum selben Merkmalstyp in der zweiten Schicht Verbindungen hat. Entsprechend f¨ uhrt das Auftreten eines Objektes in beliebiger Position der Eingabeschicht zur Aktivierung derselben Menge von Zellen in der dritten Schicht. Die Schicht vier enth¨alt nun lineare Entscheidungseinheiten, die das Auftreten definierter Mengen aktiver Zellen in der dritten Schicht und somit bestimmte Objekte auf der Eingabeschicht erkennen. Somit agiert in Rosenblatts System eine Entscheidungseinheit auf der Basis eines impliziten Objektmodells in Form einer gewichteten Liste von Merkmalen der dritten Schicht. Das Vierschichten-Perzeptron muß sich mit der Schwierigkeit auseinandersetzen, daß eine Menge von Merkmalstypen gefunden werden muß, auf deren Grundlage das Vorliegen oder Nichtvorliegen eines gegebenen Musters auf der Grundlage der ungeordneten Merkmalsliste, die in der dritten Schicht vorliegt, linear separierbar wird. Falls die benutzten Merkmalstypen zu undifferenziert sind, besteht die Gefahr, daß unterschiedliche Muster zu identischer Aktivit¨ at der dritten Schicht f¨ uhren, weil dann der einzige Unterschied zwischen gewissen Mustern lediglich in einer unterschiedlichen r¨aumlichen Anordnung ihrer Merkmale besteht. Das Problem kann mit Hilfe von Merkmalstypen hinreichender Komplexit¨ at reduziert oder vermieden werden. Dies ist allerdings selbst ein problematischer Weg, da hochkomplexe Merkmale entweder sehr zahlreich (und deswegen ihre Installierung kostspielig) ist, oder sie sehr spezifisch f¨ ur einen gegebenen Musterbereich sind (so daß sie m¨ uhsam trainiert oder von Hand in das System eingef¨ ugt werden m¨ ussen und die Anwendbarkeit des Systems auf einen engen Musterbereich beschr¨ankt ist). Die Schwierigkeit resultiert daraus, daß auf dem Weg von der zweiten zur dritten Schicht die Positionsinformation f¨ ur jedes Merkmal einzeln weggeworfen wird (wie es zum Zwecke der Positionsinvarianz erforderlich ist), so daß auch die Information u ¨ber relative Positionen der Merkmale verloren geht (was potentielle Vieldeutigkeit erzeugt). In dem hier vorgestellten System l¨ osen wir das angedeutete Problem mit einer Doppelstrategie. Zuerst benutzen wir hochkomplexe Merkmale, die w¨ahrend der Inspektion individueller Muster konstruiert und individuell f¨ ur jedes Muster gespeichert werden, und zweitens benutzen wir zeitliche Bindungen, um die relative Lage von Merkmalen zu kodieren und bei der Mustererkennung zu ber¨ ucksichtigen. Unsere Merkmale werden in einem Zweischritt-Prozeß aus Bilddaten konstruiert. Zuerst werden elementare Merkmale in der Form von Gabor-basierten Wavelets einer Anzahl von Skalen und einer Anzahl von Orientierungen aus dem Bild ex-
Objekterkennung in einem selbstorganisierenden neuronalen System
171
trahiert [9]. Dies ergibt eine Menge von Antwortwerten f¨ ur jeden Punkt des Bildes. Sodann wird der Vektor dieser Antwortwerte f¨ ur einen gegebenen Punkt als ein komplexes Merkmal behandelt, das wir einen Jet“ nennen. Jets werden an ” bestimmten Stichpunkten im Bild extrahiert (das Verfahren wird in [16] detailliert beschrieben). In unserem System nennen wir die Analoga f¨ ur Rosenblatts Schichten zwei und drei Bildbereich“ bzw. Modellbereich“. Der Bildbereich ” ” ist ein Feld von (16×17) Knoten, von denen jeder mit einem aus dem Testbild extrahierten Jet etikettiert wird. Der Modellbereich entspricht in Wirklichkeit einer großen Anzahl von Schichten (mehr als einhundert in einigen unserer Simulationen), Modelle“ genannt, die aus Feldern von (10×10) Knoten bestehen. ” Um das Bild eines Objektes (z.B. eines menschlichen Gesichts) zu speichern, wird ein neues Modell im Modellbereich erzeugt und seine Knoten werden etikettiert, indem ein Feld von Jets eines geeigneten Teils des Bildbereichs kopiert wird. Um ein Objekt wiederzuerkennen, versucht das System kompetitiv, alle gespeicherten Objektmodelle an das Jetfeld im Bildbereich anzupassen, ein Prozeß, den wir Bindungsdynamik“ ( Dynamic Link Matching“ = DLM) nennen. ” ” Das Gewinnermodell wird als das wiedererkannte Objekt identifiziert. Die zwei Bereiche sind durch eine volle Matrix von Bindungen zwischen Knoten gekop¨ pelt, die mit Ahnlichkeitswerten zwischen Bildjets und Modelljets initialisiert werden (dies ist unsere Version von Rosenblatts merkmalerhaltenden Verbindungen). Der Anpassungsprozeß wird mittels dynamischer Variablen formuliert, f¨ ur a) die Aktivit¨ at der Knoten der Bild- und Modellschichten (die lokalisierte Aktivit¨ atstropfen in beiden Bereichen bilden), f¨ ur b) die momentanen St¨arken der dynamischen Bindungen zwischen den Bereichen (wobei wir annehmen, daß sich synaptische Gewichte w¨ahrend des Erkennungsprozesses schnell und reversibel ¨ andern) sowie f¨ ur c) den relativen Erkennungsstatus jedes Modells. Der Anpassungsprozeß bevorzugt Bindungskonfigurationen, in denen sich Nachbarknoten der Bildschicht mit Nachbarknoten einer Modellschicht verkn¨ upfen. Diese Ber¨ ucksichtigung von Nachbarschaftsbeziehungen vermeidet die Vieldeutigkeit von Rosenblatts System. Unser Modell kann nicht in konventionellen neuronalen Netzwerken implementiert werden (zumindest nicht auf einfache Weise). Seine Implementierung ist allerdings leicht m¨oglich, falls f¨ ur das Nervensystem zwei besondere Eigenschaften gefordert werden, n¨amlich zeitliche Merkmalsbindung und schnelle reversible synaptische Plastizit¨at. Diese beiden Eigenschaften sind zuerst in [20] als fundamentale Komponenten der Architektur des Nervensystems vorgeschlagen worden. Zeitliche Merkmalsbindung wird in der neurowissenschaftlichen Literatur mittlerweile breit diskutiert und hat einige experimentelle Best¨ atigung erhalten [14]. Dagegen wartet die quasi-Hebbsche Kontrolle und der Zeitverlauf f¨ ur schnelle reversible Plastizit¨at, die hier gefordert werden, noch immer auf experimentelle Best¨atigung, obwohl schnelle Ver¨anderungen der synaptischen Gewichte diskutiert [7] und in der Literatur berichtet worden sind [27].
172
2 2.1
L. Wiskott und C. von der Malsburg
Das System Bindungsdynamik
Bei der Graphenanpassung durch Bindungsdynamik (DLM) werden das Bild und alle Modelle durch Schichten von Neuronen repr¨asentiert, die durch Jets als lokale Merkmale etikettiert sind (siehe Abb. 1). Jets sind Vektoren von Komponenten von Gabor-Wavelets (siehe [16] [24]) und stellen eine robuste Beschreibung der lokalen Grauwerteverteilung dar. Die anf¨anglichen Bindungen verbinden alle Neuronen der Bildschicht mit allen der Modellschichten durch synaptische Ge¨ wichte, die von den Ahnlichkeiten zwischen den Jets abh¨angen. In jeder Schicht generiert die Dynamik neuronaler Aktivit¨at einen kleinen sich bewegenden Aktivit¨ atstropfen (der als versteckte Aufmerksamkeit interpretiert werden kann, durch die das Bild oder Modell abgetastet werden). Falls ein Modell seiner Merkmalsverteilung nach dem Bild ¨ahnlich ist, enth¨alt seine anf¨angliche Bindungsmatrix eine starke regul¨ are Komponente, die einander entsprechende Punkte verkn¨ upft (die per Definition eine hohe Merkmals¨ahnlichkeit besitzen), wenn auch u atzliche unregelm¨aßige Struktur in der Form zuf¨alliger ¨berlagert durch zus¨ ¨ Ahnlichkeiten. Folglich tendieren die Tropfen in dem Bild und in diesem Modell dazu, sich zu koordinieren und synchronisieren im Sinne simultaner Aktivierung, und somit Generierung von Korrelationen, zwischen korrespondierenden Stellen. Diese Korrelationen werden zur Steuerung der schnellen reversiblen synaptischen Plastizit¨ at benutzt, um die Bindungsmatrix zu restrukturieren. Die in den Signalkorrelationen implizite Abbildung ist regul¨arer strukturiert als die Konnektivit¨ at selbst, und die korrelationskontrollierte Plastizit¨at verbessert somit die Bindungsmatrix. Die Iteration dieses Vorganges f¨ uhrt schnell zu einer Struktur mit Eins-zu-eins-Abbildung zwischen Knoten mit ¨ahnlichen Merkmalen. Der Vorgang stellt sowohl Translationsinvarianz als auch Robustheit gegen¨ uber Verzerrungen sicher. F¨ ur Erkennungszwecke muß die Bindungsdynamik parallel auf viele Modelle angewendet werden. Das am besten angepaßte Modell, d.h. das dem Bild ¨ahnlichste, wird den gr¨ oßten Anteil der Tropfenaktivit¨at anziehen und wird schließlich die st¨ arksten Bindungen zum Bild entwickeln. Ein einfacher winner-takeall-Mechanismus kann dann das korrekte Modell identifizieren (siehe Abb. 2). Die Gleichungen des Systems sind in Tabelle 1 gegeben; die entsprechenden Symbole sind in Tabelle 2 aufgef¨ uhrt. In den folgenden Abschnitten werden wir das System Schritt f¨ ur Schritt erkl¨aren: Tropfenbildung, Tropfenmobilisierung, Wechselwirkung zwischen zwei Schichten, Dynamik der Verkn¨ upfungselemente, Aufmerksamkeitsdynamik und Erkennungsdynamik. 2.2
Tropfenbildung
Die Tropfenbildung auf einer Neuronenschicht wird durch lokale Erregung und globale Hemmung erreicht (siehe die Gln. (1), (3) und (4) mit κhs = κhh = κha = βθ = 0; siehe auch [1]). Die lokale Erregung wird durch den Gaußschen Wechselwirkungskern g vermittelt und erzeugt lokale Aktivit¨atstropfen. Die globale Hemmung wird durch βh kontrolliert und l¨aßt die Tropfen innerhalb je einer
Objekterkennung in einem selbstorganisierenden neuronalen System
173
model layer
image layer
Connectivity Correlations
t=0
200
500
1 000
2 000
5 000
10 000
Abb. 1. Bindungsdynamik zwischen Bild und Modell. Die Knoten sind durch schwarze Punkte in den Bildern oder durch kleine Quadrate in den schematischen Darstellungen der Schichten dargestellt, lokale Merkmalstypen durch unterschiedliche Symbole in den kleinen Quadraten. Die synaptischen Gewichte der anf¨ anglich vollst¨ andigen Konnektivit¨ at werden beispielhaft f¨ ur einen Modellknoten durch Pfeile unterschiedlicher Liniendicke angedeutet. Die unten gezeigten Netzdarstellungen zeigen, wie Korrelationen und Konnektivit¨ at sich in der Zeit gemeinsam entwickeln. In dieser Darstellung dient die Bildschicht als eine Leinwand, auf der die Modellschicht als ein Netz gezeichnet ist. Jeder Knoten entspricht einem Modellneuron, benachbarte Neuronen sind durch eine Kante verbunden. Die Knoten sind an den Schwerpunkten des projektiven Feldes der Modellneuronen lokalisiert, bei deren Berechnung die synaptischen Gewichte als Massen dienen (wobei zur Betonung starker Bindungen die Gewichte in die dritte Potenz erhoben werden.) Die Korrelationen werden auf die gleiche Weise dargestellt, wobei gemittelte Korrelationen anstelle von synaptischen Gewichten benutzt werden. Es ist ersichtlich, daß sich die Korrelationen schneller entwickeln und glatter sind als die Bindungsstruktur. Die Rotation in der Tiefe verursacht ein typisches Verzerrungsmuster, in dem die Abbildung auf einer Seite gedehnt und auf der anderen komprimiert wird
Schicht miteinander konkurrieren. Der st¨arkste unterdr¨ uckt schließlich alle anderen und w¨ achst bis zu einer Gleichgewichtsamplitude. Diese wird durch die St¨ arken der globalen Hemmung bestimmt. 2.3
Tropfenmobilisierung
Tropfenmobilisierung wird durch verz¨ogerte Selbsthemmung s erreicht, die den Tropfen von einem zeitweiligen Aufenthaltsort wegtreibt, wo dann der Tropfen neue Selbsthemmung erzeugt. Dieser Mechanismus erzeugt einen sich kontinuierlich bewegenden Tropfen (siehe die Gln. (1) und (2) mit κhh = κha = β − θ = 0; siehe auch Abb. 3). Zus¨ atzlich dient die Selbsthemmung als ein Ged¨achtnis und treibt den Tropfen von k¨ urzlich besuchten Gebieten weg. Die Geschwindigkeit des Aufbaus und des Zerfalls der treibenden Kraft wird durch die Zeitkonstanten angig kontrolliert. λ+ bzw. λ− unabh¨
174
L. Wiskott und C. von der Malsburg Tabelle 1. Formeln des Bindungsdynamiksystems Schichtendynamik: hpi (t0 )
=0
h˙ pi (t)
= −hpi +
X i0
X 0 gi−i0 σ(hpi0 ) − βh max σ(hpi0 ) − κhs spi 0 p
(1)
i0
+κhh max Wijpq σ(hqj ) + κha (σ(api ) − βac ) − βθ Θ(rθ − rp ) qj
spi (t0 )
s˙ pi (t) gi−i0 σ(h)
=0 = λ± (hpi − spi ) (i − i0 )2 = exp − 2σg2 p 0 : h ≤ 0 = h/ρ : 0 < h < ρ 1 : h≥ρ
(2) (3) (4)
Aufmerksamkeitsdynamik: api (t0 )
= αN N (Jip )
a˙ pi (t)
= λa
−api +
X i0
gi−i0 σ(api0 ) − βa
X i0
! σ(api0 ) + κah σ(hpi )
(5)
Bindungsdynamik: Wijpq (t0 ) ˙ pq (t) W ij
pq = Sij = max Sφ (Jip , Jjq ), αS pq pq = λW σ(hpi )σ(hqj ) − Θ max (W /S ) − 1 Wijpq ij 0 ij 0 0 j
(6)
Erkennungsdynamik: rp (t0 ) r˙ p (t) F p (t)
=1
p0 p0 = λr rp F p − max (r F ) p0 X p = σ(hi )
(7)
i
2.4
Wechselwirkung und Synchronisierung der Schichten
So wie der laufende Tropfen durch seine selbsthemmende Schleppe abgestoßen wird, so wird er durch das von der Bindungsmatrix W vermittelte erregende Eingangssignal einer anderen Schicht angezogen (siehe Gl. (1) mit κha = βθ = 0). Man stelle sich zwei Schichten derselben Gr¨oße vor, die durch die Identit¨atsmatrix wechselseitig verkn¨ upft sind, d.h. jedes Neuron ist genau mit dem Neuron an ¨ aquivalenter Stelle in der anderen Schicht verkn¨ upft. Das Eingangssignal ist dann eine Kopie des Tropfens der anderen Schicht und es werden immer Tropfen an korrespondierenden Stellen entstehen. Diese Synchronisierung u ¨berlebt tendenziell auch in Gegenwart verrauschter Bindungsmatrixanteile, wie sie durch
Objekterkennung in einem selbstorganisierenden neuronalen System Tabelle 2. Variablen und Parameter des Bindungsdynamiksystems Variablen:
h s a W r F
interne Zust¨ ande der Schichtenneuronen verz¨ ogerte Selbsthemmung Aufmerksamkeit synaptische Gewichte zwischen Neuronen zweier Schichten Erkennungsvariable Fitness, d.h. Gesamtaktivit¨ at jeder Schicht
Indizes: (p; p0 ; q; q 0 )
Schichtenindizes, 0 steht f¨ ur die Bildschicht, 1, ..., M f¨ ur die Modellschichten = (0; 0; 1, ..., M ; 1, ..., M ) Bildschichtendynamik = (1, ..., M ; 1, ..., M ; 0; 0) Modellschichtendynamik (i; i0 ; j; j 0 ) zweidimensionale Indizes f¨ ur die individuellen Neuronen in den entsprechenden Schichten (p; p0 ; q; q 0 ) Funktionen: gi−i0 σ(h) Θ(·) N (J ) Sφ (J , J 0 )
Parameter: βh = 0.2 βa = 0.02 βac = 1 βθ = ∞ κhs = 1 κhh = 1.2 κha = 0.7 κah = 3 λ± = λ+ = λ− λa λW λr αN
= = = = = =
0.2 0.004 0.3 0.05 0.02 0.001
αS ρ σg rθ
= = = =
0.1 2 1 0.5
Gaußscher Wechselwirkungskern nichtlineare S¨ attigungsfunktion Heavyside-Funktion Norm des Merkmalsjets J ¨ Ahnlichkeit zwischen den Merkmalsjets J und J 0 St¨ arke der globalen Hemmung ditto f¨ ur den Aufmerksamkeitstropfen St¨ arke der globalen Hemmungskompensation f¨ ur den Aufmerksamkeitstropfen globale Hemmung f¨ ur die Modellunterdr¨ uckung St¨ arke der Selbsthemmung St¨ arke der Wechselwirkung zwischen Bild- und Modellschichten Wirkung des Aufmerksamkeitstropfens auf den laufenden Tropfen Wirkung des laufenden Tropfens auf den Aufmerksamkeitstropfen Zerfallskonstante f¨ ur die verz¨ ogerte Selbsthemmung falls h − s > 0 falls h − s ≤ 0 Zeitkonstante f¨ ur die Aufmerksamkeitsdynamik Zeitkonstante f¨ ur die Bindungsdynamik Zeitkonstante f¨ ur die Erkennungsdynamik Parameter f¨ ur die Initialisierung des Aufmerksamkeitstropfens minimales Gewicht Steigungsparameter der S¨ attigungsfunktion Gaußsche Breite des erregenden Wechselwirkungskerns Schwellenwert f¨ ur die Modellunterdr¨ uckung
175
176
L. Wiskott und C. von der Malsburg
winner take all
image DLM models Abb. 2. Die Architektur des Bindungsdynamiksystems. Bild und Modell werden als neuronale Schichten mit lokalen Merkmalen repr¨ asentiert, wie durch die schwarzen Punkte angedeutet. Die Bindungsdynamik verfeinert die am Anfang des Erkennungsvorgangs vollst¨ andige Verkn¨ upfung zu einer regul¨ aren Eins-zu-eins-Abbildung zwischen einander entsprechenden Neuronen. So stellt die Bindungsdynamik Translationsinvarianz und Robustheit gegen Verzerrung sicher. Sind die korrekten Abbildungen einmal gefunden, kann ein einfacher winner-take-all–Mechanismus das Modell identifizieren, das am aktivsten und dem Bild am ¨ ahnlichsten ist
reale Bilddaten erzeugt werden (siehe Abb. 4). (Der Grund, weshalb wir die Maximumsfunktion anstelle der gew¨ohnlichen Summe benutzen, wird in Abschn. 2.10 diskutiert werden.) 2.5
Bindungsdynamik
¨ Bindungen werden mit der Ahnlichkeit Sφ zwischen den Jets J der jeweils verkn¨ upften Knoten initialisiert (siehe [24]), wobei ein minimales synaptisches Gewicht αS garantiert wird. Dann werden sie auf der Grundlage der Signalkorrelationen zwischen Paaren von Neuronen modifiziert (siehe Gl. (6), und Abb. 1), was sie gl¨ attet und strukturiert. Die als σ(hpi )σ(hqj ) definierten Korrelationen resultieren aus der im vorigen Abschnitt beschriebenen Schichtensynchronisierung. Die Dynamik der Bindungen besteht wie u ¨blich aus einem Wachstumsterm und einem Normierungsterm. Der erstere l¨aßt die Gewichte entsprechend der Korrelation zwischen den verkn¨ upften Neuronen anwachsen. Der letztere verhindert das unendliche Anwachsen der Bindungen und induziert Konkurrenz, so daß schließlich nur eine Bindung pro Neuron u uckt ¨berlebt und alle anderen unterdr¨ werden.
Objekterkennung in einem selbstorganisierenden neuronalen System
177
continuously moving blob
delayed self-inhibition
running blob
jumps of the blob
Abb. 3. Eine Sequenz von Aktivit¨ atszust¨ anden. Der in der mittleren Reihe gezeigte Aktivit¨ atstropfen h hat eine Gr¨ oße von n¨ aherungsweise sechs aktiven Knoten und bewegt sich kontinuierlich u ¨ber die ganze Schicht. Sein Verlauf wird im oberen Diagramm gezeigt. Die verz¨ ogerte Selbsthemmung s, die in der unteren Reihe gezeigt wird, folgt dem laufenden Tropfen und treibt ihn vorw¨ arts. Man kann den selbsthemmenden Schwanz sehen, der den Tropfen von gerade besuchten Gebieten wegtreibt. Manchmal l¨ auft der Tropfen in eine Falle (siehe die dritte Spalte) und hat keine M¨ oglichkeit, der Selbsthemmung zu entkommen. Er verschwindet dann und tritt an anderer Stelle auf der Schicht wieder auf. (Das zeitliche Inkrement zwischen zwei aufeinanderfolgenden Abbildungen ist 20 Zeiteinheiten.)
2.6
Aufmerksamkeitsdynamik
Die Ausrichtung zwischen den laufenden Tropfen h¨angt sehr stark von den Randbedingungen ab, d.h. von der Gr¨oße und dem Format der Schicht, auf der sie laufen. Dies erzeugt ein Problem, da das Bild und die Modelle unterschiedliche Gr¨ oßen haben. Wir haben deswegen eine Aufmerksamkeitsvariable a eingef¨ uhrt, die ihrerseits zur Tropfenbildung neigt und die Bewegung des laufenden Tropfens auf der Bildschicht auf ein Gebiet von etwa derselben Gr¨oße wie diejenige der Modellschicht einschr¨ ankt (siehe Gln. (1) und (5) mit βθ = 0). Die grundlegende Dynamik des Aufmerksamkeitstropfens ist dieselbe wie f¨ ur den laufenden Tropfen, außer daß es keine Selbsthemmung gibt. Auch jede der Modellschichten hat einen gleichartigen Aufmerksamkeitstropfen, um die Bedingungen f¨ ur ihre laufenden Tropfen denjenigen in der Bildschicht ¨ahnlich zu halten, was f¨ ur das Ausrichten wichtig ist. Der Aufmerksamkeitstropfen beschr¨ankt das Gebiet f¨ ur p den laufenden Tropfen u ¨ber den Term κha (σ(ai ) − βac ), wobei der erregende Tropfen σ(api ) durch die konstante Hemmung βac kompensiert wird. Andererseits erh¨ alt der Aufmerksamkeitstropfen das Eingangssignal κah σ(hpi ) vom laufenden Tropfen und wird dadurch in ein Gebiet verschoben, wo das Eingangssignal besonders hoch ist und Aktivitit¨at beg¨ unstigt. Der Aufmerksamkeitstropfen
178
L. Wiskott und C. von der Malsburg
internal layer state
layer input
internal layer state
model layer
image layer
layer input
Abb. 4. Synchronisierung zwischen zwei laufenden Tropfen. Das Eingangssignal und der interne Schichtzustand h werden gezeigt, und zwar links in einem fr¨ uheren Stadium, in dem die Tropfen der zwei Schichten noch nicht ausgerichtet sind, und rechts in einem sp¨ ateren Stadium, wenn sie ausgerichtet sind. Die Bild- und Modellschichten sind von unterschiedlicher Gr¨ oße, und das Gebiet der Bildschicht, das korrekt auf die Modellschicht abgebildet wird, ist durch ein gestricheltes Quadrat angedeutet. Im fr¨ uhen nicht-ausgerichteten Stadium kann man sehen, daß die Tropfen kleiner und im Beispiel nicht am Ort der maximalen Eingabedaten sind. Die Orte maximaler Eingabedaten liegen tendenziell dort, wo die Neuronen der anderen Schicht gerade aktiv sind. Im ausgerichteten Fall sind die Tropfen gr¨ oßer und liegen an den Orten gr¨ oßter Eingangssignale
verschiebt sich deswegen automatisch zur tats¨achlichen Gesichtsposition (siehe Abb. 5). Die Schicht des Aufmerksamkeitstropfens wird mit einem einfachen Segmentierungshinweis initialisiert, wof¨ ur wir hier die Norm der Jets verwendet haben (siehe [24]), in der Idee, daß diese Norm ein Maß f¨ ur den lokalen Kontrast ist. 2.7
Erkennungsdynamik
Wir haben aus Eigens [10] Evolutionsgleichung einen winner-take-all-Mechanismus abgeleitet und ihn angewandt, um das beste Modell zu detektieren und alle anderen zu unterdr¨ ucken (siehe Gln. (1) und (7)). Jedes Modell kooperiert mit ¨ dem Bild abh¨ angig von seiner Ahnlichkeit. Das ¨ahnlichste Modell kooperiert am erfolgreichsten und ist das aktivste. Die Gesamtaktivit¨at der Modellschicht p kann man als eine Fitness F p betrachten. Die Schicht mit der h¨ochsten Fitness unterdr¨ uckt alle anderen (wie leicht gesehen werden kann, falls die F p als konstant in der Zeit angenommen und die Erkennungsvariablen rp auf 1 initialisiert werden). Wenn eine Erkennungsvariable rp unter den Unterdr¨ uckungsschwellenallt, wird die Aktivit¨at auf der Schicht p durch den Term −βθ Θ(rθ − rp ) wert rθ f¨ unterdr¨ uckt.
Objekterkennung in einem selbstorganisierenden neuronalen System
179
t = 25
t = 150
t = 1000
attention blob
running blob
running blob attention blob
image layer
model layer
Abb. 5. Funktion des Aufmerksamkeitstropfens im Extremfall eines anf¨ anglich zu Demonstrationszwecken manuell fehlplazierten Aufmerksamkeitstropfens. Bei t = 150 laufen die zwei Tropfen f¨ ur eine Weile synchron und der Aufmerksamkeitstropfen zeigt eine lange Schleppe. Die Tropfen verlieren dann ihre Ausrichtung zeitweilig um von t = 500 an wieder synchron zu laufen. Der Aufmerksamkeitstropfen konzentriert sich schließlich auf die korrekte Gesichtsposition (gestricheltes Quadrat). Der Aufmerksamkeitstropfen bewegt sich langsam verglichen mit dem kleinen laufenden Tropfen, da er nicht durch Selbsthemmung getrieben wird. Ohne einen Aufmerksamkeitstropfen synchronisieren sich die beiden laufenden Tropfen vielleicht fr¨ uher, aber die Ausrichtung wird niemals stabil
2.8
Bidirektionale Bindungen
Die Konnektivit¨ at zwischen zwei Schichten ist bidirektional und nicht unidirektional wie im Vorg¨ angersystem ([13]). Dies ist aus zwei Gr¨ unden notwendig: Erstens k¨ onnen sich die laufenden Tropfen der zwei verkn¨ upften Schichten auf diese Weise leichter ausrichten. Mit unidirektionalen Bindungen w¨ urde ein Tropfen systematisch hinter dem anderen laufen. Zweitens sind Bindungen in beide Richtungen f¨ ur ein Erkennungssystem notwendig — die Bindungen von der Modell- zur Bildschicht, damit die Modelle den Aufmerksamkeitstropfen im Bild in das passende Gebiet ziehen, und die Bindungen vom Bild zu den Modellschichten, damit ein Diskriminierungssignal das am besten passende Modell ausw¨ ahlt. 2.9
Tropfenausrichtung im Modellbereich
Da Gesichter ihrer allgemeinen Struktur nach gleichartig sind, ist es vorteilhaft, die Tropfen in den verschiedenen Modellen des Modellbereichs zu synchronisieren, um so sicherzustellen, daß sie stets an derselben Position in den Gesichtern
180
L. Wiskott und C. von der Malsburg
zu liegen kommen (etwa alle am linken Auge oder alle am Kinn etc.). Dies wird durch Bindungen zwischen den realisiert durch durch den Schichten erreicht, P P p0 p 0 0 0 gi−i σ(hi0 ) , anstelle von Term i0 maxp i0 (gi−i σ(hi0 )) in Gl. (1). Wenn die Modelltropfen unabh¨ angig voneinander liefen, w¨ urde die Bildschicht zur selben Zeit Signale von verschiedenen Gesichtsteilen erhalten, und dem Bildtropfen fiele es schwer, sich mit einem oder gar dem richtigen Modelltropfen auszurichten. Die Kooperation zwischen den Modellen und dem Bild w¨ urde st¨arker von ¨ der zuf¨ alligen Ausrichtung abh¨angen als von der Ahnlichkeit zwischen den Modellen und dem Bild, und es w¨ urde dann leicht das falsche Modell erkannt. Eine Alternative w¨ are, die Modelle sich gegenseitig hemmen zu lassen, so daß nur ein Modell zu einem Zeitpunkt einen Tropfen h¨atte. Die Modelle w¨ urden sich dann die Zeit f¨ ur die Anpassung an das Bild teilen und das am besten angepaßte erhielte die meiste Zeit. Dies w¨are m¨oglicherweise die Alternative der Wahl f¨ ur Modelle unterschiedlicher Struktur, was ja f¨ ur beliebige Objekte im allgemeinen der Fall ist. 2.10
Maximum- versus Summenneuronen
Die hier verwendeten Modellneuronen benutzen das Maximum u ¨ber alle Eingabesignale anstelle von deren Summe. Der Grund daf¨ ur ist, daß die Summe viele verschiedene Signale mischen w¨ urde, w¨ahrend in Wirklichkeit ja nur eines korrekt ist, d.h. die Gesamteingabe w¨ urde das Resultat eines korrekten Signals gemischt mit irrelevanten anderen sein, und das Signal-zu-Rausch-Verh¨altnis w¨are niedrig. Wir haben ein Beispiel beobachtet, wo selbst ein dem Bild identisches Modell nicht gewann, weil die Summe u ¨ber alle zuf¨alligen Signale einer vollst¨andig anders aussehende Person immer wieder st¨arker war. Da außerdem das korrekte Signal jeweils mit großer Wahrscheinlichkeit das st¨arkste ist, f¨ uhrten wir aus diesem Grund die Maximum-Eingangsfunktion ein. Die Bildbereichsneuronen w¨ ahlen zudem das maximale Signal u ¨ber alle Modelle aus. Die Maximumsregel hat den zus¨ atzlichen Vorteil, daß sich der dynamische Bereich der Eingangssignale einer einzelnen Zelle im Laufe der Bindungsdynamik weniger stark ver¨andert, w¨ ahrend die Signalsumme w¨ahrend der synaptischen Reorganisation signifikant abn¨ ahme, so daß die Tropfen ihre Ausrichtung verl¨oren.
3 3.1
Experimente Datenbasis
Als Datenbasis f¨ ur Gesichter benutzten wir Galerien von 111 verschiedenen Personen. F¨ ur die meisten Personen gibt es eine Frontalansicht mit neutralem Gesichtsausdruck, eine von unterschiedlichem Gesichtsausdruck und zwei um 15 bzw. 30 Grad in die Tiefe verdrehte Ansichten. Die neutralen Frontalansichten haben uns als Modellgalerie gedient, die anderen drei als Testbilder zur Erkennung. Die Modelle, d.h. die neutralen Frontalansichten, werden durch Schichten der Gr¨ oße 10×10 repr¨ asentiert (siehe Abb. 1). Obwohl die Gitter rechtwinklig
Objekterkennung in einem selbstorganisierenden neuronalen System
181
und regul¨ ar sind, d.h. die Abst¨ande zwischen den Knoten in beiden Dimensionen konstant sind, haben wir die Graphen horizontal und vertikal skaliert und manuell ausgerichtet: Das linke Auge wird stets durch den Knoten in der vierten Spalte von links und der dritten Reihe von oben repr¨asentiert, der Mund liegt in der vierten Reihe von unten etc. Der (horizontale) x-Abstand von zwei Nachbarknoten reicht von 6.6 bis 9.3 Pixel mit einem Mittelwert von 8.2 und einer Standardabweichung von 0.5. Der y-Abstand reicht von 5.5 bis 8.8 Pixel mit einem Mittelwert von 7.3 und einer Standardabweichung von 0.6. Ein Eingabebild eines wiederzuerkennenden Gesichts wird durch eine 16×17-Schicht mit einem Knotenabstand von 8 Pixeln (x) bzw. 7 Pixeln (y) repr¨asentiert. Die Bildgraphen sind nicht ausgerichtet, da dies bereits Erkennung erfordern w¨ urde. Die Variationen in den x- und y-Abst¨anden bis hin zu einem Faktor von 1.5 m¨ ussen durch die Bindungsdynamik kompensiert werden. 3.2
Technische Aspekte
Bindungsdynamik in der hier vorgestellten Form ist rechenaufwendig. Wir haben einzelne Erkennungsaufgaben mit dem vollst¨andigen System durchgef¨ uhrt. F¨ ur die Experimente, auf die sich Tabelle 3 bezieht, haben wir jedoch das System in mehreren Hinsichten modifiziert, um eine ertr¨agliche Geschwindigkeit zu erzielen. Wir teilen die Simulation in zwei Phasen auf. Zweck der ersten Phase ist es, den Aufmerksamkeitstropfen auf das Gesicht im Eingabebild zu zentrieren. In dieser Phase wurden die Bindungen nicht modifiziert, und als Bindung wurde jeweils das maximale synaptische Gewicht u ¨ber alle Modelle genommen. Diese erste Periode nimmt 1000 Zeitschritte in Anspruch. Dann wird das vollst¨andige System einschließlich des Aufmerksamkeitstropfens simuliert und die individuellen Bindungsmatrizen werden dynamisch ver¨andert. Die einzelnen Neuronen in den Modellschichten sind nicht mit allen Neuronen in der Bildschicht verkn¨ upft, sondern nur mit einem 8×8-Feld. Diese Felder haben in der Bildschicht dieselbe r¨ aumliche Anordnung wie die Modellneuronen selbst. Dies erh¨alt immer noch die volle verf¨ ugbare Translationsinvarianz. Dagegen ist die volle Rotationsinvarianz verloren (aber die benutzten Jets sind ja ohnehin nicht rotationsinvariant). Die dynamischen Bindungen werden alle 200 Simulationsschritte neu berechnet (entsprechend 100 Zeiteinheiten). W¨ahrend dieser Zeit wird die Korrelation kontinuierlich integriert und ein laufender Tropfen bewegt sich etwa einmal u ¨ber seine ganze Schicht. Die Bindungsdynamik reagiert dann auf diese integrierten Korrelationen, und da die Tropfen sich u ¨ber alle Schichten bewegt haben, werden alle synaptischen Gewichte modifiziert. Um die Geschwindigkeit weiter zu erh¨ ohen, werden Modelle, die vom winner-take-all-Mechanismus ausgesondert worden sind, nicht l¨ anger simuliert; sie werden einfach auf Null gesetzt und von ur die Erkennung eines Gesichts gegen eine Galeda an ignoriert (βθ = ∞). Die f¨ rie von 111 Modellen ben¨ otigte CPU-Zeit betr¨agt auf einer Sun SPARCstation 10-512 mit einem 50 MHz Prozessor ungef¨ahr 10-15 Minuten. Um Randeffekte zu vermeiden, hat die Bildschicht einen Rahmen mit einer Weite von 2 Neuronen ohne irgendwelche Merkmale oder Bindungen zu den Modellschichten. Der zus¨ atzliche Neuronenrahmen erm¨oglicht es dem Aufmerksamkeitstropfen, sich zum Rand der Bildschicht zu bewegen.
182
L. Wiskott und C. von der Malsburg
layer activity
recognition variable
sum over links 0
time
2000
Abb. 6. Gesichtserkennung: Ein Probelauf. Das Testbild ist links gezeigt, wobei die 16×17 Neuronen als schwarze Punkte angezeigt sind. Die Modelle besitzen 10×10 Neuronen und sind so gut als m¨ oglich knotenweise aufeinander ausgerichtet. Die entsprechenden Aktivit¨ aten der gesamten Schicht, d.h. die Summe u ¨ber alle Neuronen eines Modells, werden im oberen Graphen gezeigt. Das ¨ ahnlichste Modell ist gew¨ ohnlich leicht aktiver als die anderen. Auf dieser Grundlage konkurrieren die Modelle miteinander, und schließlich u ¨berlebt das richtige, wie von der Erkennungsvariable angezeigt. Die Summe u ¨ber alle Bindungen jeder Bindungsmatrix ist in den unteren Graphen gezeigt. Sie gibt einen Eindruck des Ausmaßes, in dem sich die Matrizen selbstorganisieren, bevor die Erkennungsentscheidung getroffen wird
3.3
Resultate
Abbildung 6 zeigt einen Erkennungsversuch unter Verwendung eines Testgesichts, dessen Ausdruck sich vom Modell stark unterscheidet. Die Galerie enth¨alt f¨ unf Modelle. Aufgrund der dichten Bindungen zwischen den Modellen zeigen die Schichtenaktivit¨ aten dieselben Variationen und unterscheiden sich nur wenig in der Intensit¨ at. Dieser kleine Unterschied wird u ¨ber die Zeit gemittelt und durch die Erkennungsdynamik verst¨arkt, die ein Modell nach dem anderen aussondert, bis das korrekte u ur 2000 Simulationszeiteinhei¨berlebt. Das Beispiel wurde f¨ ten aufgezeichnet, die vorherige Aufmerksamkeitsphase von 1000 Zeiteinheiten wird hier nicht gezeigt. F¨ ur die Abbildung w¨ahlten wir einen Probelauf aus, f¨ ur den es außergew¨ ohnlich schwierig war, zwischen den Modellen zu entscheiden. Die Summe u ur ¨ber die Bindungen der anf¨anglichen Bindungsmatrix war f¨ das vierte Modell sogar gr¨ oßer als f¨ ur das richtige. Dies ist ein Fall, in dem die Bindungsdynamik tats¨ achlich erforderlich ist, um die Ausrichtung der laufenden Tropfen zu stabilisieren und das korrekte Modell wiederzuerkennen, w¨ahrend in anderen F¨ allen das korrekte Gesicht oft ohne Modifikation der Bindungssmatrix wiedererkannt wird.
Objekterkennung in einem selbstorganisierenden neuronalen System
183
Erkennungsraten f¨ ur Galerien von 20, 50 und 111 Modellen sind in Tabelle 3 angegeben. Wie bereits aus fr¨ uheren Arbeiten [16] bekannt, ist die Erkennung von tiefenrotierten Gesichtern im allgemeinen weniger verl¨aßlich als zum Beispiel die Erkennung von Gesichtern mit ver¨andertem Gesichtsausdruck. Es ist interessant, die (in beliebigen Einheiten gemessenen) Erkennungszeiten zu betrachten. Obwohl sie signifikant variieren, ist eine allgemeine Tendenz feststellbar: Erstens ben¨ otigen schwierigere Aufgaben mehr Zeit, d.h. die Erkennungszeit ist mit der Fehlerrate korreliert. Dies ist auch aus psychophysikalischen Experimenten bekannt (siehe zum Beispiel [5] [13]). Zweitens ben¨otigt unkorrekte Erkennung viel mehr Zeit als korrekte Erkennung. Die Erkennungszeit h¨angt nicht sehr stark von der Gr¨oße der Galerie ab. Tabelle 3. Erkennungsresultate gegen eine Galerie von 20, 50 und 111 neutralen Frontalansichten. Die Erkennungszeit (mit zwei Iterationen der Differentialgleichungen pro Zeiteinheit) ist die Zeit, die erforderlich ist, bis alle Modelle bis auf eines durch den winner-take-all-Mechanismus aussortiert sind Galeriegr¨ oße 20 50 111
4
Testbilder 111 110 109 111 110 109 111 110 109
rotierte Gesichter (15 Grad) rotierte Gesichter (30 Grad) Frontalansichten (Grimasse) rotierte Gesichter (15 Grad) rotierte Gesichter (30 Grad) Frontalansichten (Grimasse) rotierte Gesichter (15 Grad) rotierte Gesichter (30 Grad) Frontalansichten (Grimasse)
Korrekte Wiedererkennungsrate 106 95.5 91 82.7 102 93.6 104 93.7 83 75.5 95 87.2 102 91.9 73 66.4 93 85.3
Erkennungszeit f¨ ur korrekte inkorrekte WiederWiedererkennung erkennung 310 ± 400 5120 ±3570 950 ±1970 4070 ±4810 310 ± 420 4870 ±6010 370 ± 450 8530 ±5800 820 ± 740 5410 ±7270 440 ±1000 2670 ±1660 450 ± 590 2540 ±2000 1180 ±1430 4400 ±4820 480 ± 720 3440 ±2830
Diskussion
Das hier vorgestellte Modell weicht in einigen sehr fundamentalen Hinsichten von anderen biologischen und neuronalen Modellen des Sehens oder des Gehirns ab. Zuv¨ orderst unter diesen ist seine extensive Ausbeutung der raschen reversiblen synaptischen Plastizit¨ at und der zeitlichen Merkmalsbindung. Da diese Ideen in der Wissenschaft noch keine breite Akzeptanz gefunden haben, obwohl sie schon vor eineinhalb Jahrzehnten zuerst vorgestellt worden sind [20], haben wir große ¨ Anstrengungen darauf verwendet, die funktionelle Uberlegenheit der Architektur der dynamischen Bindungen gegen¨ uber konventionelleren neuronalen Modellen nachzuweisen, indem wir sie benutzen, um ein echtes Anwendungsproblem zu l¨ osen, Objekterkennung aus nat¨ urlichen Bildern. Das hier vorgestellte Modell steht zu einem technischer ausgerichteten System in enger Beziehung (das algorithmische System“ im Gegensatz zum dynami” ”
184
L. Wiskott und C. von der Malsburg
schen System“). Es ist ebenfalls in unserer Gruppe entwickelt worden und wird in [16] [25] beschrieben. Wesentliche Merkmale sind den beiden Systemen gemeinsam, darunter die Benutzung von Jets, die aus Merkmalen von Gabor-basierten Wavelets zusammengesetzt sind, und die Benutzung von dynamischen Bindungen, um eine Abbildung zwischen dem Bildbereich und individuellen Modellen zu etablieren. Unser Objekterkennungsmodell gibt wichtige Aspekte der Arbeitsweise und des Leistungsverm¨ ogens unseres visuellen Systems wieder. Wie im biologischen Fall kann die flexible Erkennung neuer Objekte einfach installiert werden, indem sie ein einziges Mal gezeigt werden. Unser System arbeitet mit einem Typ von Standardmerkmalsdetektor, den Wavelets, der den prim¨aren visuellen Kortex dominiert [11]. Die Anf¨ alligkeit unseres Systems gegen¨ uber Reizver¨anderungen wie z.B. Kopfdrehung und Ver¨anderung des Gesichtsausdrucks ist stark mit derjenigen von menschlichen Subjekten korreliert ([12]; diese Untersuchung beinhaltete eine Version unseres algorithmischen Systems). Insbesondere zeigt unser Modell verglichen mit allen uns bekannten biologisch motivierten Modellen bessere Objekterkennung und es ist zumindest einer der wichtigsten Konkurrenten unter den technischen Systemen f¨ ur Gesichtserkennung (in einem blinden Test der Gesichtserkennung gegen¨ uber großen Galerien, der vom amerikanischen Army Research Lab durchgef¨ uhrt wurde, erwies sich unser algorithmisches System allen anderen Systemen u uberhinaus geht unser System u ¨berlegen [17]). Dar¨ ¨ber bloße Erkennung von Objekten hinaus, indem es eine Grundlage bietet f¨ ur ein detailliertes R¨ uck-Etikettieren des Bildes mit Interpretationen mittels expliziter Objekt- und Mustermodelle, die mit dem Bild punktweise durch dynamische Bindungen und zeitliche Merkmalsanbindung verkn¨ upft sind. Trotz dieses Erfolges gibt es noch einige Schwierigkeiten und Diskrepanzen. Ein Problem ist die Prozeßzeit. Die Reorganisation der Konnektivit¨atsmatrix zwischen dem Bildbereich und dem Modellbereich erfordert deren mindestens ¨ zweimalige Uberdeckung vom laufenden Tropfen. Die Geschwindigkeit dieses Tropfens ist beschr¨ ankt durch die Zeit, die die Signal¨ ubertragung zwischen den Bereichen ben¨ otigt, und durch die zeitliche Aufl¨osung, mit der die Signalkoinzidenz durch dendritische Membranen und rasche plastische Synapsen ausgewertet werden kann. Unter der Annahme typischer Zeitkonstanten von einigen Millisekunden sch¨ atzen wir, daß unser Modell mindestens eine Sekunde ben¨otigen w¨ urde, um eine synaptische Abbildung zu erzeugen. Dies ist viel zu lange im Vergleich zur Geschwindigkeit der Mustererkennung des Erwachsenen [19]. Wir betrachten unser System deswegen als ein Modell f¨ ur Prozesse, die die Etablierung von Abbildungen zwischen den Bild- und Objektmodellen erfordern. Dies ist dann der Fall, wenn die absolute oder relative Anordnung von Teilen innerhalb einer Figur wichtig ist, und ist sehr wahrscheinlich auch dann erforderlich, wenn ein neues Objekt im Ged¨achtnis abgelegt werden soll. Die tats¨achlichen Inspektionszeiten, die von Subjekten in solchen F¨allen erfordert werden, sind viel l¨ anger als diejenigen, die f¨ ur bloße Objekerkennung erforderlich sind, und k¨onnen durch unser Modell leicht reproduziert werden. Wir glauben, daß die bloße Erkennung durch verschiedende Abk¨ urzungen beschleunigt werden kann. Potential daf¨ ur sehen wir in zwei Richtungen, eine Reduktion der Mehrdeutigkeit der
Objekterkennung in einem selbstorganisierenden neuronalen System
185
r¨ aumlichen Merkmalsanordnung mit Hilfe trainierter kombinations-kodierender Merkmale, und ein effizienterer Weg (als unsere laufenden Aktivit¨atstropfen), um topographisch strukturierte synaptische Abbildungen zwischen dem Bildbereich und dem Modellbereich zu installieren. Ein m¨ogliches Schema daf¨ ur w¨ urde das Umschalten von ganzen Feldern von Synapsen mit Hilfe spezialisierter Kontrollneuronen und pr¨ asynaptischer Terminals sein [2]. Ein anderer derzeit noch schwacher Punkt unseres Modells ist die interne Organisation des Modellbereichs und die noch semi-manuelle Weise, in der die Modelle abgelegt werden. Es ist aus mehreren Gr¨ unden unrealistisch, vollst¨andig getrennte Modelle anzunehmen, ¨ nicht zuletzt wegen der Okonomie hinsichtlich der Anzahl der erforderlichen Neuronen. Es ist ebenfalls unrealistisch, den Erkennungsprozeß als eine Konkurrenz zwischen den Dutzenden von Tausenden von Objekten zu betrachten, die ein erwachsener Mensch unterscheiden kann. Vielmehr sollten Muster¨ahnlichkeiten innerhalb großer Objektklassen ausgenutzt werden, um dem Erkennungsprozeß hierarchische Struktur zu geben und Generalisierung zu neuen Objekten mit gewohnten Z¨ ugen zu unterst¨ utzen. Die Existenz solcher Hierarchien wird von neurowissenschaftlichen Beobachtungen gut unterst¨ utzt [8] und ist in psychophysikalischen Resultaten implizit [3], die zeigen, daß viele Objekte als einfache Felder von primitiven Gestaltmerkmalen wiedererkannt werden, die universell anwendbar sind. In einem System, das dem hier vorgestellten eng verwandt ist [22], wurde ein Modellbereich dynamisch konstruiert als ein einziger umfassender Fusionsgraph, der als Subgraphen Modelle f¨ ur unterschiedliche Objekte enth¨alt, und zwar f¨ ur verschiedene Ansichten dieser Objekte, wobei unterschiedliche Modelle viele Knoten miteinander gemeinsam haben. Weitere Forschung ist in dieser Richtung erforderlich. Eine andere Beschr¨ ankung des gegenw¨artigen Systems ist seine Unf¨ahigkeit, mit Variation der Gr¨ oße und Orientierung des Objektbildes u ¨ber einige Prozent und einige Grad hinaus umzugehen. Daf¨ ur w¨are es n¨otig, daß die Bindungen zwischen dem Bildbereich und dem Modellbereich auch Merkmale unterschiedlicher Gr¨ oße und Orientierung verkn¨ upfen. Die Gr¨oßen- und Orientierungsinvarianz sind im Kontext des algorithmischen Systems erfolgreich nachgewiesen worden [6] [15]. Die direkte Implementierung im gegenw¨artigen Modell w¨ urde allerdings den Bindungsdynamikprozeß langsamer und viel schwieriger oder vielleicht sogar unm¨ oglich machen, weil das System mit einer Konnektivit¨at mit viel mehr nicht-verschwindenden Eintr¨agen starten m¨ ußte. Das Problem mag vielleicht mit Hilfe einer zweistufigen Bindungsdynamik gel¨ost werden m¨ ussen, wobei der erste Schritt durch entsprechende Spezialisierung der dynamischen Bindungen einen Erwartungswert f¨ ur Gr¨oße und Orientierung des Bildes installierte, und der zweite Schritt die Anpassung wie hier beschrieben organisieren w¨ urde. In vielen F¨ allen k¨ onnen Absch¨atzungen der Gr¨oße und der Orientierung des Bildes eines Objekts aus verf¨ ugbaren Hinweisen abgeleitet werden, wovon einer der durch einen Segmentierungsmechanismus gefundene Umriß des Objekts sein k¨ onnte In den hier vorgestellten Simulationen haben wir das Erkennungsproblem dadurch vereinfacht, daß wir die wiederzuerkennenden Objekte vor einem homogenen Hintergrund pr¨ asentierten. Schwierigere Szenen werden besondere Seg-
186
L. Wiskott und C. von der Malsburg
mentierungsmechanismen erfordern, die zuerst eine Bildregion oder Bildregionen als Kandidaten f¨ ur Erkennung identifizieren. Eine Version des algorithmischen Systems war allerdings in der Lage, bekannte Objekte trotz eines dichten Hintergrunds anderer Objekte und trotz partieller wechselseitiger Verdeckung wiederzuerkennen [26]. Unser Modell ist ideal geeignet, um Bildsegmentierungsmechanismen zu implementieren, die auf zeitlicher Merkmalsbindung basieren, wie in [20] vorgeschlagen, in [21] und [23] implementiert und durch experimentelle Daten, wie etwa in [14], gest¨ utzt. Entsprechend dieser Idee synchronisieren alle durch ein gegebenes Objekt aktivierten Neuronen ihre zeitlich strukturierten Signale, um die Tatsache auszudr¨ ucken, daß sie Teil eines einzigen Segments sind. Dieses koh¨ arente Signal, das geeigneterweise mit unserer Aufmerksamkeitsvariaurde, k¨onnte den Erkennungsprozeß auf Segmente ble api , Gl. (5), identifiziert w¨ fokussieren. Zusammenfassend glauben wir, daß wir mit unserem Modell trotz der verbleibenden Schwierigkeiten und Diskrepanzen einen Fuß in der T¨ ur zum Verst¨ andnis wichtiger funktioneller Aspekte des menschlichen visuellen Systems haben.
5
Danksagungen
Das Modell wurde mit Hilfe der C++ class library NSL (Neural simulation Language) simuliert, die von Alfredo Weizenfeld et al. entwickelt wurde. Der Quellcode f¨ ur das Modell ist mittels anonymous ftp von ftp://ftp.neuro informatik.ruhr-uni-bochum.de/pub/manuscripts/IRINI/irini96-05/ irini96-05.src.tar.gz verf¨ ugbar. Informationen u ¨ber NSL, z.B. wie man es laden kann, sind u ¨ber http://www-hbp.usc.edu:8376/HBP/models/ index.html oder u ¨ber email vom Webmaster erh¨altlich.
Literatur 1. Amari, S. (1977) Dynamics of pattern formation in lateral-inhibition type neural fields. Biological Cybernetics 27, 77–87 2. Anderson, C. H., Essen, D. C. V. (1987) Shifter circuits: A computational strategy for dynamic aspects of visual processing. Proceedings of the National Academy of the Sciences USA 84, 6297–6301 3. Biederman, I. (1987) Recognition-by-components: A theory of human image understanding. Psychological Review 94, 115–147 (basic level object classifications can be made in 100 msec.) 4. Biederman, I., Gerhardstein, P. C. (1993) Recognizing depth-rotated objects: Evidence and conditions for three-dimensional viewpoint invariance. Journal of Experimental Psychology 19, 1162–1182 5. Bruce, V., Valentine, T., Baddeley, A. (1987) The basis of the 3/4 view advantage in face recognition. Applied Cognitive Psychology 1, 109–120 6. Buhmann, J., Lades, M., von der Malsburg, C. (1990) Size and distortion invariant object recognition by hierarchical graph matching. In: Proceedings of the IJCNN International Joint Conference on Neural Networks. IEEE, San Diego, pp. II 411– 416
Objekterkennung in einem selbstorganisierenden neuronalen System
187
7. Crick, F. (1982) Do dendritic spines twitch? Trends in Neurobiology, February, pp. 44–46 8. Damasio, A. R., Damasio, H. (1992) Cortical systems underlying knowledge retrieval: Evidence from human lesion studies. In: Neurobiology of Neocortex. John Wiley, New York 9. Daugman, J. G. (1988) Complete discrete 2-d gabor transform by neural networks for image analysis and compression. IEEE Transactions on Acoustics, Speech and Signal Processing 36(7), 1169–1179 10. Eigen, M. (1978) The hypercycle. Naturwissenschaften 65, 7–41 11. Jones, J., Palmer, L. (1987) An evaluation of the two dimensional Gabor filter model of simple receptive fields in cat striate cortex. Journal of Neurophysiology 58, 1233–1258 12. Kalocsai, P., Biederman, I., Cooper, E. E. (1994) To what extent can the recognition of unfamiliar faces be accounted for by a representation of the direct output of simple cells. In: Proceedings of the Association for Research in Vision and Ophtalmology, ARVO. Sarasota, Florida 13. Konen, W., Vorbr¨ uggen, J. C. (1993) Applying dynamic link matching to object recognition in real world images. In: Gielen, S., Kappen, B. (eds.) (1993) Proceedings of the International Conference on Artificial Neural Networks, ICANN. Springer-Verlag, London, pp. 982–985 14. K¨ onig, P., Engel, A. K. (1995) Correlated firing in sensory-motor systems. Current Opinion in Neurobiology 5, 511–519 15. Lades, M. (1995) Invariant Object Recognition with Dynamical Links, Robust to Variations in Illumination. Doktorarbeit, Fakult¨ at f¨ ur Physik und Astronomie, Ruhr-Universit¨ at Bochum, D-44780 Bochum 16. Lades, M., Vorbr¨ uggen, J. C., Buhmann, J., Lange, J., von der Malsburg, C., W¨ urtz, R. P., Konen, W. (1993) Distortion invariant object recognition in the dynamic link architecture. IEEE Transactions on Computers 42(3), 300–311 17. Phillips, P. J., Moon, H., Rizvi, S., Rauss, P. (1998) The FERET Evaluation. In: Wechsler, H., Phillips, P. J., Bruce, V., Fogelman-Soulie, F., Huang, T. S. (eds.) Face Recognition: From Theory to Applications. Springer, Heidelberg 18. Rosenblatt, F. (1961) Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms. Spartan Books, Washington D.C. 19. Subramaniam, S., Biederman, I., Kalocsai, P., Madigan, S. R. (1995) Accurate identification, but chance forced-choice recognition for rsvp pictures. In: Proceedings of the Association for Research in Vision and Ophtalmology, ARVO. Ft. Lauderdale, Florida 20. von der Malsburg, C. (1981) The correlation theory of brain function. Internal report 81-2, Max-Planck-Institut f¨ ur Biophysikalische Chemie, Postfach 2841, 3400 G¨ ottingen, FRG. Reprinted in Domany, E., van Hemmen, J. L., Schulten, K. (eds.) (1994) Models of Neural Networks II. Springer, Berlin, Chapter 2, pp. 95–119 21. von der Malsburg, C., Buhmann, J. (1992) Sensory segmentation with coupled neural oscillators. Biological Cybernetics 67, 233–242 22. von der Malsburg, C., Reiser, K. (1995) Pose invariant object recognition in a neural system. In: Proceedings of the International Conference on Artificial Neural Networks ICANN ’95. EC2 & Cie, Paris, pp. 127–132 23. Vorbr¨ uggen, J. C. (1995) Data-driven segmentation of grey-level images with coupled nonlinear oscillators. In: Proceedings of the International Conference on Artificial Neural Networks ICANN ’95. EC2 & Cie, Paris, pp. 297–302 24. Wiskott, L. (1995) Labeled Graphs and Dynamic Link Matching for Face Recognition and Scene Analysis. PhD thesis. Vol. 53 of Reihe Physik. Verlag Harri Deutsch, Frankfurt am Main
188
L. Wiskott und C. von der Malsburg
25. Wiskott, L., Fellous, J.-M., Kr¨ uger, N., von der Malsburg, C. (1995) Face recognition and gender determination. In: Proceedings of the International Workshop on Automatic Face- and Gesture-Recognition, IWAFGR. Z¨ urich, pp. 92–97 26. Wiskott, L., von der Malsburg, C. (1993) A neural system for the recognition of partially occluded objects in cluttered scenes. International Journal of Pattern Recognition and Artificial Intelligence 7(4), 935–948 27. Zucker, R. S. (1989) Short-term synaptic plasticity. Annual Reviews of Neuroscience 12, 13–31
Physikalische Komplexit¨ at und kognitive Strukturerkennung Michael A. Stadler und John-D. Haynes Institut f¨ ur Psychologie und Kognitionsforschung, Universit¨ at Bremen, Postfach 330440, D–28334 Bremen, Germany, e-mail:
[email protected],
[email protected] Zusammenfassung Ordnungsbildende Mechanismen des kognitiven Systems erlauben es Menschen, aus einer komplex strukturierten Umwelt, Regelm¨ aßigkeiten und Strukturen zu extrahieren. Es werden f¨ unf typische Prinzipien dargestellt: Gestaltgesetze, Nichtlinearisierung, Struktursensibilit¨ at, Strukturverst¨ arkung, Pr¨ agnanztendenzen und Lernerfahrungen. In wissenschaftlichen Forschungsprozessen k¨ onnen diese Mechanismen als Heuristiken eingesetzt werden, die zum Auffinden von Strukturen dienen, die im n¨ achsten Schritt durch algorithmisierbare Verfahren u uft werden. ¨berpr¨
1
Einleitung
F¨ ur den Begriff der Struktur“ gibt es bislang keine einheitlich akzeptierte De” finition. Es werden mehrere Strukturbegriffe verwandt, die sich z.T. auf die Wechselwirkung von Elementen in r¨aumlich verteilten Mustern beziehen und z.T. den subjektiven Charakter der Mustererkennung betonen. H¨aufig wird auch von Struktur im Zusammenhang mit Shannons Informationsbegriff gesprochen. Shannon und Weaver gaben 1949 ein Verfahren an [25], durch das der Ordnungsgehalt von Zeichenfolgen berechnet werden kann. Unwahrscheinliche Zeichenfolgen werden als informationshaltig definiert. Attneave hat 1965 [1], einer Anregung Shannons folgend, durch seine Ratespieltechnik gezeigt, daß kognitive Systeme derartige Strukturen in Zeichenfolgen sehr leicht zu erkennen verm¨ogen, indem immer das n¨ achstfolgende Zeichen geraten werden soll. Je informationshaltiger eine Zeichenfolge ist, um so weniger Fehler macht die ratende Person. Der hieraus zu berechnende subjektive Fehlerindex ist proportional zum mathematischen Informationsgehalt. Neben dem Informationsbegriff wird Struktur auch h¨ aufig eng mit dem Systembegriff in Zusammenhang gebracht. So ist etwa f¨ ur Bischof [4] die Struktur eines Systems die Gesamtheit von Beziehungen zwischen dessen Elementen. Maturana und Varela [21] hingegen unterscheiden den abstrakten Begriff der Organisation von deren konkreter Realisierung in einem System, die sie als Struktur bezeichnen. In dieser Variante enth¨alt also die Struktur neben den Relationen (oder Beziehungen) auch die konkreten Elemente. Wir werden den Begriff der Struktur nicht im Sinne der funktionalen Organisation eines Systems verwenden. Statt dessen werden wir Strukturen als Musterbildungen unterschiedlicher Komplexit¨at betrachten, die durch externe Reize in unserem kognitiven System hervorgerufen werden (vgl. [11]). Nat¨ urlich soll mit dieser Sichtweise nicht ausgeschlossen werden, daß auch objektive Strukturen, unabh¨ angig von der T¨atigkeit kognitiver Systeme existieren. Ein Kunst-
190
M. A. Stadler und J.-D. Haynes
werk, eine R¨ ontgenaufnahme oder ein Stadtplan hat f¨ ur uns als Beobachter jedoch eine bestimmte Struktur, die maßgeblich durch die Funktionsweise unseres Wahrnehmungssystems mitbestimmt wird. Diese Strukturbildung ist, wenn sie spontan und ungerichtet erfolgt, in einem hohen Maße unvorhersehbar und idiosynkratisch. Um dem zu begegnen kann versucht werden, sie etwa durch interindividuell vereinbarte Begriffssysteme zu systematisieren. Insbesondere die Wissenschaft hat es sich zum Programm gemacht, durch derartige Konventionen ein h¨ oheres Maß an Objektivit¨at zu erreichen. Bei der bevorzugten begrifflichen ¨ Uberformung zwecks Objektivit¨at und Kommunizierbarkeit sollte jedoch nicht u ¨bersehen werden, daß auch die spontane Strukturbildung in unserem kognitiven System eine wichtige Unterst¨ utzung bei der wissenschaftlichen Forschung leisten kann. Daß die Wissenschaftspraxis keine rein formale Datentransformation darstellt, die von der genauen Art der Repr¨asentation unabh¨angig ist, wird daran deutlich, wie wichtig es ist, in welcher Form Daten dem kognitiven System zur Eingabe vorgegeben werden (vgl. auch [18]). Man k¨onnte etwa durch die Auswertung einer Vielzahl r¨ aumlich u ¨ber den Nordatlantik verteilter Wetterdaten eines Jahres eine Hurricane-Statistik erstellen und w¨ urde in deren graphischer Darstellung sofort erkennen, daß sich eine Normalverteilung zwischen Juni und November mit Spitzenwerten im August und September ergibt. Oder man k¨onnte durch eine raumzeitliche Eintragung von Spitzenwindgeschwindigkeiten in eine Karte des Nordatlantik die Zugrichtung, die St¨arke und die Ver¨anderung der Geschwindigkeiten unmittelbar erkennen und w¨ urde sich wiederholende raumzeitliche Strukturen gut ablesen k¨onnen. Solche Erkenntnisse allein durch die Betrachtung tabellarischer Wetterdaten zu gewinnen w¨are sehr aufwendig. Beim Vergleich des Pariser und des Washingtoner Stadtplanes etwa f¨allt die unterschiedliche Entstehungsgeschichte sofort ins Auge (Abb. 1). Die symmetrische Anordnung der Straßen, die Washingtons Reißbrettkonstruktion verr¨at, ist auf den ersten Blick ersichtlich. W¨ urde man hingegen die tabellarischen Daten betrachten, die ein Landvermesser aufzeichnet, w¨are es schwer, diesen Unterschied spontan zu erkennen. Ebenso w¨are der Versuch, die Struktur einer komplexen Vektorgraphik allein aus ihren Rohdaten zu prognostizieren, f¨ ur einen Menschen sehr schwierig, wohingegen algorithmische Verfahren zur Strukturanalyse genau bei diesen Daten ansetzen. Bei der graphischen Transformation macht man sich die Eigenschaft des visuellen Kanals kognitiver Systeme zunutze, r¨aumlich verteilte Muster parallel aufnehmen und verarbeiten zu k¨onnen, wobei globale Struktureigenschaften besser zu erkennen sind. Die visuelle Strukturbildung erfolgt dabei datengesteuert und assoziativ, d.h. ohne langwierige heuristische Analyseprozesse. Ist eine Struktur erst einmal in der graphischen Transformation identifiziert, kann in einem n¨achsten Schritt versucht werden, diese mathematisch zu best¨ atigen. Die spontane Strukturbildung des kognitiven Systems kann somit als eine Art Heuristik aufgefaßt werden, die Hinweise f¨ ur geeignete mathematische Analyseverfahren geben kann. Ein Paradebeispiel f¨ ur die N¨ utzlichkeit graphischer Darstellungen sind komplexe Dynamiken, die den Forscher i. d. R. vor eine un¨ uberschaubare Datenflut stellen. Beim Verhalten komplexer Systeme ist bisher die Formalisierung und
Komplexit¨ at und Strukturerkennung
191
Abb. 1. Die graphische Struktur der Stadtpl¨ ane von Paris und Washington verdeutlicht auf den ersten Blick die unterschiedliche Entstehungsgeschichte
Objektivierung nicht befriedigend gelungen, so daß eine Vielzahl von Komplexit¨ atsmaßen einander unverbunden gegen¨ uberstehen [12]. Jedoch k¨onnen komplexe Dynamiken in der Regel so graphisch transformiert und aufbereitet werden, daß es f¨ ur den Betrachter wesentlich leichter wird, enthaltene Strukturen zu extrahieren. Gerade in den Neurowissenschaften wird die Visualisierung genutzt, um die enorme Datenflut zu bew¨altigen. In Anbetracht der Tatsache, daß beim heutigen Stand der Elektrophysiologie große Datenmengen im Millisekundentakt an bis zu 128 verschiedenen Positionen der Gehirnoberfl¨ache aufgenommen werden k¨ onnen, werden graphische Falschfarbendarstellungen gew¨ahlt, die den Forschern die M¨ oglichkeit geben, Aktivit¨atsmuster im zeitlichen Verlauf zu erkennen (sog. Brain-Imaging). Hierbei vertraut man zu Recht auf die Ordnungstendenzen und Ordnungssensibilit¨aten des kognitiven Systems. Tabellarische Darstellungen dieser Datenmengen w¨ urden den auswertenden Forscher hoffnungslos u ¨berfordern. Die rein tabellarische Betrachtung statistischer Abweichungsmaße w¨ urde es wesentlich erschweren, die raumzeitliche Dynamik der Aktivit¨ atsmuster zu erkennen. W¨ ahrend der visuelle Kanal auf parallele Verarbeitung spezialisiert ist, werden eindimensionale zeitliche Wiederholungsstrukturen besser f¨ ur den akustischen Kanal kognitiver Systeme aufbereitet. Die komplexen Rhythmen in Gy¨orgi Ligetis Et¨ ude D´esordre“ k¨ onnen f¨ ur den unge¨ ubten Notenleser im Notenbild gar ” nicht und f¨ ur den ge¨ ubten nur schwerlich erkannt werden. Wird diese Et¨ ude aber akustisch auf dem Fl¨ ugel realisiert, h¨ort man die rhythmischen Strukturen und ¨ ihre komplexen Uberlagerungen sofort. Die St¨arke des akustischen Kanals kognitiver Systeme liegt vorwiegend in der F¨ahigkeit zur Erkennung von Strukturen in eindimensionalen zeitlichen Folgen. In seinem Werk Artikulation“ versucht Ligeti, menschliche Sprache mittels ” elektronisch erzeugter Ger¨ ausche nachzuahmen. Die Struktur dieser Komposition ist parallel und ¨ außerst komplex, kann aber wiederum durch eine graphische Aufbereitung sehr gut veranschaulicht werden, bei der verschiedene Kl¨ange
192
M. A. Stadler und J.-D. Haynes
durch geeignete graphische Symbole kodiert werden, die die akustische Struktur in eine isomorphe graphische Struktur u ¨bersetzen (Abb. 2). Die Frage der Mustererkennung scheint also in erster Linie ein Problem der Aufbereitung und Transformation einer großen Anzahl von Daten f¨ ur einen in bestimmter Weise spezialisierten Sinneskanal zu sein. Die Identifikation von Strukturen in komplexen Mustern w¨ are dann eine Leistung des kognitiven Systems auf der Grundlage entsprechend aufbereiteter Sinnesdaten.
Abb. 2. Rainer Wehingers graphische Interpretation von Gy¨ orgi Ligetis Werk Ar” tikulation“. Komplexe Klangstrukturen werden in isomorphe graphische Strukturen transformiert. Punkte stehen f¨ ur kurze Impulse, K¨ amme f¨ ur Rauschen. Die fl¨ achige Ausdehnung kodiert Laust¨ arke, die horizontale Ausdehnung Dauer und die vertikale Bewegung Tonh¨ ohenver¨ anderung (nach [20])
Wenn von uns wahrgenommene Strukturen subjektiv-konstruktive Gebilde sind, m¨ ussen wir uns fragen, wie diese im kognitiven System entstehen. Es sollen hier f¨ unf interne Prinzipien untersucht werden, durch die Strukturen im Wahrnehmungssystem von Lebewesen entstehen: (1) Gestaltgesetze, (2) Strukturerzeugung durch Nichtlinearisierung, (3) Struktursensibilit¨at der Sinnesorgane, (4) Strukturverst¨ arkung durch Pr¨agnanztendenzen und (5) Strukturbildung durch Lernerfahrungen. Diese Aufz¨ahlung soll keine scharf abgegrenzte Taxonomie darstellen, sondern betont unterschiedliche Aspekte der Strukturbildung, die sich wechselseitig bedingen k¨onnen.
2
Strukturbildung und Gestaltgesetze
Um die Konstruktivit¨ at der Strukturbildung im Wahrnehmungssystem zu verdeutlichen, k¨ onnen wir zun¨ achst von einem Extremfall ausgehen. Betrachten wir also ein Reizmuster, von dem wir mit Recht annehmen k¨onnen, daß es zuf¨alligen Charakter hat: den Sternenhimmel. Zwar gibt es f¨ ur Astronomen eine Reihe von Strukturmerkmalen, nach denen sich die Materie im Universum verteilt: Planetensysteme, Galaxien, Galaxienhaufen etc. Aber der dem unbewaffneten
Komplexit¨ at und Strukturerkennung
193
menschlichen Auge zug¨ angliche Ausschnitt an Objekten einer bestimmten minimalen Lichtintensit¨ at tr¨ agt hinsichtlich seiner r¨aumlichen Intensit¨atsverteilung eher zuf¨ alligen, d.h. regellosen Charakter. Die verschiedenen ein Sternbild konstituierenden Sterne liegen in ganz unterschiedlichen Tiefen im Weltraum und stehen in keinerlei besonderem Bezug zueinander. Was wir aber sehen sind ohne Zweifel Strukturen: Virtuelle Linien, die sich u ¨ber einen großen Teil des Sternenhimmels erstrecken und sich zu geometrischen Figuren und Sternbildern formieren. Die Sternbilder sind ein gutes Beispiel f¨ ur Strukturerzeugung im visuellen System. Der Große Wagen z.B. besteht aus sieben Sternen etwa gleicher Helligkeit. Sterne geringerer Helligkeit, wie das Reiterlein“ u ¨ber dem mittle” ren Deichselstern geh¨ oren nicht dazu. Ebensowenig der Nordstern, der in der Verl¨ angerung der beiden hinteren Sterne des Wagens liegt, oder der Arkturus, der in gr¨ oßerer Entfernung in Verl¨angerung der Deichsel zu finden ist. Die sieben Sterne des Großen Wagens (Abb. 3b) k¨onnen nur in einer bestimmten Weise miteinander verbunden gesehen werden (Abb. 3c). Jede andere Verbindung durch (virtuelle) Linien w¨ urde in unserer Wahrnehmung nicht realisiert werden und bei einer entsprechenden Vorgabe, wie in Abb. 3a, nicht als der Große Wagen wiedererkannt werden. Sternbilder wie der Große Wagen, der Orion, Cassiopeia und andere wurden in vielen Kulturen aus den zuf¨allig verteilten Sternenmustern auf dieselbe Weise ausgegliedert und als wiedererkennbare Strukturen identifiziert. Wohlgemerkt, nicht die Benennung dieser Strukturen ist bei verschiedenen V¨ olkern gleich, wohl aber die figurale Anordnung der zu einem Sternbild geh¨ origen Sterne. Es wurden also ¨ahnliche Strukturen erzeugt und Bedeutungszuweisungen vorgenommen, die objektiv als solche nicht vorhanden sind. Diese Bedeutungszuweisung ist keineswegs zwingend, sondern ist h¨aufig nur an relativ allgemeinen Eigenschaften des Musters festgemacht (z.B. Großer B¨ar = Großer Wagen). Dar¨ uber hinaus k¨ onnen Sternbilder Bedeutungen abstrakterer Art besitzen (etwa in der Astrologie) und in gr¨oßeren Bedeutungszusammenh¨angen stehen, die offenbar dem Wunsch der Menschen entsprechen, Ordnung in das sie umgebende Universum zu bringen. Die Mechanismen, nach denen die Sternbilder als f¨ ur die meisten Menschen klar ausgegliederte Strukturen am Sternenhimmel entstehen, sind am besten durch die Gestaltgesetze beschreibbar. Betrachten wir etwa das Zentrum des Sternbildes Orion (Abb. 4): Dieses besteht aus vier etwa gleich hellen Sternen, die angen¨ ahert ein Rechteck bilden. Inmitten der langen Seiten befinden sich leicht schr¨ agliegend drei Sterne in einer Linie, die als der G¨ urtel bezeichnet werden. Darunter sind, ebenfalls in Linie, drei z.T. sehr schwach leuchtende Sterne angeordnet, die das Schwert des Orion sein sollen. Auf der gegen¨ uberliegenden kurzen Seite des Rechtecks steht eine Gruppe schw¨acher leuchtender Sterne an der Stelle, an der man den Kopf eines Kriegers lokalisieren w¨ urde, wenn die Sterne des großen Rechtecks Schultern und F¨ uße darstellten. Die hier zum tra¨ gen kommenden Gestaltgesetze sind das Gesetz der Ahnlichkeit (vier etwa gleich helle Sterne formen das große Rechteck), das Gesetz der N¨ahe (diese vier Sterne sind untereinander n¨ aher angeordnet als zu allen anderen etwa gleich hellen Sternen des Himmels), das Gesetz der durchgehenden Linie (die je drei Sterne des G¨ urtels und des Schwertes liegen auf einer Geraden). Auch andere Gestaltgeset-
194
M. A. Stadler und J.-D. Haynes
Abb. 3. Untypische (a) und typische Gruppierung (c) der Sterne des Großen Wagens (b)
ze, wie das Gesetz der Geschlossenheit oder das Gesetz der Symmetrie spielen bei der Identifizierung von Sternbildern eine Rolle. Ein bilderkennender Automat h¨ atte dennoch gr¨ oßte Schwierigkeiten, Sternbilder zu identifizieren ¨ahnlich wie Menschen es tun. Die Gestaltgesetze waren bisher nicht algorithmisierbar, da sie sich gegenseitig in ihrer Wirkung teilweise best¨atigen oder auch aufheben (vgl. [22]). Wie die Gestaltpsychologen herausgefunden haben, spielt n¨amlich jeweils die Gesamtbedingungslage die entscheidende Rolle im Hinblick darauf, ob sich Elemente in einem Feld nach der Gleichartigkeit, der N¨ahe, der durchgehenden Linie o. ¨ a. gruppieren. Dies bedeutet, daß auch der Kontext der u ¨brigen Sterne des Sternenhimmels einen Einfluß darauf hat, ob bestimmte Sterne eines Sternbildes als zusammengeh¨ orig gesehen werden. Innerhalb des Sternbildes des Orion liegen beispielsweise eine Reihe von anderen Sternen mit z.T. mittlerer Helligkeit, die nicht als zum Orion zugeh¨orig gesehen werden, obwohl sie durchaus heller sind, als einige der diesem zugeh¨origen Sterne. Die Strukturierung des Sternenhimmels im kognitiven System des Beobachters ist ein gutes Beispiel daf¨ ur, daß komplexe Strukturen subjektiv erzeugt werden, dies insbesondere deshalb, weil es nur schwer begr¨ undbar w¨are, daß die gesehenen Strukturen (Wagen, Schwertk¨ampfer) objektiven Charakter besitzen.
3
Strukturerzeugung durch Nichtlinearisierung
Wir haben gesehen, daß die Gestaltgesetze eine wesentliche Rolle bei der Gruppierung von Elementen im Wahrnehmungsfeld und bei den dadurch entstehenden Strukturen spielen. Der Prozeß der Strukturerzeugung durch das Wahrnehmungssystem kann auch auf andere Weise erfolgen. Ein wichtiger Mechanismus
Komplexit¨ at und Strukturerkennung
195
Abb. 4. Die zentralen Sterne des Sternbildes Orion
ist hierbei die Nichtlinearisierung. Die Reize f¨ ur das visuelle System sind elektromagnetische Schwingungen unterschiedlicher Frequenz bzw. Wellenl¨ange. Aus dem großen Spektrum elektromagnetischer Schwingungen sind nur solche mit Wellenl¨ angen zwischen ca. 400 und 700 nm sichtbar, d.h. sie wirken als ad¨aquate Reize f¨ ur das visuelle System und werden als Lichtempfindungen wahrgenommen. Dieses Spektrum sichtbaren Lichts stellt aus physikalischer Sicht eine lineare Skala unterschiedlicher Wellenl¨angen dar, die in keiner Weise abgestuft ist. In der visuellen Wahrnehmung wird dieses kontinuierliche Reizspektrum jedoch in B¨ ander zerlegt, die als unterschiedliche Farben erscheinen. Schon Newton ließ 1704 bei seinen Untersuchungen des Farbspektrums Beobachter durch eine kleine Linie die Stellen kennzeichnen, an denen eine Farbe pl¨otzlich in eine andere ¨ u wurden die Farbspr¨ unge zwischen Rot, Gelb, Oran¨bergeht. Ubereinstimmend ge, Gr¨ un, Blau, Indigo und Violett, den Farben des Regenbogens, gesehen. Diese Nichtlinearisierung des physikalischen Farbspektrums in der Wahrnehmung f¨ uhrt dazu, daß die Objekte, je nachdem welche Anteile des Sonnenlichts sie reflektieren oder absorbieren, in unterschiedlichen Farben gesehen werden. Dadurch wird den farbsinnest¨ uchtigen Lebewesen eine diskontinuierliche Strukturierung ihrer Umwelt erm¨ oglicht. Das System der Farben, die im visuellen System erzeugt werden, besitzt eine ¨ Reihe von Eigenschaften, f¨ ur die es im physikalischen Spektrum kein Aquivalent gibt: (1) Manche Farben erscheinen heller (Gelb und Orange), andere dunkler (die Blaut¨ one). (2) Blau und Gelb sind komplement¨ar, genauso Rot und Gr¨ un. Kurzwelliges Licht, das in der Regel Blau gesehen wird, erzeugt auf der
196
M. A. Stadler und J.-D. Haynes
Netzhaut ein Nachbild, das gelb erscheint. Ebenso erzeugt langwelliges Rot ein Nachbild, das gr¨ un erscheint und umgekehrt. (3) Farben, die durch kurzwelliges Licht erzeugt werden, erscheinen kalt, Farben die durch langwelliges Licht erzeugt werden erscheinen hingegen warm. (4) Daß zwischen den einzelnen wahr¨ genommenen Farben tats¨ achlich nichtlineare Uberg¨ ange bestehen, l¨aßt sich dadurch zeigen, daß die Unterschiedsschwellen zwischen den einzelnen subjektiven Farbb¨ andern kleiner sind als innerhalb der Farbb¨ander. Ein weiterer nichtlinearer Mechanismus der Strukturerzeugung besteht in der Ausbildung von Kategorisierungen und psychischen Bezugssystemen [31]. Alle Objekte werden in der Regel bestimmten Klassen zugeordnet und sind innerhalb dieser Klassen einer Kategorisierung zug¨anglich. Innerhalb der Objektklasse Haus etwa, k¨ onnen zur Beschreibung Kategorien wie sehr kleines, kleines, mittelgroßes, großes, sehr großes Haus verwendet werden. Diese Kategorien w¨ urden sprachlich etwa durch die Begriffsreihe H¨ utte, Bungalow, Haus, Hochhaus oder Wolkenkratzer gekennzeichnet. Dabei w¨ urde das World Trade Center ebenso wie das Empire State Building der Kategorie sehr groß zugeordnet werden, obwohl der Gr¨ oßenunterschied mehr als 100 m betr¨agt. Die kontinuierliche und lineare Skala der H¨ ohe wird hierbei nichtlinear auf diskrete Kategorien abgebildet. Die Objektklassifizierung spannt zugleich ein psychisches Bezugssystem auf, von dem die Verwendunung der Kategorien beeinflußt wird. Wird das Bezugssystem gewechselt, so ¨ andert sich auch die Verwendung der Kategorien. Werden nur Ratten miteinander verglichen, so k¨onnte eine spezielle Ratte etwa als groß beschrieben werden, ein bestimmter Elefant innerhalb der Klasse der Elefanten als klein. W¨ urde man jedoch beide innerhalb der u ¨bergreifenden Klasse der S¨ augetiere vergleichen, so w¨ urde die Ratte als klein und der Elefant als groß kategorisiert werden.Diese Art der Bezugsystembildung und Kategorisierung ist keineswegs nur bei Menschen oder h¨oheren S¨augetieren zu beobachten, sondern sie findet sich bereits bei Tauben (vgl. [32]). Durch diese Mechanismen wird ebenso wie durch die Farben die komplexe Umwelt strukturiert. Die Objekte besitzen subjektiv erzeugte Eigenschaften, die es den Lebewesen erm¨oglichen, sich zurechtzufinden und bestimmte Umweltkonstellationen wiederzuerkennen.
4
Struktursensibilit¨ at
Die Mechanismen, durch die kognitive Systeme Ordnung erzeugen, dienen nicht nur dazu, wie im letzten Abschnitt ausgef¨ uhrt, Ordnung in eine stochastische oder chaotische Umwelt zu bringen und diese als Orientierungsgrundlage zu nutzen, sondern es geht auch darum, geordnete Strukturen, die sich in stochastischen Reizmustern verbergen, zu erkennen. Betrachten wir etwa die Abb. 5, so l¨aßt sich leicht erkennen, daß hier kein Zufallsmuster vorliegt. Bei l¨angerer Betrachtung bilden sich in der Wahrnehmung deutliche, die Elemente u ¨bergreifende, geordnete Strukturen. Man sieht bl¨ utenf¨ormige Teile, die sich kreisf¨ormig zu gr¨oßeren Rosetten zusammensetzen. Verlagert man die Aufmerksamkeit nur ein wenig, so zerfallen diese Rosetten wieder und die bl¨ utenf¨ormigen Teile schließen sich zu neuen kreisf¨ ormigen Rosetten zusammen. Durch die stete Ver¨anderung wird das Wechselspiel zwischen Stabilit¨at und Plastizit¨at bei der Strukturbildung deut-
Komplexit¨ at und Strukturerkennung
197
lich. Der permanente Aufbau und Zerfall der Strukturen erweckt den Eindruck, als sei das kognitive System auf der Suche nach der diesem Muster tats¨achlich zugrundeliegenden Ordnung. Wenn es eine geordnete Struktur entdeckt, f¨ ur die es h¨ ochst sensibel ist, so hebt es diese hervor und l¨aßt sie als tats¨achlich in diesem Muster enthalten erscheinen. Ein anderes Beispiel f¨ ur diese Sensibilit¨at des visuellen Systems f¨ ur geordnete Strukturen ist das Fleckenmuster der Abb. 6. Nach einer kurzen Betrachtungszeit erscheint f¨ ur viele Beobachter ein Dalmatinerhund in einer dalmatinischen Landschaft. Tats¨ achlich besteht sowohl der Hund als auch die Umgebung nur aus unterschiedlich geformten Flecken. Das visuelle System kann aber durch virtuelle Linien den Eindruck eines Hundes erzeugen, der dann, aus den Flecken und den weißen Zwischenr¨ aumen zusammengesetzt, als vollst¨andiges Objekt erscheint. Virtuelle Konturen wurden zuerst von dem italienischen Psychologen G. Kanizsa entdeckt (Abb. 7). Kanizsa konnte zeigen, daß nur wenige Bruchst¨ ucke einer Figur im Reizmuster enthalten sein m¨ ussen, damit eine vollst¨andige Figur erscheint. Die virtuellen Linien, die das auf der Spitze stehende Dreieck umschreiben, sind hier so stark, daß die meisten Beobachter glauben, daß sie im Reizmuster tats¨ achlich enthalten sind, was nicht der Fall ist.
Abb. 5. Tapetenmuster
Ein besonderes Beispiel f¨ ur die Struktursensibilit¨at des kognitiven Systems ist die Entdeckung von Symmetrien (s. a. Abb. 1). Dies mag seine stammesgeschichtliche Ursache darin haben, daß es f¨ ur die meisten Organismen außerordentlich wichtig ist, in der unbelebten Natur lebendige Strukturen zu entdecken. Alle Tiere sind symmetrisch aufgebaut. Die einfacheren Lebewesen, oftmals radialsymmetrisch, die h¨ oheren immer in der L¨angsachse gespiegelt symmetrisch. Sei es um Freßfeinden zu entfliehen, sei es um selbst andere Tiere zu erbeuten, immer ist ein visuelles System von Vorteil, das sensibel auf symmetrische Strukturen in einer komplexen Umwelt reagiert. Interessanterweise kann die Struktursensibilit¨at des visuellen Systems manchmal erh¨ oht werden, indem Rauschen u ¨ber bestimmte Reizmuster gelegt wird. Betrachten wir etwa Abb. 8, ein sehr stark aufgerastertes Foto einer Gruppe
198
M. A. Stadler und J.-D. Haynes
Abb. 6. Dalmatinischer Hund in dalmatinischer Landschaft
Abb. 7. Virtuelle Konturen beim Kanizsa-Dreieck [15]
von Kindern, die aber in dem Bild nicht ohne weiteres erkannt werden k¨onnen. Erst wenn der Beobachter seine Augen zusammenkneift und damit das Muster unscharf macht, oder das Bild k¨ unstlich verrauscht wird, erkennt jeder sofort die Gesichtsz¨ uge der Kinder wie auf einer normalen Fotographie. Dieses Ph¨anomen tritt bei der Wahrnehmung immer dann auf, wenn die Elemente eines Musters so scharf hervorgehoben sind, daß sie den Gesamteindruck des Musters u ¨bert¨onen. Der Gesamteindruck, seine Gestaltqualit¨at, tritt hervor, wenn die Sch¨arfe und Abgehobenheit der Elemente vermindert wird - dies kann technisch durch eine Gaußsche Filterung des Ausgangsbildes erreicht werden (Abb. 9). Die Struktur-
Komplexit¨ at und Strukturerkennung
199
sensibilit¨ at des visuellen Systems kann also u. U. gerade dadurch erh¨oht werden, daß der Signal-Rausch-Abstand des Reizmusters vermindert wird. Dieses Ph¨anomen ¨ ahnelt dem physikalischen Mechanismus der stochastischen Resonanz (s. [33]).
Abb. 8. Die in dem gerasterten Bild versteckten Kinderk¨ opfe sind deutlicher zu erkennen, wenn der Beobachter die Augen zusammenkneift
Struktursensibilit¨ at beruht gr¨oßtenteils auf pr¨aattentiven Prozessen und spielt eine wichtige Rolle bei der Figur-Grund Trennung. Bei der Untersuchung der Segmentierung von Texturen war eine wichtige Frage, welche Eigenschaften diese aufweisen m¨ ussen, damit es zu einem spontanen pop-out“ kommt (s. [17]). ” Dabei ist es bislang nicht befriedigend gelungen, die Br¨ ucke zu schlagen zwischen lokalen (mikroskopischen) Struktureigenschaften und globalen figuralen Prozessen, wie sie etwa durch die Gestaltpsychologie beschrieben wurden. W¨ahrend auf lokaler Ebene vor allem elementare Merkmalsdetektoren [29] oder Textone“ ” [14] untersucht worden sind, werden bei globalen Prozessen vor allem Statistiken unterschiedlicher Ordnungsgrade betrachtet. Bei Untersuchungen zum dynamischen Wechselspiel zwischen lokalen und globalen Prozessen wird jedoch h¨aufig wieder auf die Gestaltgesetze zur¨ uckgegriffen [3]. Wie unabh¨angig Gestaltprozesse von bewußter Objekterkennung sind, wird in einem Experiment von Bowers, Regehr und Balthazard [5] deutlich. Ihre Versuchpersonen waren in der Lage, in rudiment¨ aren Gestaltschließungsaufgaben zu erkennen, ob Objekte verborgen waren, ohne diese konkret identifizieren zu k¨onnen. Bowers et al. folgerten daraus, daß Prozesse der Koh¨arenzdetektion auf einer Aktivit¨atsausbreitung im Ged¨ achtnis beruhen, die unterhalb der Bewußtseinschwelle erfolgt und in einem
200
M. A. Stadler und J.-D. Haynes
Abb. 9. Dieses Bild ist nicht das Original, sondern wurde aus dem gerasterten Bild von Abb. 8 durch Gaußsche Filterung gewonnen (T. Ditzinger)
¨ intuitiven Urteil m¨ undet, das dann einer weiteren bewußten rationalen Uberpr¨ ufung zugef¨ uhrt werden kann.
5
Strukturverst¨ arkung durch Pr¨ agnanztendenzen
In gestalttheoretischen Untersuchungen wurde immer wieder daraufhingewiesen, daß der Begriff der Pr¨agnanz doppeldeutig ist [16]. Einerseits bezeichnet n¨ amlich der Pr¨ agnanzbegriff die Tatsache, daß ausgezeichnete Strukturen wie Kreis, Quadrat, rechter Winkel, Vertikale u. ¨a. leichter, schneller und genauer wahrgenommen werden als etwa Ellipsen, Vierecke, schiefe Winkel und schr¨age Linien. Dies f¨ uhrt dazu, daß etwa in komplexen Mustern enthaltene einfache Figuren in der visuellen Wahrnehmung sofort herausgehoben und als geordnete Struktur erscheinen (vgl. Abb. 10). Daneben ist aber mit dem Pr¨agnanzbegriff noch etwas anderes gemeint, n¨amlich die Wahrnehmungstendenz, nicht pr¨agnante Figuren in Richtung auf pr¨agnantere Figuren verzerrt zu sehen. So werden etwa schiefe Winkel in Richtung auf rechte Winkel verzerrt, wodurch sich z.T. dramatische optische T¨ auschungen ergeben (Abb. 11). Die Pr¨ agnanztendenz spielt nun insofern bei der subjektiven Strukturerkennung eine bedeutsame Rolle, da durch sie der Strukturgehalt unpr¨agnanter Muster verst¨ arkt wird. Im Einzelfall reicht die Pr¨agnanztendenz des visuellen Systems nat¨ urlich nicht aus, aus einer Ellipse einen Kreis, aus einem schiefen einen rechten Winkel oder aus einem Parallelogramm ein Quadrat zu machen. Die Pr¨ agnanztendenz entzerrt unpr¨agnante Muster immer nur ein wenig in Richtung auf die pr¨ agnantere Gestalt. Aber es l¨aßt sich zeigen, daß diese kleinen
Komplexit¨ at und Strukturerkennung
201
Abb. 10. Pr¨ agnante Kreisstruktur in einem Zufallsmuster
Abb. 11. Das Sandersche Parallelogramm: Obwohl es anders erscheint, haben die beiden Diagonalen dieselbe L¨ ange
Schritte durch Iteration aufsummiert werden k¨onnen, so daß tats¨achlich nach einer begrenzten Zahl von Iterationsschritten die pr¨agnante Gestalt entsteht. Dies kann mit einem von Bartlett [2] in die kognitive Psychologie eingef¨ uhrten Verfahren nachgewiesen werden, das wir als Bartlett-Szenario“ bezeichnen [27]. ” Bartlett ging urspr¨ unglich von dem Ph¨anomen der Strukturierung von Geschich¨ ten durch m¨ undliche Uberlieferung aus. Er gab einer ersten Versuchsperson eine komplexe und nur schwer verst¨andliche Geschichte vor (ein Indianerm¨archen). Die Versuchsperson mußte diese Geschichte einer weiteren Person nacherz¨ahlen, die sie wiederum einer dritten Person m¨ undlich weitergab usw. Bei diesem Iterationsverfahren wurde die Geschichte langsam in Richtung auf eine pr¨agnante und gut verst¨ andliche ver¨ andert. Viele scheinbar nicht passende Einzelheiten wurden weggelassen, andere hinzugef¨ ugt, wo sich eine L¨ ucke im Text zu ergeben schien. Außerdem wurde die Geschichte regelm¨aßig aus dem fremden Kulturkreis in den eigenen Kulturkreis u ¨bersetzt (vgl. [28]). Das Bartlett-Szenario wurde von uns auf die iterierte Wiedergabe komplexer Punktmuster u ¨bertragen, um die Wirkung der Pr¨agnanztendenz aufzuzeigen. Auf einem 8 x 8-Felder Spielbrett bekommt die erste Versuchsperson ein komplexes Muster aus 16 Spielsteinen f¨ ur f¨ unf Sekunden vorgelegt. Diese Zeit reicht normalerweise nicht aus, sich das komplexe Muster im Detail einzupr¨agen. Nach der Beobachtungszeit werden die Spielsteine entfernt und die Versuchsperson hat die Aufgabe, das soeben betrachtete Muster nachzulegen. Sie kann daf¨ ur beliebig viel Spielsteine verwenden und beliebig lange an der Rekonstruktion des Musters arbeiten. Das Ergebnis wird der n¨achsten Versuchsperson vorgelegt, die nach f¨ unf Sekunden Beobachtungsdauer ebenfalls die Aufgabe hat, das Muster zu repro-
202
M. A. Stadler und J.-D. Haynes
duzieren. Dies wird mit immer neuen Versuchspersonen so lange wiederholt, bis drei Versuchspersonen hintereinander exakt das gleiche Muster reproduzieren. Dann wird angenommen, daß keine weiteren Ver¨anderungen mehr stattfinden werden und nunmehr ein stabiler Endzustand gefunden worden ist. Die Abb. 12 ¨ zeigt im Uberblick das Ergebnis einer solchen seriellen Reproduktion. Links oben ist das Ausgangsmuster dargestellt und die 20 aufeinanderfolgenden Reproduktionen sind zeilenweise zu lesen (die dritte Reproduktion des gleichen Musters am Ende der Serie wurde weggelassen). Das Ausgangsmuster links oben bildet deutlich zwei Punktgruppen. Diese beiden Gruppen werden bei den ersten sieben Reproduktionen mehr oder weniger beibehalten. Dann u ¨berwiegt eine sich schon von der vierten Reproduktion an langsam durchsetzende diagonale Tendenz von links oben nach rechts unten. Tats¨achlich ist diese Diagonale im Ausgangsmuster bereits mit sieben diagonal in Reihe liegenden Spielsteinen angelegt, aber sie tritt in dieser Konstellation kaum hervor. Die diagonale Tendenz verst¨arkt sich in den folgenden Reproduktionsmustern zunehmend und endet im 18. Muster in einer v¨ ollig regelm¨ aßigen diagonalen Konstellation. Die Reproduktionsreihe zeigt deutlich, daß schwache, in dem Muster enthaltene Merkmale durch die strukturierende Tendenz des kognitiven Systems in Richtung auf pr¨agnante Gestalten systematisch verst¨ arkt werden.
Abb. 12. Serielle Reproduktion eines komplexen Musters
Komplexit¨ at und Strukturerkennung
6
203
Lernabh¨ angigkeit der Strukturbildung
Bisher haben wir nur Strukturbildungsmechanismen betrachtet, die weitgehend erfahrungsunabh¨ angig und somit interindividuell konstant sind. Nichtlinearisierung, Struktursensibilit¨ at und Strukturverst¨arkung sind, ¨ahnlich wie die Gestaltgesetze, universelle, angeborene Mechanismen, die keiner zeitlichen Ver¨anderung unterliegen. Zwar erfolgt auch bei diesen Mechanismen eine epigenetische Feineinstellung (s. [26]), diese wird jedoch bei den meisten Menschen aufgrund ¨ der Ahnlichkeit ihrer physikalischen Umwelt vergleichbar ausfallen. Es ist jedoch offensichtlich, daß kognitive Strukturbildung durch Lernerfahrung auch jenseits ontogenetisch fr¨ uher Reifungsprozesse wesentlich modifiziert werden kann, ja daß Strukturerkennung in bestimmten F¨allen ohne vorherige Lernerfahrung unm¨ oglich ist. Dies gilt insbesondere dann, wenn der Bereich rein physikalisch bestimmter Musterbildung verlassen wird, und die Bedeutung eines Reizes erfaßt werden soll. Vor u ¨ber einhundert Jahren untersuchten die amerikanischen Psychologen William L. Bryan und Noble Harter [6], wie Versuchspersonen u ¨ber einen l¨angeren Zeitraum lernten, Morsekode zu senden und zu empfangen. W¨ahrend ihre Lernkurven f¨ ur das Senden den erwarteten kontinuierlichen Lernfortschritt aufzeigten, kam es beim Empfangen zu ausgepr¨agten Plateaus, also zu Phasen der Stagnation, die gefolgt wurden von Phasen mit schnellem Lernzuwachs (Abb. 13). Um die Ursache hierf¨ ur zu ermitteln, wurde in einem nachfolgenden Experiment [7] der semantische Informationsgehalt der zu empfangenden Morsesignale systematisch variiert. Es wurden Morsebotschaften dargeboten, die dekodiert entweder (a) Worte und S¨atze, (b) Worte aber keine S¨atze oder (c) weder Worte noch S¨ atze ergaben. W¨ahrend beim Empfang einzelner, semantisch nicht weiter interpretierbarer Buchstaben keine Plateaus auftraten, waren bei den Worten leichte und bei den sinnvollen S¨atzen deutliche Plateaus zu beobachten (Abb. 14). Dies kann als eine asynchrone kognitive Strukturbildung auf unterschiedlichen Organisationsstufen interpretiert werden. Solange die Dekodierung von Buchstaben noch nicht automatisiert ist, ist die Aufmerksamkeit an diesen Prozeß gebunden und die Analyse komplexerer Bedeutungen wird verhindert, da die Analyse von Buchstaben, Worten und S¨atzen in hierarchischer Weise aufeinander aufbaut. Irgendwann kommt es zu einem Phasen¨ ubergang, bei dem die einfacheren, automatisierten Einheiten zu neuen, komplexeren Einheiten reorganisiert und integriert werden (s. auch [9]). Solche Phasen¨ uberg¨ange k¨ onnen auch in anderen Lernprozessen beobachtet werden [30]. Besonders interessant dabei ist, daß diese Ver¨anderung des Organisationsgrades auch bewußt erlebt wird. Zun¨ achst h¨ oren und erleben die Versuchspersonen Buchstaben, dann Worte und zum Schluß S¨ atze. In der psychologischen Expertiseforschung ist die Erfahrungsabh¨angigkeit von Strukturerkennungsprozessen eingehend untersucht worden. In einer klassischen Untersuchung von Chase und Simon [8] wurden sowohl Schachexperten als auch Anf¨ anger gebeten (¨ ahnlich wie beim oben beschriebenen Bartlett-Szenario), Schachstellungen mit ca. 25 Figuren, die ihnen f¨ ur 5 Sekunden gezeigt worden waren, zu reproduzieren. Dabei zeigte sich, daß die Experten von ihrem Vorwis-
204
M. A. Stadler und J.-D. Haynes
Abb. 13. Lernkurven einer Versuchsperson beim Senden und Empfangen von Morsekode
Abb. 14. Lernkurven einer Versuchsperson beim Empfangen von Morsekode unterschiedlicher semantischer Komplexit¨ at
sen profitierten und erheblich mehr Figuren korrekt wiedergeben konnten. Anscheinend war es ihnen m¨ oglich, die vorgegebene Stellung unmittelbar in gr¨oßeren, sinnvollen Einheiten ( Chunks“) zu strukturieren, die den Anf¨angern auf” grund mangelnder Erfahrung fehlten. Diese Interpretation wird dadurch gest¨ utzt, daß sich der Unterschied zwischen beiden Gruppen wieder nivellierte sobald zuf¨ allige anstelle sinnvoller Stellungen dargeboten wurden. Untersuchungen im Bereich der R¨ ontgendiagnostik lieferten ein ¨ahnliches Bild. Erfahrene Radiologen sind sehr gut in der Lage, Diagnosen direkt aus den R¨ontgenaufnahmen abzulesen. Sie sehen“ in den Bildern andere Strukturen, gehen also datengesteuert“ ” ”
Komplexit¨ at und Strukturerkennung
205
vor, ohne die Diagnose erst auf der Basis ihres Lehrbuchwissens m¨ uhsam konstruieren zu m¨ ussen. Im Gegensatz zu Studenten sind sie jedoch nicht mehr in der Lage, die Regeln, die sie als Grundlage f¨ ur ihre Urteile gebrauchen, richtig wiederzugeben [10]. Anscheinend liegt bei ihnen das Wissen in automatisierter (oder kompilierter“) Form vor und ist der bewußten Reflektion und Verbalisie” rung nicht mehr zug¨ anglich [13] [19]. Lernen ver¨ andert also Strukturbildungsprozesse nicht nur derart, daß neue und immer komplexere externe Strukturen wahrgenommen werden k¨onnen, sondern blendet auch die zun¨ achst verf¨ ugbaren unteren Organisationsstufen zunehmend aus der bewußten Verarbeitung aus. Wie ausgef¨ uhrt gilt dies nicht nur f¨ ur motorische Prozesse, sondern auch f¨ ur Wahrnehmungsprozesse. Bewußte Verarbeitung erfolgt auf der Basis unbewußt bereits erheblich verarbeiteter, kom” plexit¨ atsreduzierter“ Information. Wahrgenommene Strukturen stellen stets Interpretationen dar, die wir quasi durch die Brille unseres Ged¨achtnisses sehen [24].
Literatur 1. Attneave, F. (1965) Informationstheorie in der Psychologie. Huber, Bern 2. Bartlett, F. C. (1932) Remembering. Cambridge University Press, Cambridge 3. Beck, J., Prazdny, K., Rosenfeld, A. (1983) A theory of textural segmentation. In: Beck, J., Hope, B., Rosenfeld, A. (eds.) Human and Machine Vision. Academic Press, New York 4. Bischof, N. (1995) Struktur und Bedeutung: Eine Einf¨ uhrung in die Systemtheorie. Hans Huber, Bern 5. Bowers, K. S., Regehr, G., Balthazard, C. (1990) Intuition in the context of discovery. Cognitive Psychology 22, 72–110 6. Bryan, W. L., Harter, N. (1897) Studies in the physiology and psychology of the telegraphic language. Psychological Review 4, 27–53 7. Bryan, W. L., Harter, N. (1899) Studies on the telegraphic language: the acquisition of a hierarchy of habits. Psychological Review 6, 345–375 8. Chase, W. G., Simon, H. A. (1973) Perception in chess. Cognitive Psychology 4, 55–81 9. Cheng, P. W. (1985) Restructuring versus automaticity: alternative accounts of skill acquisition. Psychological Review 92, 414–423 10. Ford, K. M., Adams-Webber, J. R. (1992) Knowledge acquisition and constructivist epistemology. In: Hoffman, R. (eds.) The Psychology of Expertise: Cognitive Research and Empirical AI. Lawrence Earlbaum, Mahwah 11. Haken, H. (1990) Synergetics as a tool for the conceptualization and mathematization of cognition and behaviour - how far can we go? In: Haken, H., Stadler, M. (eds.) Synergetics of Cognition. Springer, Berlin Heidelberg 12. Horgan, J. (1995) Komplexit¨ at in der Krise. Spektrum der Wissenschaft September 1995, 58–64 13. Johnson, P. E. (1983) What kind of expert should a system be? Journal of Medicine and Philosophy 8, 77–97 14. Julesz, B. (1981) A theory of preattentive texture discrimination based on firstorder statistics of textons. Biological Cybernetics 41, 131–138 15. Kanizsa, G. (1955) Condizioni ed effetti della trasparenza fenomenica. Rivista di Psicologia 49, 3–19
206
M. A. Stadler und J.-D. Haynes
16. Kanizsa, G., Luccio, R. (1986) Die Doppeldeutigkeiten der Pr¨ agnanz. Gestalt Theory 8, 99–135 17. Kehrer, L., Meinecke, C. (1994) Perzeptive Organisation visueller Muster: Die Segmentierung von Texturen. In: Prinz, W., Bridgeman, B. (eds.) Wahrnehmung. Enzyklop¨ adie der Psychologie, Themenbereich C, Serie II, Bd. 1. Hogrefe, G¨ ottingen 18. Larkin, J. H., Simon, H. A. (1987) Why a diagram is (sometimes) worth ten thousand words. Cognitive Science 11, 65–99 19. Lesgold, A. (1988) Problem solving. In: Sternberg, R. J., Smith, E. E. (eds.) The Psychology of Human Thought. Cambridge University Press, Cambridge 20. Linsmeier, K.D. (1997) Elektronenmusik. Spektrum der Wissenschaft Dez., 54–65 21. Maturana, U., Varela, F. (1984) Der Baum der Erkenntnis. Scherz, Bern 22. Metzger, W. (1975) Gesetze des Sehens. Kramer, Frankfurt am Main ¨ 23. Newton, I. (1704) Optik, I. Buch. Ubersetzt und herausgegeben von W., Abendroth. Ostwalds Klassiker der Exakten Wissenschaften 96, Leipzig 1898 24. Roth, G. (1994) Das Gehirn und seine Wirklichkeit: Kognitive Neurobiologie und ihre philosophischen Konsequenzen. Suhrkamp, Franfurt 25. Shannon, C. E., Weaver, W. (1949) The Mathematical Theory of Communication. University of Illinois Press, Urbana 26. Singer, W. (1990) Hirnentwicklung und Umwelt. In: Spektrum der Wissenschaft Verst¨ andliche Forschung: Gehirn und Kognition. Spektrum-Verlag, Heidelberg 27. Stadler, M., Kruse, P. (1990) The self-organization perspective in cognition research: historical remarks and new experimental approaches. In: Haken, H., Stadler, M. (eds.) Synergetics of Cognition. Springer, Berlin Heidelberg 28. Stadler, M., Wildgen, W. (1987) Ordnungsbildung beim Verstehen und bei der Reproduktion von Texten. Siegener Periodikum zur Internationalen Empirischen Literaturwissenschaft 6, 101–144 29. Treisman, A. M. (1982) Perceptual grouping and attention in visual search for features and for objects. Journal of Experimental Psychology: Human Perception and Performance 8, 194–214 30. Vetter, G., Stadler, M. A., Haynes, J. D. (1997) Phase transitions in learning. Journal of Mind and Behavior 18, 335–350 31. Witte, W. (1966) Bezugssysteme. In: Metzger, W. (Hrsg.) Wahrnehmung und Bewußtsein. Handbuch der Psychologie Bd. 1/1. Hogrefe, G¨ ottingen 32. Zoeke, B. (1975) Kategorialleistungen von Haustauben. Anton Hain, Meisenheim am Glan 33. Zhou, T., Moss, F. (1990) Analog simulations of stochastic resonance. Physical Review A41, 4255–4264
Synergetische Lehr-Lernprozesse des Bewegungssystems Karl-Heinz Leist Lehrstuhl f¨ ur Sportp¨ adagogik, Technische Universit¨ at M¨ unchen, Conollystraße 32, D–80809 M¨ unchen, Germany, e-mail:
[email protected] Zur Aufkl¨ arung der Aktualgenese menschlichen Sichbewegens wie der Funktionsweise sensumotorischen Lernens haben sich klassische computeranaloge Steuerungs- und Regulationstheorie und entsprechend konzipierte Handlungsregulationstheorien (vgl. [33] [17]) ebenso als untauglich erwiesen wie sog. Informationsverarbeitungstheorien sensu Shannon/Weaver [39] und KJ-Theorien sensu Fodor [9]. Die theoretischen wie empirischen Gr¨ unde daf¨ ur sind bekannt (vgl. z.B. [6] [11] [12] [13] [16] [18] [21] [25] [45]). Im Bereich sportwissenschaftlicher Bewegungs-Lehre hatte die Orientierung an solchen Theorien fatale Folgen. An zwei Exempeln seien sie kurz aufgewiesen: (1) Ein h¨ aufiger Anf¨ angerfehler beim sog. Baggern im Volleyball (s. Abb. 1) ist es, den Ball mit angewinkelten statt durchgedr¨ uckten Armen zu spielen. Ohne Diagnostik der Fehlerursache wird dem entsprechend sog. Handlungsregulationstheorie zu begegnen versucht, indem das Symptom Anwinkeln“ als Sollwert” Abweichung definiert wird, die beim n¨achsten Versuch durch Sollwert-Vorgabe behoben werden soll. Die Konzentration auf solche Ausf¨ uhrungsparameter hat jedoch gegenteilige Wirkung (vgl. [49] [29]). Fehlerursache ist im gegebenen Fall unzul¨ angliches Timing, die time-to contact basierte perception-action-Beziehung ist noch nicht erlernt (vgl. [22] [8]). Die aber ist - nicht nur hier - grundlegend und kann nicht u ¨ber Instruktionen vermittelt werden, die bloß Oberfl¨achenparameter festhalten: Movement are not displacements in Newtonian space, but changes ” in environmental relationship. Learning a skill is learning how to use the affordances of environment, not how to move one’s body“ [35, p. 79]. Mißlich sind Vermittlungen der angesprochenen Art u ¨ber das Gesagte hinaus, insofern sie pseudohaft erfolgsbezogene Leistungssituationen provozieren, die Lernende in bloße Ist-Sollwert-Vergleiche mit Fehlerkorrektur einspannen. Erfolgsorientiertes Leisten und Neuland erschließendes Lernen unterliegen aber v¨ ollig unterschiedlichen psychologischen Gesetzm¨aßigkeiten (vgl. [5] [48]). Lernen heißt Schreiten ins Neuland auf dem Weg des Probleml¨osens, heißt hypothetisches Handeln, bei dem Frage-Antwort-Spiele, Dialoge eine zentrale Rolle spielen (vgl. [28]), Dialoge, die auf Konsens“, auf ” Passung von Person-Umwelt-Aufgabe-Beziehungen in Form von Gestaltbildung (vgl. [31] [40] [45]) gerichtet sind.
208
K.-H. Leist
Abb. 1. Unteres Zuspiel im Volleyball
¨ In diesem Sinn heißt Schreiten ins Neuland gleichzeitig Uberschreiten eingespielter Paare von wahrgenommener Situationsdynamik und dynamischer Aktion in Richtung einer neuen Situations-Aktions-Gestalt. So entwickelt sich z.B. das Gehen aus dem Krabbeln, beim Skifahren das sog. Umsteigen aus dem Schlittschuhschritt, das Springen um die Fallinie aus dem Hochentlastungsschwung. Optimal lernen kann man hier nur, wenn man sich offen, neugierig, interessiert und damit sach-, informations- und problemzentriert auf eine Lernsituation einlassen kann, frei auf Entdecken, K¨onnen ausgehen kann; nur wenn man als Explorierer, Schaffer in einem hoffnungsfroh geladenen Spannungsfeld zwischen Aufbruch und Ankunft unterwegs sein kann, nur wenn eine Atmosph¨ are der heiteren Gespanntheit, der Freiheit herrscht, sich auszusetzen, sich einzulassen, die Atmosph¨are eines Bauhauses“ ” sozusagen, nur dann kann man optimal lernen. (2) Nach sog. Programm-Theorien motorischen Lernens (vgl. [37]) ist folgender Ski-Lehrweg zum Erlernen des Umspringens bzw. Kurzschwingens mit Abheben der Skienden auf einem Steilhang (Abb. 2) konzipiert: Durch Winkelspr¨ unge auf H¨angen mit leichter Neigung (Abb. 3) soll ein Ausf¨ uhrungsmuster i.S. eines Motor-Programms erlernt werden, das dann am Steilhang nur noch in bestimmten Parametern an die neuen Bedingungen anzupassen ist. Man meint also einerseits das Muster des Winkelspringens aus dem flachen Gel¨ ande der Steilhangsituation aufpr¨agen zu k¨onnen und es andererseits bloß in einzelnen Parametern anpassen zu m¨ ussen. Der Lehrweg hat sich als eklatanter Fehlschlag erweisen (vgl. [27]). Zur¨ uckzuf¨ uhren ist dies auf die zentralen Unzul¨ anglichkeiten der zugrunde liegenden Theorie (vgl. [14, p. 105]) und die daraus resultierende gerade skizzierte Zweiteilung. Diese Zweiteilung wird aber der Einheit des besonderen dynamischen Wechselspiels zwischen aktiven und reaktiven Kr¨ aften nicht gerecht, die schon ph¨anomenologisch ausweisbar ist (vgl. [4] [27]): Will ein Skifahrer z.B. einen steilen Firnhang in Abhebeschw¨ ungen“ um die ” Fallinie bew¨ altigen, so muß er sich - auf fortlaufenden Kantengriff und gespannten Abdruck gerichtet - auf die Dynamik der Wechselbeziehung aktiver und re-
Synergetische Lehr-Lernprozesse des Bewegungssystems
209
Abb. 2. Umspringen am Steilhang
aktiver Kr¨ afte so einlassen, daß die Abhebeschwung-Gestalt“ eigendynamisch ” entsteht. Er muß sozusagen versuchen, sich in die gestaltbildende Eigendynamik einzupassen. Im Rahmen ganzheitlicher Theorien komplexer Systeme und nichtlinearer Dynamik ist solch gestaltbildende Eigendynamik als Selbstorganisation i.S. Hakens darstellbar (vgl. z.B. [13]). Nach den wegweisenden Untersuchungen zu Phasen¨ uberg¨angen bei Fingerbewegungen (vgl. [10]) liegen hierzu mittlerweile eine Vielzahl entsprechender Ergebnisse vor. Die Bewegungskoordination beim Jonglieren [2], beim Schwingen auf dem Skisimulator [46], beim Rhythmischen Pendeln von St¨aben [42], beim H¨ upfen-Lassen eines Balls auf einem Tennisschl¨ager [43], beim Pedalofahren [13], beim Gehen und Laufen [3] l¨aßt sich jeweils als zyklisches Wechselspiel zwischen Ordnungs- und Kontrollparamtern i.S. Hakens erkl¨aren. Mit dieser Konzeption sind gleichzeitig die klassischen Ph¨anomene beim Be¨ wegungsverhalten - Aquivalenz, Variabilit¨at und Komplexit¨atsreduktion (vgl. [41]) - im Prinzip gekl¨ art, ebenso Transferph¨anomene wie die der unmittelbaren ¨ Ubertragbarkeit von Verhaltensprinzipien auf Situationen, in denen eine prinzipiell gleiche Bewegungsaufgabe mittels g¨anzlich verschiedener Effektorik zu bew¨ altigen ist; hat man z.B. das sog. Schneiden eines Balls beim Tischtennis mit der Vorhand erlernt, so ist dies unmittelbar auf die R¨ uckhand u ¨bertragbar, hat man das Vorw¨ artsfahren auf einem Pedalo gelernt (Abb. 4), so ist damit insofern auch das R¨ uckw¨ artsfahrmuster aufgebaut, als es - in Hakens Bild von der durch Lernen ausgepr¨ agten Gebirgslandschaft eines Ordners, der das Vorw¨artsfahren beherrscht“ - durch eine Landschaft gekennzeichnet ist, deren Struktur der beim ” Vorw¨ artsfahren aufgebauten im Prinzip entspricht. Solche Landschaften (bzw.
210
K.-H. Leist
Abb. 3. Winkelspringen
Ordner) umgreifen die Wahrnehmungsseite des Handelns und seine Aktionsseite: Mit der Wahrnehmung als Musterbildung aufgerufene Ordner k¨onnen u ¨ber das Situationsmuster hinaus auch das darauf bezogene Aktionsmuster aufbauen, sensorischer Eingang und motorischer Ausgang verschmelzen so zu einer Ein” heit“ [14, p. 234], die Einheit von aktionsbezogenem situativem Wahrnehmen und wahrnehmungsbezogenem Agieren wird darstellbar - einschließlich des auf Ordner zur¨ uckf¨ uhrbaren Bedeutungsgehalts von Situation und Aktion [14, p. 169], ein f¨ ur das Bewegungs-Lernen zentraler Sachverhalt: Stehen Kinder erstmals vor der Aufgabe, von einem beweglichen Brett durch die Luft ins Wasser zu springen, dann bedeutet dies f¨ ur viele zun¨ achst, das Wagnis einzugehen, vom schwankenden Boden ins Ungewisse der haltlosen Luft und des tiefen Wassers zu springen. Nicht wenige nehmen ein solches Brett als Schleuder wahr, die sie hinauszukatapultieren droht, nicht wenigen bedeutet das Angehen auf dem Brett, sich schwankendem Boden auszusetzen, nicht wenige schreckt der Absprung in den Abgrund. Entsprechend gehen sie vorsichtigen, behutsa-
Synergetische Lehr-Lernprozesse des Bewegungssystems
211
men, kleinen tastenden Schritts voran, um nur ja gr¨oßerem Schwanken vorzubeugen. Statt kraftvoll, gespannt in das Brett zu springen, wagen sie nur einen kleine H¨ upfer. Dem K¨ onner ist das Sprungbrett eine Schleuder geworden, die er kraftvoll aber wohldosiert so spannen kann, da sie ihn in einer sicheren Flugbahn tragen kann.
Abb. 4. Pedalo
Einmal im Lernen aufgebaute Lernlandschaften k¨onnen nun aber auch den Aufbau neuer Landschaften und die entsprechende Ordnungsdynamik negativ beeinflussen, insofern sie der neuen Landschaft sozusagen unterlagert bleiben - so daß alte Ordner, bildlich dargestellt durch Kugeln, die bevorzugt in ein bestimmtes Tal laufen, weiter im Spiel sind. Haken und Haken-Krell [14, p. 121] haben dies an Hand eines bekannten Interferenzph¨anomens aus dem Skifahren erl¨ autert: Wenn Leute Skifahren lernen, lernen sie zun¨achst den Schneepflug und ” erst sp¨ ater den Parallelschwung. Aber wie die Erfahrung von vielen Skil¨ aufern zeigt, kehrt man oft zu der zun¨achst gelernten primitiveren Methode des Schneepflugs zur¨ uck, wenn eine schwierige Situation auftritt, statt daß man die viel effizientere Methode des Parallelschwungs verwendet. Ganz offensichtlich k¨onnen wir ganz im Sinne der eben gegebenen Interpretation sagen, daß die alten T¨aler der Landschaft f¨ ur den Ordner immer noch da sind und daß diese sogar noch stabiler sein
212
K.-H. Leist
k¨ onnen als die neu dazugelernten“ [14, p. 121]. Der Schneepflug bedeutet in bestimmten Situationen mehr Sicherheit als der objektiv effizientere Schwung. Sportwissenschaftliche Lehr-Lernforschung fragt hier, wie ein direkter Weg zum Parallelschwung erm¨ oglicht werden kann und allgemeiner, wie i.S. der Synergetik Lernarrangements getroffen, Lernwege angeboten, Handlungsvorstellungen vermittelt werden k¨ onnen. Zu bedenken dabei ist zun¨achst eine grundlegende Einsicht: Beim Bewegungslernen kommt es zumindest auf einem abstrakten Ni” veau, im Gehirn zur Ausbildung von Gebirgslandschaften, auf denen sich dann der Ordner bewegen muß. Das Verhalten des Ordners wird also keineswegs direkt festgelegt, sondern indirekt, u ¨ber Landschaften, die selbst wieder von der Wahl der Kontrollparameter abh¨angen. Dank des Versklavungsprinzips gelingt dann dem Ordner die angestrebte Bewegungskoordination. Wie bringt es aber das Gehirn fertig, derartige Landschaften sozusagen zu konstruieren?“ [14, p. 121] Diese Einsicht impliziert einmal, daß direkt bewegungsverlaufsbezogene Instruktionen als Lernhilfen von zweifelhaftem Wert sind, kann man doch das Abbild das Resultat eines Tuns (bzw. des Laufs einer Kugel in einer Gebirgslandschaft) nicht einfach in sein Generierungsprogramm umm¨ unzen, kann man Unzul¨ anglichkeiten im Erzeugungssystem nicht durch Symptombehandlung begegnen, wie das Volleyballbeispiel (s.o.) zeigt. Kein Wunder, daß hier das Tausendf¨ ußlerproblem droht und Instruktionen dieser Art Lernen eher erschweren als erleichtern k¨onnen. Zu dieser schon von Kohl [20] formulierten, aber auch schon weit fr¨ uher bekannten Einsicht, ist j¨ ungst G. Wulf [49] im Spektrum der Wissenschaft gekommen, ohne allerdings auf diese bekannten Einsichten einzugehen und ebensowenig auf die Reihe von Forschungsergebnissen zu der im gegebenen Zusammenhang aufgeworfenen Frage, ob sich nicht indirekte Vermittlungsm¨oglichkeiten finden lassen, welche die innere Ein” stellung, die Gestaltung des anschaulichen Umfeldes und den Zusammenhang zwischen K¨ orper-Ich und Umfeld angehen.“ Gefragt sind indirekte, auf den Aufbau der Gebirgslandschaft bezogene Instruktionen, welche sagen, was der Sportler machen muß, damit die Bewegung ” so werde, daß das gew¨ unschte Resultat daraus resultiert“ [20, p. 100]. Metaphern k¨ onnen solches leisten: Ein Ballettlehrer fordert seine Sch¨ uler auf, die Arme mit hochgestellten ” H¨ anden langsam nach vorne zu bewegen - aus ganzem K¨orper heraus‘! ’ Nach mehreren Mißerfolgen - die Armbewegung scheint vom K¨orper losgel¨ ost, wirkt mechanisch - gibt er eine Situationsvorgabe: Stellt Euch ’ vor, Ihr dr¨ uckt Euch von der Wand ab.‘ Sofort sitzt‘ die Bewegung“ [7, ’ p. 157]: Entsprechend sind die Metaphern von Volger [47] und Qui-GongMetaphern wie die folgende konzipiert: Das Boot vom Sand-Strand in das Wasser schieben“. ”
Synergetische Lehr-Lernprozesse des Bewegungssystems
213
Statt Ausf¨ uhrungs-Befehle zu geben, analogisieren Metaphern Situationen und ihre Bew¨ altigungsm¨oglichkeiten, um in der neuen Situation entsprechende Fragen und darauf bezogene Antworten aufzuwerfen: H¨ ufthohes Boot auf dem Sand-Strand vor dem Wasser!?“ ” Wo ist zum Schieben anzusetzen?“, Wie kann ich f¨ ur R¨ uckhalt sor” ” gen?“, Wie mit dem Druck ansetzen?“ Rucken?“ Stoß?“ Schieben!?“ ” ” ” ” - denn der Reibungswiderstand des Sandes muß kontinuierlich u ¨berwunden werden. Die hier auszulegende o.g. Einsicht besagt zum zweiten: Lehrwege sind nach Hakens Metapher vom Auto als Leiterwagen, Seifenkiste, Kettcar, Autoskooter i.S. der sukzessiven Ausgliederung von Gebirgslandschaften aus Bedeutungs” kernen“ auszulegen. Angewandt auf einen in Frage stehenden nicht interferenzbelasteten SkiLehrweg zum Parallelschwingen hat sich daf¨ ur folgende L¨osung - selbst f¨ ur eine Auswahl hoch ¨ angstlicher Anf¨anger - empirisch bestens bew¨ahrt (vgl. [23]): Nach einer Lernphase im ebenen Gel¨ande, in der Gleit- und Schlittschuhschritt und damit auch Kantenerfahrungen gewonnen werden k¨onnen, bilden Lerner und Lehrer ein Zweier-Team am Hang: Der Lehrer f¨ ahrt in R¨ uckw¨artspflug-Stellung, der Lernende gleitet - mit Griff an einem Stock, den der Lehrer zwischen den H¨anden h¨alt - locker stehend mit ihm im sicheren Zweierpack (s. Abb. 5).
Abb. 5. Zweierpack 1
Die Handlungsaufgabe, den Lehrer einmal wegzuschieben, beantwortet er wie von selbst mit kurzem dynamischen Auspfl¨ ugen, denn er sucht Halt zum Schieben, um sich daraus wieder aufzurichten, was ihn - mit dem Zug des Lehrers -
214
K.-H. Leist
ins Gleiten f¨ uhrt. Dies l¨ aßt sich zu einem wechselseitig akzentuierbaren rhythmischen Zweispiel beidseitigen dynamischen Auspfl¨ ugens (zwecks Schieben) und L¨ osens ausbauen und fortf¨ uhren zu dem Spiel, den r¨ uckw¨arts fortfahrenden Lehrer gleitend wieder einzuholen und dies auf gr¨oßere Distanzen auszudehnen - wobei eine Geschwindigkeitskontrolle durch fortlaufendes dynamisches Auspfl¨ ugen und Gleiten provoziert werden kann. So kann man dem nun vorw¨arts fahrenden Lehrer dann auch hinterherfahren. Gelernt wird auf diese Weise die Kerngestalt eines Schwungs als Kantengriff-Entlastung-Gleiten-Kantengriff“. Fahrva” rianten wie z.B. eine Vorw¨ arts-R¨ uckw¨artsschaukel beim beidseitigen Auspfl¨ ugen und Gleiten im Zweierpack, k¨onnen gerade auch vom Lernenden her angeregt, das Ganze bereichern. Im Zweierpack (s. Abb. 6) kann im n¨achsten Lernschritt dann durch Akzentuierung aus der bisherigen Fahrgestalt ein wechselseitiges Auspfl¨ ugen (Auspfl¨ ugen links, Entlasten, dann Auspfl¨ ugen rechts....) ausgegliedert werden, das der Lernende dann f¨ ur sich - auf l¨angerer Strecke in Kombination mit beidseitigem dynamischem Auspfl¨ ugen erproben kann.
Abb. 6. Zweierpack 2
Sind die Lernenden so sicher, daß sie in schnellerer Fahrt wechselseitig auspfl¨ ugen k¨ onnen, so f¨ uhrt die Aufgabe, nun einmal die Frequenz des wechselseitigen Auspfl¨ ugens zu erh¨ ohen, eigendynamisch zum parallelen Schwingen: Durch Ver¨ anderung des Kontrollparameters hat sich ein Ordnungs¨ ubergang ergeben.
Synergetische Lehr-Lernprozesse des Bewegungssystems
215
Die mit der eigendynamischen Ordnungsbildung verbundene Erfahrung erm¨ oglicht dem Lernenden ihre Reproduktion u ¨ber entsprechende Vorstellungen bzw. Antizipationen, Antizipationen, die aus der Perspektive der 1. Person bei jedem Bewegungsvollzug von entscheidender Bedeutung sind. Olympiasiegerin Ulrike Meyfahrt hat dies f¨ ur ihr Hochspringen so charakterisiert: Ich vergleiche meinen Anlauf mit dem katzenartigen Lauf, weil, wenn ” eine Katze l¨ auft, ist sie f¨ahig, jederzeit aus dem Lauf zu springen, sie muß also im Lauf eine Vorspannung f¨ ur den Sprung haben. Und ich f¨ uhle w¨ ahrend des Anlaufens diese Sprungvorbereitung, diese Vorspannung. Dieser Lauf ist also keineswegs mit einem Sprint vergleichbar, der Anlauf ist mehr ein Heranpirschen, ein Anschleichen an den Absprung und schon ein Freisetzen von Energie auf den letzten Schritten. Diese Bewegungserfahrung des katzenartigen Anschleichens kann ich mir oft im Training oder im Wettkampf vor Augen f¨ uhren, und wenn es im Training oder im Wettkampf nicht so gut l¨auft, so kann ich auf diese Erfahrungen zur¨ uckgreifen“ [32, p. 10]. Gem¨ unzt ist der skizzierte, anfangs der 80-er Jahre entwickelte Ski-Lehrgang offenbar darauf, den Lernenden das Aufbauen, Erfahren und Ausbauen einer Situation und Aktion u ¨bergreifenden Kerngestalt des Fahrens (vgl. [7]) zu erm¨oglichen, die aus heutiger Sicht im Sinne der Synergetik durch die Wechselbeziehung von Ordnungs- und Kontrollparametern ausgepr¨agt wird. Diese Gestalt ist dann, i.S. der Synergetik interpretiert, u ¨ber Ver¨anderung des Kontrollparameters in die Parallelschwunggestalt u uhren, u ¨berzuf¨ ¨ber deren Erfahrung wiederum gestalt” schaffende Antizipationen“ m¨oglich werden. ¨ Bei diesen wie den vorherigen Uberlegungen zur metaphorischen Instruktion, in der es um Bedeutungskerne von situativen und aktionalen Momenten des Handelns und deren Zusammenhang geht ( Halt zum Schieben des Boots suchen“), ” wird einmal die Perspektive der ersten Person, ihre Bewegungs- und Lernerfahrung als zentraler Bezugspunkt f¨ ur die Gestaltung von Lehr-Lernprozessen angenommen, zum anderen aber wird eine synergetische Fundierung vorgenommen - womit die Frage nach einem Bezugszusammenhang von gestaltpsychologisch orientierter Handlungstheorie und Synergetik aufgeworfen ist. Diese Frage impliziert sofort das alte Problem sog. intentionalistischer Handlungserkl¨ arungen (vgl. z.B. [1] [13] [14, pp. 235 ff.] [15] [44] [45]. Insofern dabei eine irgendwie geartete Handlungswirksamkeit von bewußten Vornahmen bzw. Antizipationen bzw. willentlichen Vornahmen i.S. der Schilderung von U. Meyfahrt unterstellt wird, und man keine telelogischen Erkl¨arungen f¨ ur zul¨assig h¨ alt, steht man dann vor un¨ uberbr¨ uckbaren Schwierigkeiten, wenn man wie Prinz [34] in Handlungstheorien solch subjektive Glieder in Kausalketten neurobiologischer Prozesse verortet sieht. Als Ausweg bleibt ihm da nur, solche Ph¨anomene als subjektive Begleiter” scheinungen irgendwelcher verborgener handlungsverursachender Prozesse“ ins Niemandsland der Epiph¨ anomene zu verbannen, ohne daß man allerdings sagen k¨ onne, woher sie k¨ amen und wozu sie dienten (vgl. [34, pp. 14 ff.]).
216
K.-H. Leist
Verwundern m¨ ußte dann aber die hohe Korrelation die Hoffmann [16] zwischen der Antizipation (sensorisch) erfahrener Konsequenzen eigenen Verhaltens, von ihm als sensorische Repr¨asentation bezeichnet, und dem Gelingen des entsprechenden Verhaltensaktes feststellen konnte, f¨ ur ihn ein Sachverhalt von funktionaler Relevanz: ¨ (a) Nach unseren Uberlegungen werden bei jeder Wiederholung eines ” Verwaltungsaktes die zuvor erlebten Konsequenzen antizipiert. Werden diese Antizipationen nicht best¨atigt, werden die gegebenen Ausgangsbedingungen von denen differenziert, auf denen die Antizipation beruhte“ [16, p. 205]. (b) In welcher Folge wir welche Wahrnehmungen machen h¨angt von ” unserem (antizipierten) Verhalten ab, genau so wie unser Verhalten davon abh¨ angt, welche Konsequenzen wir in welcher Folge hergestellt wissen wollen“ [16, p. 242] - was beispielhaft besagt: Relativ zu seinem K¨onnensrepertoire nimmt ein Ski-Anf¨anger einen Buckelhang als Irrgarten wahr, der ihn durchzusch¨ utteln droht, und in Antizipation der Sturzvermeidung weicht er aus, so gut er kann, wohingegen der K¨ onner eine Schaukellandschaft“ wahrnimmt, die er durch” pendeln kann. Nach Prinz (a.a.O.) w¨ aren entsprechende Vornahmen Epiph¨anomene. Grunds¨ atzlich gesehen aber sind Epiph¨anomene im Rahmen eines physikalischen Weltbilds, dem sich Prinz (a.a.O.) verpflichtet f¨ uhlt, schon aufgrund des 2. Hauptsatzes der Thermodynamik fehl am Platze (vgl. [38]). Roths [36, pp. 293 ff.] Zur¨ uckweisung des Epiph¨anomenalismus mit dem Argument fehlender Lernwirksamkeit bei Fehlen entsprechender Erlebniszust¨ande der Wachheit, der bewußten Konzentration etc. verweist umgekehrt auf ihre Wirksamkeit. Welcher Mechanismus“ gilt aber nun, wie sieht ein Wirkungsgef¨ uge ohne ” Kategoriefehler aus, in dem erlebbare kognitiv strukturierte, affektiv get¨onte und ichbesetzte Antizipationen einen Stellenwert haben? Es ist das in der Synergetik Hakens vorgedachte Gef¨ uge - projeziert auf die ph¨ anomenale Welt des Erfahrens, Vorstellens, willentlich Vorwegnehmens und manifest wahrnehmbaren Handelns, wie es Tschacher [45] im Ansatz unternommen hat: Stehe ich z.B. in einer Skilandschaft vor drei verschiedenartigen H¨angen und w¨ unsche mir, mich im Tiefschneehang schwingend wiederfinden zu k¨onnen, versetze ich mich in das federnde Schwingen, antizipiere, dem Schneedruck in der Aussteuerungsphase zu widerstehen, dann hat die Bildung einer Prozessge” stalt eingesetzt, was eine Selektion (hervorg. vom Verf.) von Verhaltenskernen unter der Pr¨ agnanzvorgabe, m¨oglichst optimal die Valenzspannung zu beseitigen, ausl¨ ost. Das Erreichen einer hinreichenden Pr¨agnanz der Prozessgestalt bedeutet das Initiieren der Handlung“ [45, p. 102]. Valenz heißt dabei der Kontrollparameter, der den Rahmen f¨ ur die Ord” nungsbildung im psychologischen System vorgibt. Valenzen sind in der Regel Parameter, die das informationelle/motivationale - Nichtgleichgewicht des (informations-offenen) Komplexen Psychologischen Systems beschreiben“ [45, p. 259]),
Synergetische Lehr-Lernprozesse des Bewegungssystems
217
im skizzierten Fall die Ambivalenz der Aufforderungscharaktere verschiedener H¨ ange. Wie kann diese Hypothese nun experimentell/empirisch belegt werden? Was kann die Pr¨ agnanz einer Prozessgestalt von “Mensch (Ich) in Situation“ und Mensch (Ich) in Aktion“ und ihrer u ¨bergreifenden Einheit erh¨ohen? Die Ver” gegenw¨ artigung und Antizipation von Verhaltenskernen? Die Vergr¨o erung der Antizipationsweite und damit die Fl¨ ussigkeit“ der antizipierten Gestalt? Die ” Betonung des Sich“ beim Sich in Situation“, Sich in Aktion Versetzen“? ” ” ” Den ersten beiden Fragen wurden in der Replikation einer Untersuchung zum Pedalofahren (vgl. [24]) nachgegangen, die auf handlungspsychologischer Ebene vergleichbare Ergebnisse zu den Befunden Hakens [13] gebracht hatte, nach denen gekonntes Pedalofahren von einem einzigen Ordnungsparameter beherrscht wird. Ergebnisse der fr¨ uheren Studien waren die folgenden: Stellt man jemand vor die Aufgabe, fl¨ ussig Pedalo zu fahren, und gibt man ihm dazu keine weitere Instruktion, dann kann man in der Regel eine Lernentwicklung wie die folgende beobachten: In einer ersten Phase stoppt das Pedalo jeweils, wenn ein Pedal seinen tiefsten Punkt erreicht. Tr¨ agheitsbedingt ger¨ at der Fahrende dann in Gleichgewichtsschwierigkeiten, die er durch feed back regulation“ zu kompensieren versucht. ” In einer zweiten Phase kommen die Pedale zwar noch an derselben Position zum Stoppen, nunmehr jedoch viel k¨ urzer - dies aufgrund einer feed forward regulation“ (vor dem Stoppunkt wird etwas zur¨ uck” gependelt). Mit dieser Technik gelingt auf ebener Bahn schon ein z¨ ugiges Fahren. Eine Anzahl der untersuchten Lernenden blieb dabei, wenn keine erh¨ ohten Anforderungen (Verlangsamen, Beschleunigen, Berg- und Talbahn) gestellt wurden. In einer dritten Phase fuhren die Lernenden dann fl¨ ussig. Die Pedale stoppten nicht mehr und jedenfalls zu Beginn der dritten Phase fuhren sie mit relativ konstanter Geschwindigkeit, was u ¨ber das Fehlerintegral“ ” festgestellt werden konnte (vgl. [19]). Bald schon aber begannen die meisten das Tempo zu variieren und waren danach auch schnell in der Lage, leichte Berg- und Talbahnen zu befahren. In der ersten Lernphase werden Bewegungsphasen des abwechselnden Runtertretens der Pedale - einmal u ¨ber den rechten, dann u ¨ber den linken Fuß als deutlich getrennte Einheiten wahrgenommen, vorgestellt und beim Fahren korrigiert. In Etappe 2 fahren die Lernenden umstei” gend“. Im Umsteigen“ als neuer Fahreinheit sind die Bewegungseins¨atze ” auf linker und rechter Pedale integriert. Wieder anders gegliedert (segmentiert) verlaufen die Bewegungsvollz¨ uge in der 3. Lernphase: Ist es vorher der tiefste Stand der Pedale, an dem Bewegungseins¨atze beginnen und enden, so ist es nun der Zwischenstand. Das ist genau der Stand, in dem man die Pedale im Gleichgewicht h¨alt“ (vgl. Abb. 7). ” Wahrgenommen wurde diese Fahrweise als Fahren in fortlaufendem BalanceFluß!
218
K.-H. Leist
Abb. 7. Pedalo-Lernen
In der neuen Studie wurde einem Teil der Lernenden, denen ein Transfer vom Vorw¨ arts-auf das R¨ uckw¨artsfahren gelungen war, die Aufgabe gestellt, aus dem Vorw¨ artsfahren und dann aus dem R¨ uckw¨artsfahren heraus zu stoppen, um dann unmittelbar wieder weiterzufahren, um den Verhaltenskern des Schiebens/Ziehens um die Balancestellung pr¨agnanter erfahrbar zu machen. Der andere Teil u uckw¨artsfahren. ¨bte statt dessen mental Vorw¨arts- und R¨ In den Transferleistungen beim Fahren u ¨ber eine Berg- und Talbahn sowie auf leicht sandigem Untergrund schnitt die 1. Gruppe signifikant besser ab als die 2. Gruppe (vgl. [30]): Das Trainieren des Fahrtflusses durch H¨ upfen-Lassen eines Balles auf einem Tennisschl¨ager w¨ahrend des Vor- und R¨ uckw¨artsfahren brachte in einer weiteren analogen Untersuchung vergleichbare Ergebnisse. Zur dritten Frage (s.o.) realisierten zwei Gruppen 14-16j¨ahriger, paarweise nach gleicher Leistungsst¨ arke zusammengestellt (n1 = n2 = 14) zwei verschiedene Varianten mentalen Trainings: Die M¨adchen beider Gruppen ließen sich zun¨ achst in eine ganz leichte Hypnose u uhren. Dabei versetzten sie sich dann ¨berf¨ in die Erinnerung an das Gef¨ uhl nach besonders gelungenen fr¨ uheren Spr¨ ungen. Dann sollten die M¨ adchen Anlauf und Absprung im Sinne der von Meyfahrt geschilderten Antizipation (s.o.) mental trainieren, die eine Gruppe mit dem besonders starken Gewicht auf das Gef¨ uhl, sich im Absprung zu sp¨ uren. Bei den anschließenden Leistungsversuchen gelang der 1. Gruppe eine erheblich gr¨ oßere Leistungssteigerung als der zweiten (vgl. [30]). Die Ergebnisse der skizzierten Pilotstudien sprechen f¨ ur den grundlegenden konzeptuellen Ansatz. In weiterf¨ uhrenden Studien wird es nun einerseits darum gehen, die zur Diskussion stehenden Variablen noch eindeutiger kontrollierbar zu machen, ande-
Synergetische Lehr-Lernprozesse des Bewegungssystems
219
rerseits aber um die noch differenziertere In-Bezugsetzung von Handlungstheorie und Synergetik.
Literatur ¨ 1. Ach, N. (1910) Uber den Willensakt und das Temperament. Leipzig 2. Beek, P.: Juggling Dynamics. Amsterdam 1989 3. Blaser, P., Witt, K., Nischang, M. (1999) Anwendung des Synergetischen Konzepts zur Beschreibung des Gehens und Laufens. In: Schiepek, G., Brunner, E., Tschacher, W. (Hrsg.) Selbstorganisation in Psychologie, Psychiatrie und Sozialwissenschaften. M¨ unchen (in Vorbereitung) 4. Christian, P. (1963) Vom Wertbewußtsein im Tun. In: Buytendijk, F. G. G., Christian, P., Pl¨ ugge, H. (Hrsg.) Bewegung als Einheit von Natur und Geist. Schorndorf 5. Dweck, C. S. (1996) Implicit theories as organizers of goals and behavior. In: Gollwitzer, P. M., Bargh, J. A. (Hrsg.) The psychology of action. New York London, pp. 69-90 6. Edelman, G. M. (1992) Bright Air, Brilliant Fire - On the Matter of the Mind. New York 7. Ennenbach, W. (1989) Bild und Mitbewegung. K¨ oln 8. Fikus, M. (1989) Visuelle Wahrnehmung und Bewegungskoordination. Frankfurt 9. Fodor, J. (1987) Psychosemantics. Cambridge 10. Haken, H. (1985) Advanced Synergetics. Berlin 11. Foerster, H. v. (1993) Wissen und Gewissen. Frankfurt 12. Haken, H. (1988) Information and Self-Organization. A Macroscopic Approach to Complex Systems. Berlin 13. Haken, H. (1996) Principles of Brain Functioning: A Synergetic Approach to Brain Activity, Behavior, and Cognition. Berlin 14. Haken, H., Haken-Krell, M. (1997) Gehirn und Verhalten. Stuttgart 15. Heckhausen, H., Kuhl, J. (1985) From Wishes to Action: The Dead Ends and Short Cuts on the Long Way to Action: In: Frese, M., Sabini, J. (Eds.) Goal Directed Behavior: The Concept of Action in Psychology. Hillsdale 16. Hoffmann, J. (1993) Vorhersage und Erkenntnis. G¨ ottingen 17. Kaminski, G. (1973) Bewegungshandlungen als Bew¨ altigung von Mehrfachaufgaben. Sportwissenschaft 3, 233–250 18. Kelso, J. A. S. (1992) Coordination Dynamics of Human Brain and Behavior. In: Friedrich, R., Wunderlin, A. (Eds.) Evolution of Dynamical Structures in Complex Systems. Berlin, pp. 223–234 19. K¨ orndle, H. (1983) Zur kognitiven Steuerung des Bewegungslernens. Oldenburg 20. Kohl, K. (1956) Zum Problem der Sensumotorik. Frankfurt 21. Kugler, P., Turvey, M. (1987) Information, Natural Law and the self-assembly of Rhythmic Movement. Hillsdale (New Jersey) 22. Lee, D. (1980) Visuo-motor coordination in space time. In: Stelmach, G., Requin, J. (Eds.) Tutorials in motor behavior. Amsterdam, pp. 281–295 23. Leist, K.-H. (1984) Sportmethodik als Konstruktionslehre. In: Hahn, E., Rieder, H. (Hrsg.) Sensumotorisches Lernen und Sportspielforschung. K¨ oln, pp. 91–111 24. Leist, K.-H. (1987) Analysen sportlicher Bewegungst¨ atigkeiten, Lehr-Lernzielsetzung und praktische Entw¨ urfe aus der Sicht eines handlungstheoretischen Ansatzes. In: Peper, D., Christmann, E. (Hrsg.) Aktuelle Probleme der Sportp¨ adagogik. Schorndorf, pp. 165–190
220
K.-H. Leist
25. Leist, K.-H. (1991) Zum Problem der Komplexit¨ at bei motorischen Leistungen. Theorie und Praxis der K¨ orperkultur. Sonderheft 26. Leist, K.-H. (1992) Basisdialog. In: DVS (Hrsg.) Bericht zum DVS-Kongreß in Oldenburg 1991. Schorndorf 27. Leist, K.-H. (1993) Lernfeld Sport“. Reinbek ” 28. Leist, K.-H. (1997) Human Movement als Dialogue, Dialogisches Handeln, S’exprit de finesse. In: Sportonomics 29. Leist, K.-H. (1998) Turing should meet Thoreau. In: Dietrich, K. (Hrsg.) Bewegen, Erfahren, Denken. Jesteburg, pp. 127–157 30. Leist, K.-H. (1999) Handlungserkl¨ arung aus gestaltpsychologischer und synergetischer Sicht: Pilotstudien zu einem Erkl¨ arungsansatz von Tschacher. M¨ unchen 31. Metzger, W. (1963) Psychologie. Darmstadt 32. Meyfahrt, U. (1986) Hochsprung-Training. Frankfurt 33. Miller, G. A., Galanter, E., Primbram, K.-H. (1960) Plans and the Structure of Behavior. New York 34. Prinz, W. (1998) Reaktion als Willenshandlung. Psychologische Rundschau 1, 14 ff. 35. Reed, E. S. (1998) Applying the Theory of Action Systems to the Study of Motor Skills. In: Meijer, O. G., Roth, K. (Eds.) Complex Movement Behaviour. The motor-action controversy. Amsterdam, pp. 45–86 36. Roth, G. (1997) Gehirn und Wirklichkeit. Frankfurt 37. Schmidt, R. A. (1982) Motor control and learning: a behavioral emphasis. Campaign (Illinois) 38. Schr¨ odinger, H. (1965) Geist und Materie. Braunschweig 39. Shannon, C. E., Weaver, W. (1949) The mathematical theory of communication. Urbana 40. Stadler, M., Kruse, P. (1990) The Self-Organization Perspective in Cognition Research: Historical Remarks and New Experimental Approaches. In: Haken, H., Stadler, M. (Eds.) Synergetics of cognition. Berlin, pp. 32-52 41. Stelmach, G. E., Diggles, V. A. (1982) Control theories in motor behavior. Acta Psychologica 50, 83–105 42. Sternad, D., Amazeen, E. L., Turvey, M. T. (1996) Diffusive, Synaptic and Synergetic Coupling. Journal of Motor Behavior 28 (3), 255–269 43. Sternad, D., Schaal, St., Atkeson, C. G. (1995) Batting a ball. In: Bardy, R. et al. (Eds.) (1995) Studies in Perception and Action III. Hillsdale, pp. 119–223 44. Tschacher, W., Scheier, C. (1996) Toward a new cognitive psychology - The perspective of situated and self-organizing cognition. In: Cognitive psychology. Concepts and complex systems. Bd. 13, pp. 163–189 45. Tschacher, W. (1997) Prozessgestalten. G¨ ottingen u.a. 46. Vereijken, U. (1993) Ski dynamics. Amsterdam 47. Volger, B. (1990) Lehren von Bewegungen. Ahrensdorf 48. Weinert, F. E. (1998) Neue Unterrichtskonzepte zwischen gesellschaftlichen Notwendigkeiten, p¨ adagogischen Visionen und psychologischen M¨ oglichkeiten. In: Bayerisches Staatsministerium f¨ ur Unterricht, Kultus, Wissenschaft und Kunst (Hg.) Wissen und Werte f¨ ur die Welt von morgen. M¨ unchen, pp. 101–125 49. Wulf, G. (1998) Bewußte Kontrolle st¨ ort Bewegungslernen. In: Spektrum der Wissenschaft, No. 4, 16–22
Teil V
Medizinische Systeme
222
V. Medizinische Systeme
In der Medizin ist die nichtlineare Zeitreihenanalyse (z.B. EKG-, EEG-Reihen) von eminent praktischer Bedeutung. Medizinische Diagnose erfordert aber nicht nur mathematische Analyse, ob und welche Attraktoren nichtlinearer Dynamik vorliegen. Sie m¨ ussen auch medizinisch richtig interpretiert werden. Wenn der menschliche Organismus als komplexes dynamisches System aufgefaßt wird, dann lassen sich Krankheiten durch endogene Rhythmen charakterisieren. Das Konzept solcher dynamischer Krankheiten f¨ uhrt zu neuen Perspektiven der Medizin.
Biomedizinische Zeitreihen: Mo ¨glichkeiten und Grenzen Zbigniew J. Kowalik1 und Theodor Leiber2 1 2
Neurologische Klinik, Heinrich-Heine-Universit¨ at D¨ usseldorf, Moorenstraße 5, D–40225 D¨ usseldorf, Germany, e-mail:
[email protected] c/o Lehrstuhl f¨ ur Philosophie und Wissenschaftstheorie, Institut f¨ ur Philosophie, Universit¨ at Augsburg, Universit¨ atsstraße 10, D–86135 Augsburg, Germany, e-mail:
[email protected] Zusammenfassung Biomedizinische Signale beinhalten umfangreiche Informationen u altigen Verfahren der Generierung von bio¨ber ihre physiologischen Quellen. Die vielf¨ medizinischen Signalen und Zeitreihen und die zahlreichen Methoden ihrer Analyse spiegeln die enorme Komplexit¨ at der Physiologie der Lebewesen von der k¨ orperlichen u aren Ebene wider. Es werden Analysebeispiele empi¨ber die organische bis zur zellul¨ rischer biomedizinischer Zeitreihen aus der Physiologie des Menschen (z.B. Herzrhythmus, EEG/MEG) gegeben, die exemplarisch sind f¨ ur das hochaktuelle und wissenschaftstheoretisch progressive Forschungsgebiet der angewandten Komplexit¨ atsmodelle in der Physiologie und Medizin. Im Vordergrund unseres Beitrages steht deswegen weniger eine detaillierte Darstellung mathematischer und statistischer Analysemethoden der Chaosforschung, nichtlinearen Dynamik und statistischen Physik. Wir konzentrieren uns hier im Rahmen ausgew¨ ahlter Beispiele aus der medizinischen Physiologie des Menschen vielmehr auf die wissenschaftliche und wissenschaftstheoretische Diskussion empirisch anwendbarer und diagnosef¨ ahiger (und prognosef¨ ahiger) Komplexit¨ atsmodelle, deren Erkl¨ arungskapazit¨ at und methodische Probleme und schließlich auf das Aufzeigen erfolgversprechender Forschungsperspektiven.
1 1.1
Zur Genese biomedizinischer Zeitreihen Alle Lebewesen sind Signalquellen
Als Signal“ bezeichnet man in den empirischen Naturwissenschaften die zeitli”¨ che Anderung einer beliebigen meßbaren Gr¨oße (wie z.B. die Position, die Geschwindigkeit, die elektrische Spannung, das magnetische Feld etc.). Das bedeutet, daß alles in der Natur, was sich bewegt oder ver¨andert, zur Signalquelle werden kann. Eine solche Meßgr¨oße kann in Form einer Zahlenreihe dargestellt werden, indem man ihren zeitlichen Verlauf mit einem bestimmten (konstanten) Zeitintervall ∆ta abtastet und die einzelnen Meßwerte an den distinkten Zeitpunkten der Intervallgrenzen aufzeichnet. Jede Zahl dieser so generierten Zeitreihe entspricht dann der Meßgr¨oße zu einem bestimmten Zeitpunkt. So kann man an aufeinanderfolgenden (¨ aquidistanten) Zeitpunkten z.B. die Anzahl der Zellen in einem meiotischen Vermehrungsprozeß oder die Ver¨anderung des Winkels zwischen zwei definierten Punkten des Kniegelenkes bei einer bestimmten Bewegung oder die Geschwindigkeit des Blutflusses in einer Herzkammer aufzeichnen. Jede dieser diskreten Zahlenreihen stellt ein Signal dar. Die Zeitreihen, die mit
224
Z. J. Kowalik und T. Leiber
bestimmten biomedizinischen Meßverfahren von physiologischen Prozessen am Menschen abgeleitet worden sind, werden wir als biomedizinische Zeitreihen“ ” bezeichnen. 1.2
Die Untersuchungsmethode der Zeitreihen
Da es in experimentellen Situationen in aller Regel unm¨oglich ist, s¨amtliche Observablen bzw. alle Komponenten der Zustandsvektoren des vorliegenden dynamischen Systems (das theoretisch in vielen F¨allen unendlich-dimensional ist) simultan zu messen, wird sehr oft nur eine einzige skalare Gr¨oße einigermaßen st¨ orungsfrei als Funktion der Zeit gemessen. Da die aus einem solchen Meßprozeß gewonnene Datengrundlage lediglich eine ¨außerst reduzierte Informationsmenge u ¨ber das eigentlich zu untersuchende dynamische System konstituiert, scheint eine hinreichend umfassende Charakterisierung des (oft nur hypothetisch angenommenen) dynamischen Originalsystems auf dieser Grundlage prima facie kaum erreichbar zu sein. Tats¨ achlich konnten jedoch Verfahren entwickelt werden, um aus einer experimentell gewonnenen skalaren Zeitreihe unter geeigneten Bedingungen im Prinzip die gesamte Dynamik des Originalsystems rekonstruieren zu k¨onnen. Bei der R¨ uckgewinnung der Dynamik aus der diskretisierten Information u ¨ber die zeitliche Entwicklung einer Observablen geht man davon aus, daß die spezielle zeitliche Entwicklung der gew¨ahlten Observablen durch das Zusammenwirken aller den Prozeß bestimmenden Gr¨oßen verursacht wird. Hier wird deutlich, daß bestimmte Observablen f¨ ur eine Optimierung der Rekonstruktion des kompletten Zustandsraums geeigneter sind als andere. F¨ ur eine solche Optimierung ist es n¨ amlich erforderlich, daß die einzelnen Differentialgleichungen des zugrundeliegenden Differentialgleichungssystems ausreichend stark gekoppelt sind, da mit der nichtlinearen Kopplung meistens eine starke Reduktion der Freiheitsgrade des Systems einhergeht, so daß die Dynamik dissipativer Systeme auf einem niedrigdimensionalen Attraktor, d.h. einem relativ kleinen und kompakten Unterraum des theoretisch m¨ oglichen Phasenraums, verl¨auft. Die beiden wichtigsten Verfahren, um die vollst¨andige Dynamik eines Systems zu rekonstruieren, bestehen darin, entweder die zeitlichen Ableitungen des gemessenen Datensatzes [29] oder aber die zeitverz¨ogerten Koordinaten“ ” bzw. die aufeinanderfolgenden Werte der diskreten Zeitreihe [37] gegeneinander aufzutragen. Die Zeitreihe {ξ(tj )} ist eine Sequenz von Meßwerten einer (im mathematischen (Differentialgleichungs-) Modell des zu untersuchenden dynamischen Systems) kontinuierlichen Observablen ξ(t), die in a¨quidistanten Zeitintervallen ur das Meßsignal) gewonnen wird. Die Methode der Zeitrei∆ta (Abtastperiode f¨ hen hat sich aus experimenteller Sicht als die eindeutig brauchbarere erwiesen und in der empirischen Forschung durchgesetzt, da das Verfahren der Ableitungsbildungen einerseits datentechnisch aufwendiger ist und andererseits insbesondere bei h¨ oheren Ableitungen zu einem zunehmend schlechteren SignalRausch-Verh¨ altnis f¨ uhrt; außerdem konnte Florens Takens die Theoreme der Zeitreihenmethode (allerdings nur f¨ ur den idealisierten Fall rauschfreier Zeitreihen mit beliebiger Genauigkeit und einer unendlichen Anzahl von Meßpunkten)
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
225
mathematisch beweisen, so daß f¨ ur die Methode der diskreten Zeitreihen auch ein eindeutiger begr¨ undungstheoretischer Rahmen vorliegt [37]. Im Rahmen einer Fourieranalyse linearer Systeme muß die Abtastperiode ∆ta , mit der das (quasi-) kontinuierliche Signal des Experimentes diskretisiert wird, das Nyquist-Kriterium erf¨ ullen. Entsprechend dem Shannonschen Abtasttheorem enth¨ alt das diskrete Signal nur dann dieselbe Information wie das (quasi-) kontinuierliche Signal, wenn die Abtastperiode kleiner als die H¨alfte der kleinsten systeminh¨ arenten Periode ist. Im Zusammenhang mit den mathematischen Methoden nichtlinearer dynamischer Systeme spielt das Nyquist-Kriterium jedoch eine untergeordnete Rolle. Vielmehr lassen die Einbettungstheoreme von F. Takens fast alle Abtastperioden ∆ta (bis auf eine Menge vom Maß Null) zu. (Die Konstruktion einer diskreten und ¨aquidistanten Zeitreihe wird mathematisch als Einbettung“ charakterisiert, d.h. als Konstruktion einer Abbildung ” Φ(ϕ,ξ) : M → R2n+1 (Diffeomorphismus) zwischen der Mannigfaltigkeit M (dem unbekannten Phasenraum des dynamischen Originalsystems mit der unbekannten Dynamik ϕ und der unbekannten Dimension dim(M) = n) und ihrem Bild Φ(ϕ,ξ) M ⊂ R2n+1 , das in den R2n+1 eingebettet ist. Unter der Voraussetzung deterministischer Dynamik konstituiert das Verfahren der Einbettung eine Koordinatentransformation zwischen dissipativen Dynamiken, hinsichtlich der die fraktale Dimension und die Lyapunov-Exponenten (LE) der (seltsamen) Attraktoren Invarianten sind [25].) 1.3
Das biomedizinische Signal und die ihm unterlegten Prozesse
Biomedizinische Signale (bzw. Zeitreihen) korrelieren mit physiologischen Prozessen und beinhalten Informationen u ¨ber deren Ursachen, Mechanismen und Funktionen. Diese Hypothese ist allerdings nur unter der Voraussetzung zul¨assig, daß die Interaktionen mit anderen Systemen und der hochdimensionale Charakter der Biophysiologie von Lebewesen nicht unber¨ ucksichtigt bleiben. Wenn man z.B. davon ausgeht, daß das Elektroenzephalogramm (EEG) oder das Magnetoenzephalogramm (MEG) die Dynamik der Großhirnrinde beschreiben, dann darf keinesfalls der Einfluß anderer unsichtbarer“ Systeme (deren Einfl¨ usse und Wir” kungen zun¨ achst latent sind) außer acht gelassen werden. Zun¨achst muß man sich den statistischen Ursprung des EEG- bzw. MEG-Signals bewußt machen. Diese makroskopischen“ Signale kommen dadurch zustande, daß eine große Zahl von ” Neuronen (103 –105 ) gleichzeitig, aber nicht notwendigerweise synchron, aktiv ist. Die Beitr¨ age der einzelnen Elemente des Signalgenerators sind somit nicht detektierbar. Das EEG/MEG-Signal reflektiert im wesentlichen kortikale Aktivit¨ aten, d.h. Aktivit¨ aten der Großhirnrinde (Kortex). Das Gehirn ist aber mehr als nur der Kortex. Auch andere, tiefer im Gehirn liegende Strukturen k¨onnen das EEG/MEG beeinflussen, ohne im EEG/MEG-Signal unmittelbar sichtbar zu werden. Eine solche Modulation kortikaler Prozesse, z.B. durch thalamische oder cerebell¨ are (Kleinhirn-) Prozesse, kann jedoch — indirekt — sichtbar gemacht werden, wenn der Einfluß dieser latenten Prozeßeinwirkungen durch ein geeignetes dynamisches Modell erkl¨art werden kann. Ein Beispiel, das hier genannt
226
Z. J. Kowalik und T. Leiber
werden kann, ist die bei der neuromotorischen Koordination der Feinbewegung auftretende Modulation durch das Kleinhirn.
2
Der Mensch als biomedizinische Signalquelle
Die wichtigsten und exemplarischen biophysiologischen Prozesse, an denen biomedizinische Zeitreihen aufgezeichnet werden (k¨onnen), sind: • physiologische Rhythmen: – zirkadiane Rhythmen und Schlafrhythmen W¨ ahrend diese Rhythmen lange Zeit dem zirkadianen Wechsel von Licht und Dunkelheit zugeschrieben wurden, weiß man heute, daß hierf¨ ur hypothalamische Strukturen, insbesondere der suprachiasmatische Nukleus, verantwortlich sind. Diese interne Uhr besitzt eine Periode von etwa 25 Stunden; sie wird jedoch durch das Tageslicht synchronisiert (Abb. 1). – Atmung Sie wird vom Atemzentrum im verl¨angerten R¨ uckenmark zentral gesteuert. Die inspiratorischen Neuronen geben spontan rhythmische Impulssalven ab, die zu Einatmungsbewegungen f¨ uhren. Die Atmung wird von vielen anderen Systemen (ZNS, Kreislauf, Temperaturregulation) stark beeinflußt. – Kreislauf — Herzrhythmus Das Herz kann unter F¨ uhrung des Sinus-Knotens ganz autonom arbeiten. Es wird jedoch von vielen anderen Systemen, insbesondere vom Nervensystem (n. sympathikus, n. vagus), kontrolliert. – hormonale Rhythmen • elektrische Muskelaktivit¨at (EMG) • Hirnaktivit¨ at (EEG/MEG/ECoG/Einzelzellableitungen) • akustische Sprachsignale, etc.
3 3.1
Die Methoden der Signalanalyse Lineare Methoden
In einigen F¨ allen k¨ onnen die Generatoren biomedizinischer Zeitreihen durch lineare dynamische Gleichungen beschrieben werden, f¨ ur die das Superpositionsprinzip f¨ ur die partikul¨ aren L¨osungen erf¨ ullt ist. Tats¨achlich war die Analyse von Zeitreihen dynamischer Systeme (ebenso wie die Theorie dynamischer Systeme selbst) lange Zeit allein mit linearen mathematischen Methoden betrieben worden [38] [20]. Zu den neben der normalen Statistik sehr h¨aufig verwendeten linearen Methoden z¨ ahlen die Korrelations- und Spektralanalyse (z.B. Berechnung von Leistungsspektren und Autokorrelationsfunktionen). Sie sind weithin sehr leistungsf¨ ahig und erlauben oft eine schnelle Gruppendifferenzierung, d.h. eine Identifikation statistisch signifikanter Unterschiede zwischen unterschiedlichen gemessenen Datens¨ atzen. Meistens f¨ uhrt jedoch eine genauere Betrachtung
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
227
Abb. 1. F¨ ur den zirkadianen Rhythmus (circa dias = zirka ein Tag) ist der suprachiasmatische Nukleus (SCN) verantwortlich. Der Rhythmus l¨ aßt sich mit Licht steuern. Bei ausgeschaltetem Licht wird er etwa 25 Stunden betragen. Das Entfernen des SCN f¨ uhrt zu willk¨ urlichen Schlaf-Wach-Phasen. Der SCN liegt auf dem Weg zwischen der Retina und der Umschaltzentrale“ des visuellen Kortexes im lateralen genikularen Nukleus ” (LGN) (B). Das Schema (A) zeigt die R¨ uckkopplung zwischen SCN und Epiphyse, wo das zur Rhythmussteuerung wichtige Hormon Melatonin erzeugt wird
des Problems zu Schwierigkeiten bei der Interpretation der Ergebnisse, die mit den Mitteln linearer Modellsysteme nicht bew¨altigt werden k¨onnen. Insbesondere ist zu beachten, daß die linearen Methoden der Korrelations- und Spektralanalyse keine Unterscheidung zwischen niedrigdimensionaler (deterministisch) chaotischer und hochdimensionaler Dynamik erlauben. (Denn mit linearen Methoden erh¨ alt man f¨ ur beide F¨alle ein breitbandiges Leistungsspektrum bzw. eine schnell abfallende Autokorrelationsfunktion.) 3.2
Nichtlineare Methoden
Wenn jedoch das Superpositionsprinzip und das Prinzip des starken Determi” nismus“ (umgangssprachlich: ¨ahnliche Ursachen haben ¨ahnliche Wirkungen“; ” f¨ ur eine detaillierte Diskussion siehe [38]) nicht g¨ ultig sind oder eine Abh¨angigkeit der Frequenzkomponenten der Meßgr¨oße von der Amplitude besteht, dann sind nichtlineare Methoden bzw. nichtlineare dynamische Modelle zur Analyse
228
Z. J. Kowalik und T. Leiber
erforderlich [27] [4] [5]. Die Untersuchungsmethode der Zeitreihen hat sich dabei mittlerweile als eines der wichtigsten empirischen Meßverfahren etabliert, das eine Datengrundlage bereitstellt, auf die die nichtlinearen Methoden der Dynamik und Chaosforschung (z.B. Lyapunov-Exponenten, fraktale Dimensionen, dynamische Entropien seltsamer Attraktoren) direkt angewendet werden k¨ onnen. Der Vorteil der nichtlinearen Systemtheorie liegt vor allem darin, das dynamische Auftreten qualitativ neuer Eigenschaften des untersuchten Systems erkl¨ aren zu k¨ onnen: die Entstehung neuer Zust¨ande und deren Umwandlung. Praktische Algorithmen der nichtlinearen Signalanalyse An dieser Stelle ¨ soll lediglich eine Ubersicht u ¨ber die g¨angigsten Analysemethoden biomedizinischer Zeitreihen, nicht aber eine Einf¨ uhrung in die mathematischen Grundlagen der nichtlinearen Signalanalyse [1] gegeben werden. Deswegen beschr¨ankt sich unsere Darstellung auf eine knappe Aufz¨ahlung der gebr¨auchlichsten Algorithmen zur nichtlinearen Signalanalyse: • Korrelationsdimensionen D2 [9] und P D2 [7] [35], die die Korrelationskomplexit¨ at des Signals beschreiben • Kolmogorov-(K)-Entropie [10] [11] und Entropieraten bzw. mutuelle Information [30] [31] [32], die die dynamische Homogenit¨at bzw. die Stochastizit¨at des Phasenraums charakterisieren • gr¨ oßter Lyapunov-Exponent (largest Lyapunov exponent = LLE) [39] [3] [34], der die Chaotizit¨ at oder die (eingeschr¨ankte Langzeit-) Vorhersagbarkeit der Systementwicklung charakterisiert (siehe dazu auch [38] [19] [20] [21] [22] [23]) • lokaler Lyapunov-Exponent (lLE) [40] [28] [13] [16], der eine zeitliche und r¨ aumliche Lupe“ zur Aufl¨osung des Systemverhaltens darstellt ” • symbolische Dynamik [2], die eine Reduzierung der Systemdynamik durch Unterteilung in dynamische (Teil-) Strukturen erm¨oglicht
4
Physiologische Fragestellungen
Die o.a. praktischen Algorithmen, die zur Signalanalyse verwendet werden k¨onnen, erweisen sich f¨ ur eine Reihe physiologischer Fragestellungen als von unmittelbarer Relevanz. In manchen F¨allen erlaubt eine effektive und erfolgreiche Anpassung solcher Algorithmen an das empirische Meßdatenmaterial, die physiologischen Fragen direkt zu beantworten. Die wichtigsten Fragestellungen, die sich auf diese Weise oft untersuchen lassen und die im folgenden erl¨autert werden, sind die Fragen nach dem Ursprung des signalgenerierenden Prozesses, nach der H¨ aufigkeit bestimmter Systemereignisse bzw. von Zustands¨anderungen und nach der Prozeßvariabilit¨ at, nach der Prozeßcharakterisierung, nach der Komplexit¨ at des signalgenerierenden Prozesses und seinem Zusammenhang mit anderen Prozessen sowie nach der Stabilit¨at und nach der (Selbst-) Organisation des signalgenerierenden Prozesses.
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
229
Ursprung des signalgenerierenden Prozesses Besonders bei r¨aumlich verteilten und stark strukturierten Signalquellen, wie z.B. dem Gehirn, stellt sich oft die Frage, wo der signalgenerierende Prozeß lokalisiert ist oder welche Substrukturen f¨ ur den Prozeß tats¨ achlich urs¨achlich sind. Es ist klar, daß die Lokalisierung bei einer direkten Messung an der Signalquelle (z.B. mit multiplen Einzelzellableitungen) einfacher ist, als wenn von der Kopfoberfl¨ache abgeleitete EEG- oder MEG-Daten benutzt werden. Ein zutreffendes Beispiel ist in Abb. 2 dargestellt. Die Frage nach der Quellenlokalisierung geh¨ort dabei in der biomedizinischen Physiologie wegen des hohen Strukturierungsgrades der Systeme, wegen des oft ausgepr¨ agten Verteilungsgrades ihrer physiologischen Mechanismen und Funktionen und wegen der strukturellen und prozessualen Komplexit¨at keineswegs zu den trivialen Problemen, sondern ihrer (approximativen) L¨osung kommt f¨ ur eine empirisch ad¨ aquate Interpretation von biomedizinischen Meßdaten oft ein zentraler Stellenwert zu.
Abb. 2. Die interiktuale epileptiforme Aktivit¨ at wurde bei einer Epilepsie-Patientin im vorderen Parietallappen mit einem Multikanal-MEG lokalisiert. Hier wurde eine sogenannte ECD-Anpassungstechnik (equivalent current dipole) f¨ ur mehrere Spitzen angewandt und dann in das MRI-Bild eingetragen
230
Z. J. Kowalik und T. Leiber
In diesem Beispiel (Abb. 2) wurden bei einer Epilepsie-Patientin in der interiktualen Phase das MEG in 122 Kan¨alen simultan registriert und f¨ ur ca. 50 gut ausgepr¨ agte epileptische Spikes die Lokalisierungen der ¨aquivalenten Stromdipole (equivalent current dipole = ECD) berechnet. Die Frage, ob die deutlich erkennbare Streuung der Dipolpositionen, die den Koordinaten von pathologischen Aktivit¨ aten entsprechen sollten, physiologisch bedingt ist, oder ob sie der Lokalisierungsmethode zuzuschreiben ist, kann nicht eindeutig beantwortet werden. H¨ aufigkeit der Ereignisse und Prozeßvariabilit¨ at Auf die Frage, wie oft ein bestimmtes Ereignis auftritt, wird eine Spektralanalyse h¨aufig eine korrekte Antwort ergeben, wenn der Prozeß station¨ar (d.h. in einem dynamischen Fließgleichgewicht) ist. Von Prozeßvariabilit¨at spricht man dagegen, wenn der Prozeß einen nichtstation¨ aren Charakter besitzt. Dann wird es erforderlich, die Anzahl der m¨ oglichen definiten Typen von Zustands¨anderungen festzustellen. Dies kann z.B. einen Fall f¨ ur die Anwendung von symbolischen Dynamiken darstellen. Prozeßcharakterisierung Die naturwissenschaftliche Prozeßcharakterisierung ist — in quantitativer wie qualitativer Hinsicht — eines der schwierigsten methodischen Probleme. Hierbei geht es darum, das (dynamische) Systemverhalten mit Hilfe von mathematischen Begriffen zu klassifizieren. Die physikalische Bedeutung der mathematischen Modelldynamiken muß in eine empirisch ad¨aquate und (m¨ oglicherweise) hypothetisch-realistisch interpretierte Erkl¨arung der unterliegenden physiologischen Vorg¨ange umgesetzt werden. Komplexit¨ at des signalgenerierenden Prozesses Die Komplexit¨at des signalgenerierenden Prozesses kann im linearen Fall mit der Vielfalt des Frequenzspektrums beschrieben werden. Ad¨aquater und eleganter (und im nichtlinearen Fall sogar unverzichtbar) ist dagegen die Einf¨ uhrung eines nichtlinearen Komplexit¨ atsmaßes in Form der Korrelationsdimension. Auf diese Weise k¨onnen komplexe Signalmuster nicht nur optisch“ von einfachen Signalmustern unterschie” den werden; es k¨ onnen dadurch vielmehr verschiedene komplexe Signalverl¨aufe durch verschiedene fraktale Dimensionen charakterisiert werden. (F¨ ur eine wissenschaftstheoretische Diskussion weiterer Komplexit¨ats- und Berechenbarkeitsgrade dynamischer Systeme siehe [19] [21]). Zusammenhang mit anderen Prozessen Normalerweise sollte ein physiologisches Experiment so aufgebaut werden, daß nur eines von mehreren Subsystemen des menschlichen Organismus gemessen wird. Dies ist selten eine realistische Annahme, d.h. in aller Regel muß der Einfluß von kausal nicht (vollst¨andig) isolierbaren Prozessen ber¨ ucksichtigt werden. Stabilit¨ at des signalgenerierenden Prozesses Die Stabilit¨at des signalgenerierenden Prozesses charakterisiert, wie lange ein bestimmter Zustand un-
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
231
ver¨ andert besteht. Theoretisch wird die Stabilit¨at durch einen globalen LyapunovExponenten (LE) beschrieben. Im nichtstation¨aren Fall spricht man von metastabilen Prozessen, die w¨ ahrend einer endlichen (Lebens-) Zeit existieren. Zur Beschreibung solcher Prozesse benutzt man den zeitabh¨angigen lokalen LyapunovExponenten (lLE). (Selbst-) Organisation des Prozesses Oft wird die Frage gestellt, wie es zur Ausbildung einer geordneten zeitlichen und/oder r¨aumlichen Struktur kommt. Die Ursachen f¨ ur diese Ordnung k¨onnen entweder externe Generatoren oder interne nichtlineare Kopplungen von Systemkomponenten sein.
5 5.1
Beispiele und Analysen biomedizinischer Zeitreihen Die menschliche Stimme
Wenn man das Meßsignal eines Mikrofons betrachtet, das durch den Stimmapparat erzeugt wird, w¨ ahrend wir diesen Satz laut lesen, kann man erkennen, daß es gewisse harmonische Komponenten beinhaltet (Abb. 3). Die charakteristischen (Grund-) Laute der menschlichen Stimme, deren korrespondierende Hirnprozesse von (relativ) kurzer zeitlicher Erstreckung sind, haben nahezu unver¨ anderliche Frequenzspektren. Diese k¨onnen somit mit hoher Verl¨ aßlichkeit den physikalischen Eigenschaften des Stimmorgans eindeutig zugeschrieben werden und diese somit beschreiben (Abb. 3A). Betrachten wir jedoch das Signalmuster der Stimmlaute auf gr¨oßeren Zeitskalen (Abb. 3B,C): Die W¨ orter, die wir aussprechen, geh¨oren zu einem begrenzten Wortschatz und werden bei gewissen Satzkonstruktionen mehrmals wiederholt. Unter der plausiblen Annahme, daß die logisch-syntaktische Satzkonstruktion einem deterministischen Charakter der Sprache entspricht, beschreibt der Verlauf des stimmlichen Signalmusters auf gr¨ oßeren Zeitskalen die dynamischen Eigenschaften unseres Sprachzentrums und der mit ihm assoziierten Systeme, die sich im Gehirn befinden. Nat¨ urlich bedeutet dies nicht, daß das Hirn f¨ ur die Generierung der kurzskaligeren Silben und stimmlichen Grundlaute ausgeschaltet ist. Die kortikale Organisation der Darstellung einfacher T¨one unterscheidet sich n¨amlich von derjenigen von Vokalen (Abb. 3D), was suggeriert, daß f¨ ur die Verarbeitung verschiedener Stimmeinheiten verschiedene Neuronengruppen verantwortlich sind [6]. Wenn wir uns aber auf die Untersuchung des akusto-mechanischen Stimmapparats konzentrieren m¨ ochten, dann m¨ ussen wir zur Analyse die entsprechende Zeitskala der Signalerfassung und eine solche Stimme als Untersuchungsgegenstand w¨ ahlen, die m¨ oglichst wenig von den neuronalen Verarbeitungszentren im Hirn beeinflußt wird. Ein gutes Beispiel ist der Schrei des Neugeborenen. Er besitzt einen quasi-station¨ aren Charakter und schließt die Mitwirkung h¨oherer kognitiver Funktionen im Hirn aus. Ein solches Experiment wurde von HansPeter Herzel et al. durchgef¨ uhrt [12]. Es ist also bemerkenswert, daß die Betrachtung bestimmter biomedizinischer Signale (hier: akustische Signale der menschlichen Stimme) auf unterschiedlichen
232
Z. J. Kowalik und T. Leiber
Abb. 3. Sprachsignal auf verschiedenen Zeitskalen: Vokale (A), Wort (C), Satz (B). Die r¨ aumliche Repr¨ asentation der Hirnaktivit¨ at bei Angabe von einfachen Vokalen und T¨ onen (D). Hier wurden die Aktivit¨ aten mit einem 37-Kanal-MEG gemessen und f¨ ur bestimmte zeitliche Komponenten (M100, SF) lokalisiert [6]. M100 bedeutet die gr¨ oßte gemittelte Antwort neuronaler Verb¨ ande, die ca. 100 ms nach dem akustischen Reiz erscheint. SF (sustained field) ist die Amplitude von sp¨ ateren Antworten in der S¨ attigung
Zeitskalen es erlaubt, Informationen u ¨ber die verschiedenen beteiligten Verursachungsmechanismen bzw. u ¨ber die dynamisch involvierten physiologischen Teilsysteme zu erhalten. Mit der Wahl der Zeitskala bei der Analyse biomedizinischer Signale oder Zeitreihen kann der Experimentator in solchen F¨allen also die in einem Gesamtprozeß dynamisch interagierenden Teilsysteme (approximativ) voneinander isolieren. 5.2
Herzrhythmus
Beispiel: Pl¨ otzlicher Herztod Der pl¨otzliche Herztod ist definiert [8] als unerwarteter, aber nat¨ urlicher Tod infolge kardiovaskul¨arer Ursachen, der innerhalb einer Stunde nach Einsetzen der ersten Symptome eintritt. Direkt urs¨achlich f¨ ur den pl¨ otzlichen Herztod ist die ventrikul¨are Fibrillation, die zu letalem Kammerflimmern f¨ uhrt. Skinner et al. haben in j¨ ungster Zeit eine Gruppe von Patienten mit ventrikul¨ aren Tachykardien (VT), die als eine Hochrisiko-Gruppe f¨ ur den pl¨otzlichen Herztod eingestuft werden, mit mehreren nichtlinearen Verfahren untersucht
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
233
[36]. Bei den VT-Patienten wurde innerhalb von 24 Stunden (am h¨aufigsten am Tag der EKG-Messung) eine ventrikul¨are Fibrillation (VF) festgestellt. Die Kontrollgruppe wurde aus einer Menge von VT-Patienten, bei denen in den letzten drei Jahren keine VF beobachtet wurde, per Zufallslos ausgew¨ahlt. Die Daten von beiden Gruppen (die aus den Holter-Aufnahmen der R-R-Intervalle gewonnen wurden) konnte man mit Hilfe von Skinners P D2-Dimension mit 100% Erfolgsrate differenzieren. Die R-Komponente im EKG-Signal geh¨ort zu den st¨ arksten und am einfachsten zu detektierenden Signalen aus dem gesamten QRS-Komplex.1 Der kritische Zahlenwert, der die beiden Gruppen trennt, liegt um die Korrelationsdimension P D2 ≈ 1.2. Gr¨oßere P D2-Werte als 1.2 ergeben sich bei allen VT-Patienten (ohne VF) und kleinere P D2-Werte f¨ ur die VF-Gruppe. Beispiel: ARVC Mit dem pl¨otzlichen Herztod eng verkn¨ upft sind Arrhythmien. Ein medizinisch interessantes, obwohl seltenes Beispiel stellt die arrhythmogene rechtsventrikul¨ are Dysplasie oder Kardiomyopathie (ARVC, oder auch Uhlsche Krankheit) dar, wo der rechte Ventrikel makroskopisch vergr¨oßert erscheint, wobei das Myokardgewebe papierd¨ unn und mechanisch schwach ist. Leider wird dies meistens erst w¨ ahrend der Obduktion, also erst nach dem pl¨otzlichen Tod festgestellt. Deswegen sucht man schon seit langem einen objektiven und einfachen Test, um das Vorliegen dieser Krankheit, die auch junge Leute betrifft, nachzuweisen. In einer Studie [17] wurden vier kardiologisch gr¨ undlich untersuchte Patienten, die mit hoher Wahrscheinlichkeit an ARVC leiden, mit Hilfe von MultikanalMagnetokardiogramm- (MKG)- und hochaufl¨osender Elektrokardiogramm(EKG)-Technik gemessen. Die Daten wurden dann mit linearen und nichtlinearen Verfahren analysiert. Das Spektrum der Ergebnisse dieser Analysen ist in Abb. 4 gezeigt. In diesem Fall konnten wir mit Hilfe der linearen Verfahren einen interessanten Effekt beobachten. Bei der Patientengruppe wird in jedem ¨ untersuchten Fall eine Uberlagerung von MKG-Verl¨aufen gefunden, die wir als Dephasierungseffekt“ bezeichnet haben. Dies wird gut sichtbar, wenn man die ” gemessenen Daten in dem Frequenzbereich um die charakteristische Frequenz (ca. 60 Hz) bandpaßfiltert. Die Kartierung der die Nichtlinearit¨aten charakterisierenden Gr¨ oßen, n¨ amlich hier der Korrelationsdimension D2 und des gr¨oßten Lyapunov-Exponenten (LLE), zeigt deutlich andere Eigenschaften (Abb. 5), n¨ amlich die u ¨beraktiven Regionen, die durch gr¨oßere Werte des LLE charakterisiert sind. Diese Regionen sind entlang der Herzachse stark ausgepr¨agt, wobei die lokal h¨ oheren Werte bei den ARVC-Patienten zu finden sind. 1
Durch die Buchstaben PQRST . . . werden die wichtigsten wiederholbaren Merkmale (aufeinanderfolgende Minima und Maxima) des EKG-Signals gekennzeichnet, die bestimmten physiologischen Herzzust¨ anden entsprechen. Die drei Herzzust¨ ande, die die Depolarisation des Herzmuskels beschreiben, werden mit Q, R und S bezeichnet. Aus den Abst¨ anden zwischen diesen Signalen und aus deren geometrischer Form kann auf die Art der pathologischen Ver¨ anderungen geschlossen werden.
234
Z. J. Kowalik und T. Leiber
(B)
(A)
(D)
(E)
(C)
(F)
Abb. 4. Das ARVC-Experiment [17]. (A) Die Elektrodenplazierung f¨ ur EKG und MKG. Die Differenzen des QRS-Komplexverlaufs zwischen EKG und MKG sind auf verschiedenen Zeitskalen dargestellt (B,C), wobei die Kan¨ ale im oberen Teil den MKGs entsprechen. Das Bild (D) zeigt die Frequenzenverteilung im Band 40-70 Hz. Den De” phasierungseffekt“ kann man durch den Vergleich der Kontroll- und Patientendaten (E,F) leicht verstehen. Hier wurden die gefilterten und auf R-R-Ereignisse synchronisierten 37 MKG-Signale aufeinander geplottet. Der Effekt ist nur mit MKG sichtbar
5.3
Normales und pathologisches EEG/MEG
Das EEG und das MEG werden als biomedizinische Signale aufgefaßt, die durch (hypothetisch unterlegte) hochdimensionale deterministische Dynamiken der beteiligten, ¨ außerst komplexen physiologischen Prozesse generiert werden. Auch das EEG und das MEG stellen ein erfolgreiches Anwendungsgebiet der nichtlinearen Methoden der Signalanalyse dar [5]. Zwei relevante experimentelle Beispiele, die wir hier diskutieren, sind Tinnitus und Epilepsie. Beispiel: Tinnitus Tinnitus bezeichnet ein pathologisches Ph¨anomen in Form von Klingeln oder Ger¨ auschen im Ohr. Es kann objektiver“ (z.B. akustomecha” nischer) oder subjektiver“ (z.B. neurodynamischer) Natur sein. Im ersten Fall ” gibt es meistens eine eindeutig identifizierbare und lokalisierbare Quelle des parasit¨ aren Ger¨ ausches. Der physiologische Mechanismus des subjektiven Tinnitus ist dagegen trotz der existierenden Anzeichen f¨ ur strukturelle und/oder funktionale ¨ Anderungen in der H¨ orrinde bislang nicht aufgekl¨art. Ein MEG-Experiment [15] zeigte jedoch, daß die Zeitreihen, die von Tinnitus-Patienten abgeleitet wurden,
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
235
D2
St
RRib
LRib
Xip
LLE
Abb. 5. Korrelationsdimension D2 der MKG- und EKG-Zeitreihen f¨ ur zwei Kontrollprobanden (CTRL) und zwei ARVC-Patienten (oben) und die entsprechende Analyse des LLE der MKG-Zeitreihen (unten)
ausgepr¨ agtere Instabilit¨ aten zeigten als diejenigen von den Kontrollprobanden (Abb. 6). Wir sehen hier, daß man auch f¨ ur eine recht grobe Mittelung u ¨ber die LEs u aren, die f¨ ur alle 37 MEG-Kan¨ale berechnet worden ¨ber die Hemisph¨ sind, eine statistisch signifikante Differenz erh¨alt. Noch interessanter erscheint die r¨ aumliche Verteilung der LLEs. Repr¨asentative Karten des LLE f¨ ur den Tinnitus-Patienten und den Normalprobanden zeigen die Abb. 6A,B. Entsprechende Karten des LLE f¨ ur die Ableitung von Spontanaktivit¨at des Kortexes deuten auch auf die gr¨oßere Komplexit¨at des r¨aumlichen Verteilungsmusters hin. Die Muster, die zum Fall des Tinnitus geh¨oren, haben außer dem hyperaktiven temporalen Bereich (was dem akustischen Kortex entspricht) alle auch mehrere unruhige“ (dynamisch instabilere) Zentren außerhalb dieses ” Bereichs. Beispiel: Fokale Epilepsie Etwa jeder hundertste Mensch erkrankt an einer Epilepsie. Davon sind 80 % Temporallappen-Epilepsien, denen eine Funktionsst¨ orung des Gehirns in diesem Bereich zugrundeliegt. Diese lassen sich mit Hilfe von hochinvasiven Meßmethoden in Form von kortikalen Ableitungen ziemlich genau lokalisieren. Seit mehreren Jahren versucht man jedoch, diese Loka-
236
Z. J. Kowalik und T. Leiber
(A)
(B)
(C)
(D)
Abb. 6. LLE-Kartierung aus dem Multikanal-MEG im Tinnitus- (A) und Kontrollfall (B). Das hellere Gebiet, das im Fall des Tinnitus im Bereich des temporalen Lappens liegt, entspricht erh¨ ohter Instabilit¨ at. In zwei weiteren unabh¨ angigen Studien (C,D) wurden ¨ ahnliche Ergebnisse auch statistisch nachgewiesen
lisierung mit nicht-invasiven Verfahren, dem EEG und MEG, durchzuf¨ uhren. Abgesehen davon, daß die lokalisierten Stellen nicht unbedingt dem epileptischen Fokus entsprechen, weil mehrere Zonen der funktionellen St¨orung und der L¨ asion (wie z.B. irritative, symptomatische Schrittmacher) an diesem pathologischen Prozeß beteiligt sein k¨onnen [26], sind die Ergebnisse vielversprechend. In einem einfachen Epilepsiemodell [18] wurde angenommen, daß die interiktuale Aktivit¨ at durch h¨ aufige Zustandswechsel zwischen normaler“ hochdimen” sionaler und pathologischer niedrigdimensionaler Dynamik charakterisiert wird. Dieser Wechsel kann also mit Hilfe des dimensionalen Komplexit¨atsmaßes oder mittels lLEs gemessen werden. Eine solche Analyse zeigt Abb. 7.
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
237
Abb. 7. Variabilit¨ atswerte (Standardabweichung) der lLE-Zeitreihen bilden intraindividuell stabile und reproduzierbare Verteilungskarten. Hier werden die gleichen MEG-Daten der Epilepsie-Patientin wie in Abb. 2 analysiert [18]. Der Bereich gr¨ oßerer Instabilit¨ aten (lLE-Maxima) (oben) entspricht der Position der Spike-Anpassung in der betroffenen Zone des Gehirns (unten)
¨ In Abb. 7 ist noch einmal eine Uberlappung des magnetischen Resonanzbildes mit der Rekonstruktion von dipolaren Aktivit¨aten, die den spike-f¨ormigen Signalen entsprechen, dargestellt. Bei der gemessenen Patientengruppe wurde festgestellt, daß die Hirnseite von u ¨beraktiven Regionen, die durch erh¨ohte Variabilit¨ at der lLEs charakterisiert ist, der L¨asionsseite entspricht. Meistens zeigt sich diese Asymmetrie noch durch eine lokal verst¨arkte lLE-Variabilit¨at in der unmittelbaren N¨ ahe des Temporallappens. Die Lokalisierungsfrage ist jedoch bei der MEG-Epilepsiediagnostik nicht die einzige wichtige Frage. Auch die Hyperdynamik“ des Signals, n¨amlich die ” Ver¨ anderungen der dynamischen Eigenschaften im Sinne des nichtstation¨aren
238
Z. J. Kowalik und T. Leiber
Abb. 8. Ein Beispiel sichtbarer Dynamikver¨ anderung im MEG-Signal einer EpilepsiePatientin (oben) und der zeitliche Verlauf des dazugeh¨ origen lLE, der f¨ ur einen der gezeigten Kan¨ ale berechnet wurde (unten)
Verhaltens, kann den pathologischen Zustand der Epilepsie genauer charakterisieren. Die repr¨ asentativen Zeitreihen zeigt Abb. 8. Der rote Strich in der oberen H¨alfte von Abb. 8 teilt zwei Gebiete, die nach dem bloßen Augenschein verschiedene dynamische Muster beinhalten. Berechnet man in einem laufenden Fenster einen lLE, so erkennt man zu dem gekennzeichneten Zeitpunkt ein deutliches Ansteigen von dessen Wert (untere H¨alfte von Abb. 8). Diese Ver¨ anderung, die man als ein kritisches Ph¨anomen klassifizieren kann, deutet nichts anderes an als eine Verdr¨angung des gesunden“ Zustandes ” durch einen ungesunden“. H¨atte man eine Kontrollvariable, die sich u ¨brigens ” leicht durch die Hyperventilation, also die Menge des zugef¨ uhrten Sauerstoffs, definieren l¨ aßt, bek¨ ame man ein selbstorganisierendes epileptisches Ereignis. Wenn man den gesamten dynamischen Verlauf vergißt und u ¨ber die lLE-Werte mit-
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
239
telt, dann werden die der Abb. 8 zugrundeliegenden Daten noch etwas anderes aussagen. In der Position des epileptischen Fokus (oder besser: dessen funktioneller ” St¨ orungszone“) erkennt man mehrere instabile Regionen. Im typischen Epilepsiefall kommt es jedoch w¨ ahrend eines epileptischen Anfalles zur Verminderung der Komplexit¨ at und des LE. In der interiktualen Phase sieht es hier anders ¨ aus. Als charakteristisch zeigen sich eben die h¨aufigen Uberg¨ ange zwischen verschiedenen Zust¨ anden, also eine gewisse Instabilit¨at dieser Region. Dabei ist es weniger wichtig, ob es sich um eine Verminderung oder Erh¨ohung des Stabilit¨ atsmaßes handelt, sondern bedeutsamer ist eher, mit welcher H¨aufigkeit es zu diesen Ver¨ anderungen kommt. Diese kann man also entweder z¨ahlen“ [33] oder ” durch die Variabilit¨ at (z.B. mittels Standardabweichung) des lLE beschreiben [18].
6
Methodische Probleme der Analyse biomedizinischer Zeitreihen
Grunds¨ atzlich betreffen die methodischen Probleme der Analyse von (biomedizinischen) Zeitreihen das komplizierte Wechselspiel zwischen experimentalempirisch kontrollierbaren Systembedingungen, Datenerhebungsverfahren und Meßm¨ oglichkeiten einerseits und den theoretischen Eigenschaften bzw. mathematischen Bedingungen der Datenanalyseverfahren andererseits. Die Voraussetzungen f¨ ur die G¨ ultigkeit der mathematischen Theoreme der Methode der diskreten Zeitreihen — n¨ amlich das Vorliegen rauschfreier, unendlicher und beliebig genauer Zeitreihen — sind experimentalempirisch bzw. meßphysikalisch nicht streng erf¨ ullbar. F¨ ur empirisch ad¨aquate Anwendungen der Theorie der diskreten Zeitreihen sind deshalb einerseits auf der theoretischen Seite eine Reihe von ( empirie-ann¨ ahernden“) Approximationen kontrolliert durchzuf¨ uhren und ” andererseits die (stets verbleibenden) experimentalempirischen Beschr¨ankungen der Anwendungsbereiche der so gewonnenen theoretischen Modellapproximationen zu ber¨ ucksichtigen. F¨ ur eine verl¨ aßliche Anwendung der Methode der diskreten Zeitreihen muß deren experimentalempirische Anwendbarkeitsqualit¨at oder empirische Ad¨aquatheit mittels einer Reihe von Parametern kontrolliert und sichergestellt werden [1], die hier jedoch nicht im einzelnen diskutiert werden sollen. Besonders wichtig unstiger Einbetist dabei die (simultane) Wahl einer optimalen Abtastzeit ∆ta , g¨ tungsparameter und einer ausreichenden Einbettungsdimension f¨ ur den auf der Grundlage der empirischen Daten konstruierten Phasenraum, um einen (dem unbekannten Originalattraktor topologisch a¨quivalenten) Attraktor im Einbettungsraum mit effektiv berechenbaren dynamischen Variablen“ (LEs, fraktale ” Dimensionen, dynamische Entropien) zu erhalten. Da der Rechenaufwand f¨ ur die Bestimmung der dynamischen Variablen oft mindestens quadratisch mit der Dimension des Einbettungsraumes anw¨achst, gilt es, die minimal notwendige Einbettungsdimension zu finden, mit der der konstruierte Phasenraum aufgespannt werden kann, ohne daß sich die Attraktortrajektorien u ¨berschneiden. Die Wahl der Abtastzeit ∆ta muß die lineare Unabh¨angigkeit der Koordinaten im
240
Z. J. Kowalik und T. Leiber
Einbettungsraum garantieren, so daß der konstruierte Attraktor weder artifiziell kollabiert, noch artifiziell explodiert. Zu den wichtigsten biomedizinischen Problemen, die der Seite der experimentalempirischen Systembedingungen und Meßm¨oglichkeiten zuzurechnen sind, geh¨ oren die Nichtstationarit¨ at und ausgepr¨agte Nichtgleichgewichtsdynamik der biophysiologischen Prozesse, ihre r¨aumliche Verteiltheit und Inhomogenit¨at, ihr hoher Variabilit¨ atsgrad im Vergleich verschiedener Individuen sowie ihre oft enorme Anzahl von weder isolierbaren noch explizit kontrollierbaren Freiheitsgraden, die in der Physik unter den statistischen Begriff des Rauschens subsumiert werden. Diese verschiedenen Ausdrucksformen biomedizinischer Komplexit¨ at m¨ ussen bei der Wahl der determinierenden Parameter der Zeitreihenanalyse (z.B. Wahl der relevanten Variablen, des Meßortes, von ∆ta , des ausreichenden Einbettungsraumes etc.) ber¨ ucksichtigt werden. 6.1
Nichtstationarit¨ at
Schnelle m¨ ogliche Zustands¨ anderungen bzw. die (oft eng) begrenzte Lebenszeit verschiedener biophysiologischer Zust¨ande, bedeutet Nichtstationarit¨at bzw. dynamische Instabilit¨ aten von Nichtgleichgewichtssituationen. Deren theoretische und quantitative Modellierung bringt zwar große mathematische Schwierigkeiten mit sich, die erst mit der Entwicklung der Methoden der nichtlinearen Dynamik und Chaosforschung (sowie der nichtlinearen Nichtgleichgewichtsthermodynamik) w¨ ahrend der letzten Jahrzehnte und Jahre (partiell) in den Griff zu bekommen waren. Dynamische Instabilit¨aten und Nichtgleichgewichtssituationen bilden jedoch die wichtigsten Merkmale, die f¨ ur ein (physikalisches) Verst¨andnis von Strukturbildungsprozessen in der Natur und des Metabolismus von Lebewesen erforderlich sind: Erst Prozesse fern des thermischen Gleichgewichts er¨offnen die M¨ oglichkeit der Existenz von lokal entropievermindernden Entwicklungsprozessen (siehe z.B. [24]). Als biomedizinischer Spezial- und Extremfall der Nichtstationarit¨at kann eine nicht ganz unwichtige Beschr¨ankung der Analysierbarkeit der biologischen Generatoren biomedizinischer Signale betrachtet werden, n¨amlich der durch den Metabolismus der selbstorganisierten Organismen vorprogrammierte Systemwechsel. So wird beim Menschen der gr¨oßte Teil der den K¨orper konstituierenden Atome alle drei Monate ausgetauscht und bei der Neubildung der Strukturen kommt es zu verschiedenen Mißbildungen und Ungenauigkeiten — der bioorganische Mensch (bzw. jedes Lebewesen) ¨andert sich physiologisch, organisch und physiognomisch, er altert, erkrankt etc. 6.2
R¨ aumliche Inhomogenit¨ at
Die Generatoren biomedizinischer Signale sind praktisch ausschließlich r¨aumlich verteilte Strukturen. Die Zeitreihen, die in unterschiedlichen Teilbereichen einer solchen Struktur generiert werden, unterscheiden sich voneinander. Eine allgemeine Beschreibung der Systemdynamik muß also neben den zeitlichen Entwicklungsverl¨ aufen der relevanten Systemvariablen auch die r¨aumlichen Verteilungen
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
241
der Systemkomponenten und -variablen, d.h. deren topologische (und metrische) Merkmale ber¨ ucksichtigen. Insbesondere h¨ angt die u ¨berhaupt erreichbare Qualit¨at der Rekonstruktion der Dynamik des untersuchten Systems aus experimentellen Meßdaten (wie z.B. Zeitreihen) nachdr¨ ucklich von einer geschickten Wahl der Observable(n) und deren Meßort ab. Um diese erfolgversprechende Auswahl treffen zu k¨onnen, muß der Experimentator u ¨ber eine ausgezeichnete empirische Kenntnis seines Systems verf¨ ugen. Zugleich kann er mit einer u ¨berlegten und optimierten“ Observablen” wahl oft den Einsatz aufwendiger Rauschreduktionsverfahren minimieren oder sogar vermeiden. 6.3
Individuelle Variabilit¨ at
Lebewesen (und Menschen) sind als physiologische Systeme auch durch eine oft ausgepr¨ agte individuelle Variabilit¨at der Einzelmerkmale bestimmter Typen physiologischer Prozesse charakterisiert. Als Beispiel nennen wir den AlphaRhythmus im EEG oder MEG des Gesunden. Sowohl die Amplitude als auch die Frequenz (8-13 Hz) und H¨ aufigkeit der Erscheinung sind individuell sehr unterschiedlich. Das gleiche trifft auch f¨ ur die pathologischen F¨alle zu. Ein gutes Beispiel hierf¨ ur ist das weiter oben gezeigte MEG bei fokaler Epilepsie. Auch identisch diagnostizierte Patienten produzieren manchmal ausgepr¨agt unterschiedliche Signalmuster, die gerade das individuelle Krankheitsbild charakterisieren. Diese Variabilit¨ at ist Ausdruck der enormen physiologischen Komplexit¨at, die auch von zahlreichen nicht kontrollierbaren oder nicht bekannten Systemparametern und -variablen (wie z.B. den individuell sehr unterschiedlichen Entwicklungsbedingungen und physiologisch und biomedizinisch relevanten Vorgeschichten der einzelnen Individuen) (mit-) bestimmt wird. 6.4
Rauschen
Nicht n¨ aher identifizierbare Freiheitsgrade in einem hochdimensionalen offenen dynamischen System — mit einer Anzahl von Freiheitsgraden, die typischerweise mehrere Zehnerpotenzen betr¨agt — subsumiert man in der Theorienbildung der statistischen Physik unter dem Begriff des Rauschens. Obwohl nun Rauschen theoretisch gesehen ein dynamisches Signal ist, das von einem hochdimensionalen (oder theoretisch sogar unendlich-dimensionalen) deterministischen System generiert wird, sind wir praktisch nie imstande, dies zu u ufen. Ein jeder ¨berpr¨ solcher Rauschprozeß kann die Zust¨ande und den Prozeßcharakter des untersuchten Systems ver¨ andern, insbesondere wenn sich das System gerade in einem metastabilen oder instabilen Zustand befindet. Die Rolle von Rauschen kann am physikalischen Beispiel eines Bouncingball-Modells [14] demonstriert werden. Dieses Modell besteht aus einem NullVolumen-Ball (mathematischer Punkt) mit einer Masse M , der auf einer harmonischen Vibrationsoberfl¨ ache kr¨aftefrei und unelastisch (d.h. mit Energiedissipation) h¨ upft.
242
Z. J. Kowalik und T. Leiber
Abb. 9. Das Bouncing-ball-Experiment [14] zeigt die Vielfalt von nichtlinearem Verhalten. Die Bewegungsmodi (A) lassen Verhaltensformen von einfachen periodischen Bewegungen bis zur chaotischen Zeitreihengenerierung zu. Vor allem eine Koexistenz der Attraktoren (B) und der Einfluß des Rauschens k¨ onnen in diesem Modell anschaulich repr¨ asentiert werden. Der Einfluß des Rauschens f¨ uhrt zu sogenannten selbstreanimierten Attraktoren. Ein simulierter Attraktor (C) ¨ ahnelt dem experimentell rekonstruierten (D). Das Aussehen von registrierten Mikrofonsignalen, die w¨ ahrend des Sprungprozesses entstehen, ist in (E) f¨ ur quasi-periodische Bewegungen mit kleinen Spr¨ ungen und in (F) f¨ ur das chaotische Verhalten dargestellt
Abb. 9A zeigt den zeitlichen Verlauf der Bahn des H¨ upfprozesses des springenden Balles. Mit diesem Modell lassen sich verschiedene periodische und aperiodische Bewegungsformen demonstrieren. Wenn die Amplitude des Treibers klein und der Ball gen¨ ugend schwer ist, bleibt der Ball nach einer gewissen Zeit auf der schwingenden Fl¨ ache wie festgeklebt“ liegen. Erh¨oht man die Treiber” amplitude, so ger¨ at der Ball in eine periodische Bewegung, wobei ein Teil der Bewegung diese festgeklebte“ Phase ist und der andere eine st¨andig anwachsende ” Sprungbewegung. F¨ ur noch gr¨oßere Amplituden ist aber die Beruhigungszeit“ ” nicht ausreichend, und ab und zu springt der Ball aus diesem trivialen Attraktor heraus. Diese Art der Bewegung, die im Zeitverlauf periodische und chaotische Intervalle enth¨ alt, ist als selbstreanimiertes Chaos“ bezeichnet worden [14]. ” Die Grundursache f¨ ur die Zustands¨anderung (von quasi-periodischen zu chaotischen Bewegungen) liegt hier im Rauschen, das in einem multistabilen System (mit vielen Attraktoren) einen spontanen Wechsel zwischen (im Phasenraum) be-
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
243
nachbarten Attraktoren erzeugen kann (noise-induced transitions). Die Situation bei der Hirndynamik ist damit insofern vergleichbar, als auch hier der externe unkontrollierte Informationsfluß (Rauschen) einen Sprung zwischen verschiedenen Attraktordynamiken hervorrufen kann. Rauschen sollte man also nicht in jedem Fall nur als reinen St¨orfaktor f¨ ur die angestrebte experimentelle Kontrolle und Reproduzierbarkeit ansehen, sondern als eine der sehr wichtigen dynamisierenden Komponenten in realen Systemen, die deren Dynamik, Reaktions- und Verarbeitungsf¨ ahigkeit und somit letztlich die Flexibilit¨at ihrer kognitiven Funktionen erm¨ oglichen und bestimmen kann (vgl. auch [21]). Wichtig ist aber dabei, dieses systemdynamische Rauschen vom Rauschen aufgrund systematischer Meßungenauigkeiten und Apparaturtoleranzen experimentell kontrolliert zu unterscheiden. Zu starkes Meß- und Apparaterauschen machen es in der experimentellen Praxis oft sehr schwer oder sogar unm¨oglich, die dynamischen Variablen wie fraktale Dimensionen oder LEs mit hinreichender Verl¨ aßlichkeit zu ermitteln, da das artifizielle Rauschen die Skalierungseigenschaften der dynamischen Attraktoren u ¨berdecken kann. Zur Bew¨altigung solcher Problemsituationen sind verschiedene Verfahren zur spektralen Filterung und Rauschunterdr¨ uckung dynamischer Signale entwickelt worden (vgl. z.B. [1]).
7
Zusammenfassung und Ausblick
Der menschliche Organismus konstituiert einen reichen Fundus von Quellen komplexer biomedizinischer Signale, die in den meisten F¨allen nur durch nichtlineare mathematische Dynamiken auch empirisch angemessen modelliert werden k¨ onnen. Die experimentellen Meßm¨oglichkeiten und die große Auswahl von (linearen und) nichtlinearen Analyseverfahren f¨ ur die empirisch gewonnenen Datenmengen, die heute verf¨ ugbar sind, erlauben bereits relativ detaillierte Erkl¨ arungen von vielen dieser biomedizinischen Signale und der zugeh¨origen physiologischen Mechanismen und Prozesse der Signalgenerierung. F¨ ur eine erfolgreiche Analyse der Eigenschaften dynamischer Attraktoren, die auf der Grundlage experimenteller Daten nichtlinearer Systeme (re-) konstruiert werden, m¨ ussen h¨ ochste Anforderungen an die Pr¨azision der verwendeten Versuchsapparaturen gestellt werden. Um die Reproduzierbarkeit der Ergebnisse zu gew¨ ahrleisten, ist eine hohe Stabilit¨at der experimentellen Kontrollparameter erforderlich, da die Attraktorinvarianten wie fraktale Dimensionen oder LyapunovExponenten typischerweise sehr empfindlich gegen¨ uber Schwankungen sind. Die gr¨ oßten Probleme der Analyse und Beherrschung von biomedizinischer Komplexit¨ at in der Physiologie (des Menschen) resultieren aus dem hohen Strukturierungsgrad der physiologischen Systeme, dem ausgepr¨agten Verteilungsgrad ihrer physiologischen Mechanismen und Funktionen und ihrer prozessualen Komplexit¨ at. Die verschiedenen linearen, vor allem aber die nichtlinearen Methoden zur Analyse biomedizinischer Signale und Zeitreihen erlauben jedoch in einigen wichtigen F¨ allen bereits erfolgversprechende Erkl¨arungen mit diagnostisch wertvollem Gehalt. So konnten wir z.B. in Experimenten zur arrhythmogenen rechtsventrikul¨ aren Dysplasie (ARVC) mittels Multikanal-MKGs verschiedene Merkmale
244
Z. J. Kowalik und T. Leiber
(z.B. Dephasierungseffekt“; erh¨ohte gr¨oßte Lyapunov-Exponenten) aufweisen, ” die zuk¨ unftig m¨ oglicherweise als meßempirische Indikatoren f¨ ur das Vorliegen dieser auch junge Menschen bedrohenden Krankheit dienen k¨onnten. Ebenso konnte gezeigt werden, daß das Ph¨anomen des Tinnitus aus MEG-Experimenten (mittels der Verteilungskarten f¨ ur die gr¨oßten Lyapunov-Exponenten) diagnostiziert werden kann. Schließlich haben wir bei der Lokalisierung epileptiformer Funktionsst¨ orungen des Gehirns mit nicht-invasiven Methoden (EEG/MEG) in j¨ ungster Zeit mittels nichtlinearer Datenanalysen erfolgversprechende Resultate ¨ erzielt: Der Ubergang vom nicht-epileptischen zum epileptischen Verhalten wird durch Ver¨ anderungen der Parameter der nichtlinearen Dynamik angezeigt (d.h. die lokalen Lyapunov-Exponenten wachsen an).
Literatur 1. Buzug, T. (1994) Analyse chaotischer Systeme. B.I.-Wissenschaftsverlag, Mannheim 2. Devaney, R. L. (1986) An Introduction to Chaotic Dynamical Systems. Benjamin, Menlo Park (CA) 3. Eckmann, J. P., Ruelle, D. (1992) Fundamental limitations for estimating dimensions and Lyapunov exponents in dynamical systems. Physica D56, 185–187 4. Elbert, T., Ray, W. J., Kowalik, Z. J., Skinner, J. E., Graf, K. E., Birbaumer, N. (1994) Chaos and physiology. Deterministic chaos in excitable cell assemblies. Physiological Review 74, 1–47 5. Elbert, T., Rockstroh, B., Kowalik, Z. J., Hoke, M. (1997) Clinical applications of EEG analyses using tools derived from non-linear system theory. In: Butler, S. R., Angelieri, F., Giaquinto, S., Majkowski, J. (eds.) Analysis of the Electrical Activity of the Brain. John Wiley & Sons, London, pp. 45–67 6. Eulitz, C., Diesch, E., Pantev, C., Hampson, S., Elbert, T. (1995) Magnetic and Electric Brain Activity Evoked by the Processing of Tone and Vowel Stimuli. The Journal of Neuroscience 15(4), 2748–2755 7. Farmer, J. D. (1982) Dimension, fractal measure and chaotic dynamics. In: Haken H. (ed.) (1982) Evolution of Order and Chaos. Springer, New York Berlin, pp. 228–246 8. Goldstein, S. (1982) The necessity of a uniform definition of sudden coronary death: witnessed death within 1 hour of the onset of acute symptoms. American Heart Journal 103, 156–159 9. Grassberger, P., Procaccia, I. (1983) Measuring the strangeness of strange attractors. Physica D9, 189–208 10. Grassberger, P., Procaccia, I. (1983) Estimating the Kolmogorov entropy from a chaotic signal. Physical Review A28, 2591–2593 11. Gy¨ orgyi, G., Szepfalusy, P. (1985) Calculation of the entropy in chaotic systems. Physical Review A31, 3477–3479 12. Herzel, H.-P., Holzfuss, J., Kowalik, Z. J., Pompe, B., Reuter, R. (1998) Detecting Bifurcations in Voice Signal. In: Kantz, H., Kurths, J., Mayer-Kress, G. (eds.) Nonlinear Analysis of Physiological Data. Springer Books of Synergetics. Springer, Berlin, pp. 325–344 13. Kowalik, Z. J., Elbert, T. (1994) Changes of chaoticness in spontaneous EEG/MEG. Integrative Physiological Behavioral Science 29, 270–28
Biomedizinische Zeitreihen: M¨ oglichkeiten und Grenzen
245
14. Kowalik, Z. J., Franaszek, M., Piera´ nski, P. (1988) Self-reanimating chaos in the bouncing ball system. Physical Review A37, 4016–4023 15. Kowalik, Z. J., Elbert, T., Hoke, M. (1993) Mapping dynamic brain function: The largest Lyapunov exponent derived from multichannel magnetoencephalography. In: Jansen, B. H., Brandt, M. E. (eds.) Nonlinear Dynamical Analysis of the EEG. World Scientific, Singapore, pp. 156–164 16. Kowalik, Z. J., Elbert, T., Roberts, L. E., Hoke, M. (1998) Relativity of dynamical measures in study of the human brain: local Lyapunov exponent as a tool for comparative studies. In: Kantz, H., Kurths, J., Mayer-Kress, G. (eds.) Nonlinear Analysis of Physiological Data. Springer Books of Synergetics. Springer, Berlin, pp. 221–228 17. Kowalik, Z. J., M¨ akij¨ arvi, M., Wichter, T., Fetsch, T., Elbert, T., Breithard, G., Hoke, M. (1998) Linear and nonlinear analysis in the parallel HR-MCG/HR-ECG experiment in arrhythmogenic right ventricular cardiomyopathy. In: Aine, C., Okada, Y., Stroink, G., Swithenby, S., Wood, C. (eds.) Advances in Biomagnetism Research. Springer, New York (in press) 18. Kowalik, Z. J., Schnitzler, A., Freund, H.J., Witte, O. (1998) Local Lyapunov exponents detect epileptogenic zones in spikeless interictal MEG recordings. Submitted for publication 19. Leiber, T. (1996) Chaos, Berechnungskomplexit¨ at und Physik: Neue Grenzen wissenschaftlicher Erkenntnis? Philosophia Naturalis 33, 23–54 20. Leiber, T. (1996) Kosmos, Kausalit¨ at und Chaos. Naturphilosophische, erkenntnistheoretische und wissenschaftstheoretische Perspektiven. Ergon, W¨ urzburg 21. Leiber, T. (1998) On the actual impact of deterministic chaos. Synthese 113, 357379 22. Leiber, T. (1998) On the impact of deterministic chaos on modern science and philosophy of science. Implications for the philosophy of technology? Techn¯ e. Society for Philosophy and Technology. Quarterly Electronic Journal 4(2), 23-50 (http://scholar.lib.vt.edu/journals/SPT/v4 n2pdf/) 23. Leiber, T. (1999) Deterministic chaos and computational complexity: the case of methodological complexity reductions. Journal for General Philosophy of Science 30, 87-100 24. Leiber, T. (1999) Vom mechanistischen Weltbild zur Selbstorganisation des Lebens. Helmholtz’ und Boltzmanns Forschungsprogramme und ihre Bedeutung f¨ ur Physik, Chemie, Biologie und Philosophie. Habilitationsschrift, Universit¨ at Augsburg, Germany; Alber, Freiburg 1999 (im Druck) 25. Leven, R. W., Koch, B.-P., Pompe, B. (1989) Chaos in dissipativen Systemen. Vieweg, Braunschweig 26. L¨ uders, H. U., Awad, I. (1991) Conceptual considerations. In: L¨ uders, H. U. (ed.) Epilepsy Surgery. Raven Press, New York, pp. 51–62 27. Mayer-Kress, G., Yates, F. E., Benton, L., Keidel, M., Tirsch, W., Poppl, S. J., Geist, K. (1988) Dimensional analysis of nonlinear oscillations in brain, heart, and muscle. Mathematical Bioscience 90, 55–182 28. Nychka, D., Ellner, S., McCaffrey, D., Gallant, A. R. (1992) Finding chaos in noisy systems. Journal of the Royal Statistical Society B54, 399–426 29. Packard, N., Crutchfield, J. P., Farmer, J. D., Shaw, R. S. (1980) Geometry from a time series. Physical Review Letters 45, 712–716 30. Palus, M. (1997) Detecting phase synchronization in noisy systems. Physics Letters A235, 341–351 31. Pincus, S. M. (1991) Approximate entropy as a measure of system complexity. Proceedings of the National Academy of the Sciences (USA) 88, 2297–2301
246
Z. J. Kowalik und T. Leiber
32. Pompe, B. (1996) A tool to measure dependencies in data sequences. In: Ciarlini, P., Cox, M. G., Pavese, F., Richter, D. (eds.) Advanced Mathematical Tools in Meteorology II. World Scientific Publishing Company, Singapore, pp. 81–99 33. Rockstroh, B., Watzl, H., Kowalik, Z. J., Cohen, R., Sterr, A., M¨ uller, M., Elbert, T. (1997) Dynamical aspects of the EEG in schizophrenics during a conversation — A pilot study. Schizophrenia Research 28, 77–85 34. Sano, M., Sawada, Y. (1985) Measurement of the Lyapunov spectrum from a chaotic time series. Physical Review Letters 55, 1082–1085 35. Skinner, J. E., Molnar, M., Vybiral, T., Mitra, M. (1992) Application of chaos theory to biology and medicine. Integrative Physiological and Behavioral Science 27, 39–53 ˙ 36. Skinner, J. E., Zebrowski, J. J., Kowalik, Z. J. (1998) New nonlinear algorithms for analysis of heart rate variability: low dimensional chaos predicts lethal arrhythmias. In: Kantz, H., Kurths, J., Mayer-Kress, G. (eds.) Nonlinear Analysis of Physiological Data. Springer Books of Synergetics. Springer, Berlin, pp. 129–166 37. Takens, F. (1981) Detecting strange attractors in turbulence. In: Rand, D. A., Young, L.-S. (eds.) Dynamical Systems and Turbulence, Warwick 1980. Lecture Notes in Mathematics, Vol. 898. New York, Springer, pp. 366-381 38. Thomas, H., Leiber, T. (1994) Determinismus und Chaos in der Physik. In: Mainzer, K., Schirmacher W. (Hrsg.) Quanten, Chaos und D¨ amonen. Erkenntnistheoretische Aspekte der modernen Physik. B.I.-Wissenschaftsverlag, Mannheim, pp. 147–207 39. Wolf, A., Swift, J. B., Swinney, H. L., Vastano, J. A. (1985) Determining Lyapunov exponents from a time series. Physica 16D, 285–317 40. Wolff, R. C. L. (1992) Local Lyapunov exponents: looking closely at chaos. Journal of the Royal Statistical Society B54, 353–371
Dynamische Krankheiten: Neue Perspektiven der Medizin Uwe an der Heiden Universit¨ at Witten/Herdecke, D–58448 Witten, Germany, e-mail:
[email protected] Zusammenfassung In dieser Arbeit wird das Konzept der dynamischen Krankheiten ausf¨ uhrlich er¨ ortert, und zwar sowohl allgemein und abstrakt als auch in Form von Beispielen und Anwendungen. Nach einigen Hinweisen auf die Geschichte und die Literatur wird das Konzept systematisch eingef¨ uhrt auf der Grundlage, daß Organismen als selbsterzeugende und selbsterhaltende dynamische Systeme aufgefaßt werden k¨ onnen. Durch Hinweis auf Tiermodelle und Diskussion von mathematischen Modellen h¨ amatologischer Erkrankungen sowie der Epilepsie werden der Ursprung, der Verlauf und m¨ ogliche Behandlungsstrategien dynamischer Krankheiten genauer ausgearbeitet und damit ein vertieftes Verst¨ andnis er¨ offnet. Dieses Verst¨ andnis basiert auf grundlegenden Konzepten und Ergebnissen der Theorie nichtlinearer dynamischer Systeme. Den Abschluß bilden einige Konsequenzen f¨ ur die Medizin, f¨ ur die ¨ arztliche Behandlung und auch f¨ ur die ”dynamische Gesundheit”.
1
Einfu ¨ hrung: Geschichtliches
Das Konzept der dynamischen Krankheiten leitet sich von dem Standpunkt ab, daß der Organismus ein dynamisches System ist. Der Ausarbeitung dieser Perspektive stellen wir einige Bemerkungen zur Geschichte voran. Der Terminus dynamische Krankheiten wurde erstmals von M. C. Mackey und L. Glass [15] verwendet, um damit den Begriff der periodischen Krankheiten zu verallgemeinern, der von H. A. Reimann [23] eingef¨ uhrt wurde, kurz nachdem L. Crammer [2] von periodischen Psychosen sprach. Reimann machte deutlich, daß eine große Zahl von gesundheitlichen St¨orungen in mehr oder weniger regelm¨ aßigen Intervallen immer wiederkehren in Verbindung mit der nahezu periodischen Wiederkehr von beispielsweise Fieber, Gelenkschwellungen ¨ und Odemen. Es fiel ihm auf, daß die Perioden vieler solcher Krankheitsrhythmen nicht an Rhythmen außerhalb des Organismus gekoppelt sind, sondern auf irgendeine Weise in und durch den Organismus selbst erzeugt werden mußten. Endogene Rhythmen verlangen stets nach einer Erkl¨arung durch einen internen Oszillator mit einer geeigneten Dynamik, etwa der eines sogenannten Grenzzyklus (vgl. weiter unten). Andererseits zeigten Mackey und Glass [15] [16] in ihren epochalen Arbeiten, daß viele Krankheiten in ihrem zeitlichen Verlauf sehr unregelm¨aßige Muster entfalten, wie z.B. bei Herzrhythmusst¨orungen und bei Blutkrankheiten, etwa der zyklischen Neutropenie. Mithilfe eines mathematischen Modells wiesen sie nach, daß chaotische Rhythmen (vgl. weiter unten) durchaus in einem physiologischen Regulationssystem entstehen k¨onnen, und zwar einfach dadurch, daß eine
248
U. an der Heiden
oder mehrere Konstanten des physiologische Kontrollsystems nicht mehr den normalen Wert haben, sondern zu einem anderen, offenbar pathologischen Wert ¨ verschoben sind. Auf Grund dieser Beobachtungen und Uberlegungen wurden sie auf den Begriff der dynamischen Krankheiten gef¨ uhrt als derartige Pathologien, die charakterisiert sind durch die Operation eines im wesentlichen intakten Kontrollsystems in einem Gebiet der physiologischen Parameter, das pathologisches ¨ Verhalten hervorbringt ([15], meine Ubersetzung). Danach wurden in einer Reihe von Arbeiten das Konzept der dynamischen Krankheiten ausf¨ uhrlicher und systematischer diskutiert und weitere Beispiele und Anwendungen gegeben [17] [24] [19] [5] [11], vgl. auch [6]. Auch in der Literatur zu psychischen Erkrankungen wurde der Terminus eingef¨ uhrt, um z.B. manisch-depressive Syndrome, Suchtverhalten und Schizophrenie besser verstehen zu k¨ onnen [25] [26] [27] [13]. Eine Vielfalt von Anwendungen, Methoden und Ergebnissen erschienen in einem Sammelband zu einer Konferenz u ¨ber dynamische Krankheiten, die 1994 in Mont Tremblant, Quebec, stattfand [1].
2
Der Organismus als ein selbsterzeugendes und selbsterhaltendes dynamisches System
Zu Beginn der systematischen Diskussion f¨ uhren wir aus, daß der Begriff einer dynamischen Krankheit dadurch begr¨ undet werden kann, daß der Organismus als ein dynamisches System aufgefaßt wird. Ein System kann definiert werden als ein zusammengesetztes Ganzes, zwischen dessen Komponenten oder Bestandteilen gewisse Beziehungen bestehen. Ein dynamisches System ist ein System, das in der Zeit existiert und bei dem sich die Beziehungen zwischen den Komponenten als Wechselwirkungen beschreiben lassen, die ebenfalls in der Zeit stattfinden. Organismen k¨ onnen als dynamische Systeme aufgefaßt werden. Auf die Frage, welches die Komponenten eines Organismen ist, gibt es keine einfache und wohl auch keine eindeutige Antwort. Kandidaten sind Organe, Zellen, anorganische, organische oder biologische Molek¨ ule, chemische oder elektromagnetische Potentiale, Konzentrationen usw. Selbst wenn uns alle Komponenten bekannt w¨ aren, so w¨ aren wir und sind auch tats¨achlich weit entfernt von einer nahezu vollst¨ andigen Beschreibung des Organismus, die eine Spezifizierung aller Wechselwirkungen zwischen den Komponenten erfordern w¨ urde. Die heute u ¨bliche Vorgehensweise in der Wissenschaft, an der sich voraussichtlich auch in Zukunft nichts a ¨ndern wird, besteht darin, lediglich Subsysteme des Organismus zu beschreiben, indem mehr oder weniger willk¨ urlich einige wenige Komponenten f¨ ur die jeweilige Untersuchung ausgew¨ahlt werden. Die unvermeidliche Konsequenz hiervon zeigt sich in der Medizin in den sogenannten Nebenwirkungen medizinischer Behandlung. Da n¨amlich in der Tat im Organismus alle Komponenten direkt oder indirekt miteinander wechselwirken, gibt es stets einige Effekte, die nicht ber¨ ucksichtigt werden, wenn die Beschreibung des Organismus unvollst¨ andig ist. Es gibt eine tiefere Begr¨ undung, warum alle Komponenten eines Organismus, welche auch immer es sein m¨ogen, miteinander wechselwirken (direkt oder indi-
Dynamische Krankheiten: Neue Perspektiven der Medizin
249
rekt). Im Gegensatz zu den heute u ¨blichen Maschinen, die aus Teilen oder Komponenten bestehen, die bereits vor und unabh¨angig von der Maschine existieren und auch nicht von der Maschine produziert werden, stellt ein Organismus die Teile, aus denen er besteht, selbst und in sich her [12] [13]. So werden z.B. bei einem vielzelligen Organismus die biologischen Molek¨ ule und die Zellen innerhalb des Organismus und durch ihn selbst produziert. Wegen dieser Eigenschaft werden Organismen als selbstherstellende Systeme bezeichnet (dies entspricht der Definition eines autopoietischen Systems im Sinne von H. R. Maturana [20] und F. J. Varela [28]. Organismen stellen sich aber nicht nur selbst her, sondern sie erhalten sich auch selbst u ¨ber einen gewissen Zeitraum. Die Selbsterhaltung wird auf eine besondere Weise erzielt, n¨ amlich indem immer wieder Komponenten und Teile in dem und durch das System ersetzt werden. So gibt es z.B. eine st¨andige Entfernung und Neuproduktion von Zellen und biologischen Molek¨ ulen. W¨are diese F¨ ahigkeit des Organismus perfekt, so k¨onnte er in einer geeigneten Umgebung mit unbeschr¨ ankter Dauer existieren. Offenbar sterben aber die einzelnen Organismen, und zwar aus dem genannten Grund, weil sie nicht in der Lage sind, ihre eigenen Teile in vollkommener Weise zu reproduzieren, etwa nicht die DNA oder die Nervenzellen. Daher sind Organismen streng genommen nur partiell sich selbst erhaltende Systeme. An der Heiden et al. [12] [13] er¨ortern, daß nur der Gesamtlebensprozeß, der aus der Gemeinschaft aller Lebewesen besteht, ein in vollem Sinne selbsterhaltendes System ist.) Die Tatsache, daß das Ganze eines Organismus die Vorbedingung f¨ ur die Produktion seiner Teile und Komponenten ist, bezeichnen wir als top downKausalit¨ at oder globale Kausalit¨ at. Andererseits ist ebenso klar, daß ein Organismus nicht ohne seine Teile und geeignete Beziehungen unter ihnen existieren kann. Dies bezeichnen wir als bottom up-Kausalit¨ at oder lokale Kausalit¨ at. Da diese beiden Kausalit¨ atsbedingungen zusammenwirken, ergibt sich notwendigerweise die Konsequenz, daß es innerhalb des Organismus zirkul¨ are Kausalit¨ at, R¨ uckkopplungskausalit¨ at oder Netzwerkkausalit¨ at gibt. Dies heißt mit anderen Worten, daß Selbsterzeugung und Selbsterhaltung nur bei solchen Systemen vorkommt, in denen eine wechselseitige Abh¨angigkeit aller Teile und Komponenten voneinander besteht [10]. Wir werden im folgenden darlegen, daß dynamische Krankheiten genau durch diese dynamische Netzwerkstruktur des Organismus erm¨oglicht werden und somit letztenendes auf seiner Existenzgrundlage beruhen. Durch diesen Begr¨ undungszusammenhang k¨ onnen der Ursprung und die Verlaufsmuster dieser Krankheiten tiefer verstanden werden. Dar¨ uberhinaus er¨offnen sich durch diese begriffliche Verkn¨ upfung von Gesundheit und Krankheit systematische Wege zu Behandlungsstrategien. Bevor wir die allgemeine Diskussion fortsetzen, werden nun zwei Beispiele dynamischer Krankheiten ausf¨ uhrlich besprochen. Eines (die auto-immun h¨amolytische An¨ amie) betrifft die Blutbildung, das andere (epileptische Anf¨alle) das Nervensystem.
250
3
U. an der Heiden
Die zirkul¨ are Organisation der Blutbildung
Das Blut und seine Komponenten, insbesondere die roten und die weißen Blutzellen und die Blutpl¨ attchen, k¨onnen sich weder selbst erzeugen noch selbst erhalten. Statt dessen sind zwei weitere Organe in den Prozess der Erhaltung dieser Populationen einbezogen, n¨amlich das Knochenmark und die Nieren: Ein Absinken der Konzentration von Erythrozyten hat zur Folge, daß die Nieren vermehrt das Hormon Erythropoietin produzieren; dieses gelangt u ¨ber den Blutstrom zum Knochenmark und stimuliert dort die Bildung neuer Erythrozyten durch gesteigerte Vermehrung und Differenzierung von Stammzellen. Infolgedessen nimmt die Konzentration der roten Blutzellen wieder zu. Umgekehrt f¨ uhrt eine relativ hohe Konzentration der Erythrozyten zu einer geringeren Produktion von Erythropoietin und damit zu einer verringerten Neubildung von Erythrozyten. Analoges gilt f¨ ur die Lymphozyten und die Thrombozyten, nur daß an die Stelle von Erythropoietin Granulopoietin bzw. Thrombopoietin tritt. Abbildung 1 zeigt schematisch diese zirkul¨are Organisation der H¨amatopoiese. Vom ingenieurwissenschaftlichen Standpunkt haben wir ein System mit R¨ uckkopplung vor uns, das in der Technik normalerweise verwendet wird, um eine wichtige Variable konstant zu halten. In der Tat wird auch bei einem gesunden Menschen durch diese zirkul¨are Organisation die Konzentration der Erythrozyten einigermaßen konstant gehalten, wenn sie auch deutliche Schwankungen aufweist. Es ist dagegen von großer Bedeutung, daß dieselbe zirkul¨are Organisation eine Krankheitssituation erzeugen kann, die sehr verschieden von dem gesunden fast konstanten Zustand der Blutzellenkonzentration ist. Dies soll im folgenden genauer dargelegt werden.
Abb. 1. Die zirkul¨ are Organisation der H¨ amatopoiese
Nicht erst quantitativ, sondern bereits im qualitativen Sinn l¨aßt sich das Verhalten selbst sehr einfach aufgebauter Systemen nur auf der Basis einer mathematischen Beschreibung verstehen. Dies macht es erforderlich, daß wir uns nun einem mathematischen Modell der H¨amatopoiese zuwenden. Der hier gew¨ahlte
Dynamische Krankheiten: Neue Perspektiven der Medizin
251
Modellansatz ist nicht nur m¨oglichst einfach, sondern folgt auch der in Abschn. 2 eingef¨ uhrten Begrifflichkeit und ist damit auch f¨ ur viele andere biologische Systeme und Prozesse geeignet. Mit x(t) bezeichnen wir die Konzentration der Erythrozyten im Blut zum Zeitpunkt t. Infolge der Produktion neuer Zellen kann x anwachsen, andererseits kann x auch abnehmen wegen der begrenzten Lebensdauer der Zellen (die Halbwertszeit menschliche Erythrozyten betr¨agt ungef¨ahr 30 Tage, cf. [16]). Dies ¨ bedeutet mit anderen Worten, daß die zeitliche Anderung (dx/dt) der Konzentration gleich dem Nettoeffekt aus der Produktion (p) und der Destruktion (d) der Zellen ist: dx/dt = p − d.
(1)
Die weiter oben beschriebene zirkul¨are Organisation (vgl. Abb. 1) hat nun zur Folge, daß sowohl die Produktion als auch die Destruktion ihrem Umfang nach von x selbst abh¨ angt (freilich eventuell u ¨ber einige Zwischenschritte, im vorliegenden Fall das Erythropoietin und die Stammzelldifferenzierung). Diese Abh¨ angigkeit wird mathematisch durch die Notation p = p(x) bzw. d = d(x) ausgedr¨ uckt. Damit geht die Gleichung (1) u ¨ber in: dx/dt = p(x) − d(x).
(2)
Die R¨ uckkopplungsfunktion p(x) beschreibt den Effekt des Hormons auf die Stammzellen unter der Bedingung, daß die Hormonkonzentration ihrerseits von x abh¨ angt. Wir folgen dem empirisch gesicherten Ansatz von [16], wonach p eine monoton fallende Funktion von x ist, das heißt, je gr¨oßer x ist, um so kleiner ist p(x). Kontrolltheoretisch liegt also eine negative R¨ uckkopplung vor (die R¨ uckkopplung w¨ are positiv, wenn p eine monoton wachsende Funktion von x w¨ are). Eine prototypische Klasse geeigneter monoton fallender Funktionen wird durch p(x) = a/(b + xn )
(3)
repr¨ asentiert, wobei a, b und n positive Konstanten (Parameter) sind. Wie sehr oft bei komplexen Systemen, ist zu beachten, daß gewisse Effekte nicht sofort eintreten, sondern erst eine Zeitspanne (t) nach dem verursachenden Ereignis. Im vorliegenden Fall wird eine Zeit t (bei Menschen ungef¨ahr 5.7 Tage) f¨ ur die Differenzierung einer Stammzelle zu einem reifen Erythrozyten ben¨otigt, ¨ und deshalb tritt der Effekt einer Anderung der Hormonkonzentration erst nach dieser erheblichen Verz¨ ogerungszeit ein. Ber¨ ucksichtigt man dies in (2), so erh¨alt man dx(t)/dt = p(x(t − τ )) − d(x).
(4)
252
U. an der Heiden
Durch Einsetzen von (3) ergibt sich dx(t)/dt = a/(b + xn (t − τ )) − d(x).
(5)
Um das mathematische Modell zur vervollst¨andigen, ist noch der Destruktionsterm p(x) zu bestimmen. Die einfachste Annahme, die auch nicht unrealistisch ist, besteht darin, daß die Anzahl der pro Zeiteinheit absterbenden Zellen proportional zur Anzahl der existierenden Zellen ist: p(x) = cx
(6)
mit einer positiven Proportionalit¨atskonstanten c. Einsetzen von (6) in (5) ergibt schließlich das endg¨ ultige Modell ([16]): dx(t)/dt = a/(b − xn (t − τ )) − cx(t).
(7)
Mathematisch handelt es sich hier um eine Differentialgleichung mit verz¨ ogertem Argument (im Gegensatz zu gew¨ ohnlichen Differentialgleichungen). Die L¨osungen dieser Differentialgleichung stellen die gem¨aß dieses mathematischen Modells m¨ oglichen zeitlichen Verl¨ aufe der Blutzellkonzentration x(t) dar. Nat¨ urlich erh¨alt man unterschiedliche L¨ osungen, wenn man unterschiedliche Werte der Konstanten a, b, c, n und τ w¨ ahlt. Bei Menschen, die an autoimmun-h¨ amolytischer An¨ amie (AIHA) leiden, wird angenommen, daß das Immunsystem die Halblebenszeit der Blutzellen verk¨ urzt. Dies wird in dem Modell durch einen vergr¨oßerten Wert von c, dem Kehrwert der Halblebenszeit, wiedergegeben. Tats¨achlich konnte in Experimenten mit Kaninchen nachgewiesen werden, daß Auto-Antik¨orper roter Blutzellen eine AIHA induzieren, indem sie die Abbaurate c der Erythrozyten erh¨ohen [21]. In Abb. 2 sind L¨ osungen x von (7) als Funktionen von t dargestellt. In allen vier F¨ allen wurden f¨ ur die Berechnungen dieselben Werte der konstanten ¨ Parameters a, b, n und τ verwendet (sie wurden in Ubereinstimmung mit Parametersch¨ atzungen aus den Experimenten mit Kaninchen gew¨ahlt [21] [14]). Lediglich f¨ ur den Parameter c der Zellsterberate wurden vier verschiedene Werte angenommen, wie in Abb. 2 angegeben. Der erste (c = 0.03 Tag−1 ) entspricht dem normalen Wert, und offenbar ist in diesem Fall die Konzentration der roten Blutzellen angen¨ ahert konstant u are ¨ber die Zeit. Dieser sogenannte station¨ Zustand ist (asymptotisch) stabil in dem Sinne, daß nach einer kurzfristigen und nicht zu großen Abweichung (St¨ orung, z.B. durch eine Blutspende) das System von selbst zu dem Wert des station¨aren Zustandes zur¨ uckkehrt. Die zirkul¨are Organisation f¨ uhrt also hier tats¨achlich zu einer stabilen Selbstregulierung. Ein solcher asymptotisch stabiler station¨arer Zustand ist insofern ein Attraktor. aren Zustandes kann aus (7) bestimmt werden durch Der Wert x∗ des station¨ die Stationarit¨ atsbedingung dx/dt = 0: cx∗ = a/(b + x∗n )
(8)
Dynamische Krankheiten: Neue Perspektiven der Medizin
253
Abb. 2. L¨ osungen von (7), einem Modell f¨ ur die Dynamik der H¨ amatopoiese (Erythrozyten). c = 0.03 ist der normale Wert f¨ ur die Halblebenszeit der Zellen. Gr¨ oßere Werte von c repr¨ asentieren unterschiedliche St¨ arken einer AIHA (autoimmun-h¨ amolytische An¨ amie). W¨ ahrend sich f¨ ur c = 0.045 und c = 0.3 ein stabiler station¨ arer Zustand ausbildet, ergibt sich f¨ ur c = 0.24 eine unged¨ amfte Schwingung dieser Konzentration mit einer Periode von ungef¨ ahr 19 Tagen (periodische AIHA). Die Schwingung ist stabil (Grenzzyklus) (nach [16])
Aus dieser Gleichung folgt, daß x∗ umso kleiner ist, je gr¨oßer c ist (bei fixierten Werten der anderen Parameter a, b, und n). Es ist auch durchaus plausibel, daß der erh¨ohte Wert c = 0.045 der Destruktionsrate zu einem niedrigeren Niveau des station¨aren Zustandes f¨ uhrt, wie die ¨ Abb. 2b verglichen mit Abb. 2a zeigt (Schwingungen finden nur als Ubergangszust¨ ande von einem anderen Niveau aus statt und verschwinden schließlich). Wichtig ist, daß man aus (8) auch entnehmen kann, daß das Nieveau x∗ des station¨ aren Zustandes zunimmt, wenn der Parameter a (der im wesentlichen der maximalen Produktionsrate entspricht) anw¨achst. Aus diesem Grund ist es m¨ oglich, ein infolge eines zu hohen c-Wertes zu niedrig gewordenes station¨ ares Niveau wieder auf seinen Normalwert zur¨ uckzuf¨ uhren, indem man nicht c verringert, sondern a erh¨ oht. Hier wird in einfacher Weise zum ersten Mal ein Vorteil deutlich, der sich aus der Betrachtung einer Krankheit im Kontext eines dynamischen Systems oder Netzwerkes ergibt. Die Botschaft besteht darin, daß es bisweilen m¨ oglich ist, eine Krankheit dadurch zu therapieren, daß nicht die eigentliche Ursache der Erkrankung beseitigt wird, sondern indem etwas anderes in dem System ver¨ andert wird, was den Krankheitseffekt kompensiert. Man sollte erwarten, daß eine weitere Vergr¨oßerung der Destruktionsrate uhrt. Abc zu einem noch geringeren Niveau des station¨aren Zustandes x∗ f¨ bildung 2c zeigt dagegen, was tats¨achlich passiert, wenn c = 0.24. In diesem
254
U. an der Heiden
Fall gelangt die Konzentration der Blutzellen u ¨berhaupt nicht mehr in einen station¨ aren Gleichgewichtszustand, sondern in st¨andigem Wechsel l¨osen sich eine Verst¨ arkungsphase und ein Abschw¨achungsphase von x ab. Diese periodische und unged¨ ampfte Schwingung hat eine Periode von ungef¨ahr 19 Tagen, was gut mit der Periode von 16-17 Tagen bei der induzierten AIHA u ¨bereinstimmt. Wir haben damit eine periodische Krankheit im Sinne von Reimann vor uns. Sie wird als periodische AIHA bezeichnet. Diese periodische L¨ osung von (7) ist (asymptotisch) stabil in dem Sinn, daß nach einer nicht zu großen St¨orung des periodischen Verlaufs das System selbstt¨ atig wieder zu dem periodischen Verhalten mit gleicher Periode und Amplitude zur¨ uckkehrt. Diese Krankheitsform stellt damit ihrerseits einen Attraktor dar, den man als Grenzzyklus bezeichnet (neuhochdeutsch: limit cycle). ¨ Der Ubergang von dem Attraktor eines station¨aren Zustandes zu dem Attraktor eines Grenzzyklus ist ein Beispiel daf¨ ur, was man in der Theorie dyna¨ mischer Systeme eine qualitative Anderung oder Bifurkation nennt im Gegensatz ¨ zu einer lediglich quantitiven oder graduelle Anderung. Von großer Bedeutung ¨ ist die Beobachtung, daß eine qualitative Anderung des Systemverhaltens allein dadurch zustande kommen kann, daß ein einziger Systemparameter eine quanti¨ tative, also lediglich graduelle Anderung erf¨ahrt. In unserem Beispiel besteht die ¨ quantitative Anderung in einer Vergr¨oßerung des Wertes der Destruktionsrate ¨ c. Der infolgedessen eintretende Ubergang vom station¨aren zum schwingenden Verhalten ist dann allerdings eine Leistung des Systems und beruht auf dessen zirkul¨ ar-kausaler Organisation. ¨ Unter welchen Bedingungen an die Parameter findet die Bifurkation (Ubergang vom station¨ aren Zustand zum Grenzzyklus) statt? Die Mathematik hat bisher vergeblich versucht, hierauf eine pr¨azise Antwort zu geben. Computersimulationen von (7) machen aber sehr wahrscheinlich, daß diese Bedingungen u ¨bereinstimmen mit den Bedingungen, die zu einem Stabilit¨atswechsel des station¨ aren Zustandes f¨ uhren [16]. Man kann n¨amlich beweisen, daß der station¨are Zustand x∗ dann und nur dann (asymptotisch) stabil ist, wenn [c + S < 0
und
cos(ωτ ) < c/S]
oder
[c + S > 0],
(9)
wobei S und ω durch S = dp(x∗ )/dx bzw. ω 2 = S 2 − c2 definiert sind. Kehrt sich eine der beiden Ungleichungen in (9) um, so ist der station¨are Zustand instabil und ein stabiler Grenzzyklus existiert. Eine Bifurkation tritt also auf, wenn ¨ eine Anderung eines Parameters zur Umkehr einer der beiden Ungleichungen f¨ uhrt, wobei dann freilich wenigstens kurzfristig eine der Ungleichungen zu einer Gleichung wird. Behalten a, b, n und τ ihre normalen Werte, so gibt es u ¨berur die raschenderweise zwei kritische Werte c1 und c2 der Destruktionsrate c, f¨ Gleichheit gilt, und Instabilit¨at des station¨aren Zustandes liegt genau dann vor, wenn c1 < c < c2 .
(10)
Dynamische Krankheiten: Neue Perspektiven der Medizin
255
Dies bedeutet, daß f¨ ur große Werte von c der station¨are Zustand erneut stabil ist und bei c = c2 eine Bifurkation von dem Grenzzyklus zum station¨aren Zustand stattfindet. Abbildung 2 zeigt einen solchen Fall, n¨amlich wenn c = 0.3 ist. F¨ ur c > c2 liegt wieder die einfache (station¨are) AIHA vor, und die Existenz der periodischen AIHA ist auf das durch die Beziehungen (10) bestimmte Intervall begrenzt. Dieses einfache mathematische Modell zeigt somit bereits, daß es mehr als eine Bifurkation in einem dynamischen System geben kann. Und tats¨achlich werden auch die entsprechenden drei Formen der Erkrankung (leichte station¨are AIHA (c < c1 ), periodische AIHA (c1 < c < c2 ) und schwere station¨are AIHA (c > c2 ) bei Kaninchen beobachtet, vgl. Abb. 3c. F¨ ur die periodische AIHA bei Menschen gibt es keine so genaue Dokumentation (Originaldaten sind in der medizinischen Literatur selten!). Dennoch gibt es mehrere h¨ amatologische Erkrankungen, die einen deutlich oszillatotorischen Verlauf zeigen. Hierzu geh¨ oren neben der periodischen AIHA die zyklische Neutropenie, die zyklische Thrombozytopenie, die periodische myelogene Leuk¨amie, die zyklische eosinophile Myositis und das Hyper-Immunoglobulin E Syndrom. ¨ Abbildung 2 zeigt zwei Beispiele. Einen Uberblick u ¨ber die inzwischen ausgedehnte Literatur mathematischer Modelle der Blutbildung geben [9].
4
Ein Beispiel mit vielen Bifurkationen und Chaos: Ein mathematisches Modell fu ¨ r den neuronalen Ursprung von Epilepsien
Es ist wichtig sich klarzumachen, daß selbst relativ einfach aufgebaute Systeme eine große Vielfalt qualitativ unterschiedlicher Verhaltensweisen, in unserer Terminologie unterschiedlicher Attraktoren aufweisen k¨onnen, einschließlich sogenannter chaotischer Attraktoren. Ein empirisches Beispiel dokumentiert Abb. 4. Bekanntermaßen gibt es einen großen Katalog von Herzrhythmusst¨orungen, die h¨ aufig als verschiedene Krankheiten klassifiziert werden. Insofern erscheint ¨ es bemerkenswert, daß, wie uns Abb. 4 zeigt, durch nur eine einzige Anderung, n¨ amlich durch Injektion gewisser Dosen Pentobarbital eine ganze Skala verschiedener Arrhythmien ausgel¨ ost werden k¨onnen. Die Kardiogramme A-E stammen (mit Unterbrechungen) alle von demselben Experiment, bei dem lediglich nach einigen Minuten die Dosis stufenweise erh¨oht wurde. Offenbar fanden mehrere Bifurkationen statt bis hin zu der typischen lebensgef¨ahrlichen Fibrillation. Vergleichbar zeigt Abb. 5 eine Folge unterschiedlicher Muster neuronaler Entladungen, die vom Cortex pericruciatis einer Katze abgeleitet wurden. In dem Experiment wurde diesem Gehirngewebe Penizillin appliziert, ebenfalls mit stufenweise ansteigender Dosis. Man nimmt an, daß es sich hierbei um ein Tiermodell f¨ ur epileptische Anf¨alle handelt. Entsprechende Experimente wurden mit anderen Gehirnstrukturen durchgef¨ uhrt, z.B. der Hippocampusregion von Meerschweinchen, wo Ableitungen von CA3 Pyramidenzellen ebenfalls eine bemerkenswerte Sequenz unterschiedlicher Aktivit¨atsmuster zeigten. Im folgenden er¨ ortern wir summarisch ein mathematisches Modell, dem das Verkn¨ upfungsschema dreier Zelltypen des Hippocampus zugrundeliegt. Das Modell wurde von Mackey und an der Heiden [18] in dem Bem¨ uhen entwickelt, nicht
256
U. an der Heiden
Abb. 3. Zeitserien dreier h¨ amopoietischer Erkrankungen: (a) periodische myelogene Leuk¨ amie (nach [3]). (b) zyklische Neutropenie (nach [7]). (c) Labor-induzierte autoimmun-h¨ amolytische An¨ amie: Oszillationen der H¨ amoglobin- und ReticulozytenZahlen eines Kaninchens unter Dauerapplikation von Isoantik¨ orpern gegen rote Blutzellen (nach [21])
Dynamische Krankheiten: Neue Perspektiven der Medizin
257
Abb. 4. Elektrokardiogramme eines Hundes, dem unterschiedliche Dosen Pentobarbital gegeben wurden. Die Dosis nimmt von oben nach unten stufenweise zu (nach [8])
nur die gesteigerte neuronale Aktivit¨at bei Epilepsien zu verstehen, sondern auch wie die große Vielfalt sehr unterschiedlicher Muster dieser Aktivit¨at entstehen kann, und zwar unter dem Einfluß einer einzigen Gr¨oße, n¨amlich des Penizillins. Die Aktivit¨ at im Hippocampus wird u ¨berwiegend von drei Neuronenpopulationen bestimmt: den praesynaptischen Moosfasern mit Ursprung in anderen Gehirnarealen, den CA 3 Pyramidenzellen und den interneuronalen Korbzellen. Im folgenden Modell repr¨ asentieren die Aktivit¨atsvariablen (Membranpotentiale, Impulsfrequenzen oder Transmitterkonzentrationen) Durchschnitte u ¨ber viele Neuronen, da wir am Gesamtverhalten aller Zellen interessiert sind und da jede Zelle mit vielen anderen Zellen verbunden ist, so daß dem einzelnen Neuron anscheinend keine besondere Bedeutung zukommt. Mit E(t) werde das postsynaptische Potential zum Zeitpunkt t bezeichnet, das in den Pyramidenzellen infolge des excitatorischen Einflusses der Moosfasern erzeugt wird. Außerdem erhalten die Pyramidenzellen einen inhibitorischen Input von den Korbzellen u ¨ber den Transmitter GABA. Der momentane Betrag dieser Inhibition werde mit I(t) bezeichnet. Die Nettoinput der Pyramidenzellen
258
U. an der Heiden
Abb. 5. Intrazellul¨ are Ableitungen vom Cortex pericruciatis einer Katze bei Anwendung unterschiedlicher Dosen Penizillin (nach [22])
ist damit gegeben durch E(t) − I(t). Der Output der Pyramidenzellen, ihre axonale Impulsfrequenz F (t), wird bestimmt durch die Potential-Frequenz-Charakteristik F (t) = κϑ (E(t) − I(t) − Θ)
(11)
wobei Θ ein konstanter Schwellenwert, κ > 0, und ϑ(x) = 0
f¨ ur x ≤ 0
und ϑ(x) = x f¨ ur x ≥ 0.
Die Pyramidenzellen erregen die Korbzellen, und es wird angenommen, daß deren Impulsfrequenz F ∗ proportional zu F ist: F ∗ (t) = αF (t − τ ),
(12)
jedoch mit einer Verz¨ ogerung τ (> 0), die durch die f¨ ur die Impulsweiterleitung ¨ und f¨ ur die synaptische Ubertragung erforderliche Zeit bedingt ist. Die Korbzellen ihrerseits wirken inhibitorisch auf die Pyramidenzellen u ¨ber GABA-erge Synapsen. Der Einfluß von F ∗ auf das inhibitorische postsynaptische Potential
Dynamische Krankheiten: Neue Perspektiven der Medizin
259
ist proportional zur Anzahl G der noch nicht aktivierten (ungebundenen) postsynaptischen GABA-Receptoren. Eine Quasi-steady state-Rezeptorkinetik f¨ uhrt auf die Beziehung G = T K/(K + [C]n )
(13)
wobei T die Gesamtzahl der Rezeptoren pro Zelle ist, [C] die Konzentration des Transmitters, n die zur Aktivierung eines Rezeptors erforderliche Anzahl an Transmittermolek¨ ulen und K die Gleichgewichtskonstante der TransmitterRezeptor Reaktion. Nimmt man dar¨ uberhinaus an, daß [C] = mF ∗ mit einer Proportionalit¨atskonstanten m, so gelangen wir zu der Ratengleichung f¨ ur das inhibitorische Potential I: K dI = Vm T F ∗ − γI, dt K + (mF ∗ )n
(14)
ur das inhibitorische Pomit der Membranzeitkonstanten γ und dem Wert Vm f¨ tential als Folge der Aktivierung eines einzigen Rezeptors. Einsetzen von (12) f¨ uhrt schließlich auf das endg¨ ultige Modell K dI = αT Vm F (t − τ ) dt K + (mαF (t − τ )n )
(15)
F (t) = κϑ(E(t) − I(t) − Θ).
(16)
in Verbindung mit
Um auszuschließen, daß das epileptische Geschehen im Wesentlichen von anderen Gehirnregionen ausgeht und entsprechend der Situation in den Experimenten, wird vorausgesetzt, daß ein konstanter externer Input E(t) = e vorliegt. Unter dieser Bedingung zeigen Mackey und an der Heiden [18], daß (15) in Verbindung mit (16) entweder eine, zwei oder drei station¨are Zust¨ande (konstante L¨ osungen) haben kann je nach Parameterkonfiguration. Außerdem wiesen sie numerisch nach, daß es unged¨ampfte periodische L¨osungen (Grenzzyklen), periodenverdoppelnde Bifurkationen und auch chaotische L¨osungen gibt. Einige dieser L¨ osungen sind in Abb. 6 dargestellt. Bei den Berechnungen wurden alle Parameter auf denselben konstanten Werten gehalten. Lediglich der Wert T f¨ ur die Anzahl der postsynaptischen Rezeptoren ist von Teilabbildung zu Teilabbildung jeweils um eine gewisse Stufe verringert (stets um 200). Diese Verringerung entspricht der experimentellen Situation, wo Scheiben von Hippocampusgewebe mit stufenweise erh¨ ohten Dosen Penizillin infundiert wurden. Das Penizillin blockiert Rezeptoren f¨ ur GABA und reduziert so aktuell deren Anzahl und damit die Effizienz der Inhibition. Wie Abb. 6 zeigt, f¨ uhren unterschiedliche Penizillindosen zu sehr unterschiedlichen Membranpotential- und Impulsfrequenzverl¨aufen, mit
260
U. an der Heiden
Abb. 6. Simulierte Effekte von Penizillin in einem mathematischen Modell ((15) und (16)) f¨ ur die rekurrente Inhibition in einem Netzwerk des Hippokampus, das aus Moosfasern, Pyramidenzellen und Korbzellen zusammengesetzt ist. Jede Teilabbildung zeigt eine Sekunde des simulierten Membranpotentials von CA3 - Pyramidenzellen mit u ¨berlagerten Aktionspotentialen. Von oben nach unten nimmt die Dichte der postsynaptischen GABA - Rezeptoren von T =1900 bis T =500 in Schritten von 200 ab (nach [18])
zunehmend komplexen Perioden und schließlich sehr unregelm¨aßigen Mustern (Chaos). Erwartungsgem¨ aß nimmt auch die durchschnittliche Impulsfrequenz mit der Menge Penizillin zu, was einem epileptischen Geschehen entspricht ([22], vgl. auch [19]). Das hier dargestellte mathematische Modell erkl¨art aber nicht nur das Anwachsen der neuronalen Aktivit¨at, sondern auch, wie es m¨oglich ist, daß u ¨ber eine Serie von Bifurkationen sehr unterschiedliche Aktivit¨atsmuster entstehen
Dynamische Krankheiten: Neue Perspektiven der Medizin
261
k¨ onnen in einem System, dessen (zirkul¨are) Organisation im wesentlichen un¨ ver¨ andert bleibt bis auf die graduelle Anderung eines Parameters.
5
Dynamische Krankheit und dynamische Gesundheit – Konzept und Strategie
Wie die gegebenen Beispiele deutlich machen sollten und hoffentlich gemacht haben, ist es sinnvoll, eine dynamische Krankheit als eine solche Krankheit zu charakterisieren, deren Ursprung und Verlauf verstanden werden kann im Kontext eines dynamischen Systems, das Teil des Organismus ist (als Komponenten des Systems kommen auch psychische Entit¨aten in Frage). Das Konzept ist freilich nicht nur durch derartige Beispiele motiviert, sondern beruht tiefer auf den Betrachtungen von Abschn. 2, wo Organismen als selbsterzeugende und (partiell) selbsterhaltende Systeme betrachtet wurden. Demzufolge ist es nur konsequent, auch Gesundheit und gesunde Prozesse unter diesem Gesichtspunkt zu sehen und von dynamischer Gesundheit zu sprechen. Dies bedeutet, daß Gesundheit und gesunde Prozesse gewisse Zust¨ande und Vorg¨ange eines dynamischen Systems des ¨ Organismus sind. Es wird dann besser verstehbar, warum und wie ein Ubergang von gesunden Zust¨ anden (oder Prozessen) zu Erkrankungen (oder Krankheits¨ prozessen) und auch der umgekehrte Ubergang stattfinden k¨onnen. Es steht in Einklang mit der urspr¨ unglichen Definition einer dynamischen Krankheit durch ¨ Mackey und Glass (vgl. Abschn. 1), daß diese Uberg¨ ange eine Konsequenz davon sein k¨ onnen, daß einer oder mehrere Parameter eines dynamischen Systems sich ¨ andern und ein ge¨ andertes Verhalten des Systems implizieren. Diese Anderung ¨ kann entweder lediglich quantitativ sein (was auch schon eine relativ starke Er¨ krankung bedeuten kann) oder qualitativer Natur. Eine qualitative Anderung des Verhaltens ist stets mit einer Bifurkation im Sinne der Theorie dynamischer ¨ Systeme verbunden. Beispiele hierf¨ ur sind Uberg¨ ange von einem station¨aren Attraktor zu einem periodischen Attraktor oder von einem periodischen Attraktor zu einem chaotischen Attraktor. Die erforderliche Parameterverschiebung kann von ¨ außeren Einfl¨ ussen herr¨ uhren (Ern¨ahrung, Medikamente, soziale Bedingungen usw.) oder von einem langsamen und kontinuierlichem Shift, z.B. durch Altern. Eine zweite Art der Entstehung einer dynamischen Krankheit oder Gesundheit besteht in der Variierung der Anfangsbedingung. Diese M¨oglichkeit ergibt sich daraus, daß ein dynamisches System mehr als einen Attraktor besitzen kann bei ein-und-derselben Parameterkonfiguration. Es ist z.B. eine naheliegende Vermutung, daß der pl¨ otzliche Herztod eine Konsequenz davon sein kann, daß die Herzdynamik zwei Attraktoren hat, n¨amlich Schlagen (verbunden mit einer periodischen Bewegung) und Ruhen (verbunden mit Herzstillstand). Es ist daher denkbar, daß durch einen ¨außeren Einfluß (zu schnelles Laufen, Erregungszust¨ ande, Drogen) das Herz aus dem Attraktionsbereich des Attraktors Schlagen in den Attraktionsbereich des Attraktors Ruhen perturbiert wird. Diese Vermutung wird unterst¨ utzt durch den gl¨ ucklichen Umstand, daß manchmal auch die umgekehrte Perturbation zur¨ uck in den Einzugsbereich des Schlagattraktors m¨ oglich ist, z.B. durch Herzmassage oder Elektroschock.
262
U. an der Heiden
Wie bereits durch die vorigen Abschnitte deutlich geworden sein sollte, besteht ein weiterer wichtiger Aspekt des hier charakterisierten Konzeptes darin, ¨ daß ein dynamisches System ein Netzwerk ist, wo Anderungen einer Kompo¨ nente oder an einem Ort zu Anderungen aller anderen Komponenten und Orte f¨ uhren. Die moderne Medizin ber¨ ucksichtigt dies in der Regel nur in dem negativen Sinn, die sogenannten Nebenwirkungen zu beachten. Eine positive Strategie ¨ w¨ urde darin bestehen, durch lokale Anderungen den Gesamtzustand des Systems zu verbessern. Nichtlineare Dynamik wird auch das Verst¨andnis und die Effizienz von Therapien verbessern, bei denen der Patient einer periodisch wiederkehrenden Stimulation ausgesetzt wird. Beispiele bestehen in der regelm¨aßigen Aufnahme von Insulin und in mechanischen Atmungsventilatoren. In diesen Beispielen muß eine stabile Beziehung zwischen dem von außen aufgepr¨agten Rhythmus und dem autonomen inneren Rhythmus des Organismus erreicht werden. Um hier ein Optimum zu erzielen, ist eine detaillierte Studie des zugrundeliegenden dynamischen Systems erforderlich.
Literatur 1. B´elair, J., Glass, L., an der Heiden, U., Milton J. (Hrsg.) (1995) Dynamical Disease - Mathematical Analysis of Human Illness. AIP Press, American Inst. Physics, Woodbury N.Y. 2. Crammer, L. (1959) Periodic psychoses. Br. Med. J. 1, 545–549 3. Gatti, R. A., Robinson, W. A., Deinare, A. S., Nesbit, M., McCulloch, J. J., Ballow, M. (1973) Blood 41, 771–782 4. Glass, L., Mackey, M. C. (1979) Pathological conditions resulting from instabilities in physiological control systems. Ann. N. Y. Acad. Sci. 316, 214–235 5. Glass, L., Mackey, M. C. (1988) From Clocks to Chaos. Princeton Univ. Press, Princeton 6. Gross, R., L¨ offler, M. (1997) Prinzipien der Medizin. Springer, Heidelberg Berlin New York 7. Guerry, D., Dale, D. C., Omine, M., Perry, S., Wolff, S. M. (1972) J. Clin. Invest. 51, 2190 ff. 8. Gunteroth, W. G. (1965) Pediatric Electrocardiography. W. B. Saunders Co., Philadelphia 9. Haurie, C., Dale, D. C., Mackey, M. C. (1998) Cyclical neutropenia and other periodic hematological disorders: a review of mechanisms and methematical models. Blood (im Druck) 10. an der Heiden, U. (1991) Der Organismus als selbstherstellendes dynamisches System. In: Z¨ anker, K. S. (Hrsg.) Kommunikationsnetzwerke im K¨ orper. Spektrum Akademischer Verlag, Heidelberg Berlin New York, pp. 127–154 11. an der Heiden, U. (1993) Dynamische Krankheiten - Konzept und Beispiele. Verhaltensmodifikation und Verhaltensmed. 14, 51–65 12. an der Heiden, U., Roth, G., Schwegler, H. (1985) Die Organisation der Organismen: Selbstherstellung und Selbsterhaltung. Funkt. Biol. Med. 5, 330–346 (2. Abdruck in: Hesch, R. D. (Hrsg.) Endokrinologie“. Urban & Schwarzenberg, ” M¨ unchen Wien Baltimore) 13. an der Heiden, U., Schwegler, H., Tretter, F. (1998) Patterns of alcoholism - a mathematical model. Math. Models & Methods in Applied Sc. 8, 521–541
Dynamische Krankheiten: Neue Perspektiven der Medizin
263
14. Kirk, J., Orr, J. S., Hope, C. S. (1968) A mathematical analysis of red blood cell and bone marrow stem cell control mechanisms. Brit. J. of Hematology 15, 35–46 15. Mackey, M. C., Glass, L. (1977) Oscillation and chaos in physiological control systems. Science 197, 287–289 16. Mackey, M. C. (1979) Periodic auto-immune hemolytic anemia: an induced dynamical disease. Bull. Math. Biol. 41, 829–834 17. Mackey, M. C., an der Heiden, U. (1982) Dynamical diseases and bifurcations Understanding functional disorders in physiological systems. Funkt. Biol. Med. 1, 156–164 18. Mackey, M. C., an der Heiden, U. (1984) The dynamics of recurrent inhibition. J. Math. Biol. 19, 211–225 19. Mackey, M. C., Milton, J. G. (1987) Dynamical diseases. Ann. N. Y. Acad. Sci. 504, 16–32 20. Maturana, H. R. (1982) Erkennen: Die Organisation und Verk¨ orperung von Wirklichkeit. Vieweg, Braunschweig 21. Orr, J. J., Kirk, J., Gray, K. G., Anderson, J. R. (1968) Brit. J. Haematology 15, 23–34 22. Prince, D. A. (1969) Microelectrode studies of penicillin foci. In: Jasper, H. H., Ward, A. A., Pope, A. (Eds.) Basic Mechanisms of the Epilepsies. Little Brown, Boston, pp. 320–328 23. Reimann H. A. (1963) Periodic Diseases. F. A. Davis, Philadelphia 24. Rensing, L., an der Heiden, U., Mackey M. C. (eds.) (1987) Temporal Disorder in Human Oscillatory Systems. Springer, Berlin Heidelberg New York 25. Schiepek G. (1991) Systemtheorie der Klinischen Psychologie. Vieweg, Braunschweig 26. Tretter, F. (1992) Skizze einer systemischen Psychopathologie. In: Tretter, F., Goldhorn, F. (Hrsg.) Computer in der Psychiatrie. Asanger, Heidelberg 27. Tschacher, W., Schiepek, G., Brunner, E. J. (Hrsg.) (1992) Selforganisation and Clinical Psychology. Springer, Berlin Heidelberg New York 28. Varela, F. J. (1979) Principles of Biological Autonomy. Elsevier-North Holland, New York
Teil VI
Psychologische Systeme
266
VI. Psychologische Systeme
Dynamische Systemerkrankungen bleiben nicht auf den somatischen Bereich beschr¨ ankt. Die nichtlineare Dynamik des Gehirns f¨ uhrt zu neuen Erkl¨arungsans¨ atzen in der Psychiatrie (z.B. Psychose). In der klinischen Psychologie bieten Synergetik und Selbstorganisationsmodelle neue Perspektiven der Psychotherapie.
Nichtlineare Dynamik und das Unerwartete“ ” in der Psychiatrie Hinderk Meinerf Emrich, Franz Markus Leweke und Udo Schneider Medizinische Hochschule Hannover, Abtl. Klinische Psychiatrie und Psychotherapie, Carl-Neuberg-Straße 1, D–30625 Hannover, Germany
1
Einleitung
Stellen wir uns eine Welt vor, in der alles was passiert vorhersagbar, erwartbar, berechenbar w¨ are: Sicherlich br¨auchte man in dieser Welt keine Psychiatrie, aber es stellt sich die Frage, inwieweit wir dieser Wirklichkeit den Begriff Lebendigkeit“ zuordnen w¨ urden. Leben, so scheint es, ist — einerseits als An” passungsprozeß an wechselnde Lebensbedingungen, andererseits als Prozeß der Erhaltung von Identit¨ at — auf eine eigenartige Mischung aus Stabilit¨at und Instabilit¨ at angewiesen; und f¨ ur psychisches Leben scheint dies in besonderem Maße zu gelten. Das Charakteristische an der Theorie nichtlinearer dynamischer Systeme liegt darin, daß sie Beschreibungen von Systemverhalten komplexer Systeme und deren Dynamiken insbesondere durch nichtlineare R¨ uckkopplungen und Vernetzungen zu beschreiben in der Lage ist, wobei nach Ablauf einiger Zeit minimale Ver¨ anderungen der Ausgangsbedingungen sich zu einem v¨ollig ver¨anderten Systemverhalten aufschaukeln k¨onnen und damit das Einschwingen in neue Systemzust¨ ande, in neue Attraktoren“, zu beschreiben gestattet. In der Biologie muß ” aber Systemverhalten gegl¨attet“ werden; es kann evolutiv nicht selegierbar sein, ” daß wegen bestimmter Ausgangsbedingungen zu bestimmten Zeiten nach Durchlaufen einiger Zyklen es zu einem Aufschaukelungsprozeß kommt, der den Bestand des Gesamtsystems gef¨ahrdet. Diese regulative interne Stabilisierung von Systemverhalten ist nicht nur in der vegetativen Systemphysiologie von zentraler Bedeutung (z.B. bei der Temperaturregulation, der Regulation des pH-Wertes, der CO2 - und Sauerstoffkonzentration, der Glucoseregulation, der Steuerung der Atemfrequenz, der Herzfrequenz und hormoneller und anderer Variablen), sondern insbesondere auch im Bereich der kognitiven Neurobiologie. D.h. auch bei kognitiven Gehalten, Wahrnehmungsgehalten und Gef¨ uhlszust¨anden muß regulativ durch stabilisierende angekoppelte Supersysteme gew¨ahrleistet sein, daß es nicht zu Extremzust¨ anden und damit, wenn man so will, Nervenzusammen” br¨ uchen“ kommt. In diesem Sinne kann gefragt werden: Wie geht die neurobiologische Organisation von Primaten mit dem Unerwarteten“ um? Im Sinne des ” Alltagsbegriffes Nervenzusammenbruch“ spielt das Unerwartete“ in der Psych” ” iatrie eine entscheidende Rolle. Psychotisch kranke Menschen sind in ihrem Verhalten weitgehend instabil und es fragt sich, wie sich dieses Ph¨anomen erkl¨aren l¨ aßt. Wie H. Haken [13] ausf¨ uhrt, arbeitet das Zentralnervensystem in der N¨ahe von Instabilit¨ atspunkten“. Dabei werden Instabilit¨aten durch die Versklavung ” durch stabilisierte Bereiche unterdr¨ uckt. Vom neuropsychologischen Standpunkt
268
H. M. Emrich, F. M. Leweke und U. Schneider
aus stellt sich damit die Frage, welche funktionell aktiven Systeme des ZNS diese stabilisierenden Versklavungsleistungen erbringen, wobei die Hypothese verfolgt wird, daß Angst und Psychose dadurch zustande kommen, daß in bestimmten Bereichen — insbesondere des Temporallappens — diese Versklavungsleistungen mißlingen. Hinweise hierauf ergeben sich aus Befunden, wonach im epileptischen Anfall bei Temporallappenepilepsien niedrige Komplexit¨aten gefunden werden, w¨ ahrend im interiktalen Intervall hohe Komplexit¨aten im EEG nachgewiesen werden k¨ onnen, die durch die Behandlung mit dem Antikonvulsivum Carbamazepin noch gesteigert werden. In diesem Sinne l¨ aßt sich sagen: das Grundkonzept, das der neuronalen Organisation von Wahrnehmung, Kognition, F¨ uhlen und Motorik offenbar zugrunde liegt, ist das Prinzip der interaktiven Kopplung: Prozesse beispielsweise der Wahrnehmung sind nicht in sich einheitlich strukturiert, sondern verfolgen auf eine interaktive Weise scheinbar widerspr¨ uchliche Ziele. Die Heterogenit¨at der Organisation interaktiver Subkomponenten derartiger Systeme l¨aßt sich mit einer parlamentarischen Abstimmung“ vergleichen, bei der gewissermaßen Vo” ” ten“ f¨ ur bestimmte Wirklichkeits-Optionen“ abgegeben werden. Das Ergebnis ” der interaktiv quasi ausgehandelten“ Realit¨at ist das, was vom bewußtseins” generierenden Apparat, als Realit¨at“, als Wahrnehmungsresultat, repr¨asentiert ” wird; und durch die wahrnehmungspsychologische Illusionsforschung kann dann diese Konstruktivit¨ at des Gehirns“ [26] in ihren Eigenheiten u uft und in ¨berpr¨ ” gewissem Sinne auch desillusioniert“ werden als pure interne Wirklichkeitskon” struktion, deren Angepaßtheit an die tats¨achliche“ Außenrealit¨at, die realen ” Lebensbedingungen des Organismus, durch bestimmte Servomechanismen wiederum u ufbar und falsifizierbar gehalten wird. Die Interaktivit¨at von Sub¨berpr¨ systemen bei der Generierung von subjektiver Realit¨at steht also noch einem zus¨ atzlichen adaptiven Prozeß gegen¨ uber, der, wie sp¨ater gezeigt werden wird, einem neuronalen Darwinismus“ unterliegt, um fehlangepaßte Wirklichkeits” hypothesen zu eliminieren, bevor es zum gewissermaßen realen Darwinismus“ ” kommt, der wegen einer Fehlanpassung das Gesamtsystem tats¨achlich eliminiert. Diese Adaptivit¨ at kognitiver Systeme bedeutet, daß das Unerwartete“ in der ” Außenwirklichkeit durch ein internes Zulassen von unerwarteten Wahrnehmungsund Bewußtseinszust¨ anden im Bereich des Subjektiven beantwortet wird, die mit Außenver¨ anderungen korrespondieren. Um die Prozesse, die sich hierbei abspielen, zu verdeutlichen, soll das Unerwartete in der Psychiatrie“ an zwei Beispie” len deutlich gemacht werden: einerseits am Beispiel der Angst“, zum anderen ” im Bereich der Zusammenh¨ange zwischen Kreativit¨at und Psychose. Eine der Hauptthesen hierbei wird sein, daß Kreativit¨at gerade in der Psychose bedeutet: eine zu starke Compliance, ein zu intensives Zulassen des Ungew¨ohnlichen aufgrund von Systemschw¨ achezust¨anden, die eine nicht gen¨ ugend ausgepr¨agte ¨ interne Stabilisierung von Wirklichkeitshypothesen bedeuten: die interne Uberarbeitung von Wirklichkeitshypothesen ist im psychotischen Bereich gewissermaßen zu schwach ausgepr¨ agt, w¨ahrend sie im Gegenpol, der u ¨berangepaßten kreativit¨ atsdefizit¨ aren Wirklichkeit, zu stark ausgepr¨agt ist im Hinblick auf wirklichkeitsschaffende kreative interne Mechanismen.
Nichtlineare Dynamik und das Unerwartete“ in der Psychiatrie ”
2
269
Hippocampale Comparatoren und die Neuropsychologie der Angst
Hierzu eine Vorbemerkung: Man k¨onnte, vielleicht etwas u ¨berpointiert, sagen: bei Angst und Furcht kommt das Unerwartete wesentlich von außen, in der Psychose dagegen von innen. Furcht und Angst resultieren daraus, daß, h¨aufig auf traumatische Weise, sich die Außenwirklichkeit dramatisch und gef¨ahrlich ver¨ andert hat, w¨ ahrend in der Psychose interne Balancierungsprobleme von Subsystemen regulativ nur unvollkommen bew¨altigt werden k¨onnen. Die Neuropsychologie der Angst hat in den letzten Jahren durch die Erforschung sog. hippocampaler Comparatorsysteme“ eine wesentliche Bereicherung ” und Vertiefung erfahren. Nach Erkenntnissen von Gray und Rawlins kann man die Funktionsweise des Hippocampus und damit korrelierter kortikaler assoziativer Systeme dahingehend verstehen, daß wesentlich eine Vergleichsleistung, eine Comparatorfunktion, ausge¨ ubt wird zwischen einerseits erwarteter Wirklichkeit und andererseits den real eintreffenden Sinnesdaten (Abb. 1). In den gegenw¨artigen Theorien u ¨ber Wahrnehmung, Aufmerksamkeit und Bewußtsein spielt der Begriff des mitlaufenden Weltmodells“ [23] eine entscheidende Rolle. Hierbei ” geht man davon aus, daß bewußte Wahrnehmung eine interaktiven Prozeß darstellt, bei dem Wahrnehmungshypothesen getestet“ und die im Konzeptualisie” ” rungsprozeß“ gebildeten Hypothesen mit den jeweils einlaufenden Sinnesdaten verglichen werden. Dieser Vergleich zwischen den in Langzeit-Ged¨achtnisspeichern repr¨ asentierten, als Weltmodell“ charakterisierbaren Erwartungswerten ” und den jeweils in der aktuellen Situation sich ergebenden Sinnesdaten, stellt die wesentliche Grundlage f¨ ur die bewußte Erfassung von Wirklichkeit dar. Ein pr¨ agnantes Beispiel hierf¨ ur ist die Gew¨ohnung an das regelm¨aßige Tropfen eines Wasserhahnes, das so weit in das mitlaufende Weltmodell eingebaut werden kann, daß es schließlich v¨ollig unbeachtet bleibt (selektive Aufmerksamkeit). Bei Ausbleiben eines solchen Tropfger¨ausches kann dann jedoch eine regelrechte Weckreaktion“ erfolgen, gerade deshalb, weil die Diskrepanz zwischen dem Er” wartungswert und der tats¨ achlichen Sinnesdatenlage das Comparator-System“ ” gewissermaßen alarmiert“. ” Die Autoren Gray und Rawlins [11] haben dieses Grundprinzip angewendet, um zu einem modellhaften Verst¨andnis der Neurobiologie der Angst und deren psychopharmakologischen Therapiem¨oglichkeiten zu gelangen. Nach diesem Modell wirken angstl¨ osende Medikamente dadurch, daß sie ein behavioral in” hibition system“, d.h. ein Hemmsystem bestimmter Verhaltensweisen in seiner Aktivit¨ at beeinflussen, und zwar so, daß sie die durch ungew¨ohnliche Außenreize und verschieden Arten von Stressoren ausgel¨oste Aufmerksamkeitsreaktion und den damit verbundenen Erregungszustand herabmindern, was zur Folge hat, daß das im jeweiligen Moment sinnvolle Verhalten durch den Stressor weniger stark gehemmt wird (Streßreduktion). In diesem Sinne ist davon auszugehen, daß die vorzugsweise im Hippocampus und verwandten Strukturen lokalisierten Comparator-Systeme“ neurobiologische Alarmsignale“ gerade dann aus” ” senden, wenn unerwartete Sinnesdaten auftreten, die das u ¨bliche Ausmaß von Diskrepanz u ¨berschreiten (Abb. 1). Diese Diskrepanzmeldung wird in psychi-
270
H. M. Emrich, F. M. Leweke und U. Schneider
Abb. 1. Darstellung des hippocampalen Comparator“-Systems nach Gray und Raw” lins, wobei jeweils Abgleiche zwischen Außendaten und gespeicherten Innendaten (stored regularities) durchgef¨ uhrt werden
scher Hinsicht vom System als Angstzustand“ erlebt. Benzodiazepine haben ” offensichtlich die Eigenschaft, diese Diskrepanzmeldung in ihrem Ausmaß zu verringern bzw. die Ansprechbarkeit des Systems auf diese Signale zu vermindern.
3
Das Unerwartete“ in der Psychose ”
Eingangs wurde davon gesprochen, daß das Ph¨anomen der Lebendigkeit“ ein” hergeht mit einer eigent¨ umlichen Mischung aus Stabilit¨at und Instabilit¨at, aus Anpassung und Innovation, was dem Grundgedanken der evolutionsbiologischen Gegenwartskonzeption entspricht. Diese Gegenl¨aufigkeit von Anpassungsleistungen einerseits und der Erzeugung neuer Wirklichkeitsoptionen andererseits scheint in der psychotischen Dekompensation zu Ungunsten der stabilisierenden internen Zensurleistungen“ geschw¨acht zu sein. Dies soll im folgenden ” anhand wahrnehmungspsychologischer Untersuchungen an Patienten mit psychotischen Systemschw¨ achezust¨anden deutlich gemacht werden, wobei Untersuchungen u ¨ber Cannabisintoxikation, Alkoholentzugspr¨adelier, Schlafentzug etc. eingeschlossen werden. 3.1
Neuropsychologie von Wahrnehmungsprozessen und Kognitions-Emotionskopplung
Neuropsychologische Betrachtungen und Untersuchungen k¨onnen zum besseren Verst¨ andnis einer Reihe von Ph¨anomenen bei verschiedenen psychischen St¨orungen einen wichtigen Beitrag leisten. Hierbei sind sowohl St¨orungen von Prozessen der a ¨ußeren Wahrnehmung als auch hiermit verbundene Ver¨anderungen des emotionalen Erlebens von klinischer Relevanz. Ausgehend von Beobachtungen bei schizophrenen Patienten, die sich im Zustand des akuten produktivpsychotischen Erlebniswandels befanden, haben wir daher ein Modell zur Betrachtung von Wahrnehmungsprozessen, die Drei-Komponenten-Hypothese der
Nichtlineare Dynamik und das Unerwartete“ in der Psychiatrie ”
271
Wahrnehmung (Komparatormodell) vorgeschlagen, das eine plausible Betrachtungshilfe der Erlebnisver¨ anderungen bei produktiven Psychosen erlaubt [7] [8]. Das Komparatormodell geht, basierend auf einer experimentalpsychologisch fundierten Wahrnehmungstheorie, davon aus, daß Wahrnehmung keinen in sich einheitlichen Prozeß darstellt, sondern vielmehr auf der Interaktion mehrerer ¨ Partialprozesse beruht (Ubersicht bei [14] [8]). Dabei scheinen die folgenden drei Komponenten von entscheidender Bedeutung zu sein: 1. Eingehende Sinnesdaten, 2. Konzeptualisierung (Generierung interner Wahrnehmungs-Hypothesen), 3. Korrekturkomponente. Eingehende Sinnesdaten werden dabei in einem Konzeptualisierungsprozeß unter Einbeziehung bereits vorliegender Konzepte und Erfahrungen zu einer Wahrnehmungshypothese verarbeitet und von der Korrekturkomponente auf ihre Brauchbarkeit im Alltag hin u uft. Erst die Interaktion der einzelnen Wahrneh¨berpr¨ mungskomponenten f¨ uhrt dann zu einer bewußten Wahrnehmung der ¨außeren Welt. In verschiedenen neuropsychologischen Studien fanden sich Hinweise, daß hippocampale Strukturen eine wichtige Rolle bez¨ uglich der Korrekturkomponente aus¨ uben. Die hippocampale Formation scheint Konsolidierung der sensorischen Daten, Speicherung und Wiederaufruf zu beeinflussen [11]. Es ist dabei aber im Sinne von Lurija [19] von einem zugrundeliegenden komplexen funktionellen System auszugehen. Psychopharmakologische Erfahrungen, die in den letzten Jahren u ¨ber die Wirkungsweise von Antikonvulsiva als mood-stabilizer“ in der psychiatrischen ”¨ Pharmakotherapie gesammelt wurden (Ubersicht bei [9]), haben gezeigt, daß insbesondere das Antikonvulsivum Carbamazepin, aber auch Natrium-Valproat sowohl als Akuttherapeutika bei Hypomanien und Manien als auch phasenprophylaktisch in einer mit der Wirkung von Lithium vergleichbaren Weise eingesetzt werden k¨ onnen, wobei eine besondere Indikation die Behandlung des manischdepressiven rapid-cycling“ darstellt. Im Rahmen derartiger Behandlungen fiel ” auf, daß insbesondere psychoorganisch Kranke mit affektiven St¨orungen sich therapeutisch g¨ unstig durch Carbamazepin beeinflussen lassen. Der Wirkungsmechanismus, auf den diese therapeutischen Effekte bezogen werden k¨ onnen, l¨ aßt sich mit der Wahrnehmungs-Emotionskopplung“ in Ver” bindung bringen. Hierunter versteht man das Ph¨anomen, daß Wahrnehmung grunds¨ atzlich auf emotionale Leistungen bezogen werden muß, wobei umgekehrt wiederum emotionale Leistungen auf kognitive und Funktionen der Wahrnehmung einwirken. Nach Untersuchungen von Aggleton und Mishkin [1] spielen f¨ ur die Wahrnehmungs-Emotionskopplung die Mandelkerne (Amygdala) eine wesentliche Rolle, da sie als Eintrittspforten“ in das limbische System charakterisiert werden ” k¨ onnen, wobei Signale aus kortikalen Assoziationsarealen verschiedener sensorischer Leistungen in tiefer liegende limbische Strukturen u ¨ber die Mandelkerne vermittelt werden. Nach Untersuchungen von Post und Mitarbeitern [22] unter Verwendung des Amygdala-kindling Modells lasse sich die phasenprophylaktisch besonders wirksamen Antikonvulsiva dadurch charakterisieren, daß sie
272
H. M. Emrich, F. M. Leweke und U. Schneider
eine besonders ausgepr¨ agte stabilisierende Wirkung auf das Amygdala-kindling aus¨ uben. Aus diesem Grunde ist es als plausibel anzunehmen, daß die mood” stabilizing“-Effekte von Antikonvulsiva mit der Stabilisierung von Wahrnehmungs-Emotions-Kopplungsfunktionen zu tun haben. Aufgrund dieser Befunde wurde von Emrich et al. [9] k¨ urzlich ein integratives neurochemisch-psychopharmakologisches Basis-Modell vorgeschlagen, innerhalb dessen angenommen wird, daß zwischen der Wahrnehmungs-Emotionskopplung einerseits und der Emotions-Kognitionskopplung andererseits jeweils integrative ¨ Ubersetzungsfunktionsschritte liegen, die autoregulativen Charakter im Sinne eines bidirektionalen Abgleichs zwischen kognitiven und emotionalen Leistungen haben (Abb. 2). Im Sinne dieses Modells wird nach Mumford [20] angenommen, daß die thalamocortikale R¨ uckkopplungsschleife mit der Funktion der Konzeptualisierung“ einhergeht und daß jeweils eine Art Plausibilit¨atskontrol” ” le“ u ¨ber die bereits im Zusammenhang mit dem oben vorgestellten Komparatormodell von Gray und Rawlins [11] beschriebenen hippocampalen Komparatorsysteme erfolgt. Andererseits werden von Hirnstamm aus und von limbischen Strukturen durch noradrenerge und dopaminerge Systeme Aktivationen von cortikalen assoziativen Leistungen und den beschriebenen cortiko-thalamischen Konzeptualisierungs-Leistungen induziert. 3.2
Untersuchungsans¨ atze visueller Wahrnehmungsver¨ anderungen ¨ und Anderungen der Kognitions-Emotionskopplung
Sensorische Leistungen und Wahrnehmungsfunktionen sind eng mit der bereits erw¨ ahnten Funktion eines Comparatorsystems gekoppelt. Die Untersuchung von St¨ orungen der visuellen Wahrnehmung bietet daher eine interessante M¨oglichkeit, die Interaktion zwischen aufgenommenen Sinnesdaten und ihrer bewußten Wahrnehmung zu untersuchen. Hierzu kann die im folgenden beschriebene Methode der Illusionsforschung herangezogen werden. Das Ph¨ anomen der Perzeption stereoskopischer Invertbilder soll am Beispiel der Betrachtung dreidimensionaler Hohlmasken von menschlichen Gesichtern erl¨ autert werden. Hierbei handelt es sich um eine illusion¨are Wahrnehmungsver¨ anderung, die unter einer Reihe von Bedingungen auftritt, wenn man eine dreidimensionale Hohlmaske, also die konkave Darstellung eines Gesichtes betrachtet. In der Mehrzahl der F¨alle wird in Abh¨angigkeit vom Abstand des Betrachters zum Objekt und der damit verbundenen Querdisparation und in weitaus geringerem Maße abh¨angig von der Beleuchtungsrichtung, der Oberfl¨ achentextur des Objektes und seiner Farbgebung das oben geschilderte Gesicht als konvex wahrgenommen werden. Bei der dabei auftretenden binokul¨aren Tiefeninversion handelt es sich um eine optische Illusion. Die Grundlagen der Wahrnehmung von Invertbildern wurden bereits im 19. Jahrhundert durch von Helmholtz und Mach untersucht, die die Querdisparation als wichtigste binokul¨ are Einflußgr¨oße der Tiefenwahrnehmung identifizieren konnten. Weiterf¨ uhrende Arbeiten zu dieser Thematik wurden 1973 von Gregory [12] und von Yellott [29] ver¨offentlicht. Yellott konnte zeigen, daß die Invertwahrnehmungsillusion dadurch zustande kommt, daß das menschliche Gehirn
Nichtlineare Dynamik und das Unerwartete“ in der Psychiatrie ”
273
Abb. 2. Schematische Darstellung des reduzierten Gehirns“ zur Veranschaulichung ” psychopharmakologischer Interaktionen auf neurophysiologischer Basis. In Erweiterung des Konzepts von Mumford wird Konzeptualisierung als Trialog“ zwischen Thalamus, ” Hippocampus und Cortex interpretiert, dessen Aktivit¨ at sowohl vom Hirnstamm aus als auch u ¨ber die Mandelkerne von corticalen Strukturen her modifiziert werden kann. (R.d. = raphe dorsalis; L.c. = locus coeruleus)
bestimmte Hypothesen u ¨ber die dreidimensionale Struktur von Objekten testet und diese mit den retinalen Sinnesdaten vergleicht. Offensichtlich korrigieren und strukturieren die mentalen Konzepte, im Sinne von Vorurteilen, die Sinnesdaten in einem kritischen Interaktionsprozeß, der letztlich zur bewußten Wahrnehmung f¨ uhrt ( wirklichkeitsschaffende Fiktion“ i.S. von [27]). ” 1988 analysierte Ramachandran die Faktoren der monokularen Tiefenwahrnehmung und 1993 konnten Hill und Bruce [17] Einflußgr¨oßen wie Richtung des einfallenden Lichts, Bewegung des Betrachters und Entfernung des Betrachters vom Objekt auf die binokul¨are Tiefenwahrnehmung zeigen [24] [17]. Die Pr¨ asentation der Bilder wurde mit einer Stereoprojektion von Diapositiven unter Verwendung von polarisiertem Licht realisiert. Der Proband tr¨agt hierbei eine Polfilterbrille, die durch die Filterrichtung das Sehen nur des jeweils
274
H. M. Emrich, F. M. Leweke und U. Schneider
gleichsinnig gefilterten Diapositivs erlaubt. Wird dabei eine Vertauschung der Polarisationsfilter vorgenommen, so daß die urspr¨ unglich auf dem rechten Auge abgebildete Information nur das linke Auge erreicht und umgekehrt, kommt es bei gesunden Probanden durch die Modifikation der Querdisparation zur Invertwahrnehmungsillusion. Es wurden drei Gruppen von Bildern pr¨asentiert, die sich hinsichtlich ihres semantischen Gehaltes und der prim¨aren Form der dargestellten Objekte unterschieden. Der semantische Gehalt eines Objektes ist dabei durch seine Vertrautheit im t¨ aglichen Leben und die damit verbundenen Assoziationen charakterisiert. Es wurden semantisch niedrig und hoch relevante Objekte gezeigt. Unter den semantisch hoch relevanten Objekten wurden solche mit prim¨ar konvexer Form, die erst durch Vertauschen der beiden stereoskopisch aufgenommenen Diapositive einen konkaven Informationsgehalt bez¨ uglich ihrer Querdisparation erhielten, und solche mit prim¨ar konkaver Form unterschieden. Den Probanden wurden unterschiedliche Fragen zum Tiefeneindruck der in der bereits beschriebenen Weise stereoskopisch demonstrierten Objekte unter Verwendung einer Punkteskala gestellt. Es konnte ein Inversions-Score“ von ” maximal 2 Punkten pro Bild erreicht werden. Vor der Messung wurde u uft, ¨berpr¨ ob das r¨ aumliche Sehen der Probanden intakt war (Stereotest: Hausfliege und Kreise, Stero Optical Co, Chicago). Die Diapositive wurden jeweils 30 Sekunden pr¨ asentiert. 3.3
Die m¨ ogliche Rolle exogener und endogener Cannabinoide bei der Regulation imaginativer mentaler Leistungen
Die Besch¨ aftigung mit der Rolle des endogenen Cannabinoidsystems, dessen Existenz bis in die achtziger Jahre dieses Jahrhunderts hinein umstritten war, gewinnt nach den Erstbeschreibungen eines im Zentralnervensystem lokalisierten Cannabinoid-Rezeptors (CB1) durch Devane et al. [5] und eines ersten endogenen Liganden durch die gleiche Arbeitsgruppe (1992) zunehmend an Bedeutung. Dar¨ uberhinaus wurde zwischenzeitlich ein zweiter Cannabinoid-Rezeptor (CB2) mit einer ausschließlich peripheren Lokalisation im lymphatischen Gewebe identifiziert [21]. Als wesentlicher psychotroper Inhaltsstoff des CannabisHarzes wird 9-Tetrahydrocannabinol (THC) angesehen [10]. In neurophysiologischen Untersuchungen des cerebralen Cannabinoidsystems, konnten als Wirkungen von THC im Cerebellum eine durch G-Protein vermittelte Inhibition der Adenylat-Cyclase und in Kulturen hippocampaler Neurone eine Verst¨arkung von G-Protein-mediierten Kalium-Leitf¨ahigkeiten sowie spannungsabh¨angiger AStr¨ ome durch Ver¨ anderung der Spannungsempfindlichkeit in h¨ohere Bereiche [4] nachgewiesen werden. Dies f¨ uhrt zu einer gr¨oßeren Kalium-Leitf¨ahigkeit bei niedrigen Membranpotentialen und einer Verringerung der Wahrscheinlichkeit multipler Aktionspotentiale. Es konnte ferner eine THC-induzierte Reduzierung von Calcium-Leitf¨ ahigkeiten gezeigt werden. Mit den Wirkungen von Cannabis-Harz auf die Psyche des Menschen besch¨aftigten sich bereits seit Beginn dieses Jahrhundert zahlreiche Arbeiten. Ein Gef¨ uhl der Euphorie, ein sogenanntes High“, eine leichte Benommenheit, eine Verst¨ar”
Nichtlineare Dynamik und das Unerwartete“ in der Psychiatrie ”
275
kung der ¨ außeren und inneren Wahrnehmung, eine Ver¨anderung der Zeitwahrnehmung und eine Verbesserung der visuellen Leistung stehen dabei im Vordergrund der beobachteten Wirkungen, die von großer interindividueller Variabilit¨at sind [18]. Psychotische Zustandsbilder nach Cannabis-Konsum sind vielfach beobachtet worden, wobei Schweregrad, Dauer und H¨aufigkeit der psychotischen Syndrome von kulturellen und pers¨onlichkeitsspezifischen Faktoren sowie von der Frequenz und Intensit¨ at des Cannabis-Konsums abh¨angen [3]. Die Existenz eines eigenst¨ andigen Krankheitsbildes einer Cannabis-induzierten Psychose ist zwar in der Literatur umstritten, dennoch eignen sich cannabis-induzierte psychosenahe Zust¨ ande zur Untersuchung von basalen Mechanismen produktiver Psychosen [16]. Mit Hilfe der bereits beschriebenen Versuchsanordnung zur binokul¨aren Tiefeninversionsmessung wurden daher sieben gesunde, m¨annliche Probanden vor und nach Einnahme von Cannabis-Harz untersucht. An der Studie nahmen aus¨ schließlich qualifizierte Arzte im durchschnittlichen Alter von 34,6 ± 8,3 Jahren (Mittelwert (MW) ± Standardabweichung (SD)) teil, die nach einer zuvor erfolgten ausf¨ uhrlichen Aufkl¨ arung und Instruktion eine schriftliche Einverst¨andniserkl¨ arung zur freiwilligen Versuchsteilnahme unterzeichnet hatten. Nach der initialen Bestimmung dieses Scores erhielten die Probanden zwischen 222 und 373 mg Cannabis-Harz peroral. Es wurden regelm¨aßige Kontrollen des THC-Plasmaspiegels vorgenommen. Vor der Einnahme des CannabisHarzes sowie zu verschiedenen Zeitpunkten bis 192 Stunden danach wurde der Inversions-Score der Probanden bestimmt. Bei den semantisch niedrig relevanten Objekten — wie Blumen oder Buschwerk — betrug der initiale Inversions-Score 41,9 ± 24,13 % (MW ± SD) des maximal erreichbaren Wertes (Abb. 3A). Dies spiegelt die Tatsache wieder, daß auch nicht durch Substanzen beeinflußte, normale“ Probanden in der Lage sind, ” semantisch niedrig relevante Objekte in ihrer physikalisch korrekten Darstellung zumindest partiell wahrzunehmen. In diesem Fall kann vor dem Hintergrund der bereits vorgestellten Wahrnehmungshypothese, des Drei-Komponenten-Modells der Wahrnehmung, davon ausgegangen werden, daß die H¨arte der physikalischen Daten das innere Weltbild“ in einer Art Wette“ u ¨bertreffen kann [12]. ” ” Der maximale Inversions-Score wurde mit 80,36 ± 22,66 % (MV ± SD) nach etwa zwei bis drei Stunden erreicht. Dies stimmt gut mit dem maximalen THCPlasmaspiegel u ¨berein, der zur etwa gleichen Zeit erreicht wird. Der Effekt war akzeptabel reversibel mit einem Score von 51,04 ± 29,69 % (MV ± SD) nach 192 Stunden. Interessanterweise lag der initiale Inversions-Score semantisch hoch relevanter Objekte mit 8,93 ± 15,67 % (MV ± SD) des maximal erreichbaren Wertes deutlich unterhalb des Vergleichswertes f¨ ur semantisch niedrig relevante Objekte (Abb. 3B). Nach der Einnahme von Cannabis zeigt sich auch hier ein signifikante Anstieg des Scores auf 42,86 ± 32,96 % (MV ± SD) nach drei Stunden. Die Probanden beschrieben hierbei, daß sie ein hohles“ Gesicht oder hohle Objekte ” sehen konnten. In einigen wenigen F¨allen waren Probanden sogar in der Lage, solche Objekte als hohl wahrzunehmen, die in der korrekten oder realen Weise pr¨ asentiert wurden. Nach 192 Stunden betrug der Inversions-Score allerdings im-
276
H. M. Emrich, F. M. Leweke und U. Schneider
Abb. 3. Darstellung der Inversions-Scores (Mittelwert (MV) in % des Maximalwertes + Standardabweichung des Mittelwertes (SEM)) f¨ ur Objekte mit niedrigem semantischen Gehalt und prim¨ ar konvexer Form (offene Kreise, A) mit hohem semantischen Gehalt und prim¨ ar konvexer Form (offene Quadrate, B) sowie mit hohem semantischen Gehalt und prim¨ ar konkaver Form (geschlossene Dreiecke, C) vor und zu verschiedenen Zeitpunkten nach der oralen Einnahme von Cannabis-Harz bei gesunden Probanden (n=7). Zudem ist die Plasmakonzentration von THC als wichtigstem psychedelischen Inhaltsstoff des Harzes zu verschiedenen Zeitpunkten der Messung abgebildet (Sterne, D; MV +SEM; n=7)
mer noch 28,13 ± 20,82 % (MV ± SD). Das ist am ehesten auf einen Lerneffekt zur¨ uckzuf¨ uhren, der durch die durch den Cannabiskonsum gemachte Erfahrung einer Hemmung der binocul¨aren Tiefeninversion begr¨ undet wird. Die Probanden realisieren hierbei, daß eine andere als die bislang bekannte Erscheinungsweise bekannter Objekte auch im Falle semantisch h¨oher relevanter Objekte m¨oglich ist. In der dritten Gruppe untersuchter Objekte wurden semantisch hoch relevante Objekte mit prim¨ ar konkaver Form pr¨asentiert. Die Invert-Illusion zeigt sich hierbei also bereits in der der Aufnahmerealit¨at entsprechenden Pr¨asentationsrichtung. Bei dieser Form der Pr¨asentation sind im Gegensatz zu der durch ¨ Seitenwechsel der beiden Diapositive bewirkten ausschließlichen Anderung der Querdisparation und der Konvergenz bei den u ¨brigen pr¨asentierten Objekten auch die u ¨brigen bereits erw¨ahnten Faktoren, die die Tiefenwahrnehmung von Objekten beeinflussen ber¨ ucksichtigt. Sie bieten daher eine klarere physikalische Information als die u brigen semantisch hoch relevanten Objekte an. Als Folge ¨ hiervon zeigte sich bereits initial ein leicht im Vergleich mit den u ¨brigen semantisch hoch relevanten Objekten erh¨ohter Inversions-Score von 21,43 ± 18,7
Nichtlineare Dynamik und das Unerwartete“ in der Psychiatrie ”
277
% (MV ± SD; Abb. 3C). Nach Cannabis-Einnahme war erneut ein maximaler Inversions-Score nach drei Stunden zu sehen. Er betrug 52,68 ± 32,96 % (MV ± SD) des maximal erreichbaren Punktwertes. Auch hier war die R¨ uckbildung des Effektes mit 39,58 ± 20,82 % (MV ± SD) nach 192 Stunden aus den oben genannten Gr¨ unden nicht ganz vollst¨andig. Es stellt sich nun die Frage, wie die hier vorgestellten Daten zu erkl¨aren sind. Hierzu bietet die bereits vorgestellte Drei-Komponenten-Hypothese der Wahrnehmung, die auf dem von Gray und Rawlins [11] vorgestellten hippocampalen Comparator-Modell beruht, einen plausiblen Ansatz. Unter der Einwirkung des Cannabinoids kommt es danach am ehesten zu einer St¨orung der sensiblen Balance zwischen den einzelnen, die Wahrnehmung von Objekten maßgeblich regelnden Komponenten, den sensorischen Eingangsdaten, der Generierung interner Hypothesen und Konzepte der ¨außeren Welt, der sogenannten Konzeptualisierung und einer diese beiden Komponenten miteinander abstimmenden Kontrollkomponente, dem ratiomorphen Apparat“ [28]. ” Das Gleichgewicht zwischen diesen Komponenten ist essentiell f¨ ur eine bewußte Wahrnehmung der ¨ außeren Welt und ist offenbar w¨ahrend verschiedener psychosenaher und psychotischer Zustandsbilder beeintr¨achtigt. Da die sensorischen Eingangsdaten von den Versuchspersonen nicht wesentlich beeinflußt werden konnten, liegt der ver¨ anderten Wahrnehmung unter Cannabis wahrscheinlich eine St¨ orung der Balance zwischen Konzeptualisierung und Zensur zugrunde, die am ehesten im Sinne einer Schw¨achung der Zensurkomponente verstanden werden kann [8]. Vergleichbare Ergebnisse konnten in der Vergangenheit bereits bei schizophrenen Patienten w¨ahrend akuter produktiv-psychotischer Episoden erhoben werden, bei denen sich ebenfalls eine deutliche St¨orung der binokul¨aren Tiefenwahrnehmung nachweisen ließ [7]. Interessanterweise findet sich in autoradiographischen Untersuchungen der Cannabinoid-Rezeptordistribution beim Menschen wie auch bei anderen S¨augetieren eine einzigartige und durchg¨angige Verteilung des Rezeptors mit einer h¨ ochsten Dichte in den Basalganglien, dem Hippocampus und dem Cerebellum [15]. Dies deutet sehr auf eine Rolle der Cannabinoide bei kognitiven Prozessen und bei der Steuerung von Bewegungsabl¨aufen hin [25]. Die hier dargestellten Untersuchungsergebnisse zur Wirkung von Cannabinoiden auf imaginative mentale Leistungen weisen also zusammenfassend darauf hin, daß Cannabis-induzierte psychedelische und kreativit¨atsgesteigerte Zust¨ande durch eine St¨ orung der Interaktion zwischen Sinnesdaten und Konzeptualisierung zu erkl¨ aren sind, die am ehesten auf eine gest¨orte Zensurkomponente zur¨ uckzuf¨ uhren sind. Dar¨ uber hinaus zeigen die vorgestellten Daten, daß die Messung der binokul¨ aren Tiefeninversion einen sensiblen Parameter zur qualitativen und semiquantitativen Erfassung von Wahrnehmungsst¨orungen unter verschiedenen physiologischen und pathophysiologischen Bedingungen darstellt. Dar¨ uber hinaus ergibt sich aus dem Vergleich der hier dargestellten Daten mit Vergleichsdaten schizophrener Patienten w¨ahrend akuter produktivpsychotischer Episoden ein interessanter Arbeitsansatz zur Erkl¨arung basaler ¨ Mechanismen des produktiv-psychotischen Geschehens. In Ubereinstimmung mit einer Reihe klinischer Beobachtungen, die auf eine Rolle der Cannabinoide bei
278
H. M. Emrich, F. M. Leweke und U. Schneider
produktiv-psychotischen Syndromen hinweisen [2], l¨aßt sich folgende Arbeitshypothese formulieren: Gesteigerte oder dysregulierte Aktivit¨at des endogenen, im Zentralnervensystem lokalisierten Cannabinoid/Anandamid-Systems kann produktive psychotische Symptome hervorrufen. Unter Ber¨ ucksichtigung der Vielfalt von Faktoren, durch die die ausgesprochen heterogenen schizophrenen Krankheitsbilder beeinflußt werden k¨onnen, bietet diese hier vorgestellte Cannabinoid-Hypothese produktiver Psychosen einen weiteren wichtigen ¨ atiologischen Faktor an, dessen Relevanz in der Zukunft durch intensive Untersuchungen gepr¨ uft werden sollte.
Literatur 1. Aggleton, J. P., Mishkin, M. (1986) The Amygdala: Sensory gateway to the emotions. In: Plutchik, R., Kellermann, H. (Ed.) Emotion. Theory, Research and Experience. Vol. 3. Academic Press, Orlando 2. Andr´easson, S., Allebeck, P., Rydberg, U. (1989) Schizophrenia in users and nonusers of cannabis. A longitudinal study in Stockholm County. Acta Psychiatr. Scand. 79, 505–510 3. Bron, B. (1982) Drogeninduzierte Psychosen. Nervenarzt 53: 617–627 4. Childers, S. R., Pacheco, M. A., Bennett, B. A., Edwards, T. A., Hampson, R. E., Mu, J., Deadwyler, S. A. (1993) Cannabinoid receptors: G-protein-mediated signal transduction mechanisms. Biochem. Soc. ymp. 59, 27–50 5. Devane, W. A., Dysarz, F. A., Johnson, M. R., Melvin, L. S., Howlett, A. C. (1988) Determination and characterization of a cannabinoid receptor in rat brain. Molec. Pharmacol. 34, 605–613 6. Devane, W. A., Hanus, L., Breuer, A., Pertwee, R. G., Stevenson, L. A., Griffin, G., Gibson, D., Mandelbaum, A., Etinger, A., Mechoulam, R. (1992) Isolation and structure of a brain constituent that binds to the cannabinoid receptor. Science 258, 1946–1949 7. Emrich, H. M. (1988) Zur Entwicklung eine Systemtheorie produktiver Psychosen. Nervenarzt 59, 456–464 8. Emrich, H. M. (1989) A three-component-system hypothesis od psychosis. Impairment of binocular depth inversion as an indicator of a functional dysequilibrium. Br. J. Psychiatry 155, 37–39 9. Emrich, H. M., Dose, M., Wolf, R. (1993) The action of mood- stabilizers in affective disorders: an integrative view as a challenge. Neuropsychobiology 27, 158–162 10. Gaoni, Y., Mechoulam, R. (1964) Isolation, structure and partial systhesis of an active constituent of hashish. J. Am. Chem. Soc. 86, 1646–1647 11. Gray, J. A., Rawlins, J. N. P. (1986) Comparator and buffer memory: an attempt to integrate two models of hippocampal functions. In: Isaacson, R. L., Pribram, K. H. (Ed.) The Hippocampus. Vol. 4. Plenum, New York, pp. 151–201 12. Gregory, R. L. (1973) The confounded eye. In: Gregory, R. L., Gombrich, E. H. (Eds.) Illusion in nature and art. Freeman, Oxford, pp. 49–96 13. Haken, H. (1999) Synergetik: Vergangenheit, Gegenwart, Zukunft. Vgl. vorliegender Band 14. Hemsley, D. R. (1988) Psychological models of schizophrenia. In: Miller, E., Cooper, P. J. (Eds.) Adult Abnormal Psychology. Livingstone, Edinburgh, pp. 101–112
Nichtlineare Dynamik und das Unerwartete“ in der Psychiatrie ”
279
15. Herkenham, M., Lynn A. B., Johnson, M. R., Melvin, L. S., de Costa, B. R., Rice, K. C. (1991) Characterization and localization of cannabinoid receptors in rat brain: a quantitative in vitro autoradiographic study. J. Neurosci. 11, 563–583 16. Hermle, L., Gouzoulis, E., Oepen, G., Spitzer, M., Kovar, K. A., Borchardt, D., F¨ unfgeld, M., Berger, M. (1993) Zur Bedeutung der historischen und aktuellen Halluzinogenforschung in der Psychiatrie. Nervenarzt 64, 562–571 17. Hill, H., Bruce, V. (1993) Indepent effects of lightning, orientation, and stereopsis on the hollow-face-illusion. Perception 22, 887–897 18. Hollister, L. E. (1986) Health aspects of cannabis. Pharmacol. Rev. 38, 1–20 19. Lurija, A. R. (1992) Das Gehirn in Aktion. Einf¨ uhrung in die Neuropsychologie. Rowohlt Verlag, Reinbeck bei Hamburg 20. Mumford, D. (1991) On the computational architecture of the neocortex. Biol. Cybern. 65, 135–145 21. Munro, S., Thomas, K. L., Abu Shaar, M. (1993) Molecular characterization of a peripheral rezeptor for cannabinoids. Nature 365, 61–65 22. Post, R. M., Uhde T. W., Putnam, F. W., Ballenger, J. C., Berrettini W. H. (1982) Kindling and carbamazepine in affctive illness. J. Nerv. Ment. Dis. 170, 717–731 23. Prinz, W. (1983) Wahrnehmung und T¨ atigkeitssteuerung. Springer, Heidelberg 24. Ramachandran, V. S. (1988) Perception of shape from shading. Nature 331, 163– 166 25. Richfield, E. K., Herkenham, M. (1994) Selective vulnerability in Huntington’s disease: preferential loss of cannabinoid receptors in lateral globus pallidus. Ann. Neurol. 36, 577–584 26. Roth, G. (1992) Das konstruktive Gehirn: Neurobiologische Grundlagen von Wahrnehmung und Erkenntnis. In: Schmidt, S. J. (Hrsg.) Kognition und Gesellschaft. Der Diskurs des Radikalen Konstruktivismus 2. Suhrkamp, Frankfurt am Main 27. Watzlawick, P. (1985) Wirklichkeitsanpassung oder angepaßte Wirklichkeit“? In: ” Einf¨ uhrung in den Konstruktivismus. Schriften der C. F. v. Siemens-Stiftung, Bd. 10. Oldenbourg, M¨ unchen 28. Wolf, R. (1985) Binokulares Sehen, Raumverrechnung und Raumwahrnehmung. Biol. Zeit. 15, 161–178 29. Yellott, J. I. Jr. (1981) Binocular depth inversion. Sci. Am. 245, 118–125
Selbstorganisation in psychischen und sozialen Prozessen: Neue Perspektiven der Psychotherapie G¨ unter Schiepek Forschungsinstitut f¨ ur Systemwissenschaften, Sandstraße 41, D–80335 M¨ unchen, Germany, e-mail:
[email protected] Zusammenfassung Der vorliegende Beitrag befaßt sich mit dem Problem der Ord” nung“ (W. Metzger), insbesondere mit dem des Ordnungswandels in der Psychologie. An den Beispielen pers¨ onlicher Entscheidungsprozesse und der Psychotherapie wird deutlich gemacht, wie die Modellvorstellungen der Synergetik zu einem Verst¨ andnis der dabei ablaufenden Prozesse des Ordnungswandels beitragen und praktische Erfahrungen wie empirische Befunde im Sinne einer Perspektiventheorie integrieren k¨ onnen. Verschiedene M¨ oglichkeiten, Selbstorganisation in psychologischen und sozialen Systemen nachzuweisen, werden beschrieben und kritisch diskutiert. Eine exemplarische Darstellung konkreter Forschungsmethoden und -ergebnisse aus der Untersuchung von Systemspielen (Life-Simulationen von Organisationsdynamiken) und der TherapeutKlient-Interaktion in Psychotherapien gibt Hinweise auf M¨ oglichkeiten, Ordnungs¨ Ordnungs-Uberg¨ ange empirisch zu fassen.
1
Das Problem der Ordnung“: ” Synergetik in der Psychologie
Die Perspektive der Selbstorganisation hat in den letzten Jahren zunehmendes Interesse gefunden, wenn es darum ging, psychische und soziale Prozesse zu beschreiben und zu erkl¨ aren. Ausgangspunkt f¨ ur die inzwischen vielf¨altigen Anwendungen insbesondere synergetischer Modellvorstellungen in der Psychologie waren zun¨ achst Ph¨ anomenbereiche, die einerseits experimentell untersuchbar und operational relativ klar identifizierbar waren und andererseits einen erkennbaren Bezug zu den relevanten physiologischen Grundlagen aufwiesen, womit sich die Mikroebene der beobachteten makroskopischen Ordnungsbildung zumindest benennen ließ. Es waren dies die Bereiche der (vor allem visuellen) Gestaltwahrnemung (z.B. [18] [19] [37] [67]) und der motorischen Koordination (z.B. [24] [20]). Parallel dazu wurden aber auch in anderer Weise komplexe und empirisch schwerer zug¨angliche Ph¨anomene als Beispiele f¨ ur selbstorganisierten Strukturwandel (bzw. Strukturbildung) thematisiert, z.B. Prozesse der Entscheidungsfindung, der Psychotherapie, der Gruppendynamik oder des Managements. ¨ Dennoch ist die Ubernahme von Modellen und Methodologien, die in naturwissenschaftlichen Anwendungsfeldern erfolgreich benutzt werden, in der Psychologie suspekt und gibt zu Mißtrauen Anlaß. Es gilt — mit Recht — zu zeigen, daß es sich um mehr als nur um analogisierende Metaphorik handelt. Dabei ist im
Selbstorganisation in psychischen und sozialen Prozessen
281
Abb. 1. Grundmodell der Synergetik: Ein oder mehrere Kontrollparameter wirken auf ein aus einer Vielzahl von Elementen bestehendes System und lenken dieses aus dem thermodynamischen Gleichgewicht aus (Energetisierung, Aktivierung). Aufgrund nichtlinearer Wechselwirkungen zwischen den Elementen entstehen Ordner (Ordnungsparameter bzw. Ordnungsvariablen [2]), welche die Freiheitsgrade der Systemelemente wiederum einschr¨ anken ( Konsensualisierung“ oder Versklavung“). Es handelt sich ” ” um eine Kreiskausalit¨ at zwischen Bottom-up- und Top-down-Prozessen. Die Ordnungsvariablen (makroskopische Gr¨ oßen) erzeugen je nach Auspr¨ agung der Kontrollparameter unterschiedliche dynamische Muster, z.B. regul¨ are (periodische) oder irregul¨ are (chaotische) Prozesse. Da man bei vielen Systemen keinen direkten empirischen Zugang zur Mikroebene hat, befaßt man sich (z.B. in vielen psychologischen Anwendungen) mit den makroskopischen Gr¨ oßen und deren Dynamik (makroskopische Synergetik)
u ¨brigen die Synergetik (Abb. 1) keine spezifisch physikalische Theorie, sondern ein Wissenschaftsprogramm mit interdisziplin¨arem Anspruch. Die realisierte Anwendung einer allgemeinen Strukturtheorie auf unterschiedliche disziplin¨are Felder (z.B. der Neurobiologie) entspricht einer Theorienauffassung, wie sie im sog. non-statement view“ formuliert wurde (strukturalistische Theorienauffassung ” [68]): Ein — empirisch nicht unmittelbar zug¨anglicher — Theorienkern hat sich nach entsprechenden Erweiterungen und gegenstandsspezifischen Konkretisierungen in intendierten Anwendungen“ zu bew¨ahren. Der Erfolg einer solchen ” Anwendung“ entscheidet sich dabei nicht am Entstehungszusammenhang“ der ” ” Theorie, sondern an anderen Kriterien, z.B. • der Erkl¨ arungskraft m¨ oglichst vieler und vielf¨altiger (eventuell bislang auch widerspr¨ uchlich erscheinender) empirischer Befunde und Kenntnisse eines Forschungsfeldes; • der Frage, inwieweit die Theorie zu neuen Erkenntnissen, zur Auffindung bzw. Erzeugung neuer Fakten sowie zu empirisch erh¨artbaren Vorhersagen f¨ uhrt; • dem Anregungspotential f¨ ur weitere empirische Forschung;
282
G. Schiepek
• der Frage, ob die Theorie neue Methodologien und Methoden anzubieten in der Lage ist, z.B. experimentelle Paradigmen, kreative Forschungsstrategien, weiterf¨ uhrende Analysemethoden (man denke etwa an das Spektrum der Verfahren zur nichtlinearen Zeitreihenanalyse oder an die M¨oglichkeiten der Computersimulation psychischer und sozialer Prozesse); • der heuristischen Fruchtbarkeit f¨ ur praktische Anwendungen und Probleml¨ osungen. Sicher spielt f¨ ur den Erfolg eines Forschungsprogramms die in der scientific community“ wahrgenommene Gegenstandsangemessenheit ei” ne nicht zu untersch¨ atzende Rolle, wobei hier Aspekte wie subjektive Evidenz, Plausibilit¨ at und die Korrespondenz zum Zeitgeist zum Tragen kommen. Die Theorie selbstorganisierender dynamischer Systeme befindet sich in einer Entwicklung, den genannten Kriterien f¨ ur verschiedenste psychologische Anwendungsfelder zu entsprechen, wobei allerdings kritisch zu hinterfragen sein wird, in welchen dieser Felder sich das Problem der Strukturbildung und des Strukturwandels u ¨berhaupt stellt. Auch wenn Teildisziplinen wie Entwicklungs-, Pers¨ onlichkeits-, Sozial- und Organisationspsychologie sehr zentral mit Fragen der Entwicklung und der Ver¨anderung von intra- und interindividuellen Strukturen befaßt sind, liegen weder immer die Voraussetzungen f¨ ur das Auftreten selbstorganisierender Prozesse vor, noch sind viele Forschungsfragestellungen in diesem konzeptuellen Rahmen sinnvoll bearbeitbar. Daß das Problem der Ordnung“ (Metzger) der Ordnungsbildung aber die ” Psychologie durchdringt, darauf hat die Tradition der Gestaltpsychologie seit ihren Anf¨ angen hingewiesen (z.B. [27]; vgl. [65]; vgl. auch den Kreativit¨atszir” kel“ von Moreno, vgl. [69]). Exemplarisch sei ein Zitat von Metzger aus seinem Werk Psychologie“ (Erstauflage 1940) wiedergegeben, das die Parallelen zur ” Synergetik deutlich erkennen l¨aßt: Es gibt — neben anderen — auch Arten des Geschehens, die, frei sich ” selbst u ¨berlassen, einer ihnen selbst gem¨aßen Ordnung f¨ahig sind. Frei sich selbst u uhrt darum nicht ausnahmslos zu ¨berlassenes Geschehen f¨ schlechterer, sondern kann — und zwar nicht nur in Zufallsh¨aufigkeit und -dauer — (...) auch zu besserer Ordnung f¨ uhren. Ordnung kann unter Umst¨ anden von selbst — ohne das ¨außere Eingreifen eines ordnenden Geistes entstehen. Sie kann sich unter denselben Umst¨anden auch ohne den Zwang starrer Vorrichtungen erhalten. Sie kann — ja muß — sofern sie nicht auf starren Vorrichtungen beruht, sich unter ver¨anderten Umst¨ anden ohne besonderen Eingriff (ohne die Umschaltungen der Mechanisten und ohne die Verkehrsschutzm¨anner der Vitalisten) ¨andern. Endlich kann solche Ordnung wegen des Mangels an starren und daher auch sch¨ utzenden Vorrichtungen zwar leichter gest¨ort werden, aber sie ¨ kann sich — und das begr¨ undet ihre ungeheuere Uberlegenheit u ¨ber jede Zwangsordnung — nach Aufhebung der St¨orung grunds¨atzlich auch ohne weiteres wiederherstellen: Es sind dieselben Kr¨afte und Bedingungen, denen sie ihre Entstehung, ihre Erhaltung, ihre Anpassung an ver¨anderte Umst¨ ande und ihre Wiederherstellung verdankt.
Selbstorganisation in psychischen und sozialen Prozessen
283
Mit einem Wort: Es gibt — neben den Tatbest¨anden der von außen gef¨ uhrten Ordnung, die niemand leugnet — auch nat¨ urliche, innere, sachliche Ordnungen, die nicht aus Zwang, sondern in Freiheit“ da sind. F¨ ur ” diese Ordnungen lassen sich ebenso gut Gesetze aussprechen und sichern wie f¨ ur irgendeine Zwangsordnung. Das heißt: Gesetz und Zwang sind nicht dasselbe; Gesetz und Freiheit schließen sich nicht aus. Es kann an Gebilden und Geschehnissen grunds¨atzlich ebensowohl gesetzlosen Zwang wie freie Gesetzm¨aßigkeit, ebensowohl erzwungene Unordnung wie nach Gesetzen sich ordnendes freies Geschehen geben. (...) Der Geltungsbereich des Grundsatzes der nat¨ urlichen Ordnung umfaßt bewiesenermaßen (...) das Gebiet der Wahrnehmung und des Ged¨achtnisses, sowie das der Koordination der Bewegungen. Die Regelm¨aßigkeiten, die sich bei der Untersuchung des Zusammenspiels automatischer Rhythmen (z.B. der Fischflossen) (...) ergaben, stimmen in h¨ochst befriedigender Weise mit den in der Wahrnehmung gefundenen u ¨berein: Auch hier handelt es sich um Systeme von Pr¨agnanzstufen, die sich durch besondere Einfachheit der Frequenzverh¨altnisse auszeichnen, die bei gleitender Bedingungs¨ anderung sprunghaft ineinander u ¨bergehen, unter welchen die einfachsten wiederum vor den weniger einfachen bevorzugt sind, sie an Dauerhaftigkeit u ¨bertreffen, w¨ahrend innerhalb des einzelnen Rhythmus auch (zeitlich) entfernte Teile aufeinander einwirken und sich gegenseitig tragen“ (S. 209ff.; Hervorhebungen im Original, Literaturzitate wurden weggelassen). Soweit ein etwas ausf¨ uhrlicherer Blick zur¨ uck in die Geschichte der Psychologie. Man erkennt nicht nur die Parallelen zu Beobachtungen aus dem Bereich der Synergetik (z.B. der Hinweis auf die diskontinuierliche Ver¨anderung von Ordnungszust¨ anden bei kontinuierlich ver¨anderten Kontrollparametern), sondern auch die zu aktuellen Forschungsfeldern. Und man mag nun — die vielf¨altigen, von der Gestaltpsychologie und der Ethologie beschriebenen Ph¨anomene vor Augen — die Frage nach der Anwendbarkeit der Selbstorganisationstheorie auf die Psychologie vielleicht lieber anders herum stellen: Welche Modelle sind dem allgegenw¨ artigen Problem der (nat¨ urlichen) Ordnung“ u ¨berhaupt angemessen? ” Von besonderer Relevanz d¨ urfte das Paradigma der Selbstorganisation im Bereich der Psychotherapie sein, wie verschiedene theoretische Entw¨ urfe und empirische Prozeßstudien nahelegen. Es stellt einen ernstzunehmenden Kandidaten f¨ ur jene dritte Theoriengeneration dar, von deren Notwendigkeit Grawe [16] in seinem Entwurf einer Allgemeinen Psychotherapie spricht. Angesichts der auch von vielen Praktikern geteilten Zweifel an linearen, zielgerichteten und vorhersehbaren Interventionseffekten in das komplexe System Mensch“ k¨onnte man ” Psychotherapie als Schaffen von Bedingungen f¨ ur die M¨oglichkeit von selbst” ¨ organisierten Ordnungs-Ordnungs-Uberg¨ angen in bio-psycho-sozialen Systemen unter professionellen Rahmenbedingungen“ interpretieren. Hiermit wollen wir uns im folgenden besch¨ aftigen. Bevor jedoch auf die Spezifika psychotherapeutischer Ver¨anderungsprozesse n¨ aher eingegangen wird, sei die Anwendung synergetischer Modellvorstellungen in einem anderen, klinisch ebenso wie im Alltag relevanten Ph¨anomenbereich
284
G. Schiepek
erl¨ autert, n¨ amlich dem Treffen von Entscheidungen. Es handelt sich hierbei zun¨ achst um Analogiebildungen zu illustrativen Zwecken, auf die meines Wissens erstmals Haken [21] hingewiesen hat. Er verdeutlicht darin Isomorphien zwischen Prozessen der Gestaltwahrnehmung und des Entscheidens, die beide als Musterbildungsprozesse verstehbar sind.
2
Entscheidung als Musterbildungsprozeß
Die hierdurch er¨ offnete Perspektive auf den Prozeß der Entscheidung kann in der Psychologie als ungew¨ ohnlich gelten. Verbreitete Theorien der Entscheidungsfindung setzen bestimmte Formen von Rationalit¨at voraus, wobei sich Rationalit¨ at u ¨ber die im Rahmen der u ¨blichen Erwartungs-Wert-Ans¨atze entwickelten Kosten-Nutzen-Kalk¨ ule definiert. Die meist aus der Spiel- und Wahrscheinlichkeitstheorie stammenden Algorithmen operieren mit Konzepten der subjektiven Wahrscheinlichkeit sowie mit Kosten- bzw. Nutzen-Funktionen (z.B. [38]), innerhalb derer sich die angemessenste Entscheidung einfach ausrechnen l¨aßt. Die Erfahrung lehrt allerdings, daß dies so einfach meist nicht geht. Es geht entweder viel einfacher oder viel schwerer: Entscheidungen werden entweder spontan, d.h. ohne bewußtes Kalk¨ ul und innere Erwartungs-Wert-Verrechnungen getroffen, oder sie gestalten sich trotz des Bem¨ uhens um solche Verrechnungen urlich auch F¨alle, in denen es m¨ uhsam und konflikthaft.1 Daneben gibt es nat¨ durchaus als hilfreich empfunden wird, die m¨oglichen Konsequenzen der anstehenden Entscheidungsoptionen mit ihren positiven und negativen Bewertungen und den zugeh¨ origen subjektiven Wahrscheinlichkeiten zu notieren und dann per Saldo das Res¨ umee zu ziehen. Manchmal erscheint ein solches Res¨ umee valide und tragf¨ ahig, manchmal aber wird es alsbald wieder in Zweifel gezogen und manchmal l¨ aßt sich erst gar nichts res¨ umieren. Abgesehen von den Subjektivit¨aten und Unsch¨arfen bei allem, was mit Eintrittswahrscheinlichkeiten und Prognosen zu tun hat (von nichtlinearen Prozessen sei hier gar nicht die Rede), stehen bereits u ¨ber die Ausgangslage, ja selbst u ber die Anzahl und das Aussehen der zu w¨ a hlenden Optionen oft nicht ¨ gen¨ ugend Informationen zur Verf¨ ugung. Es handelt sich bei vielen Entscheidungsprozessen um ein Navigieren in schlecht strukturierten Situationen, um sog. ill defined problems“. Gl¨ uck hat der, der bereits mit pr¨agnanten Vorstel” lungen u uste ins Restaurant ¨ber das Objekt seiner aktuellen kulinarischen Gel¨ geht (vorausgesetzt, das Gew¨ unschte gibt es auch) und sich nicht erst von der Speisekarte anregen“ lassen muß. (Davon, daß jemand die Mahlzeit mit der ” Speisekarte verwechseln k¨ onnte, ist hier u ¨brigens auch nicht die Rede.) Sobald man sich nun auf die M¨ oglichkeit zweier oder mehrerer Optionen einl¨aßt, wird 1
Nat¨ urlich muß eine psychologische Theorie — in diesem Fall des rationalen Entscheidens — nicht mit dem subjektiven Erleben des zu erkl¨ arenden Ph¨ anomens u ¨berein¨ stimmen, wobei solche Ubereinstimmungen in bestimmten F¨ allen durchaus bestehen. In der Regel gibt man sich damit zufrieden, wenn getroffene Wahlen von dem jeweiligen Modell vorhergesagt werden k¨ onnen. Doch regen Diskrepanzen zwischen subjektiven Evidenzen und Modell ebenso wie die in einem Modell nicht thematisierten Ph¨ anomene zur Suche nach Alternativkonzepten an.
Selbstorganisation in psychischen und sozialen Prozessen
285
die Situation bi- oder multistabil (s. Abb. 2). Eine Gestalt gewinnt Kontur, l¨ost sich aber zugunsten einer anderen Konfiguration wieder auf, usw. Manchmal handelt es sich um zwei oder zumindest definierbar wenige Gestalten, manchmal kommen bei n¨ aherer oder umfassenderer Betrachtung noch neue, bisher nicht erkannte Konfigurationen (M¨oglichkeiten) hinzu. Der Entscheidungsprozeß bewegt sich ¨ ahnlich wie der Prozeß der visuellen Wahrnehmung permanent am Rande der Instabilit¨ at [66] [12] und wartet auf seine Des-Ambiguierung. Komplexit¨at und Instabilit¨ at sind nach Kruse [35] u ¨brigens die prototypischen Ausgangsmerkmale f¨ ur selbstorganisierende Prozesse.
Abb. 2. Beispiel f¨ ur ein multistabiles Muster (aus [67])
Einzelne Entscheidungskonfigurationen bzw. Optionen stellen in diesem Prozeß komplexe Muster dar, zu deren Gestaltgewinnung verschiedenste und verschiedenartigste Informationen kombiniert werden m¨ ussen. Fehlende Informationen werden dabei erg¨ anzt, L¨ ucken nach bestimmten Pr¨agnanztendenzen und anderen Motiven geschlossen oder Leerstellen konstruktiv integriert. Die einzelnen Optionen sind meist in bestimmter Weise affektiv gepr¨agt, sie weisen nicht nur spezifische Gestalt-, sondern auch Anmutungsqualit¨aten auf. Es handelt sich um affektlogische“ Strukturen [10], um Informationsclu” ster mit meist deutlich emotionaler F¨arbung und motivationaler Sogwirkung. Dementsprechend gestaltet sich die Suche nach Informationen im Vorfeld von Entscheidungen durchaus selektiv und motivgeleitet. Eben die Emergenz von Anmutungs- und Affektqualit¨aten aus selbst wiederum affektiv qualifizierten Einzelinformationen ist es, die u ur m¨ogliche Ent¨berhaupt erst die Grundlage f¨ scheidungen schafft. Die Attraktorwirkung von Optionen bzw. Entscheidungsal¨ ternativen ist im Wesentlichen affektbestimmt. In Ubereinstimmung mit Ciompi wird hier somit die Auffassung vertreten, daß Rationalit¨at und Affektivit¨at keine Gegens¨ atze darstellen, es Rationalit¨at ebenso wie andersartig qualifizierbare kognitive Prozesse außerhalb affektiver Pr¨agungen nicht gibt. Es fragt sich nur, im
286
G. Schiepek
Kontext welcher Art von Affektlogik“ der jeweilige Entscheidungsprozeß statt” findet — z.B. einer Wutlogik“, einer Angstlogik“, einer Liebeslogik“, usw. ” ” ” Davon wird das Resultat der Entscheidung wesentlich bestimmt. In Kenntnis dieser Bedingungen versucht die Werbung weniger auf Sachinformationen als auf die affektiven Valenzen von Entscheidungsprozessen Einfluß zu nehmen. Der Zustand der Symmetrie, d.h. der gleichwahrscheinlichen, gleichermaßen m¨ oglichen Wahl f¨ ur diese oder jene Option ist von kritischer Instabilit¨at gepr¨ agt. Fluktuationen treten auf, welche die Pr¨aferenzen einmal in diese, einmal in jene Richtung treiben. Subjektiv wird dies als Unsicherheit erlebt, die sich abwechselnden Tendenzen nehmen die Form emotionaler Turbulenzen an. Instabilit¨ aten erfordern zus¨ atzliche Energien. Der Wirkungsgrad von Systemen diesseits der Auspr¨ agung eines klaren Ordnungsparameters ist niedrig (Abb. 3), und tats¨ achlich sinkt auch die Leistungs- und Konzentrationsf¨ahigkeit von Individuen und Gruppen in derart instabilen Phasen. Kommt ein subjektiv sp¨ urbarer Entscheidungsdruck hinzu, dominieren Gef¨ uhle weitgehender Paralysierung und Handlungsunf¨ ahigkeit. Therapeutisch ist es hierbei oft von Bedeutung, diesen zus¨ atzlichen Entscheidungsdruck zu entsch¨arfen (z.B. durch ein Entscheidungsverbot analog dem Koitusverbot der Sexualtherapie).
¨ Abb. 3. Beim Ubergang zu koh¨ arenten Ordnungszust¨ anden ver¨ andert sich der Wirkungsgrad eines Systems deutlich. Das Beispiel bezieht sich auf das klassische Untersuchungsparadigma der Synergetik, den Laser. Unter Zufuhr von (elektrischer) Energie ¨ (Kontrollparameter) gibt es einen sprunghaften Ubergang von diffuser zu koh¨ arenter Lichtemission (Phasen¨ ubergang) (Abb. aus [61])
Symmetriebrechungen kommen im Zustand der Instabilit¨at oft durch kleine Fluktuationen zustande. Unbedeutend erscheinende Informationen (cues) oder Ereignisse spielen die Rolle des Z¨ ungleins an der Waage, welches den Ausschlag f¨ ur eine Entscheidung in dieser oder jener Richtung geben kann. Nicht nur die orientierende, gestaltbildende Funktion von Affekten, sondern auch dieser Mi-
Selbstorganisation in psychischen und sozialen Prozessen
287
krofluktuationseffekt ist es, der Entscheidungen von außen oft irrational“ er” scheinen l¨ aßt. Doch sind mit der getroffenen (oder vorl¨aufig getroffenen) Entscheidung die Turbulenzen nicht immer zu Ende. In Analogie zum Modell des synergetischen Computers sinken nicht selten die Aufmerksamkeitsparameter f¨ ur die gew¨ahlte Konfiguration: die S¨ attigung steigt, d.h. deren Attraktivit¨at sinkt, w¨ahrend diejenige der nicht gew¨ ahlten Alternative(n) zunimmt. Es handelt sich um die sowohl von der Dissonanz- als auch von der Reaktanztheorie beschriebenen Nachentscheidungskonflikte, die entweder zu noch ausgepr¨agteren affektiven Oszillationen und Fluktuationen als bisher f¨ uhren — z.B. wenn eine getroffene Entscheidung dann revidiert wird und das Spiel von Neuem beginnt —, oder durch gezielte Informationssuche bzw. Best¨atigung der getroffenen Wahl beendet werden k¨ onnen. Es gibt Lebensskripts, die dauerhaft durch Entscheidungsinstabilit¨at und/ oder Nachentscheidungskonflikte gepr¨agt werden. Meist jedoch erweisen sich einmal getroffene und zumal in nachtr¨aglichen kognitiv-affektiven Dissonanzen affirmativ best¨ atigte Entscheidungen als eher stabil. Trotz zwischenzeitlich ver¨anderter Umweltgegebenheiten werden getroffene Wahlen (z.B. f¨ ur bestimmte Prozeduren, Routinen, Marken, Konzepte, etc.) nicht revidiert oder von neuem zur ¨ Disposition gestellt. Etablierte Ordnungsparameter erzeugen eine Uberhangstabilit¨ at, was bedeutet, daß man auf das bekannte Ph¨anomen der Hysterese auch hier st¨ oßt (vgl. [21]). Je nach Systemgeschichte, also je nach vorher bereits etablierten Ordnungszust¨ anden sind unter gleichen Bedingungen unterschiedliche Ordnungszust¨ ande (z.B. Entscheidungen, Verhaltensmuster) m¨oglich (vgl. Abb. ¨ 4). Ahnliche Umweltbedingungen ( Informationen“) erzwingen also keineswegs ” ahnliche Entscheidungen oder Verhaltensweisen. ¨ Was den Stellenwert von Entscheidungsprozessen betrifft, so bestehen u ¨brigens durchaus unterschiedliche Vorstellungen. W¨ahrend einige das Leben (z.B. von Individuen, Gruppen oder Organisationen) als permanente Kaskade von Entscheidungen erleben (und damit in im Sinne postmoderner Interpretationsfolien als Quell st¨ andiger Unsicherheit, Unstetigkeit, Kontingenz und Vielfalt), stellen f¨ ur andere Entscheidungen seltene Ereignisse dar. Es m¨ usse u ¨berhaupt kaum etwas bewußt entschieden werden, denn die Dinge w¨ urden sich mehr oder ¨ weniger bewußt in Ubereinstimmung mit den jeweiligen Lebensentw¨ urfen von selbst regeln, allenfalls w¨ urde man im nachhinein die eingeschlagenen Wege beleuchten oder rechtfertigen, z.B. durch Informationssuche. Diese oder noch andere Modelle sind denkbar. In der therapeutischen Praxis ist es oft wesentlich, sie im Einzelfall zu verstehen, vor allem dann, wenn Lebensprobleme als Entscheidungsprobleme rekonstruiert werden. Therapeutisch bedeutsam ist es auch zu ¨ unterscheiden zwischen stabilen Zust¨anden, zu deren Uberwindung auftretende Fluktuationen weiter verst¨ arkt werden k¨onnen (z.B. durch Zukunftsszenarien, Alternativen, Verhaltensexperimente), und instabilen Zust¨anden, die als belastend und l¨ ahmend erlebt werden. In diesem Fall gilt es eher, Druck abzubauen und das Erleben von Sicherheit und Selbstwirksamkeit zu unterst¨ utzen.
288
G. Schiepek
Abb. 4. Hysterese. Je nach Systemgeschichte (Ausgangspunkt der Entwicklung des Systems oder des Kontrollparameters) kann in einem bestimmten Bereich ein anderer Ordnungsparameter bzw. Ordnungszustand realisiert werden. Das System ist in diesem Bereich bistabil (im Falle zweier m¨ oglicher Zust¨ ande) oder multistabil (im Falle mehrerer m¨ oglicher Zust¨ ande). Die Bilderfolge Gesicht-Frau illustriert das Ph¨ anomen der Hysterese: Je nach Ausgangspunkt schl¨ agt die Sequenz an einer anderen Stelle um
3
Psychotherapie: Selbstorganisierter Ordnungswandel
Verglichen mit den Ph¨ anomenen der Entscheidungsfindung liegen in der Psychotherapieforschung inzwischen mehr empirische Belege f¨ ur die Hypothese der Selbstorganisation vor. Dies mag damit zu tun haben, daß dieser Hypothese von praktizierenden Therapeuten schon seit l¨angerer Zeit Evidenz und Plausibilit¨at zugeschrieben wird [41]. Autonome Systeme wie Menschen sind eben weder auf der biologischen noch auf der psychischen noch auf der sozialen Ebene einseitig von außen steuerbar, bzw. — wie Maturana [44] das formulierte — instruktiv in”
Selbstorganisation in psychischen und sozialen Prozessen
289
tervenierbar“. Darin liegt der Reiz, aber auch die Unsicherheit in der Arbeit mit Menschen. Dem entsprechen Befunde aus den Re-Analysen zahlreicher ProzeßOutcome-Studien, die deutlich machen, daß Interventionstechniken alleine nur einen minimalen Anteil (ca. 2 %) der Ergebnisvarianz von Psychotherapien aufzukl¨ aren in der Lage sind [62]. Elaboriertere Modelle gehen folglich auch nicht von trivialen“ (sensu [13]) Input-Output-Relationen aus, sondern tragen der ” Nicht-Trivialit¨ at“ dieser Prozesse Rechnung, wenngleich damit die Hoffnung ” auf deren Vorhersagbarkeit erheblich ged¨ampft wird. Das derzeit wohl empirisch fundierteste generische Modell psychotherapeutischer Prozesse [46] [47] setzt folgende Aspekte in Relation: • die therapeutische Beziehung - die selbst u ¨brigens keineswegs als Wirkfak” tor“, sondern als hochkomplexer Prozeß zu verstehen ist und deren Qualit¨at sich bisher am ehesten noch als pr¨adiktiv f¨ ur den therapeutischen Outcome erwiesen hat, • die therapeutischen Interventionen, • die Mikro-Ergebnisse und — sehr wesentlich — • die self-relatedness“ bzw. Aufnahmebereitschaft“ des/der Klienten.2 ” ” Hinzu kommen Rekursionsschleifen zwischen Mikro-, Meso- und Makro-Ergebnissen der Therapie und den Pers¨onlichkeitsmerkmalen bzw. der Erfahrungsgeschichte der beteiligten Personen (Abb. 5). Einfache Dosis-Wirkungs-Analogien scheinen einem solchen Modell ebensowenig angemessen wie die Vorstellung, man k¨ onne die u ¨beraus heterogenen Abl¨aufe therapeutischer Prozesse in Form von Manualen vorstrukturieren.3 Geht man davon aus, daß mindestens einige der in diesem Modell beschriebenen Wechselwirkungen nichtlinearer Natur sind, so sind in diesem Prozeß auch nichtlineare Eigendynamiken, mit anderen Worten: Selbstorganisationsph¨ anomene zu erwarten. 2
3
¨ Die in der Literatur u des Begriffs der self-relatedness“ mit Auf¨bliche Ubersetzung ” ” nahmebereitschaft“ erscheint zweifelhaft. Zudem wurden beide Begriffe bislang theoretisch wenig spezifiziert und begr¨ undet. Ein eigener Versuch in diese Richtung f¨ uhrte zu einem neuen mehrdimensionalen Konstrukt, das wir als Ver¨ anderungsinvol” viertheit“ bezeichnen [17]. Es umfaßt die faktorenanalytisch unterscheidbaren Di¨ mensionen erlebte Ver¨ anderung, Zielerreichung“, Aufnahmebereitschaft, Offnung ” ” gegen¨ uber dem Therapeuten bzw. therapeutischen Anregungen“, emotionale Invol” viertheit“ und Innenorientierung“. Sofern self-relatedness“ mit einer Orientierung ” ” nach innen in Verbindung gebracht werden kann, bezeichnet dieses Konstrukt also tats¨ achlich etwas anderes als Aufnahmebereitschaft“. Das mehrdimensionale Kon” strukt der Ver¨ anderungsinvolviertheit liegt einem neuentwickelten Klientenstundenbogen zugrunde. Nat¨ urlich brauchen Therapeuten Heuristiken und Orientierungshilfen, gerade weil sie an komplexen, kaum voraussehbaren Prozessen beteiligt sind. Doch erscheint es verfehlt anzunehmen, die wesentlichen Wirkfaktoren“ von Therapien seien in Manu” alen enthalten. Die Notwendigkeit, Prozesse klientenorientiert und bedarfsgerecht zu gestalten, wird damit vielmehr in ung¨ unstiger Weise eingeschr¨ ankt. Eigendynamik und Prozeßorientierung, der Kairos“ von Therapien kann als wesentliche Voraus” setzung f¨ ur die pers¨ onliche Entwicklung von Klienten gelten.
290
G. Schiepek
Abb. 5. Das Generic Model“ der Psychotherapie ”
Eine wesentliche Voraussetzung f¨ ur die M¨oglichkeit selbstorganisierten Ordnungswandels besteht in der Verf¨ ugbarkeit energetischer Ressourcen f¨ ur dissipative, d.h. energieverbrauchende offene Systeme (seien diese nun physikalischer, chemischer oder biologischer Natur). Eben diese Voraussetzung gilt in analoger Form auch f¨ ur psychotherapeutische Ver¨anderungsprozesse. Parallel zur Betonung der Autonomie sind in den letzten Jahren die pers¨onlichen und sozialen Ressourcen der Klienten an eine zentrale Stelle ger¨ uckt, z.B. im Ansatz der Salutogenese [3] oder in der Systemischen Therapie [50]. Traditionelle Pathologieund Defizitorientierungen wurden durch Prinzipien der Ressourcenorientierung sogar weitgehend abgel¨ ost — mit weitreichenden Konsequenzen f¨ ur das praktische Vorgehen in Diagnostik und Therapie, aber auch f¨ ur die Art der Begegnung zwischen Klient und Therapeut. Neben allgemeinen Voraussetzungen wie Autonomie (psychischer und sozialer Systeme), Vernetzung der Prozesse und Aktivierung von Ressourcen gibt es eine Reihe von Prozeßmerkmalen, die f¨ ur psychotherapeutischen ebenso wie f¨ ur selbstorganisierten Ordnungswandel charakteristisch sind:
Selbstorganisation in psychischen und sozialen Prozessen
291
Nicht selten treten in Psychotherapien, aber auch in anderen Lernprozessen ¨ sprunghafte Ver¨ anderungen, diskontinuierliche Uberg¨ ange auf (z.B. [5] [6] [7] [36] [37] [54] [56] [60]). Psychotherapie wird von den meisten Autoren ebenso wie von Praktikern nicht als kontiuierlicher, inkrementeller Prozeß nach dem Modell des operanten shaping“ betrachtet, sondern als qualitativer Wandel von Verhaltens” und Erlebensmustern (affektlogische Strukturen bzw. Schemata, s. [10] [14] [15]; states of mind“ [22]; Lebensstile [54]). Dies bedeutet nicht, daß sich Ver¨ande” ¨ rungen immer in Form von Alles-oder-Nichts-Uberg¨ ange ereignen m¨ ußten, im Gegenteil: Verhaltensmuster sind situations- und kontextabh¨angig aktivierbar und hierarchisch auf unterschiedlichen Ebenen integriert [72]. Sie k¨onnen sich somit auch kontextabh¨ angig bzw. auf unterschiedlichen Integrationsstufen versetzt oder verz¨ ogert ¨ andern bzw. in komplexere, kompensatorische oder kontrapunktische Bewegungen eintreten. Es bedeutet auch nicht, daß das Prinzip ” der kleinen Schritte“ damit obsolet w¨ urde: kleine Schritte motivieren, schaffen Erfolgserlebnisse sowie self-efficacy“-Erfahrungen und erzeugen jene quantitati” ven Ver¨ anderungen, die qualitative Ver¨anderungen vielfach erst m¨oglich machen. Doch sind psychische und soziale Systeme gestalthaft“, d.h. in Strukturen und ” Mustern organisiert, und deren Ver¨anderung vollzieht sich nicht (allein) auf der Ebene der Elemente, sondern in Form vielf¨altiger und mehrschichtiger Ordnungs¨ Ordnungs-Uberg¨ ange (Abb. 6). Die Entstehung neuer Ordnungszust¨ande l¨aßt sich nicht als Transformation oder Umbauprozeß verstehen. L¨osungsmuster“ weisen daher im Vergleich zu ” Problemmustern“ meist g¨ anzlich andere Qualit¨aten auf. Um Ver¨anderungen anzuregen, m¨ ussen Problemzust¨ande somit auch nicht ins Detail analysiert werden; eine umfangreiche kognitiv-emotionale und kommunikative Fokussierung darauf w¨ urde sogar eher zu deren Stabilisierung beitragen. Stattdessen geht es bei der ¨ Begleitung von Ordnungs-Ordnungs-Uberg¨ angen darum, die Bedingungen f¨ ur das Auftreten von qualitativ Neuem zu schaffen (wobei bisherige Muster nicht v¨ ollig auf gel¨ ost oder ersetzt werden, sondern als Potential erhalten bleiben). ¨ ¨ Derartige Uberg¨ ange sind mit Destabilisierungen verbunden, die oft Angste ausl¨ osen. Wenn in Phasen der kritischen Instabilit¨at ausgepr¨agte Fluktuationen das Geschehen bestimmen, die bisherigen Muster an Attraktivit¨at“ verloren ha” ben, ja sogar aversiv geworden sind und gleichzeitig aber die Vorhersagbarkeit zuk¨ unftiger Entwicklungen gering ist, dann wird man an Kierkegaard erinnert, f¨ ur den der Gegenstand der Angst ein Nichts ist“: Die Angst sei der Schwin” ” del der Freiheit“, in ihr ist die selbstische Unendlichkeit des M¨oglichen“ (Der ” ¨ Begriff Angst, 1965, S. 60ff.; Orig. 1844). Diese Angste und Verunsicherungen sowie die damit verbundenen R¨ uckw¨artsbewegungen“ hin zu vertrauten Verhal” tensmustern werden meist als Widerstand“ bezeichnet, sollten aber keineswegs ” als mangelnde therapeutische Kooperation interpretiert werden. R¨ uckf¨alle“ und ” Fehler“ erweisen sich in solchen Phasen als sinnvoll und erfordern eine Haltung ” der Fehlerfreundlichkeit“. ” Neben der Verunsicherung steigt in Symmetriezust¨anden (verschiedene neue Ordnungsmuster sind gleichermaßen m¨oglich und wahrscheinlich) auch die Sensibilit¨ at und Suggestibilit¨ at f¨ ur minimale Anregungen, welche die weitere Entwicklung entscheidend pr¨ agen k¨onnen [37]. Der Einsatz von Metaphern, Bildern,
292
G. Schiepek
Abb. 6. Die Ver¨ anderung einer Potentiallandschaft als Metapher f¨ ur psychotherapeutische Prozesse. Zun¨ achst (a) dominiert ein bestimmtes Potentialtal (starke attrahierende Kraft eines Verhaltensmusters bzw. Problemzustandes), sp¨ ater (b-c) diversifiziert sich die Landschaft, andere Ordnungszust¨ ande werden auch m¨ oglich (Komplexit¨ atszunahme und Flexibilit¨ at als Merkmal von Gesundheit). In (d) ist der zun¨ achst dominierende Attraktor durch eine Repellor ersetzt. Eine vollst¨ andige Aufl¨ osung eines bereits vorhandenen Potentials f¨ ur die Realisation eines bestimmten Verhaltensmusters ¨ ist allerdings unwahrscheinlich. Altere Muster bleiben in der Regel verf¨ ugbar (vgl. [20])
sprachlichen Suggestionen und Vorsatzbildungen auf unterschiedlichen Bewußtseinsstufen und sensorischen Kan¨alen wurde in der Hypnotherapie ausf¨ uhrlich beschrieben. Die therapeutische Arbeit kann sich sehr unterschiedlich gestalten, je nach Stabilit¨ atszustand bestehender Muster. Es existiert hier also ein Bedarf nach Stabilit¨ atsdiagnostik. In bestimmten F¨allen m¨ogen sich die Umwelt- und Lebensbedingungen bereits derart ver¨andert haben, daß die immer noch realisierten Muster (Lebensstile, Kommunikationsmuster, Verhaltens- und Verarbeitungsformen) inad¨ aquat, anachronistische geworden sind und hier¨ uber auch ein Be-
Selbstorganisation in psychischen und sozialen Prozessen
293
wußtsein sowie entsprechende Ver¨anderungsw¨ unsche bestehen. Es ist dies die ¨ Situation der Hysterese, der Uberhangstabilit¨ at. Das System befindet sich in einem Zustand, in dem andere Muster bereits m¨oglich w¨aren (Multistabilit¨at), aber noch nicht realisiert wurden bzw. ausreichend Pr¨agnanz gewonnen haben. In diesen F¨ allen ist die Entscheidung zu einer Therapie oft schon der Startschuß zu eigenaktiven Ver¨ anderungen. Pre-session changes“ (positive Entwicklungen ” zwischen Anmeldung und erster Therapiesitzung) sind zu beobachten. Hier geht es vielfach um Ermutigung, Erlaubnis“ (permission) und Best¨atigung. Ein Zu” viel an Fremdvorgaben, Anregungen“ und extrinsischer Motivation kann f¨ ur ” diese eigendynamischen Prozesse hinderlich sein. Therapie geht hier — so scheint es — von selbst. In anderen F¨ allen scheinen die realisierten Muster bemerkenswert stabil zu sein. Verhaltensexperimente, Variationen und die Suche/Realisierung von Ausnahmen sind hier bei entsprechender Ver¨anderungsmotivation sinnvoll. H¨aufig ist auch eine Auseinandersetzung mit den emotionalen Bindungen an bestehende Muster erforderlich (z.B. hinsichtlich biographischer Wurzeln, unerledigter Auf” gaben“ oder Schuldgef¨ uhlen, die Neuentwicklungen erschweren). So mag es denn prinzipiell richtig sein, Problemmuster nicht durch darauf bezogene Kommunikation unn¨ otig zu stabilisieren (bzw. entsprechende Potentialt¨aler nicht unn¨otig zu vertiefen), doch kann eben dies gerade durch Ver¨anderungsdruck, durch zu schnellen Wechsel von problem talk“ zu change talk“ (wie es in der l¨osungsorien” tierten Therapie heißt) geschehen. Ver¨anderungsperspektiven und Kl¨arungsperspektiven bedingen sich gegenseitig. Nicht umsonst wurde Psychotherapie oben als Schaffen von Bedingungen f¨ ur die M¨oglichkeit“ von Ordnungs-Ordnungs¨ ” angen und nicht etwa als Forcieren“ von Uberg¨ ¨ Uberg¨ angen bezeichnet. ” Weitere F¨ alle k¨ onnen von akuten oder fortgesetzten Instabilit¨aten bzw. Fluktuationen zwischen verschiedenen Zust¨anden gepr¨agt sein. Gef¨ uhle von Verunsicherung, fehlender Stabilit¨ at und Pr¨agnanz von Mustern pr¨agen das Bild. Hier kommt es unter anderem darauf an, Sicherheiten einzuf¨ uhren und Ver¨anderungsdruck zu reduzieren. Das Alltagsleben zu organisieren mag manchmal wichtiger sein als Visionen zu entwickeln. (Was hier u ¨brigens als F¨alle“ bezeichnet wird, ” k¨ onnen auch Phasen oder Varianten innerhalb ein- und desselben therapeutischen Prozesses sein. Weitere Varianten bestehen z.B. darin, mit bestehenden Mustern leben zu lernen oder diese zwar nicht zu ver¨andern, aber in neue Kontexte zu stellen.) Grunds¨ atzlich finden in Psychotherapien Prozesse der Destabilisierung statt, die einen Kontext von Stabilit¨at erforderlich machen. Kein lebendes System w¨ urde sich auf einen Prozeß entgrenzter Destabilisierung einlassen. In Psychotherapien sind tats¨ achlich eine ganze Reihe von Stabilit¨atsbedingungen enthalten, von denen prim¨ ar die Therapeut-Klient-Beziehung (z.B. Vertrauen und Kompetenzerwartung an den Therapeuten) und — trotz aller Nichtvorhersehbarkeit des Prozesses — eine Erwartung in Richtung einer konstruktiven und n¨ utzlichen Entwicklung (das Gegenteil von Demoralisierung und Hilflosigkeit) zu nennen sind. Weitere Aspekte betreffen die Stabilit¨at der Rahmen- und Randbedingungen. Von besonderem Wert ist auch in diesem Zusammenhang die Unterst¨ utzung des Selbstwertgef¨ uhls, der Selbst-Wirksamkeit und der Ressourcen der Klienten.
294
G. Schiepek
Gefragt wird oft schon in der ersten Stunde danach, was der Klient an sich selbst wertsch¨ atzt und was sich durch die Therapie nicht ver¨andern sollte — eine Frage, deren Antwort sich im Laufe der Therapie allerdings ver¨andern kann und die sich auch immer wieder neu stellt. Die Kl¨arung von Anliegen und Auftrag tr¨agt schließlich wesentlich dazu bei, ver¨anderungsrelevante Bereiche einzugrenzen und ¨ damit Sicherheit vor therapeutischen Ubergriffen“ zu gew¨ahrleisten. ” Auch die Entwicklung von Ver¨anderungszielen vermittelt Sicherheit, wenngleich selbstorganisierte Prozesse nur sehr bedingt prognostizierbar und kontrollierbar sind. Tats¨ achlich mag es eine Illusion sein zu glauben, Ziele k¨onnten zuk¨ unftige Entwicklungen antizipieren. Ihre Funktion liegt vielmehr in ihrer motivierenden Wirkung und in der damit gegebenen Chance, aktuelle Symmetrien, also gleichwahrscheinliche Entwicklungsm¨oglichkeiten in die gew¨ unschte Richtung zu brechen. Solche Richtungsimpulse determinieren jedoch die komplexe Dynamik bio-psycho-sozialer Systeme noch keineswegs, so daß die Funktion von Zielen wohl gar nicht darin besteht, unmittelbar erreicht zu werden, sondern darin, energetisierende und entwicklungsstrukturierende Bedingungen zu schaffen. Mit der Motivation ist auch die Frage der Kontrollparameter angesprochen. Statt der Auslenkung aus dem thermodynamischen Gleichgewicht besteht f¨ ur psychische und soziale Prozesse eine wesentliche Selbstorganisationsbedingung in der Auslenkung aus dem motivationalen Gleichgewicht, und hierf¨ ur spielen Ziele und Zukunftsantizipationen eine wesentliche Rolle. Allerdings beinhaltet die Frage, ob Motivationen und damit Affekte als Kontrollparameter oder als Ordner von F¨ uhl-, Denk- und Verhaltensprogrammen (Ciompi) fungieren (oder unter verschiedenen Perspektiven als beides) noch ungel¨oste Probleme. Sicherlich handelt es sich bei den Kontrollparametern psychischer und sozialer Prozesse um Energetisierungen aus den Systemen selbst heraus und nicht um solche, die extern zuf¨ uhrbar und experimentell kontrollierbar w¨aren (wie etwa die angelegte Spannung beim Laser). Externe m¨ ussen immer erst in systeminterne Energetisierungen transformiert werden, ganz ¨ahnlich wie es sich auch mit dem sensorischen Input in lebende Systeme verh¨alt. Aus sensorischer Reizung muß systemintern Bedeutung konstruiert werden, um Wirkung zu entfalten. Damit erweisen sich Kontrollparameter grunds¨atzlich — in lebenden wie in physikalischen und anderen Systemen — als zugleich spezifisch und unspezifisch: Jedes System braucht seine(n) spezifischen Kontrollparameter, um davon angeregt zu werden. Der Laser regiert auf die f¨ ur Konvektionsstr¨omungen relevanten Temperaturgradienten ebenso wenig wie die Fl¨ ussigkeitsschicht der B´enard-Instabilit¨ at auf Stromspannungen. F¨ ur Individuen und soziale Systeme gilt dies in noch viel pointierterem Sinn: Therapeutische Prozesse m¨ ussen das Anliegen und damit die Motivation eines Klienten sehr genau treffen, er muß sich diesbez¨ uglich verstanden f¨ uhlen, damit er sich in der Zusammenarbeit mit dem Therapeuten engagiert. Unter anderem deswegen wird der Kl¨arung von Anliegen, Auftrag und Zielen so viel Aufmerksamkeit gewidmet. Unspezifisch sind Kontrollparameter hinsichtlich ihrer Wirkung: sie regen lediglich an, pr¨agen bzw. gestalten aber die systeminternen (bzw. aus der Wechselwirkung zwischen System und Umweltbedingungen resultierenden) Prozesse der Ordnungsbildung nicht.
Selbstorganisation in psychischen und sozialen Prozessen
295
Die Funktion des Therapeuten besteht wohl kaum in der externen Aktivierung von Kontrollparametern. Er wird vielmehr Teil eines sozialen Systems, das als Psychotherapie“ beschrieben werden kann [39] und das eigene Strukturen ” und Dynamiken entwickelt. Es erzeugt einen Bereich sozialer Emergenz u ¨ber die sich abstimmenden psychischen Prozesse von Klient(en) und Therapeut. In diesem Prozeß kommt es sehr auf die zeitliche Abstimmung, auf den Kairos“ ” von Ereignissen und Interventionen an. Wesentlich ist die Aufnahmebereitschaft des Therapeuten f¨ ur die Aufnahmebereitschaft des Klienten und umgekehrt, um therapeutische Heuristiken wirksam werden zu lassen [1]. Die Wirkung sozialer Schmetterlingseffekte“ erlaubt es, daß auch und gerade minimale Interventionen zum Tragen kommen (vgl. die Modelle der Chaossteuerung [11]). Besondere Aufmerksamkeit erfordert schließlich der Prozeß der Restabilisierung ver¨ anderter Muster (z.B. Lebensstile). Hierf¨ ur sind vielf¨altige Feedbackschleifen und Best¨ atigungen (von relevanten Bezugspersonen, aber auch von nicht am therapeutischen Prozeß beteiligten Dritten) notwendig, die Erprobung neuer Verhaltensmuster in unterschiedlichen Situationen sowie die Integration und Vernetzung neuer Verhaltensmuster und Selbstkonzepte in bestehende Sinnbez¨ uge, Selbstbeschreibungen und soziale Strukturen.
4
Der Nachweis von Selbstorganisation in der Psychologie
Es stellt sich die Frage, auf welchen Wegen die Hypothese der Selbstorganisation in psychischen und soziale Prozessen eine Erh¨artung (oder umgekehrt: begr¨ undete Zweifel) erfahren k¨onnte. Hierf¨ ur gibt es verschiedene, sich erg¨anzende M¨ oglichkeiten: 1. Zun¨ achst sind Plausibilit¨ats¨ uberlegungen nach dem Ausschlußprinzip gel¨aufig: es wird nach guten Gr¨ unden gesucht, die Entwicklung von Strukturen und dynamischen Mustern auf systeminterne Prozesse und nicht auf Fremdorganisation bzw. externe Kontrolle oder aber auf systemintern vorgezeichnete Programme (z.B. genetische Codes) zur¨ uckzuf¨ uhren. 2. In der Beschreibung psychischer und sozialer Muster wird nach Analogien zu spezifischen Charakteristika selbstorganisierender Prozesse gesucht. Analogiebildung und Metaphorik sind in der Psychologie — trotz der verbreiteten absch¨ atzigen Haltung hierzu — u ¨blich und notwendig. Sie stellen eine wesentliche Grundlage von Perspektiventheorien und ein Durchgangsstadium auf dem Weg zu den erheblich selteneren Erkl¨arungstheorien dar. Die Beschreibung psychischer und sozialer Prozesse thematisiert sowohl die Entstehung von Koh¨ arenz und Einbindung (Komplexit¨atsreduktion, Das Ganze ” ist weniger [und qualitativ anders] als die Summe seiner Teile“), als auch von Differenzierung und Komplexit¨atszuwachs. 3. Als wesentliche Selbstorganisations-Bedingung gilt die Selbstreferenz systeminterner Operationen (Iterationen), die man f¨ ur psychische und soziale Prozesse begrifflich zu konkretisieren [13] [40], methodisch zu operationalisieren [55] [57] [34] oder auch experimentell zu realisieren versucht (vgl. z.B.
296
G. Schiepek
das sog. Bartlett-Szenario“ [65] [32] [33]; s. Abb. 7). Selbstreferenz erzeugt ” via Iterationen entweder (zumindest vor¨ ubergehend) stabile Eigenl¨osungen (z.B. pr¨ agnante Wahrnehmungen, Rollenstrukturen, Arbeitsergebnisse, etc.) oder aber irregul¨ are, chaotische Dynamik, die aus der Vogelperspektive der Phasenraumdarstellung (Rekonstruktion von Attraktoren) selbst wiederum mehr oder weniger stabil (station¨ar) sein k¨onnen.
Abb. 7. Serielle Reproduktion eines zun¨ achst ungeordneten Punktmusters durch 19 aufeinanderfolgende Versuchspersonen (aus [65]). Jede Person zeigt der n¨ achsten kurz seine Reproduktion“, diese zeichnet in ihr vorliegendes, leeres Gitter ein, was sie ge” sehen hat, usw.
4. Eine Formalisierung selbstreferentieller Modelle findet im Rahmen von Computersimulationen statt. Dabei geht es nicht nur um eine Reproduktion von den empirischen Verl¨ aufen ¨ahnlichen Simulationsl¨aufen, sondern um einen Beitrag zu einem qualitativ verbesserten Verst¨andnis der simulierten Ph¨anomene. Als Qualit¨ atskriterium gilt der theoretische und empirische Gehalt der den Formalisierungen zugrunde liegenden Modelle. Hinweise auf selbstorganisierende Prozesse liefern Simulationen dann, wenn a) die benutzten Modelle inhaltlich und empirisch gut belegt sind, b) die generierten Verl¨aufe empirisch plausibel sind und c) das Modell (Gleichungssystem) f¨ ur Selbstorganisationsprozesse typische Voraussetzungen beinhaltet (z.B. Vernetzung der Variablen, gemischtes Feedback, Abh¨angigkeit der Verl¨aufe von den Parameterwerten). 5. Oft gilt die Beobachtung diskontinuierlicher Entwicklungen als Hinweis auf Phasen¨ uberg¨ ange und damit auf Selbstorganisation [6] [7]. Auch wenn solche Spr¨ unge im Systemverhalten nicht auf externe Ereignisse zur¨ uckf¨ uhrbar sind, ist zu bedenken, daß sich selbstorganisierte Dynamiken nicht immer in Diskontinuit¨ aten manifestieren (etwa aufgrund der oben bereits angespro-
Selbstorganisation in psychischen und sozialen Prozessen
297
chenen Kopplung von Teildynamiken oder aufgrund des Vorliegens sog. kontinuierlicher Phasen¨ uberg¨ange). Andererseits gibt es diskontinuierliche Verhaltens¨ anderungen, die zu ein- und derselben Systemdynamik geh¨oren (z.B. der Wechsel der Trajektorie von einem Fl¨ ugel des Lorenz-Attraktors zum anderen) oder das Resultat einer linearen Stufenfunktion darstellen, also nicht ¨ auf selbstorganisierte Ordnungs-Ordnungs-Uberg¨ ange zur¨ uckf¨ uhrbar sind. 6. Klarheit k¨ onnte hier letztlich nur ein experimentelles Vorgehen schaffen, n¨ amlich die kontinuierliche Ver¨anderung von Kontrollparametern bei Konstanthaltung der relevanten Randbedingungen. Eben dies aber ist f¨ ur viele psychologische und soziale Ph¨anomene nicht m¨oglich, unter anderem deswegen, weil die spezifischen Kontrollparameter entweder u ¨berhaupt nicht bekannt oder zumindest nicht von außen variierbar sind. Vielfach lassen sich bestimmte Umweltver¨ anderungen oder systeminterne Entwicklungen nur als Korrelate von Kontrollparametern interpretieren. Am engsten sind die Untersuchungen zur neuronalen Dynamik, zur visuellen Wahrnehmung und zur motorischen koordination einem experimentellen Paradigma verpflichtet. 7. Das von der Synergetik beschriebene Prinzip der Koh¨arenzbildung bzw. Versklavung“ dr¨ uckt sich in einer eklatanten Reduktion der Freiheitsgra” de des Verhaltens von Systemelementen aus. Komplexit¨at wird reduziert. Somit k¨ onnte sich Selbstorganisation in der Reduktion der Faktorenstruktur von Systemprozessen anifestieren. Tschacher und Grawe [73] erhielten entsprechende Hinweise bei der Auswertung von Klientenstundenb¨ogen von Therapien, die 40 und mehr Sitzungen umfaßten. Die beobachtete Abnahme der Anzahl von Faktoren erwies sich allerdings als relativ gering und entspricht keineswegs einem Zusammenbruch“ der Freiheitsgrade, wie er ” bei einem selbstorganisierten Strukturbildungsprozeß zu erwarten w¨are. Zu ¨ erwarten w¨ are er tats¨ achlich nur bei einem Ubergang von Unordnung zu Ordnung, wie er in den klassischen synergetischen experimenten untersucht ¨ wird, kaum jedoch bei Uberg¨ angen zwischen Ordnungszust¨anden. Im Gegenteil kann bei psychotherapeutischen Prozessen, die ja von den Restriktionen pathologischer Zust¨ ande (bzw. leiderzeugender Verhaltensmuster) befreien sollen, mit einer qualitativen Ver¨anderung oder sogar Erweiterung der Anzahl der Ordnungszust¨ ande (und eventuell damit der Faktorenstruktur) gerechnet werden. In einer Untersuchung von Choi [9] ergab sich bei der Analyse der Faktorenstruktur im Therapieverlauf ein divergierendes Bild: (leichte) Reduktion kam ebenso vor wie Konstanz und Zunahme der Faktorenstruktur (wobei hier die Daten auf t¨aglichen Ratings beruhten). Ein Zusammenhang mit dem Therapieerfolg konnte bei den durchweg erfolgreichen Klienten (Panikst¨ orungen) nicht festgestellt werden. Des weiteren ist die Entstehung von Ordnung gerade in sozialen Systemen in einem sehr fr¨ uhen Stadium zu erwarten (z.B. aufgrund erster Eindr¨ ucke), und daher schwer zu erfassen. In der Folge handelt es sich kaum mehr um Unordnungs-Ordnungs-, sondern ¨ um Ordnungs-Ordnungs-Uberg¨ ange. 8. Insofern chaotische Dynamiken im Sinne der Theorie nichtlinearer dynamischer Systeme das Resultat systeminterner, selbstreferentieller (iterativer) Prozesse darstellen (und nicht etwa irregul¨aren Inputs von außen), k¨onnte
298
G. Schiepek
ein klarer Hinweis auf deterministisches Chaos in einem empirischen System zugleich als Hinweis auf Selbstorganisation gelten. Die Identifikation von Chaos“ ist allerdings mit zahlreichen methodischen Problemen behaf” tet (vgl. [74]), insbesondere in psychologischen Anwendungsfeldern. Genannt seien nur die Argumente der Datenqualit¨at und der erforderlichen Zeitreihenl¨ ange, der Hinweis auf die Tatsache, daß es u ¨ber die generierenden Prozesse irregul¨ arer Dynamiken eine ganze Reihe von Alternativhypothesen (zu der des deterministischen Chaos) geben kann, die letztlich kaum auszusch¨opfen sind (vgl. die u ¨ber die den Ausschluß von Alternativhypothesen funktionierende Methode des Nichtlinearen VorhersageAlgorithmus von [71]) und die Problematik der Nichtstationarit¨at psychologischer und sozialer Prozesse. Hinzu kommt, daß empirische Zeitreihen selbst nach ihrer Einbettung in Zeitverz¨ ogerungskoordination sehr irregul¨ar aussehen (vgl. [55] [10]) und weder optisch noch nach anderen Maßst¨aben (z.B. des direkten Determiniertheits” Tests“ nach [23]) die Wohlgeformtheit und Pr¨agnanz der Attraktoren mathematischer Modellsysteme oder mancher physikalischer Systeme aufweisen. 9. Die M¨ oglichkeit der Beschreibung nichtstation¨arer Dynamiken, d.h. der Veranderung von wesentlichen Merkmalen einer oder mehrerer Zeitreihen im ¨ Verlauf, kann schließlich ebenfalls als Hinweis auf selbstorganisierende Prozesse gelten. Brunner et al. [7] etwa beschrieben die Ver¨anderungen der wechselseitigen Abh¨ angigkeit von Aspekten wie Spannung“, Aktivit¨at“ und ” ” Stimmung“ beider Ehepartner sowie der Empathie“ und der Direktivit¨at“ ” ” ” des Therapeuten (Datenbasis: Fremdratings auf Videobasis) im Verlauf einer Paartherapie (State-Space-Methode). Besonders relevant d¨ urften Nichtsta¨ tionarit¨ aten in chaotischen Prozessen, sog. chaoto-chaotische Uberg¨ ange“ ” sein, zumal wenn diese als diskontinuierliche Spr¨ unge auftreten. Lassen sich ¨ derartige Uberg¨ ange in mehreren, von ein und demselben System erzeugten Zeitsignalen synchron beobachten (z.B. in der Interaktion zwischen Therapeut und Klient), dann kann dies durchaus als ernstzunehmendes Argument ¨ f¨ ur systemintern erzeugte Ordnungs-Ordnungs-Uberg¨ ange gewertet werden. In diesem Fall kommen n¨amlich die Aspekte der Chaotizit¨at, der Diskontinuit¨ at und der Synchronizit¨at, d.h. der m¨oglichen Einbindung in system¨ ubergreifende Ordnungsprozesse ( Versklavung“) zusammen. ” Deutlich wird, daß der Nachweis“ selbstorganisierender Prozesse in psychischen ” und sozialen Systemen jenseits der M¨oglichkeiten des Experiments offenbar als schwieriger Indizienbeweis gef¨ uhrt werden muß, wobei es zu jedem Argument auch kritische Einw¨ ande gibt.
5 5.1
Exemplarische empirische Befunde ¨ zu Ordnungs-Ordnungs-Uberg angen ¨ Intergruppen-Dynamik: Entwicklungen in Systemspielen
Systemspiele sind Life-Simulationen komplexer sozialer Prozesse, z.B. der Zusammenarbeit mehrerer Institutionen bei der Betreuung von Klienten (oder auch
Selbstorganisation in psychischen und sozialen Prozessen
299
des Wettbewerbs oder der Konkurrenz um knappe Ressourcen, etc.). Ein von uns entwickeltes und mehrfach im Hinblick auf die auftretende Dynamik untersuchtes Szenario bezieht sich auf die Kooperation von Mitarbeitern aus einer Jugendhilfeeinrichtung, dem Jugendamt, einer kinder- und jugendpsychiatrischen Station, mehreren Jugendlichen und dem Elternpaar eines der betreuten Jugendlichen (insgesamt 16 Personen). Teilnehmer waren meist Psychologiestudenten im Hauptstudium. Die Verlaufsdaten wurden mit Aktionskodierb¨ogen, die nach jeder identifizierbaren (Inter-)Aktion ausgef¨ ullt werden sollten und Streßprotokollb¨ ogen (orientiert am UBV nach [49]) erhoben. Im Laufe der zehnst¨ undigen Spiele — zwei Stunden repr¨asentierten jeweils einen fiktiven Arbeitstag — fielen in der Regel 650 bis 700 Aktionsb¨ogen und 30 bis 120 Streßprotokollb¨ogen an [58] [43]. Was die Dynamik der realisierten Spiele betrifft, so m¨ ussen diese durchaus als Systemeinzelf¨ alle betrachtet werden (nomothetische Anspr¨ uche k¨onnen in der Untersuchung komplexer sozialer und psychischer Systeme ohnehin kaum erf¨ ullt ¨ werden). Unter dem Aspekt von Ordnungs-Ordnungs-Uberg¨ angen gab es solche mit zeitlich und auf die einzelnen interaktionellen Subsysteme breit verteilten ¨ Uberg¨ angen, bei denen der Eindruck von Kontinuit¨at statt von Diskontinuit¨at im Wandel der Themen und Strukturen u ¨berwog, und solche mit sprunghaften, die meisten Subsysteme gleichzeitig betreffenden Ver¨anderungen. Eines dieser Spiele sei hier exemplarisch herausgegriffen. Kontrollparameter schienen in diesem Beispiel die zunehmenden Spannungen und Konflikte, also die negative emotionale Energetisierung in einem der wesentlichen Subsysteme, n¨amlich den Mitarbeitern und der Leitung des Kinderheims gewesen zu sein. Die synchronisierten Entwicklungen im Umfeld dieses Quasi-Phasen¨ ubergangs, der u ¨brigens von massiven Spannungen zu einer wesentlich verbesserten Kooperation zwischen den Mitarbeitern f¨ uhrte, lassen sich anhand verschiedener Indikatoren gut nachvollziehen. Die direkte Frage nach erlebten Ver¨anderungen hinsichtlich dominierender Themen“, dem emotionalen Klima“, der Inter” ” ” aktionsstruktur“ im gesamten Systemspiel und der pers¨onlichen Bezugsgrup” pe“ (Befragung unmittelbar nach Beendigung des Systemspiels) weist eine klare H¨ aufung um die f¨ unfte Spielstunde auf (Abb. 8). Auch in den Interviews, die das Spielgeschehen noch einmal retrospektiv beleuchteten, konnten diesem Ordnungs¨ ubergang klare inhaltliche Bez¨ uge in unterschiedlichen Teilsystemen und Handlungsstr¨ angen zugeordnet werden (F¨ uhrungskrise in der Jugendhilfeeinrichtung, gleichzeitiges Entweichen einer Gruppe von Jugendlichen aus dem Heim, etc.). Ein neuer Ordnungszustand war f¨ ur viele beteiligte erst ab der siebten Spielstunde erkennbar (kooperativer F¨ uhrungsstil, treffen relevanter Entscheidungen, mehr Zeit f¨ ur die Jugendlichen, Reduktion von Konflikten). Weitere Verlaufsindikatoren weisen auf einen Ordnungs¨ ubergang um die f¨ unfte Spielstunde hin: Die Anzahl der kodierten Streßereignisse (Belastung) ist deutlich erh¨ oht, ebenso die auf den Aktionsb¨ogen kodierten interaktionellen Konflikte (Abb. 9). Der Verlauf der retrospektiv eingesch¨atzten Phasen¨ uberg¨ange“ ” enth¨ alt die gleiche Information wie Abb. 6 (a). Binneninteraktionen“ bezeich” nen diejenigen Kontakte, bei denen Professionelle (z.B. Heimmitarbeiter) Kontakt ausschließlich untereinander haben und die Klienten (z.B. die Jugendlichen)
300
G. Schiepek
Abb. 8. Von den Beteiligten retrospektiv auf einer Zeitachse markierte Ver¨ anderungen, aufsummiert u ¨ber die Aspekte dominierendes Thema“, emotionales Klima“, ” ” Interaktionsstruktur des gesamten Spiels“ und pers¨ onliche Bezugsgruppe“. Die Ab” ” bildung bezieht sich ebenso wie die Abb. 5 und 6 auf eine bestimmte Systemspielrealisation im Rahmen eines mehrj¨ ahrigen Forschungsprojekts [58] [43]. Das zehnst¨ undige Spiel wurde in dieser Darstellung in halbst¨ undige Einheiten unterteilt. In der Reihe (a) ¨ ¨ wurden kontinuierliche Uberg¨ ange nicht gewichtet, in der Reihe (b) wurden Uberg¨ ange, die sich u angeren Zeitraum erstrckten, mit Werten zwischen 0 und 1 gewich¨ber einen l¨ ¨ tet. Die abgestuften Grauwerte geben die H¨ aufigkeit von markierten Uberg¨ angen an
Abb. 9. Verl¨ aufe der Anzahl der kodierten Streßereignisse (Belastung), der als Kon” flikte ansprechen und bearbeiten“ kodierten (Inter-)Aktionskategorie, der H¨ aufigkeit von Interaktionen, die sich auf Binnenkontakte von Professionellen“ oder Klienten“ ” ” ¨ bezogen und der retrosvorgenommenen pektiv Ubergangsmarkierungen (Maxima bzw. relative Maxima)
Selbstorganisation in psychischen und sozialen Prozessen
301
auch nur unter sich kommunizieren. Die Teilsysteme sind also mit sich selbst besch¨ aftigt. Die Dichte der Binneninteraktionen weist hier ein relatives Maximum auf. Entsprechend selten sind Betreuungskontakte (Beratungen, Therapien, Erziehungsarbeit), die unter der Rubrik pers¨onliche Hilfestellung“ kodiert ” wurden (Abb. 10). Vergleicht man das Niveau dieser Kategorie vor und nach
¨ Abb. 10. Die Entwicklung der Kennwerte Ahnlichkeit“ und Vorhersage“ f¨ ur jeweils ” ” aufeinanderfolgende Interaktionsmatrizen von Teilgruppen des Systemspiels und der Interaktionskategorie Hilfestellung geben bzw. empfangen“ ”
der f¨ unften Stunde, so hat man den Eindruck, daß das Betreuungssystem erst nach dieser Krise im Sinne ihrer Aufgaben f¨ ur die Klienten bzw. zu betreuenden ¨ Personen funktionst¨ uchtig wurde. Minima weisen auch die Vorhersage- und Ahnlichkeitswerte f¨ ur die Kontakth¨aufigkeiten zwischen Subgruppen des Spiels auf (Heimmitarbeiter, Jugendliche, Eltern, Jugendamt, Psychiatrie). Die Kennwerte ¨ von Ahnlichkeit und Vorhersage beziehen sich auf den Vergleich einer Interakti¨ onsmatix der Spielstunde n mit der Matrix der Spielstunde n+1. Die Ahnlichkeit und Vorhersagekraft der 5. auf die 6. Spielstunde ist also vergleichsweise am niedrigsten (Abb. 10). Das Paradigma des Systemspiels kann als eine nicht-experimentelle M¨oglichkeit betrachtet werden, Ordnungsbildung und Ordnungswandel in komplexen sozialen Systemen mit unterschiedlichen, qualitativen wie quantitativen Methoden zu erfassen. Eine Erg¨ anzung um Verfahren der Soziophysiologie (z.B. mittels Vitaportger¨ aten) w¨ are problemlos m¨oglich. Die Vielfalt der Datenquellen erlaubt einen multiperspektivischen Blick auf die Dynamik dieser bio-psycho-sozialen Systeme.
302
5.2
G. Schiepek
M¨ oglichkeiten der Erfassung dynamischer Muster in der Psychotherapie
Seit mehr als einem Jahrzehnt mehren sich die Versuche, psychotherapeutische Ver¨ anderungen nicht nur anhand von Einzelindikatoren, sondern anhand von Verhaltensmustern (z.B. multiplen Zeitreihen) festzumachen. Shoham-Salomon [63] spricht von der Notwendigkeit, patterns of change“ ebenso wie chan” ” ging patterns“ zu beschreiben. Als ein Beispiel wurde bereits auf die Analyse von linearen Abh¨ angigkeitsmustern (State-Space-Modell) zwischen verschiedenen Verhaltensaspekten der beteiligten Personen in einer Paartherapie hingewiesen [7], wobei eine kasuistisch beschriebene Ver¨anderung nach einer bestimmten Intervention ihre Entsprechung in den partialkorrelativen Beziehungen zwischen den Zeitreihen fand. Einen soziophysiologischen Zugang w¨ahlten Redington und Reidbord [48], die Aktivit¨atsmuster des autonomen Nervensystems von Patienten w¨ ahrend psychotherapeutischer Sitzungen erfaßten. Die Formen der Quasi-Attraktoren der gemessenen Biosignale im rekonstruierten Phasenraum (Methode der Zeitverz¨ ogerungskoordinaten) ¨anderte sich in Korrespondenz mit bestimmten Themen und kognitiv-emotionalen Verarbeitungszust¨anden der Patienten. States-of-mind“ Sequenzen Die Abfolge von kognitiv-emotionalen Verar” beitungs- bzw. Erlebniszust¨anden ( states of mind“ [22]) war Gegenstand ei” ner Untersuchung im Rahmen unseres Prozeßforschungsprojekts an den Universit¨ aten Bamberg und M¨ unster [4]. Erlebniszust¨ande sind aufgrund des jeweils dominierenden Affekts, dem Inhalt und der Art und Weise, wie ein Klient u ¨ber bestimmte Themen mit dem Therapeuten kommuniziert (Tonfall, Gestik, Mimik, etc.) videobasiert identifizierbar. Charakteristisch ist die Aktivierung eines spezifischen Selbstschemas sowie eines dazu korrespondierenden Beziehungsschemas bzw. Objektkonzepts (Abb. 11). Sie u ¨ben also gewissermaßen eine Scharnierfunktion zwischen inneren Prozessen und den Beziehungsangeboten bzw. der Beziehungsgestaltung eines Menschen aus. Die Verarbeitung von Informationen erfolgt einerseits unter dem Einfluß dieser affektiv gepr¨ agten Zust¨ ande, wirkt aber andererseits auf diese zur¨ uck und ¨ kann zu einem Wechsel von Zust¨anden f¨ uhren. Uberg¨ ange k¨onnen einerseits als Ergebnis der Verarbeitung bestimmter interner und externer Anregungen ( In” formationen“) auftreten, andererseits aber auch die Verarbeitung bestimmter Informationen kontrollieren oder unterbinden (vgl. das Konzept der Abwehr“). ” States of mind“ fungieren somit als Ordner“ der menschlichen Affekt” ” logik, als Attraktoren des kognitiv-emotionalen Prozessierens. Ebenso wie die Wahrnehmung am Rande der Instabilit¨at operiert und daraus ihre Flexibilit¨at erh¨ alt, operiert auch die kognitiv-affektive Dynamik des Menschen bzw. der menschlichen Kommunikation am Rande der Stabilit¨at einzelner States“. Ei” ne stark eingeschr¨ ankte Anzahl verf¨ ugbarer affektiv-kognitiver Verarbeitungszust¨ ande w¨ urde meist als ebenso problematisch erlebt werden wie das Perpetuieren eines Zustands (z.B. in der Depression“ oder der Manie“). ” ” Somit kann das Erschließen bestehender, aber ungenutzter sowie die Organisation neuer States“ eine wesentliche Aufgabe von Psychotherapien sein. Die
Selbstorganisation in psychischen und sozialen Prozessen
303
Abb. 11. Struktur und Komponenten eines State of mind“ ”
Kodierung von States-of-mind“-Abfolgen gibt Auskunft u ¨ber die jeweils domi” nierenden affektiv-kognitiven Zust¨ande und zugleich u ¨ber die damit realisierten Beziehungsmuster bzw. Stimmungsqualit¨aten der Therapeut-Klient-Interaktion. Abbildung 12 zeigt exemplarisch eine Sequenz von drei Zust¨anden, wobei diese immer idiographisch, also auf den Einzelfall zugeschnitten, beschrieben werden. ¨ Abbildung 13 zeigt die Ubergangsmuster zwischen den bei einer bestimmten Klientin vorkommenden States“, Abb. 14 die Dauer des Auftretens bestimmter ” States“ in den Sitzungen 1 und 2 sowie 11 und 12 einer insgesamt 13-st¨ undigen ” l¨ osungsorientierten Einzeltherapie. Nichtstationarit¨ at in der Beziehungsdynamik zwischen Therapeut und ¨ Klient (chaoto-chaotische Uberg¨ ange) Dieselbe 13-st¨ undige Einzeltherapie wurde (neben einer anderen, 9-st¨ undigen Therapie) unter der Perspektive der Therapeut-Klient-Interaktion einer detaillierten Prozeßanalyse unterzogen (Methode der Sequentiellen Plananalyse“ [51] [55] [56]). Kodiert wurden die inter” aktionellen Pl¨ ane von Therapeut und Klientin, wobei diese in einem Induktions-
304
G. Schiepek
Abb. 12. Abfolge dreier Zust¨ ande, auf dem Weg zur therapeutischen Arbeit“ ”
Deduktions-Zirkel aus den konkreten verbalen und nonverbalen Verhaltensweisen (sog. Operatoren“) beider Interaktionspartner auf der Grundlage von Videoauf” zeichnungen erschlossen wurden. Der Begriff Plan“ bezeichnet Absichten oder ” Handlungsprogramme, die auch unbewußt bleiben oder zumindest im Moment nicht reflektiert werden und oft nur aus dem zwischenmenschlichen Verhalten hypothetisch erschlossen werden k¨onnen. Pl¨ane repr¨asentieren den intentionalen ¨ Teil aktivierter kognitiv-affektiver Schemata [8] [14]. Ublicherweise werden innerhalb eines Plans Ziel- und Operationskomponenten unterschieden. Damit lassen sich instrumentelle Relationen zwischen Pl¨anen angeben, d.h. es gibt Pl¨ane, deren Realisierung eine operative Voraussetzung f¨ ur die Realisierung u ¨bergeordneter Pl¨ ane darstellt. Auf diesem Wege entstehen Planhierarchien, innerhalb derer menschliches Verhalten meist von mehreren Pl¨anen gleichzeitig bestimmt erscheint. Auf der hierarchisch niedrigsten Ebene wurden bei der Klientin 598 verbale und 104 non- und paraverbale Operatoren unterschieden, beim Therapeuten 287 verbale und 103 non- bzw. paraverbale Operatoren. Diese Operatoren k¨onnen in k¨ urzeren oder l¨ angeren Abst¨anden mehrfach vorkommen. Die Zeiteinheit der videogest¨ utzten Kodierung betrug 10 Sekunden. Die Operatoren waren in eindeutiger Weise bei der Klientin 33 Unterpl¨anen, diese 7 Oberpl¨anen und diese wiederum 3 allgemeineren Selbstdarstellungskategorien (h¨ochste Hierarchieebene) zugeordnet, die Operatoren des Therapeuten 43 Unterpl¨anen, 10 Oberpl¨anen
Selbstorganisation in psychischen und sozialen Prozessen
305
Abb. 13. Zustandsabfolgen und ihre Bedingungen in einem therapeutischen Prozeß. In dieser speziellen Therapie wurden sechs abgrenzbare affektiv-kognitive Zust¨ ande identifiziert
und 4 generelleren Selbstdarstellungskategorien. Aufgrund der klaren Zuordnung der Operatoren zu den Unterpl¨anen, der Unterpl¨ane zu den Oberpl¨anen usw. kann klar bestimmt werden, wann welcher Plan realisiert wird. Da Mehrfachkodierungen m¨ oglich sind, resultieren daraus synchrone und diachrone Muster, die in einer sog. Planpartitur“ — analog einer Orchesterpartitur — aufgetra” gen werden (Abb. 15). In dieser Partiturdarstellung lassen sich bestimmte, in keiner Weise zuf¨ allige, aber dennoch nicht vorhersehbare (mit anderen Worten, chaotische“) Muster identifizieren. ” Interaktionelle Pl¨ ane repr¨asentieren beobachtbare Ziele der Beziehungsgestaltung bzw. verbal und nonverbal vermittlete Selbstdarstellungsabsichten in sozialen Situationen. Sie sind sowohl eine Funktion aktivierter affektiv-kognitiver Schemata einer Person als auch eine Folge des Beziehungsangebots des/der Interaktionspartner(s). Pl¨ ane sind also eine Funktion von Pl¨anen, und zwar sowohl der eigenen bereits aktivierten Pl¨ane als auch der des Gegen¨ ubers. Der therapeutische Prozeß wird somit unter einer Interaktionsperspektive als selbstreferentielles, dynamisches System von Planaktivierungen verstanden. ¨ Uber eine Analyse der Komplexit¨at synchroner und diachroner Planaktivierungen [70] hinaus lassen sich die Pl¨ane nach ihrer Intensit¨at quantifizieren. Dies geschah u ¨ber Ratings der Intensit¨at und Deutlichkeit der Operatoren (Rating von 1 bis 5), wobei u ¨ber die hierarchische Zuordnung von Operatoren und Pl¨ anen eine hinreichende Aufl¨osung des Zeitsignals (etwa 4 bis 5 bit) erreichbar
306
G. Schiepek
Abb. 14. Dauer der verschiedenen registrierten Erlebnis- bzw. Verarbeitungszust¨ ande (Min.) in den Sitzungen 1 und 2 sowie 11 und 12
Abb. 15. Beispiel f¨ ur die Partiturdarstellung der Abfolgemuster von Oberpl¨ anen des Therapeuten und der Klientin (Ausschnitt aus einer Sequenz von 3922 Meßeinheiten). Die senkrechten Taktstriche“ fassen Einheiten von je einer Minute zusammen (sechs 10” Sekunden-Intervalle). Die Bezeichnung der Oberpl¨ ane des Therapeuten (von oben nach unten): (1) Zeige Kompetenz“, (2) Erzeuge ” ” eine vertrauensvolle Beziehung“, (3) Zeige Dich einf¨ uhlsam“, (4) Motiviere die Klientin“, (5) Veranlasse sie, bestimmte Denkmuster ” ” ” zu reflektieren“, (6) Konfrontiere sie“, (7) Aktiviere sie“, (8) Mache ihr deutlich, daß sie selbst verantwortlich ist“, (9) Lenke ihre ” ” ” ” Aufmerksamkeit“, (10) Gib ihr Struktur“. Die Oberpl¨ ane der Klientin (von oben nach unten): (1) Mache deine St¨ arken und Kompetenzen ” ” deutlich“, (2) Mache deutlich, daß du es schwer hast“, (3) Sei eine gute Klientin“, (4) Verdeutliche, daß dein Leiden von außen bedingt ” ” ” wird und damit von anderen zu verantworten ist“, (5) Fordere Hilfe“, (6) Zeige Interesse und Bereitschaft an der L¨ osung deiner Probleme“, ” ” (7) Sch¨ utze dich vor Ver¨ anderungen“ ”
Selbstorganisation in psychischen und sozialen Prozessen 307
308
G. Schiepek
Abb. 16. Die Zeitreihen der Selbstdarstellungskategorien des Therapeuten (von oben: TI: Vertrauen, Sicherheit vermitteln“, TII: Konfrontation, Verunsicherung“, TIII: ” ” Eigenverantwortlichkeit der Klientin f¨ ordern“, TIV: Aktive, strukturierende Thera” ” peutische Arbeit“) und der Klientin (KI: Suche nach Zuwendung, Anerkennung, guter ” Beziehung“, KII: Externalisierung, Hilflosigkeit demonstrieren“, KIII: Problembear” ” beitung (Selbst¨ offnung vs. Vermeidung)“. Diese letzte Zeitreihe (KIII) weist als einzige negative Werte auf, da sie auf der Differenz zwischen den Zeitreihen der Oberpl¨ ane Zeige Interesse und Bereitschaft, an der L¨ osung deiner Probleme zu arbeiten“ und ” Sch¨ utze dich vor bedrohlichen Ver¨ anderungen“ beruht ”
Selbstorganisation in psychischen und sozialen Prozessen
309
Abb. 17. Die Verl¨ aufe von λ-Chaotizit¨ at (links), Λ-Chaotizit¨ at (mitte) und σChaotizit¨ at (rechts) der in Abb. 16 dargestellten Zeitreihen (gleiche Reihenfolge, Breite des Abtastfensters: 520 Meßpunkte)
310
G. Schiepek
Abb. 18. Spr¨ unge der σ-Chaotizit¨ at in den Therapiesitzungen 7, 8 und 9. Etwa bei ¨ Meßzeitpunkt 2000 finden mehrere synchronisierte Uberg¨ ange statt. Die Reihenfolge entspricht derjenigen der in Abb. 16 dargestellten Zeitreihen
Selbstorganisation in psychischen und sozialen Prozessen
311
war. Nichtlineare Analysen der quantitativen Zeitreihen wurden auf der obersten Ebene der Selbstdarstellungskategorien vorgenommen (Abb. 16). Dabei wurden die 13 Sitzungen dieser Therapie als fortlaufender Prozeß betrachtet. Die R¨ uckmeldephasen am Ende der Sitzungen (nach einer kurzen Besprechung des Therapeuten mit seinem Team, das die Sitzung an einem Monitor mitverfolgt hatte) wurden aufgrund der andersartigen Kommunikationssituation entfernt. Damit bleibt eine Zeitreihenl¨ ange von 3450 Meßpunkten. Auf diesen Datensatz wurden verschiedene lineare und nichtlineare Analyseverfahren angewandt [55] [56] [59], wobei unter dem Gesichtspunkt des Ordnungswandels in diesem sozialen Prozeß solche Verfahren von besonderer Relevanz sind, die sowohl der Nichtlinearit¨at als auch der Nichtstationarit¨at der meisten biologischen (z.B. neuronalen), psychischen und sozialen Dynamiken Rechnung tragen (vgl. [30] [31]). Derartige Verfahren gibt es wenige. Die meisten bisher benutzten Methoden der Chaosanalyse setzen voraus, daß sich Attraktoren nach einer transienten Einschwingphase stabil halten, d.h. m¨oglichst ohne innere oder ¨ außere Verst¨orungen“ hinreichend lange beobachten lassen. ” Dies mag unter laborexperimentellen Bedingungen zum Teil m¨oglich sein, unter naturalistischen Feldbedingungen aber wechselt das Verhalten insbesondere lebender Systeme zwischen verschiedenen Attraktoren oder l¨ost dynamische Ordnungszust¨ ande auf, um neue zu etablieren, etc. Dieser Nichtstationarit¨at werden wenige Methoden gerecht. Zu diesen wenigen z¨ahlt das von Skinner und Mitarbeitern [64] beschriebene PD2, das in der Lage ist, Ver¨anderungen der dimensionalen Komplexit¨ at (Korrelationsdimension D2) eines Zeitsignals abzubilden, ein als entropy rates“ bezeichnetes zeitvariantes Entropiemaß [30] [31] und das Ver” fahren der Bestimmung lokaler gr¨oßter Lyapunov-Exponenten4 nach [29]. Alle drei Verfahren wurden auf unseren Datensatz angewandt [31]. Zur Illustration der nichtstation¨aren Entwicklungen sei hier nur kurz auf die LLLE-Chaotizit¨ at eingegangen (Local Largest Lyapunov Exponent). Unterschieden wird zwischen drei Kenngr¨oßen, die sich in Pr¨ ufungen an artfiziell (anhand mathematischer Modellsysteme) und empirisch erzeugten Zeitsignalen als sensi¨ ble und valide Indikatoren f¨ ur chaoto-chaotische Uberg¨ ange erwiesen haben: 4
Lyapunov-Exponenten kennzeichnen den Grad der exponentiellen Konvergenz und Divergenz von Trajektorien in einem Attraktor. Ihre Anzahl entspricht derjenigen der das System konstituierenden bzw. die Dynamik erzeugenden Gr¨ oßen bzw. Dimensionen. Konvergierenden Verl¨ aufen eng benachbarter Trajektorien (in einer Raumrichtung) entspricht ein negativer Lyapunov-Exponent, divergierenden Verl¨ aufen benachbarter Trajektorien ein positiver Exponent. Chaotische ( seltsame“) Attrak” toren sind durch das Vorliegen mindestens eines positiven Lyapunov-Exponenten definiert, der den sog. Schmetterlings-Effekt“ (sensible Abh¨ angigkeit der System” dynamik von minimalen Ausgangsunterschieden) repr¨ asentiert. Die Gr¨ oße des/der Lyapunov-Exponenten > 0 kann als Maß f¨ ur die Nichtvorhersehbarkeit des Systemverhaltens (d.h. des Verlaufs einer Trajektorie bei Kenntnis einer sehr ¨ ahnlich gestarteten Trajektorie) interpretiert werden. Die Summe aller Lyapunov-Exponenten ist bei Vorliegen eines Attraktors immer negativ (Attraktoreigenschaft), da dieser ¨ bei Uberwiegen der Divergenztendenzen gewissermaßen auseinanderfliegen“ w¨ urde. ”
312
G. Schiepek
• λ-Chaotizit¨ at: die Abfolge lokaler, d.h. auf einen bestimmten zeitlichen Ausschnitt der Systemdynamik bezogener Largest Lyapunov Exponents (LLE), • Λ-Chaotizit¨ at: Entwicklung der u ¨ber eine bestimmte Abtastbreite (Scanning-Fenster) gemittelten λ-Werte, • σ-Chaotizit¨ at: die Entwicklung der Standardabweichung der λ-Werte im jeweiligen Scanning-Fenster. Alle drei Kenngr¨ oßen sind chaossensitiv“. Sie sind in ihrer Entwicklung u ¨ber ” den gesamten Therapieverlauf hinweg in Abb. 17 dargestellt. Insbesondere die λ-Chaotizit¨ at macht manche Entwicklungen optisch besonders deutlich sichtbar. Abb. 18 zeigt deren Verlauf in den Therapiesitzungen 7, 8 und 9 auf der Grundlage des entsprechenden Ausschnitts der in Abb. 16 gezeigten Zeitreihendaten [56] [31]. Wir erkennen nicht nur deutliche Ver¨anderungen des Chaotizit¨atsmaßes aller Zeitreihen, sondern auch diskontinuierliche Spr¨ unge der σ-Chaotizit¨at. Etwa bei Zeitpunkt 2000 finden mehrere solcher Spr¨ unge synchronisiert statt. ¨ Dies k¨ onnte auf einen selbstorganisierten kritischen Ubergang des gesamten Interaktionssystems hinweisen. Auch an anderen Stellen finden sich zumindest f¨ ur einen Teil der Zeitreihen synchron koordinierte Ver¨anderungen (Pfeile in Abb. 18). Bemerkenswert ist zudem, daß im Laufe der Therapie bei der Klientin relativ gesehen mehr Chaotizit¨ atsver¨anderungen nach oben als nach unten stattfinden (14 nach oben, 10 nach unten) als beim Therapeuten (13 nach oben, 16 nach unten) ( short term plasticity“). Auch zeigt sich, daß sowohl bei den Selbst” darstellungszeitreihen der Klientin als auch bei denen des Therapeuten mehr Chaotizit¨ atsspr¨ unge innerhalb der Sitzungen als von einer Sitzung zur anderen stattfinden ( relative within session plasticity“) (Klientin: 17 innerhalb, 5 zwi” schen, Therapeut: 20 innerhalb, 15 zwischen). Innerhalb der Sitzungen gelingt es ofteren, die Inputsensibilit¨at bzw. Ver¨anderungsbereitschaft der Klientin also des ¨ zu steigern (Chaotizit¨ at kann als Sensibilit¨at des Systemverhaltens f¨ ur minimale, intern oder extern verursachte Ver¨anderungen verstanden werden). Wir haben mit diesem Einblick in die nichtstation¨aren Entwicklungen des therapeutischen Systems den (oben unter Kap. 4, Punkt 9) erw¨ahnten Fall einer bedeutsamen Kombination von Indikatoren f¨ ur selbstorganisierte Ordnungs¨ Ordnungs-Uberg¨ ange vorliegen: Chaotizit¨at, Diskontinuit¨at und Synchronizit¨at. Auf der Grundlage v¨ ollig anderer Daten thematisierte die Arbeitsgruppe um Rockstroh und Elbert die nichtstation¨are Entwicklung (chaoto-chaotische ¨ Uberg¨ ange) in neuronalen und sozialen Prozessen — oder, mit anderen Worten, in kommunikativ gekoppelten neuronalen Aktivit¨aten. Rockstroh et al. [52] erfaßten die gehirnelektrische Aktivit¨at von paranoid-halluzinatorischen, desorganisiert-schizophrenen und depressiven Patienten im Gespr¨ach mit einem Interviewpartner. Das EEG wurde mit Hilfe von Vitaport-EEG- Ger¨aten sowohl vom jeweiligen Patienten als auch von dem das Interview f¨ uhrenden Psychologen abgeleitet. Es fanden sich nicht nur unterschiedliche H¨aufigkeiten diskontinuierlicher Spr¨ unge der Chaotizit¨at bei den Patienten der unterschiedlichen Diagnosegruppen (gemessen mit Hilfe des oben erw¨ahnten Chaotizit¨atsmaßes auf der Basis gr¨ oßter lokaler Lyapunov-Exponenten, s. Abb. 19).
Selbstorganisation in psychischen und sozialen Prozessen
313
Abb. 19. Sprunghafte Ver¨ anderungen in der EEG-Dynamik eines schizophrenen Patienten (paranoid-halluzinatorisch) aus der Studie von Rockstroh et al. Dargestellt ist die Entwicklung des lokalen gr¨ oßten Lyapunov-Exponenten (λ-chaoticity) und des ¨ Gleitmittels u zwischen ver¨ber dieses Maß (Λ-chaoticity). An den Ubergangsstellen schiedenen chaotischen Zust¨ anden durchstoßen die Lyapunov-Exponenten kurzfristig die Nullinie (Zeitbereich: 500 s [links], 200 s [rechts])
Auch konnten zeitliche Koppelungen zwischen Chaotizit¨atsspr¨ ungen im EEG und beobachtbaren formalen Denkst¨orungen im Gespr¨achsfluß festgestellt werden. Die Chaotizit¨ atsspr¨ unge im EEG gingen den erkennbaren Denkst¨orungen um 10 bis 15 Sekunden voraus. Zudem fand sich eine zeitliche Koppelung der neuronalen Aktivit¨ atsmuster von Patienten und Interviewpartnern. Die Autoren res¨ umieren: ... brain dynamics are highly sensitive to the characteristics of the ” interaction.“ Auf der Grundlage v¨ollig anderer Daten enth¨alt somit auch diese ¨ Studie Anhaltspunkte f¨ ur eine Koordination chaoto-chaotischer Uberg¨ ange in der menschlichen Kommunikation. Die — wie erkennbar — aufwendige und daher meist als Einzelfallforschung realisierte Untersuchung selbstorganisierter Prozesse in psychischen und sozialen Systemen steht sicher noch relativ am Anfang — trotz der einleitend zitierten historischen Bez¨ uge. Die Zukunft des synergetischen Paradigmas in der Psychologie wird nicht nur davon abh¨angen, ob trotz dessen Existenz am Rande des akademischen Mainstreams die notwendigen wissenschaftliche Infrastruktur zu etablieren ist, sondern auch davon, ob Forscher und Praktiker davon einen substantiellen Zugewinn an Verst¨andnis und Kompetenz (vgl. das Konzept der Systemkompetenz“ [42] [59]) f¨ ur das Handeln in komplexen, dynamischen Sy” stemen erhalten. Das aber zu beurteilen, bleibt dem Leser.
Literatur 1. Amb¨ uhl, H., Grawe, K. (1988) Die Wirkungen von Psychotherapien als Ergebnis der Wechselwirkungen zwischen therapeutischem Angebot und Aufnahmebereitschaft der Klient/innen/en. Zeitschrift f¨ ur Klinische Psychologie, Psychopathologie und Psychotherapie 36, 308–327 2. an der Heiden, U. (1992) Selbstorganisation in dynamischen Systemen. In: Krohn, W., K¨ uppers, G. (Hrsg.) Emergenz: Die Entstehung von Ordnung, Organisation und Bedeutung. Suhrkamp, Frankfurt am Main, pp. 57–88
314
G. Schiepek
3. Antonovsky, A., Franke, A. (1997) Salutogenese. Zur Entmystifizierung der Gesundheit. dgvt, T¨ ubingen 4. Beirle, G., Schiepek, G., Schr¨ oder, I. (1996) Psychotherapie als Ver¨ anderung von ¨ Ubergangsmustern zwischen States of Mind“. Einzelfallanalyse einer l¨ osungsori” entierten Kurzzeittherapie. In: Schiepek, G. (Hrsg.) (1996) Dynamische Muster in der systemischen Therapie. Forschungsbericht. Psychologisches Institut I, Universit¨ at M¨ unster 5. Bischof, N. (1990) Phase Transitions in Psychoemotional Development. In: Haken, H., Stadler, M. (Eds.) Synergetics of Cognition. Springer, Berlin, pp. 361–378 6. Brunner, E. J., Lenz, G. (1993) Was veranlaßt ein Klientensystem zu sprunghaften Ver¨ anderungen? Ein Erkl¨ arungsversuch aus der Perspektive der Selbstorganisationstheorie. System Familie 6, 1–9 7. Brunner, E. J., Tschacher, W., Quast, C., Ruff, A. (1997) Ver¨ anderungsprozesse in Paarbeziehungen. Eine empirische Studie aus der Sicht der Selbstorganisationstheorie. In: Schiepek, G., Tschacher, W. (Hrsg.) (1997) Selbstorganisation in Psychologie und Psychiatrie. Vieweg, Braunschweig, pp. 221–234 8. Caspar, F. (1996) Beziehungen und Probleme verstehen. Eine Einf¨ uhrung in die psychotherapeutische Plananalyse. Huber, Bern 9. Choi, W. Y. (1998) Panik als Dynamische Krankheit. Lineare und nichtlineare Zeitreihenanalyse bei therapieinduzierten Verl¨ aufen. Dissertation, Universit¨ at Bamberg 10. Ciompi, L. (1997) Die emotionalen Grundlagen des Denkens. Entwurf einer fraktalen Affektlogik. Vandenhoeck & Ruprecht, G¨ ottingen 11. Droste, S., Schiepek, G. (1997) Modelle der Chaossteuerung am Beispiel nichtlinearer Systemdynamik in Kr¨ aftepotentialen. In: Schiepek, G., Tschacher, W. (Hrsg.) (1997) Selbstorganisation in Psychologie und Psychiatrie. Vieweg, Braunschweig, pp. 255–268 12. Emrich, H. M. (1989) Drei-Komponenten-Modell einer Systemtheorie der Psychose: St¨ orung der Wahrnehmung stereoskopischer Invertbilder als Indikator einer funktionellen Gleichgewichtsst¨ orung. In: B¨ oker, W., Brenner, H. D. (Hrsg.) (1989) Schizophrenie als systemische St¨ orung. Huber, Bern, pp. 75–80 13. Foerster, H. von (1985) Sicht und Einsicht. Vieweg, Braunschweig 14. Grawe, K. (1986) Schema-Theorie und Interaktionelle Psychotherapie. Forschungsbericht, Universit¨ at Bern 15. Grawe, K. (1987) Psychotherapie als Entwicklungsstimulation von Schemata. Ein Prozeß mit nicht vorhersehbarem Ausgang. In: Caspar, F. (Hrsg.) Problemanalyse in der Psychotherapie. dgvt, T¨ ubingen, pp. 72–87 16. Grawe, K. (1995) Grundriß einer Allgemeinen Psychotherapie. Psychotherapeut 40, 130–145 17. Grothe, A., Nischk, D., Schiepek, G. (1998) Mehrdimensionale Ver¨ anderungsinvolviertheit. Theoretische Fundierung eines Konstrukts und empirische Entwicklung eines Klientenstundenbogens. Unver¨ off. Manuskript, eingereicht bei: Zeitschrift f¨ ur Klinische Psychologie 18. Haken, H. (1990) Synergetics. An Introduction. Springer, Berlin (Deutsch: [1990] Synergetik. Eine Einf¨ uhrung. Springer, Berlin) 19. Haken, H. (1992) Synergetics in Psychology. In: Tschacher, W., Schiepek, G., Brunner, E. J. (Eds.) Self-Organization and Clinical Psychology. Springer, Berlin, pp. 32–54 20. Haken, H. (1996) Principles of Brain Functioning. A Synergetic Approach to Brain Activity, Behavior, and Cognition. Springer, Berlin
Selbstorganisation in psychischen und sozialen Prozessen
315
21. Haken, H. (1996) An Application of Synergetics. Decision Making as Pattern Recognition. Zeitschrift f¨ ur Wissenschaftsforschung 9/10, 45–72 22. Horowitz, M. J. (1987) States of Mind. Plenum Press, New York 23. Kaplan, D., Glass, L. (1992) Direct Test for Determinism in a Time Series. Physical Review Letters 68, 427–430 24. Kelso, J. A. S. (1995) Dynamic Patterns. The Self-Organization of Brain and Behavior. MIT Press, Cambridge (MA) 25. Kierkegaard, S. (1965) Der Begriff Angst. Eugen Diederichs Verlag, D¨ usseldorf (Orig. 1844) 26. K¨ ohler, W. (1920) Die physischen Gestalten in Ruhe und im station¨ aren Zustand. Vieweg, Braunschweig 27. K¨ ohler, W. (1928) Gestalt Psychology. New York 28. K¨ ohler, W. (1940) Dynamics in Psychology. Liveright, New York 29. Kowalik, Z. J., Elbert, T. (1994) Changes of Chaoticness in Spontaneous EEG/MEG. Integrative Physiological and Behavioral Science 29(3), 270–282 30. Kowalik, Z. J., Schiepek, G. (1997) Die nichtlineare Dynamik des menschlichen Gehirns. Methoden und Anwendungsm¨ oglichkeiten. In: Schiepek, G., Tschacher, W. (Hrsg.) Selbstorganisation in Psychologie und Psychiatrie. Vieweg, Braunschweig, pp. 121–150 31. Kowalik, Z. J., Schiepek, G., Kumpf, K., Roberts, L. E., Elbert, T. (1997) Psychotherapy as a Chaotic Process II: The Application of Nonlinear Analysis Methods on Quasi Time Series of the Client-Therapist-Interaction: A Nonstationary Approach. Psychotherapy Research 7(3), 197–218 32. Kriz, J., Kessler, T., Runde, B. (1992) Dynamische Muster in der Fremdwahrnehmung. Forschungsbericht Nr. 87. Fachbereich Psychologie, Universit¨ at Osnabr¨ uck 33. Kriz, J. (1997) Systemtheorie. Eine Einf¨ uhrung f¨ ur Psychotherapeuten, Psychologen und Mediziner. Facultas, Wien 34. Krohn, W., K¨ uppers, G., Nowack, W. (1992) Recursive Interaction and the Dynamics of Knowledge Production in Research Groups: An Empirical Simulation of Knowledge Production. In: Tschacher, W., Schiepek, G., Brunner, E. J. (Eds.) (1992) Self-organization and Clinical Psychology. Springer, Berlin, pp. 434–452 35. Kruse, P. (1997) Selbstorganisationskonzepte in der Unternehmensf¨ uhrung. In: Schiepek, G., Tschacher, W. (Hrsg.) Selbstorganisation in Psychologie und Psychiatrie. Vieweg, Braunschweig, pp. 307–326 36. Kruse, P., Stadler, M. (1990) Stability and Instability in Cognitive Systems: Multistability, Suggestions, and Psychosomatic Interaction. In: Haken, H., Stadler, M. (Eds.) Synergetics of Cognition. Springer, Berlin, pp. 201–215 37. Kruse, P., Stadler, M., Pavlekovic, B., Gheorghiu, V. (1992) Instability and Cognitive Order Formation: Self-organization Principles, Psychological Experiments, and Psychotherapeutic Interventions. In: Tschacher, W., G. Schiepek, G., Brunner, E. J. (Eds.) Self-organization and Clinical Psychology. Springer, Berlin, pp. 102–117 38. Lee, W. (1977) Psychologische Entscheidungstheorie. Beltz, Weinheim 39. Ludewig, K. (1992) Systemische Therapie. Grundlagen klinischer Theorie und Praxis. Klett-Cotta, Stuttgart 40. Luhmann, N. (1984) Soziale Systeme. Suhrkamp, Frankfurt am Main 41. Mahoney, M. J. (1991) Human Change Processes. The Scientific Foundation of Psychotherapy. Basic Books, New York 42. Manteufel, A., Schiepek, G. (1994) Kontextbezogene Selbsterfahrung und Systemkompetenz. In: Laireiter, A. R., Elke, G. (Hrsg.) Selbsterfahrung in der Verhaltenstherapie. DGVT, T¨ ubingen, pp. 57–79
316
G. Schiepek
43. Manteufel, A., Schiepek, G. (1998) Systeme spielen. Selbstorganisation und Kompetenzentwicklung in sozialen Systemen. Vandenhoeck & Ruprecht, G¨ ottingen 44. Maturana, H. R. (1982) Erkennen: Die Organisation und Verk¨ orperung von Wirklichkeit. Vieweg, Braunschweig 45. Metzger, W. (1963) Psychologie. 1. Aufl. 1940. Steinkopff, Darmstadt 46. Orlinsky, D. E., Howard, K. I. (1987) A Generic Model of Psychotherapy. Journal of Integrative and Eclectic Psychotherapy 6, 6–27 47. Orlinsky, D. E., Grawe, K., Parks, B. (1994) Process and Outcome in Psychotherapy - noch einmal. In: Bergin, A. E., Garfield, S. L. (Eds.) Handbook of Psychotherapy and Behavior Change. 4th Ed. Wiley, New York, pp. 270–376 48. Redington, D. J., Reidbord, S. P. (1992) Chaotic Dynamics in Autonomic Nervous System Activity of a Patient during a Psychotherapy Session. Biological Psychiatry 31, 993–1007 49. Reicherts, M., Perrez, M. (1994) Fragebogen zum Umgang mit Belastungen im Verlauf. Zeitschrift f¨ ur Klinische Psychologie, Psychopathologie und Psychotherapie 42(3), 230–240 50. Reiter, L., Brunner, E.J., Reiter-Theil, S. (1997) Von der Familientherapie zur systemischen Perspektive. Springer, Berlin 51. Richter, K., Schiepek, G., K¨ ohler, M., Sch¨ utz, A. (1995) Von der statischen zur Sequentiellen Plananalyse. Psychotherapie, Psychosomatik und medizinische Psychologie 45(1), 24–36 52. Rockstroh, B., Watzl, H., Kowalik, Z. J., Cohen, R., Sterr, A., M¨ uller, M., Elbert, T. (1997) Dynamical Aspects of the EEG in Different Psychopathological States in an Interview Situation - A Pilot Study. Schizophrenia Research 28, 77–85 53. Schiepek, G. (1991) Systemtheorie der Klinischen Psychologie. Vieweg, Braunschweig 54. Schiepek, G., Fricke, B., Kaimer, P. (1992) Synergetics of Psychotherapy. In: Tschacher, W., Schiepek, G., Brunner, E. J. (Eds.) Self-Organization and Clinical Psychology. Springer, Berlin, pp. 239–267 55. Schiepek, G., Sch¨ utz, A., K¨ ohler, M., Richter, K., Strunk, G. (1995) Die Mikroanalyse der Therapeut-Klient-Interaktion mittels Sequentieller Plananalyse. Teil I: Grundlagen, Methodenentwicklung und erste Ergebnisse. Psychotherapie Forum 3(1), 1–17 56. Schiepek, G., Strunk, G., Kowalik, Z. J. (1995) Die Mikroanalyse der TherapeutKlient-Interaktion mittels sequentieller Plananalyse. Teil II: Die Ordnung des Chaos. Psychotherapie Forum 3(2), 87–109 57. Schiepek, G., K¨ uppers, G., Mittelmann, K., Strunk, G. (1995) Kreative Probleml¨ oseprozesse in Kleingruppen. In: Langthaler, W., Schiepek, G. (Hrsg.) Selbstorganisation und Dynamik in Gruppen. LIT-Verlag, M¨ unster, pp. 236–255 58. Schiepek, G., Manteufel, A., Strunk, G., Reicherts, M. (1995) Kooperationsdynamik in Systemspielen. Ein empirischer Ansatz zur Analyse selbstorganisierter Ordnungsbildung in komplexen Sozialsystemen. In: Langthaler, W., Schiepek, G. (Hrsg.) Selbstorganisation und Dynamik in Gruppen LIT-Verlag, M¨ unster, pp. 123–160 59. Schiepek, G., Kowalik, Z. J., Sch¨ utz, A., K¨ ohler, M., Richter, K., Strunk, G., M¨ uhlnickel, W., Elbert, T. (1997) Psychotherapy as a Chaotic Process I. Coding the Client-Therapist-Interaction by Means of Sequential Plan Analysis and the Search for Chaos: A Stationary Approach. Psychotherapy Research 7(2), 173–194 60. Schneider, H., F¨ ah-Barwinski, M., Barwinski-F¨ ah, R. (1997) Denkwerkzeuge“ f¨ ur das Nachzeichnen langfristiger Ver¨ anderungsprozesse in Psychoanalysen. In: Schiepek, G. Tschacher, W. (Hrsg.) Selbstorganisation in Psychologie und Psychiatrie. Vieweg, Braunschweig, pp. 235–254
Selbstorganisation in psychischen und sozialen Prozessen
317
61. Schwegler, H. (1978) Sind Katastrophen vorhersehbar? Geometrische Modelle f¨ ur sprunghafte Ver¨ anderungen in Natur und Gesellschaft. Jahrbuch der Wittheit zu Bremen XXII, 181–198 62. Shapiro, D. A., Harper, H., Startup, M., Reynolds, S., Bird, D., Suokas, A. (1994) The High-Water Mark of the Drug Metaphor. A Meta-Analytic Critique of ProcessOutcome Research. In: Russell, R. L. (Ed.) Reassessing Psychotherapy Research. Guilford Press, New York, pp. 1–35 63. Shoham-Salomon, V. (1990) Interrelating Research Processes of Process Research. Journal of Consulting and Clinical Psychology 58, 295–303 64. Skinner, J.E., Molnar, M., Tomberg, C. (1994) The Point Correlation Dimension: Performance with Nonstationary Surrogate Data and Noise. Integrative Physiological and Behavioral Science 29(3), 217–234 65. Stadler, M., Kruse, P. (1990) The Self-Organization Perspective in Cognition Research. Historical Remarks and New Experimental Approaches. In: Haken, H., Stadler, M. (Eds.) Synergetics of Cognition. Springer, Berlin,pp. 32–52 66. Stadler, M., Kruse, P. (1992) Zur Emergenz psychischer Qualit¨ aten. Das psychophysische Problem im Lichte der Selbstorganisationstheorie. In: Krohn, W., K¨ uppers, G. (Hrsg.) Emergenz: Die Entstehung von Ordnung, Organisation und Bedeutung. Suhrkamp, Frankfurt am Main, pp. 134–160 67. Stadler, M., Kruse, P., Str¨ uber, D. (1997) Struktur und Bedeutung in kognitiven Systemen. In: Schiepek, G., Tschacher, W. (Hrsg.) Selbstorganisation in Psychologie und Psychiatrie. Vieweg, Braunschweig, pp. 33–56 68. Stegm¨ uller, W. (1973) Theorie und Erfahrung. Zweiter Halbband: Theorienstrukturen und Theoriendynamik. Springer, Berlin 69. Storch, M. (1997) Kreativit¨ at und Psychodrama. In: Schneider, H. (Hrsg.) Mitte der Kindheit. Kreativit¨ atsentwicklung - Kreativit¨ at in der Psychotherapie. Mattes Verlag, Heidelberg, pp. 101–115 70. Strunk, G., Schiepek, G. (1996) Qualitatives Chaos. Komplexe Muster in der Therapeut-Klient-Interaktion. In: Schiepek, G. (Hrsg.) Dynamische Muster in der systemischen Therapie. Forschungsbericht. Psychologisches Institut I, Universit¨ at M¨ unster 71. Sugihara, G., May, R. (1990) Nonlinear Forecasting as a Way of Distinguishing Chaos from Measurement Error in Time Series. Nature 344, 734–741 72. Uexk¨ ull, T. von, Wesiack, W. (1996) Wissenschaftstheorie: ein bio-psycho-soziales Modell. In: Adler, R. H., Herrmann, J. M., K¨ ohle, K., Schonecke, O. W., Uexk¨ ull, T. von, Wesiack, W. (Hrsg.) Thure von Uexk¨ ull. Psychosomatische Medizin. Urban & Schwarzenberg, M¨ unchen, pp. 13–52 73. Tschacher, W., Grawe, K. (1996) Selbstorganisation in Therapieprozessen. Die Hypothese und empirische Pr¨ ufung der Reduktion von Freiheitsgraden“ bei der Entstehung von Therapiesystemen. Zeitschrift f¨ ur Klinische Psychologie 25, 55–60 74. Tschacher, W., Schiepek, G. (1997) Eine methodenorientierte Einf¨ uhrung in die synergetische Psychologie. In: Schiepek, G., Tschacher, W. (Hrsg.) Selbstorganisation in Psychologie und Psychiatrie. Vieweg, Braunschweig, pp. 3–32
Teil VII
Soziale Systeme
320
VII. Soziale Systeme
Es liegt nahe, auch f¨ ur soziale Gruppen und Gesellschaften eine nichtlineare Dynamik komplexer Systeme anzunehmen. In der mathematischen Soziologie werden dazu Modelle von der Spieltheorie bis zu zellul¨aren Automaten vorgeschlagen. Bei sozialen Systemen handelt es sich allerdings um die h¨ochstskaligen komplexen Systeme, die wir kennen. Das Konzept der Synergetik verspricht eine Reduktion von Komplexit¨ at durch Einf¨ uhrung weniger Ordnungsparameter. Es stellt sich die Frage, ob und in welchem Umfang mathematische Methoden und Computersimulationen der Selbstorganisation sozialer Systeme gerecht werden.
Dynamische Modelle komplexer sozialer Systeme: Was leisten Computersimulationen? Klaus G. Troitzsch Institut f¨ ur Sozialwissenschaftliche Informatik, Rheinau 1, D–56075 Koblenz, Germany, e-mail:
[email protected] ¨ Zusammenfassung Nach einem kurzen Uberblick u ¨ber die Anwendung formaler Modelle — mathematischer Modelle und Computersimulationen — zeigt der Beitrag an einer Reihe von Beispielen, daß mit stochastischen Mehrebenenmodellen zwar recht eindr¨ ucklich das Entstehen sozialer Ordnung, aber bisher kaum das Entstehen sozialen Verhaltens erkl¨ art werden konnte.
1
Die Anwendung mathematischer Modelle und von Computersimulation in den Sozialwissenschaften
Entgegen weit verbreiteter Ansicht hat die Mathematisierung auch in die Sozialwissenschaften fr¨ uh Einzug gehalten. Anders als in der Physik und in den anderen Naturwissenschaften haben sich formale Methoden jedoch nur in einigen Bereichen der Sozialwissenschaften durchsetzen k¨onnen – sehr fr¨ uh etwa in der Demographie und in der Makro¨okonomie. Ein wesentlicher Grund hierf¨ ur sind die Schwierigkeiten der Messung sozialer Ph¨anomene. Pr¨azise Messungen in kleinen Zeitabst¨ anden sind weiten Teilen der Sozialwissenschaften aus Gr¨ unden der hohen Reaktivit¨ at ihres Gegenstands verwehrt. Gleichwohl gibt es weithin bekannt gewordene Beispiele großer formaler Modelle, wie z.B. in den vom Club of Rome in Auftrag gegebenen Simulationsstudien [11] [12], in den Mikrosimulationsstudien, die seit einigen Jahrzehnten zur Vorhersage und Beurteilung von Effekten der Steuer- und Sozialpolitik eingesetzt werden [5] [6] oder in Simulationsstudien zum W¨ ahlerverhalten, die immerhin bis in die fr¨ uhen sechziger Jahre zur¨ uckreichen [13]. Auch Methoden der Synergetik sind alsbald nach ihrem Entstehen auch auf soziale Ph¨anomene angewandt [19] [20] und von den Sozialwissenschaften rezipiert worden ([9], vgl. vor allem auch die sich an den Beitrag von [4] anschließende Diskussion in der Zeitschrift Ethik und Sozialwis” senschaften“). Weitere Varianten formaler Modelle in den Sozialwissenschaften sind die Spieltheorie und die zellul¨aren Automaten; in den letzten Jahren sind Modelle verteilter k¨ unstlicher Intelligenz hinzugekommen (vgl. die seit Anfang 1998 erscheinende elektronische Zeitschrift Journal of Artificial Societies and ” Social Simulation“, f¨ ur eine ausf¨ uhrlichere Diskussion siehe [18]).
322
2
K. G. Troitzsch
Stochastische Prozesse als Modelle sozialer Prozesse
In allen Mehrebenenmodellen werden Individuen als Objekte modelliert, die ihre Zust¨ ande nach bestimmten Regeln ¨andern, wobei diese Regeln sich unter anderem auch auf Makrozust¨ ande beziehen, d.h. auf Zust¨ande des aus den Individuen gebildeten Aggregats (der Gesamtpopulation, der Gruppe, zu der sie geh¨oren, usw.). Wenn ein einzelnes Individuum seinen Zustand ¨andert, so hat das im ¨ allgemeinen eine Anderung des Zustands auch des Aggregats zur Folge, so daß zwischen der Mikro- und der Makroebene eine R¨ uckkopplung besteht. In den klassischen Mehrebenenmodellierungsans¨atzen – und die Modelle der Synergetik, wie sie in den Sozialwissenschaften benutzt werden, geh¨oren dazu – sollen Modelle einfach sein, damit sie m¨oglichst noch analytisch behandelt werden k¨ onnen, also ist der Zustandsraum sowohl der Individuen als auch des Aggregats einfach strukturiert. Der Mechanismus der Zustands¨anderung ist ebenfalls einfach modelliert: als stochastischer Prozeß. Die Regeln, nach denen die Individuen ihre Zust¨ande ¨ andern, sind im wesentlichen Ubergangswahrscheinlichkeiten. ¨ Mit solch einfachen Modellen lassen sich ganz ordentliche Ergebnisse erzielen, ¨ insofern bei geeigneten Parametern f¨ ur die Ubergangswahrscheinlichkeiten und geeigneten Anfangsbedingungen in analytischen Modellen wie in Simulationen Strukturen entstehen.
3
W¨ ahlereinstellungen als nichtlinearer stochastischer Prozeß
Das erste Beispiel geht zur¨ uck auf fr¨ uher schon ausf¨ uhrlicher er¨orterte Datenanalysen und Simulationen [14], [17], [16], die mit Downs [1] unterstellten, daß W¨ ahlereinstellungen auf einer metrischen Skala – z.B. auf einer Links-RechtsSkala abgebildet werden k¨ onnen und insbesondere in Wahlkampfzeiten von den konkurrierenden Parteien in einer Weise polarisiert werden, daß W¨ahler mit mittleren Einstellungen seltener und solche mit extremeren Einstellungen h¨aufiger werden. In Stichproben aus W¨ahlerschaften kurz vor oder nach einer Bundestagswahl sollte man also gerade keine Normalverteilung, sondern eine zweigipflige Verteilung u ¨ber der Links-Rechts-Skala erwarten. F¨ ur die folgenden Untersuchungen wurde aus den bekannten Skalometervariablen der Wahlstudie 1976 (dritte Welle, unmittelbar nach der Wahl), die die Sympathie der Befragten gegen¨ uber Politikern und Parteien auf einer Skala von +5 bis −5 ausdr¨ ucken, die erste Hauptkomponente extrahiert. Sie vereinigt mehr als 50 % der Varianz von acht Skalometern und kann als Links-RechtsSkala angesehen werden. Erwartungsgem¨aß ist diese Hauptkomponente nicht normalverteilt, vielmehr weist sie zwei ausgepr¨agte Maxima auf (vgl. Abb. 1). Bei Verwendung der ersten beiden Hauptkomponenten – die nun schon mehr als zwei Drittel der gesamten Varianz der acht Skalometervariablen in sich vereinigen – wird das Bild noch deutlicher. Die zweite Hauptkomponente entspricht einer Dimension politische Zufriedenheit“ – politische Unzufriedenheit“. Auch ” ” hier sind zwei H¨ aufigkeitsmaxima zu erkennen (vgl. Abb. 2).
Dynamische Modelle und Computersimulationen sozialer Systeme
323
1.0
0.8
0.6
0.4
0.2
-3
-2
-1
0 P6 distribution
1
2
3
Abb. 1. Wahrscheinlichkeitsdichtefunktion, Verteilungsfunktion (Exponentialfunktion eines Polynoms bis zum Grade sechs) und empirische Verteilungsfunktion
3
1
0.179
0.132
-3
0.133
-1
1
3
-1
-3
Abb. 2. Erste Welle des Wahlpanels 1976, erste und zweite Hauptkomponente
Nach der Theorie von Downs hat man sich diese Polarisierung so zu erkl¨ aren, daß – vor allem im Laufe des Wahlkampfs – die W¨ahlerinnen und W¨ahler von derjenigen Partei am st¨arksten angezogen“ werden, der sie ohnehin schon ” am n¨ achsten stehen. Die Positionen der Parteien werden dabei kurzfristig als fest angenommen (l¨ angerfristig werden sie ihre Positionen allerdings den H¨aufigkeitsmaxima der W¨ ahlerschaft ann¨ahern). Das Ph¨anomen der Bewegung der W¨ ahlerinnen und W¨ ahler im Einstellungsraum l¨aßt sich jedoch auch mit weniger Annahmen bereits erkl¨aren (oder besser: nachstellen). Dies soll deutlich werden, indem die Ver¨ anderungen der Positionen einzelner Befragter zwischen zwei Wellen des Wahlpanels 1976 n¨aher untersucht werden. Abbildung 3 enth¨alt Sch¨ atzungen f¨ ur die mittleren Einstellungsver¨anderungen von W¨ahlern, die sich in der ersten Panelwelle (einige Monate vor der Wahl) in einem bestimmten (quadratischen) Gebiet des Einstellungsraums befunden haben.
324
K. G. Troitzsch
Abb. 3. Abh¨ angigkeit der Einstellungs¨ anderungen ( Bewegungen im zweidimensiona” len Einstellungsraum“) zwischen der ersten und der zweiten Welle
Die Vektoren in diesem Bild sind Sch¨atzungen f¨ ur den Driftparameter (erwartete infinitesimale Verschiebung):
ˆ µ(x, t1 ) = lim ε↓0
1 EhX(t2 ) − X(t1 )|X(t1 ) ∈ Aε (x)i t 2 − t1
mit Aε (x) = [x1 − ε, x1 + ε] × [x2 − ε, x2 + ε] und X(ti ) Position im Einstellungsraum in Panelwelle i. Regressionsanalysen mit den Einstellungsver¨anderungen zwischen der ersten und der zweiten Panelwelle in Abh¨angigkeit von den in der ersten Panelwelˆ le erfragten Einstellungen lassen vermuten, daß µ(x, t1 ) durch ein kubisches Polynom in X(ti ) approximiert werden kann. Dies erlaubt es, den Prozeß der Einstellungs¨ anderungen mit folgenden beiden Gleichungen zu modellieren und daraus ein Simulationsmodell abzuleiten: Langevin-Gleichung: x˙ =
−∂γV (x, t) + u(t) ∂x
Dichtefunktion: f (x) = exp{−V (x)} , worin V ein biquadratisches Polynom in x ist; u ist proportional zu Gaußschem weißen Rauschen, d.h. Ehui (t)uj (t0 )i = σu2 δij δ(t − t0 ), und f wird mit der Hilfe eines OLS-Algorithmus aus den Momenten der simulierten Stichprobe errechnet.
Dynamische Modelle und Computersimulationen sozialer Systeme
325
Eine simulierte Stichprobe sollte anfangs n¨aherungsweise unkorreliert bivariat normalverteilt sein. Ihre Verteilung wird dann in jedem einzelnen Schritt durch die oben beschriebene Dichtefunktion angen¨ahert; sodann wird die aus der Dichtefunktion abgeleitete Langevin-Gleichung auf alle Elemente der Stichprobe angewandt, wodurch diese ihre Position und gleichzeitig die H¨aufigkeitsverteilung der Stichprobe insgesamt ver¨andern. Solche anf¨ anglich normalverteilte Populationen spalten sich typischerweise in mehrere unterscheidbare Cluster auf. Abbildung 4 zeigt zwei Beispiele von simulierten Populationen, deren Mitglieder zwei intervallskalierte Attribute besitzen (¨ uber denen sie anf¨ anglich unkorreliert normalverteilt sind) und die am Ende zwei bzw. vier Cluster bilden. 3
3
3
1
1
1
3
3
0.139
1
3
0.220
1
3
0.078
0.069
-3
-1
1
3
-3
-1
1
3
-3
1
3
-3
-1
0.087
1
3
-3
-1
0.039
0.057
0.060
-1
1 0.058
0.087
1
3
0.428
0.186
1
0.094
1
3
-3
-1
1
3
-3
-1
1
3
-3
-1
1
3
0.264
0.096
-1
-1
-1
-1
-1
-1
-3
-3
-3
-3
-3
3
3
3
3
3
1
1
1
1
1
1
0.159
-1
-1
-3
-3
-3
3
3
0.161
0.370
3
0.173
0.082 0.056 0.0631
1
0.053
0.089
0.055
-1
1
3
-3
-1
1
3
-3
-1
1
3
-3
-1
1
3
-3
-1
1
3
-3
-1
1
3
-3
-1
1
0.207
0.074
-1
0.086
-1
0.127
-1
0.160
-1
-1
0.164
0.204
-1
-1
0.207
-3
0.122
0.028
0.067
-3
-3
-3
-3
-3
-3
-3
3
-3
0.291
-1
1 -1
3
0.053
0.199 0.207
-3
Abb. 4. Stochastische Simulation einer nichtlinearen Langevin-Gleichung, numerische Berechnung der Dichtefunktion und ihres Gradienten in jedem Zeitschritt
Reale Populationen verhalten sich zumindest qualitativ ¨ahnlich, wie ein Ausschnitt aus der Serie der Politbarometerumfragen aus dem Sommer 1986 zeigt (vgl. Abb. 5). L¨ angere Ausschnitte aus dieser Umfragenserie zeigen das Entstehen und Vergehen von Polarisierung mehr oder weniger im Gleichtakt mit Bundestags- und Landtagswahlk¨ampfen, aber auch mit anderen politischen Er¨ eignissen, die die W¨ ahlerinnen und W¨ahler zur Anderungen ihrer politischen Einstellungen veranlassen (f¨ ur eine genauere Analyse vgl. [15]).
3
3
1
3
1
3
1
1 0.127
0.141
0.158 0.151
-3
-1
1
3
-3
-1
1
3
-3
-1
1
3
-3
0.114 1
-1
-1
-1
-1
-1
-3
-3
-3
-3
3 0.123
Abb. 5. Wahrscheinlichkeitsdichtefunktion der W¨ ahlereinstellungen in den Monaten August, Oktober, November und Dezember 1986
Die in der Wahlkampfphase beobachtbare Heranbildung von Clustern (H¨aufigkeitsmaxima) im Einstellungsraum l¨aßt sich durch den beschriebenen stochastischen Prozeß erkl¨ aren, insofern die Simulationsergebnisse ¨ahnliches Verhalten zeigen – qualitativ, wenngleich nicht quantitativ.
326
K. G. Troitzsch
Aber: Reale menschliche Individuen reagieren nicht nur auf ein globales Mei” nungsklima“, sondern auch auf lokale Interaktionen in Familie, Beruf und Nachbarschaft. Dazu sind die Automaten des Modells nicht f¨ahig. Sie entwickeln eine Vorstellung, einem Cluster anzugeh¨oren. Damit k¨onnen sie Informationen bewußt und nicht nur zuf¨ allig selektieren. Dazu sind die stochastischen Automaten des Modells nicht f¨ahig.
¨ Uberwindung der Geschlechtertrennung in Lehrerkollegien an Schulen als nichtlinearer stochastischer Prozeß
4
Beim zweiten Beispiel geht es um ein Drei-Ebenen-Modell: Auf der obersten Ebene steht das Schulsystem des Landes Rheinland-Pfalz, auf der mittleren Ebene stehen die einzelnen Schulen und auf der untersten Ebene schließlich einzelne Lehrerinnen und Lehrer. Lehrerinnen und Lehrer werden den einzelnen Schulen zugeteilt; dabei interessiert in diesem Modell ausschließlich, mit welcher Wahrscheinlichkeit an einer bestimmten Schule ein Lehrer oder eine Lehrerin eingestellt wird und wie lange er oder sie an dieser Schule verbleibt. Im Gegensatz zu dem zuerst beschriebenen Modell (und etwa zu den bekannten Modellen von Weidlich und Haag zur Meinungsbildung oder zur Migration, vgl. [20] und Wolfgang Weidlichs Beitrag im vorliegenden Band) gibt es hier eine große Zahl von Objekten der mittleren Ebene, so daß sich die Verteilung des Frauenanteils u ¨ber alle Schulen nachbilden l¨ aßt. Die linke H¨ alfte von Abb. 6 zeigt die empirische H¨aufigkeitsverteilung des Frauenanteils an den ca. 150 rheinland-pf¨alzischen Gymnasien in den Jahren 1950 bis 1990. Es ist zu erkennen, daß in den ersten zehn bis 15 Jahren neben Schulen mit einem sehr geringen Frauenanteil auch Schulen mit einem sehr hohen Frauenanteil vorkamen. Diese Geschlechtertrennung wurde in den sechziger Jahren innerhalb relativ kurzer Zeit u ¨berwunden.
0.1
0.1
0.0
1990
0.0
1990
1980
1980
1970 0.1
1970 0.1
1960 0.0
1950 100.0
80.0
60.0
40.0
20.0
0.0
1960 0.0
1950 100.0
80.0
60.0
40.0
20.0
0.0
Abb. 6. Verteilung der Frauenanteile in den Lehrerkollegien von 150 rheinland-pf¨ alzischen Gymnasien von 1950 bis 1990. Links: empirische Daten. Rechts: Drei-EbenenSimulation (Lehrer – Schulen – Land)
Dynamische Modelle und Computersimulationen sozialer Systeme
327
Man kann hierf¨ ur eine Reihe von Gr¨ unden angeben (vgl. [21]), die sich teilweise auf allgemeine bildungspolitische Grunds¨atze, viel ¨ofter jedoch auf lokale Bedingungen zur¨ uckf¨ uhren lassen. F¨ ur eine m¨oglichst einfache Modellierung gen¨ ugt jedoch eine sehr kleine Zahl von einigermaßen plausiblen Annahmen: • Alle ausscheidenden Lehrer und Lehrerinnen werden landesweit mit gleicher Wahrscheinlichkeit durch M¨anner und Frauen ersetzt; • M¨ anner bleiben doppelt so lange im Dienst wie Frauen, • neue Frauen werden einer Schule mit der Wahrscheinlichkeit P (W |ξ) = νt exp(κξ) zugeteilt. Dabei ist ξ der Anteil der Frauen einer Schule am gesamten Lehrerkollegium, κ = 0.5, und νt ist zu jeder Zeit gerade so groß, daß M¨anner und Frauen landesweit die gleiche Chance haben, ausgeschiedene Lehrer und Lehrerinnen zu ersetzen. Die Simulation wird mit Frauenanteilen in der Gr¨oßenordnung der empirischen Verteilung von 1950 initialisiert. Mit κ > 1, w¨ urde sich die Segregation fortsetzen und noch deutlicher werden. Die rechte H¨ alfte von Abb. 6 zeigt das Simulationsergebnis, das trotz der stark vereinfachenden Annahmen dem Bild der empirischen Verteilung recht nahe kommt. Die Aufhebung der Geschlechtersegregation in Lehrerkollegien l¨aßt sich also durch den beschriebenen, sehr einfachen stochastischen Prozeß erkl¨aren“, ” insofern die Simulationsergebnisse ¨ahnliches Verhalten zeigen – qualitativ und n¨ aherungsweise auch quantitativ. Aber: In realen Schulsystemen entscheidet viel mehr als nur das Geschlecht u ¨ber die Einstellung eines Bewerbers oder einer Bewerberin an einer bestimmten Schule. Hiervon wird im Modell abstrahiert. Reale Bewerberinnen und Bewerber entwickeln eine Vorstellung, aus der heraus sie sich an einer bestimmten Schule bewerben, m¨oglicherweise um damit bestimmte Ziele zu verfolgen.
5
Mehrebenenmodellierung
Generell – nicht nur in den beiden vorstehenden Beispielen – ist es das Ziel der Mehrebenenmodellierung, die Entstehung neuer Strukturen in den nichtlinearen stochastischen Prozessen nachzubilden, die man auf der Makroebene allein nicht erkl¨ aren kann. Im zweiten Beispiel hat sich zwar nur das Verschwinden einer Struktur – der Geschlechtertrennung – gezeigt, aber es liegt auf der Hand, daß eben diese Geschlechtertrennung entstanden w¨are, wenn man ohne Segregation angefangen h¨ atte und κ > 1 gewesen w¨are. Dynamische Mehrebenenmodellierung ist eine Voraussetzung f¨ ur die Entdeckung von some sort of order hthati arises as a result of individual action but ” without being designed by any individual . . . h – i a problem . . . which demands a theoretical explanation“ [7, p. 288], denn nur Mehrebenenmodellierung stellt die Mittel bereit zur gleichzeitigen Beschreibung individueller Aktion und Ordnung (welch letztere u ¨berhaupt nur oberhalb der Individuenebene entdeckt werden kann).
328
6
K. G. Troitzsch
Entstehung von Kooperation
F¨ ur ein weiteres Beispiel sei – in enger Anlehnung an [2] und [3] – angenommen: • Die Bewohner eines Hauses benutzen gemeinschaftliche M¨ ullgef¨aße, und • sie beteiligen sich an der M¨ ullsortierung nach Belieben, die Restm¨ ullgeb¨ uhren werden aber nach Kopfzahl auf die Bewohner umgelegt. In dieser Situation scheint es rational, M¨ ull nicht zu sortieren – das erspart Arbeit –, sondern den gesamten M¨ ull ins Restm¨ ullgef¨aß zu werfen – das verursacht allerdings h¨ ohere Restm¨ ullgeb¨ uhren f¨ ur die gesamte Hausgemeinschaft, wobei wir annehmen, daß die Entsorgung von Glas, Altpapier und Verpackungen bei den Haushalten keine unmittelbare finanzielle, sondern nur eine zus¨atzliche individuelle Arbeitsbelastung mit sich bringt. In einer v¨ollig rationalen (egoistischen) und deterministischen Welt w¨ urde wohl die M¨ ullsortierung unterbleiben. Nehmen wir weiter an, daß manchmal der M¨ ull versehentlich in irgendeinen Beh¨ alter geworfen wird. Dann – unter bestimmten Voraussetzungen bez¨ uglich der entstehenden Belastung f¨ ur die verschiedenen M¨ ullsorten, die Zeit, die die Bewohner noch gemeinsam im gleichen Haus verbringen werden, und bez¨ uglich der Wahrscheinlichkeit von Irrt¨ umern – f¨ uhrt ein formales spieltheoretisches Modell zu der Vorhersage, daß nach einiger Zeit viele oder sogar alle Bewohner des Hauses die f¨ ur alle gemeinsam g¨ unstigste Sortierstrategie w¨ahlen und f¨ ur l¨angere Zeit oder sogar f¨ ur immer auch so weitermachen k¨ onnten – eine Vorhersage vom Typ Gruppen ver” halten sich wahrscheinlich kooperativ, wenn sie weniger als n0 umfassen“, wobei uhrenunterschied und der Irrtumswahrscheinlichkeit abh¨angt n0 von dem Geb¨ und wahrscheinlich“ bedeutet: mit Wahrscheinlichkeit P nach t Wochen“. ” ” Der Entscheidungsprozeß eines simulierten Individuums l¨auft in zwei Stadien ab. Zun¨ achst ist die Entscheidung zu errechnen, die ein Individuum treffen w¨ urde, wenn es keinem Irrtum unterl¨age, und danach diejenige, die wegen eines Irrtums tats¨ achlich gef¨ allt wird. Ob also kooperiert werden sollte, h¨angt (nach [2]) davon ab, ob der Ausdruck H(b − c) −
Hb(n − 1) n + Hαnc /n
gr¨ oßer oder kleiner als 0 ist. F¨ ur festes H und α w¨achst dieser Ausdruck in jedem Fall mit wachsendem b und wird kleiner mit wachsendem c. n ist darin die Anzahl der Personen in der Gruppe insgesamt, nc die Anzahl der Kooperierenden, H und α sind zwei Konstanten, die sich auf den Zeithorizont bzw. auf den zeitlichen Abstand zweier Kooperationsm¨oglichkeiten beziehen, w¨ahrend b und c Nutzen und Kosten1 von Kooperation so beschreiben, daß der Gesamtnutzen der Person i – je nach dem, ob sie kooperiert (ki = 1) oder nicht (ki = 0), b nc − cki n 1
b ist in diesem Beispiel die Einsparung bei den M¨ ullgeb¨ uhren, die erzielt werden kann, wenn alle M¨ oglichkeiten der M¨ ulltrennung und M¨ ullvermeidung ausgenutzt werden, w¨ ahrend c die beim Einzelnen entstehenden Zusatzkosten f¨ ur M¨ ulltrennung und M¨ ullvermeidung sind.
Dynamische Modelle und Computersimulationen sozialer Systeme
329
betr¨ agt. Wenn – wie in einigen der Beispiele unten – also von n = 10 Personen ur eine kooperienc = 4 kooperativ sind und b = 2.5, c = 1, dann ergibt sich f¨ rende Person ein Gesamtnutzen von 2.5/10 × 4 − 1 × 1, also von 0, w¨ahrend ein Trittbrettfahrer einen Gesamtnutzen von 2.5/10 × 4, also von 1 genießt. Eine Person, die im Simulationsmodell dann kooperieren sollte, wird dies mit Wahrscheinlichkeit p tats¨ achlich auch tun, eine Person, die nicht kooperieren sollte, wird aber mit Wahrscheinlichkeit 1 − q trotzdem kooperieren. Anteil Kooperierende
Anteil Kooperierende
Anteil Kooperierende
1.0000
1.0000
0.7000
0.7667
0.6667
0.4667
0.5333
0.3333
0.2333
0.3000
0.0000 1.0000
167.3333
333.6667
500.0000
0.0000 1.0000
167.3333
333.6667
t
500.0000
1.0000
10-Personen-Gruppe (n = 10; p = 0.8; q = 0.8; H = 10; b = 3.5; c = 1; α = 1)
10-Personen-Gruppe (n = 10; p = 0.8; q = 0.8; H = 10; b = 2.5; c = 1; α = 1)
Population.fc
Anteil Kooperierende
Anteil Kooperierende
0.9250
0.6633
0.2367
0.6500
0.4167
0.1633
0.3750
0.1700
0.1000
0.0900
333.6667
500.0000
1.0000
167.3333
333.6667
Zeit
100-Personen-Gruppe (n = 100; p = 0.8; q = 0.8; H = 10; b = 35; c = 1; α = 1)
500.0000
10-Personen-Gruppe (n = 10; p = 0.8; q = 0.8; H = 10; b = 1.5; c = 1; α = 1)
0.3100
167.3333
333.6667
Zeit
0.9100
1.0000
167.3333
t
500.0000
1.0000
334.0000
667.0000
100-Personen-Gruppe (n = 100; p = 0.8; q = 0.8; H = 10; b = 25; c = 1; α = 1)
1000.0000
Zeit
Zeit
40-Personen-Gruppe (n = 40; p = 0.7; q = 0.7; H = 50; b = 2.5; c = 1; α = 1)
Abb. 7. Entstehung von Kooperation (auf der Abszisse ist die Zeit, auf der Ordinate der Anteil der Kooperierenden aufgetragen)
Dieses Modell zeigt h¨ ochst unterschiedliche Verhaltensweisen: • F¨ ur die meisten Parameterkombinationen stellt sich alsbald entweder dauerhafte Kooperation“ (d.h. alle beteiligen sich an der Minimierung des ” Restm¨ ulls und damit auch der gemeinsam aufzubringenden M¨ ullgeb¨ uhren) oder dauerhafte Defektion“ (d.h. alle vermeiden die M¨ ullsortierung und ” nehmen hohe M¨ ullgeb¨ uhren in Kauf) ein; • f¨ ur bestimmte Parameterkombinationen ist es vor allem in kleineren Gruppen auch m¨ oglich, daß l¨angere Zeitabschnitte der Kooperation mit solchen der Defektion abwechseln. Insgesamt zeigt auch dieses Modell ein strukturbildendes Verhalten: • Individuen reagieren auf den Zustand nc /n der Gesamtgruppe nicht v¨ollig deterministisch und ver¨ andern dadurch zugleich diesen Zustand. • Der Zustand der Gesamtgruppe ist durch den Anteil der jeweils Kooperierenden gegeben;
330
K. G. Troitzsch
• das Verhalten wird – außer von stochastischen Einfl¨ ussen – dadurch bestimmt, wie aussichtsreich die beiden m¨oglichen Reaktionen angesichts des Gesamtanteils nc /n der Kooperierenden sind, • die aussichtsreichere Reaktion wird mit hoher Wahrscheinlichkeit (aber nicht mit Sicherheit) in die Tat umgesetzt, und dies ver¨andert den Gesamtzustand. Die Simulationen veranschaulichen die m¨oglichen Entwicklungen der Gesamtgruppe; sie machen offensichtlich, daß in diesem Modell allenfalls sehr vor¨ ubergehend das Verh¨ altnis der Kooperierenden und der nicht Kooperierenden ausgewogen ist; vielmehr gibt es entweder eine deutliche Mehrheit der einen oder der anderen Verhaltensweise, und f¨ ur die meisten Parameterkombinationen ist auch klar, welche der beiden Verhaltensweisen vorherrschen wird. Durch mathematische Analyse des Modells l¨aßt sich sogar zeigen, daß die Wahrscheinlichkeit Pt (nc ), die Gruppe zum Zeitpunkt t in einem der n+1 (0/n ≤ oglichen Zust¨ande anzutreffen, in sehr charakteristischer Weise nc /n ≤ n/n) m¨ von den Parametern abh¨ angt: • Diese Wahrscheinlichkeit hat im allgemeinen zwei Maxima unterschiedlicher ur mittlere nc . Dieses H¨ ohe f¨ ur große und f¨ ur kleine nc und ein Minimum f¨ Minimum ist sozusagen eine Barriere. • Befindet sich eine Gruppe bei dem niedrigeren Maximum, so wird sie sich l¨ angere Zeit dort aufhalten, Fluktuationen k¨onnen aber dazu f¨ uhren, daß die Gruppe sich (mit hoher Geschwindigkeit!) auf das h¨ohere Maximum zubewegt. • Befindet sich die Gruppe von Anfang an in der N¨ahe des h¨oheren der beiden Maxima, so ist die Aussicht nur sehr gering, die Barriere in Richtung des niedrigeren Maximums zu u ¨berwinden. • Sind die beiden Maxima ann¨ahernd gleich hoch, so ist die Gruppe bistabil und wird immer wieder einmal von einer mittelfristig kooperativen zu einer mittelfristig unkooperativen Gruppe werden und umgekehrt. Die Modellergebnisse erinnern an Vorg¨ange, die in realen Gruppen der beschriebenen Art durchaus vorkommen k¨onnten (oder so auch schon in Experimenten oder Feldbeobachtungen empirisch beobachtet worden sind). Der h¨aufig beobachtete Effekt, daß in kleinen Gruppen eher Kooperation entsteht als in großen, wird von diesem Modell zweifellos nachgebildet (und in gewisser Weise somit auch erkl¨ art“), ob das Modell allerdings eine befriedigende Erkl¨arung an” bietet, muß erst einmal offen bleiben. Denn reale menschliche Individuen sind in der Lage, die Norm des kooperativen Verhaltens zu internalisieren und sich ihr gem¨ aß bewußt zu verhalten – auch unter ver¨anderten Bedingungen. Sie erwarten von den anderen Gruppenmitgliedern normgem¨aßes Verhalten und bestrafen nicht normgem¨ aßes Verhalten – und dies w¨are die gleichsam nat¨ urlichere“ ” Erkl¨ arung f¨ ur beobachtetes reales Verhalten: In kleineren Gruppen treffen die gleichen Individuen h¨ aufiger aufeinander als in gr¨oßeren und haben so h¨aufiger die Chance, aufeinander bestrafend einzuwirken. All dies ist aber in dem diskutierten Modell gar nicht enthalten: Die simulierten Individuen interagieren gar nicht miteinander, sie wissen nicht, wer kooperiert, sondern nur wie viele kooperativ sind, und sie kalkulieren aus diesem sehr
Dynamische Modelle und Computersimulationen sozialer Systeme
331
begrenzten Wissen nur zuk¨ unftige kumulierte und auf die Gegenwart abgezinste (diskontierte) Gesamtnutzen und -kosten, die von festen Parametern abh¨angen. ¨ Bei einer Anderung der Parameter ¨andern sie schlagartig ihr Verhalten, weil sich ihre Kalkulationsgrundlage ¨andert. Reale Menschen h¨atten m¨oglicherweise nach einiger Zeit Verhaltensnormen soweit internalisiert, daß sie sich ihnen gem¨aß auch dann noch verhalten, wenn sich die Kalkulationsgrundlagen ¨andern. Wollte man dies auch noch ins Modell einbeziehen, m¨ ußte man die Bestrafung nicht normgem¨ aßen Verhaltens durch normtreue Gruppenmitglieder als zus¨atzliche Kosten nicht kooperativen Verhaltens in das Modell mit einbeziehen. Dazu w¨are aber eine v¨ ollig neue Regel in den simulierten Individuen zu implementieren.
7
Das Modell von Kirk und Coleman: Paarbildung in Dreier-Gruppen
Ein anderes sehr einfaches Modell mit Strukturbildung wurde vor etwa 30 Jahren von Kirk und Coleman beschrieben. In ihm wird die H¨aufigkeit paarweiser Interaktion zwischen drei Individuen modelliert [10]. Die drei Individuen haben jeweils eine bestimmte Neigung, mit einem der beiden anderen (z.B. telefonisch) zu interagieren. Diese Neigung wird durch jede realisierte Neigung verst¨ arkt. Ob eine Interaktion zustandekommt, entscheidet zu jedem Zeitpunkt ein zuf¨ allig ausgew¨ahltes Individuum (das jeweils dominante“, ” also etwa dasjenige, das als erstes zum Telefonh¨orer greift), das sodann mit demjenigen Partner interagiert, zu dem es die h¨ochste Neigung hat. Der dritte Partner geht (in dieser Runde) leer aus. Folgende Ausg¨ ange sind vorstellbar und – je nach Parameterwahl – auch m¨ oglich (vgl. Abb. 8): • Langfristig sind alle Individuen gleich h¨aufig an Interaktionen beteiligt (rechts unten); • langfristig wird ein Individuum unterdurchschnittlich beteiligt, die beiden anderen bilden ein Paar (links oben, weniger stark ausgepr¨agt auch links unten); • langfristig wird ein Individuum u ¨berdurchschnittlich beteiligt, es bildet sich eine Hierarchie (rechts oben); in diesem Fall kann es dazu kommen, daß das dominante Individuum immer wieder eines der beiden anderen bevorzugt. Folgende Varianten des Modells spielen eine Rolle: • nach der Wahrscheinlichkeit, die Initiative zu ergreifen: – alle Individuen ergreifen die Initiative mit konstanter, gleicher Wahrscheinlichkeit (κ = 0); – die Wahrscheinlichkeit, die Initiative zu ergreifen, h¨angt von der bisherigen Beteiligung an Interaktionen ab (entweder: je h¨aufiger bisher die Beteiligung, umso gr¨oßer die Wahrscheinlichkeit, die Initiative zu ergreifen – κ > 0 –, oder: je seltener bisher die Beteiligung, umso gr¨oßer die Wahrscheinlichkeit, die Initiative zu ergreifen – κ < 0 –);
332
K. G. Troitzsch
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0 0
2000
4000
8000 6000 Kirk 3 ( 3.0 0.90 0.90)
10000
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0
2000
4000
8000 6000 Kirk 3 (-1.0 1.00 0.00)
10000
0
2000
4000
8000 6000 Kirk 3 (-1.0 0.90 0.50)
10000
0.0 0
2000
4000
8000 6000 Kirk 3 ( 3.0 0.10 0.90)
10000
Abb. 8. Unterschiedliche Simulationsl¨ aufe des Kirk/Coleman-Modells mit drei Personen
• nach dem Ausmaß, in dem eine Interaktion die Neigung, mit dem gleichen Partner wieder zu interagieren, verst¨arkt: – falls die Interaktion mit dem Wunschpartner zustandekam, wird die Neigung, mit ihm wieder zu interagieren, eher verst¨arkt als in dem Falle, daß der Interaktionspartner nicht der Wunschpartner war (RA > RB); – die Interaktionsneigung wird unabh¨angig davon, ob der tats¨achliche Interaktionspartner der Wunschpartner war, in jedem Falle (oder mit gleicher Wahrscheinlichkeit) verst¨arkt (RA = RB); – die Interaktion mit einem nicht gew¨ unschten Partner erh¨oht die Neigung, mit diesem wieder zu interagieren, eher als die Interaktion mit dem Wunschpartner (RA < RB). Welches der drei Individuen eine Sonderrolle einnimmt, falls es eine solche gibt, h¨ angt von den Anfangsbedingungen und von den stochastischen Einfl¨ ussen am Anfang des Prozesses ab. Mit einer gr¨ oßeren Gruppe ergeben sich zus¨atzliche M¨oglichkeiten der Strukturbildung (die im Drei-Personen-Fall zugegebenermaßen eher trivial ist): Hier sind Cliquenbildungen zu erwarten, und es w¨are zu untersuchen, von welchen Parametern die Aufspaltung in wie große und wie stark getrennte Cliquen abh¨angig ist. Abbildung 9 zeigt zwei Varianten eines F¨ unf-Personen-Modells, bei dem die Interaktionsneigung nicht von der bisherigen Interaktionsh¨aufigkeit abh¨angt (κ = 0).
Dynamische Modelle und Computersimulationen sozialer Systeme 1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
333
0.0 0
2000
4000
10000
8000 6000 Kirk 5 ( 0.0 0.90 0.90)
0
2000
5
10000
8000 6000 Kirk 5 ( 0.0 0.90 0.10)
5
1
4
2
4000
3
Kirk 5 ( 0.0 0.90 0.90)
1
4
2
3
Kirk 5 ( 0.0 0.90 0.10)
Abb. 9. Unterschiedliche Simulationsl¨ aufe des Kirk/Coleman-Modells mit f¨ unf Personen
Die linke Abbildung zeigt den Fall, in dem eine Interaktion zu einer Erh¨ohung der gegenseitigen Sympathie f¨ uhrt, unabh¨angig davon, ob der Interaktionspartner der Wunschpartner war oder nicht (RA = RB); bei der rechten Abbildung hat eine Interaktion mit dem Wunschpartner eine wesentlich st¨arkere Erh¨ohung der Sympathie zur Folge als eine nicht erw¨ unschte Interaktion (RA > RB). In der Abbildung links ist zu erkennen, daß alle f¨ unf Personen etwa gleich h¨aufig an Interaktionen teilnehmen, w¨ahrend in der Abbildung rechts u ¨berhaupt nur vier Kurven zu erkennen sind: hier hat sich n¨amlich folgende interne Gruppenstruktur eingestellt: zwei Personen (3 und 4) interagieren nach kurzer Zeit (nach der Einschwingphase) nur noch miteinander – zweite Kurve von oben –, 2 interagiert entweder mit 1 oder mit 5, die beide untereinander nicht mehr interagieren. Die Gruppenstruktur im linken Bild ist komplizierter: Hier gibt es zwei Paare (2/3 und 1/5), die etwa ein Drittel bzw. etwa ein Viertel aller Interaktionen bestreiten, 4 ist an einem weiteren Drittel aller Interaktionen beteiligt, und zwar mit 1 und 5 sowie seltener mit 3; die u unf Interaktionsm¨oglichkeiten kommen ¨brigen f¨ nur in der Anfangsphase vor. Die Struktur, die sich hier gebildet hat, besteht also aus zwei Paaren und einem Vermittler, der allerdings nur eines der beiden Paare st¨ andig kontaktiert und gelegentlich mit einer der Personen des anderen Paares interagiert.
334
K. G. Troitzsch
Weitere, hier nicht graphisch dargestellte Simulationsl¨aufe zeigen, daß stabile Beziehungen zwischen allen m¨oglichen Paaren der F¨ unfergruppe allenfalls dann aufgebaut werden, wenn eine Interaktion mit dem Wunschpartner zu einer geringeren Sympathieerh¨ ohung f¨ uhrt als mit dem nicht gew¨ unschten Partner (RA < RB); auch hier kommt es meist aber nur dazu, daß jede Person mit zwei oder drei anderen regelm¨ aßig interagiert; ob es auch Simulationsl¨aufe, d.h. Parameterkombinationen, gibt, die zu regelm¨aßigen Interaktionen zwischen allen verhelfen, ist einstweilen nicht bekannt, wie es auch noch keine analytische L¨osung des Modells zu geben scheint. Die Modellergebnisse erinnern an Vorg¨ange, die in realen Gruppen – z.B. unter Kindern, die sich neu kennenlernen – der beschriebenen Art durchaus vorkommen k¨ onnten (oder so auch schon in Experimenten oder Feldbeobachtungen empirisch beobachtet worden sind). Angesichts schon der Tatsache, daß die Parameter des Modells in realen Gruppen schwerlich meßbar sind, bestehen aber erhebliche Zweifel, daß dieses Modell das Zustandekommen von Binnenstrukturen innerhalb einer solchen Kleingruppe befriedigend erkl¨art. Denn reale menschliche Individuen sind in der Lage, • sich ein Bild von der Struktur der Gruppe, der sie angeh¨oren, zu machen, • dieses Wissen auch strategisch zu nutzen und • die Gruppenstruktur auch aufrechtzuerhalten, wenn sich die ¨außeren Bedingungen ¨ andern. Zu all dem sind die stochastischen Automaten des Modells wiederum nicht f¨ ahig – sie verf¨ ugen nicht u ¨ber eine interne Repr¨asentation ihrer Gruppe, sie verf¨ ugen nicht u ¨ber Regeln, die sie in die Lage versetzten, eine solche Repr¨asentation, h¨ atten sie sie denn, strategisch zu nutzen, und ¨andert man die Parameter des Modells w¨ ahrend der Simulation, so ¨andern die Automaten nach kurzer Zeit ihr Verhalten parametergem¨aß.
8
Zellul¨ are Automaten
Das folgende Modell, in dem es wieder um das Entstehen von Kooperation geht, geht auf eine Arbeit von Hegselmann zur¨ uck [8]. Es beschreibt eine Variante des Gefangenendilemmas, das die Zellen eines zellul¨aren Automaten jeweils gegen ihre Nachbarn spielen. Die Auszahlungsmatrix ist von bestimmten Eigenschaften der beiden jeweils beteiligten Spieler abh¨ angig. Jeder Spieler i hat zwei Konten. Auf Konto DEFi werden die Auszahlungen verbucht, die Spieler i in den Perioden bekommt, in denen er defektiert. Auf dem Konto COOPi werden die Auszahlungen aus kooperativen Perioden verbucht. Vergangene Auszahlungen werden mit dem Diskontierungsfaktor α diskontiert (0 ≤ α ≤ 1). Der Verbuchungsvorgang sieht also so aus: DEFt+1 i
⇐ DEFti · α + defti (1)
⇐ COOPti · α + coopti COOPt+1 i
Dynamische Modelle und Computersimulationen sozialer Systeme
335
Dabei sind defti und coopti die Auszahlungen, die Spieler i in Periode t durch sein defektives bzw. kooperatives Verhalten erh¨alt. Mit maxN,i [] als Maximalwert der Konten DEF bzw. COOP in der Nachbarschaft N von i wird folgendermaßen entschieden: maxN,i [COOPt ] ≥ maxN,i [DEFt ] ⇒ kooperieren in t + 1, sonst defektieren!
(2)
Die folgenden Bilder zeigen drei beispielhafte Experimente. Alle beginnen mit Ursuppe“, d.h. Kooperierende und Defektierende sind gleichf¨ormig und zuf¨allig ” verteilt. Die Topologie ist ein Torus mit 50×50 Zellen. x ist die relative H¨ aufigkeit von Kooperierenden. PD (x) = 0.1x + 1 (3) PC (x) = 0.1x Die Individuen treffen ihre Entscheidungen asynchron. Eine Periode umfaßt 1250 Entscheidungen. Schwarze Zellen kooperieren, weiße defektieren.
Abb. 10. Von Neumann-Nachbarschaft. α = 0. Links: Nach 75 Perioden. Rechts: H¨ aufigkeit der Kooperierenden in den ersten 75 Perioden
In allen drei Experimenten finden sich mindestens zwei wichtige Effekte: • ein anf¨ anglicher Zusammenbruch der Kooperation und • die Entstehung von Clustern. Auch hier erinnern die Modellergebnisse an Vorg¨ange, die in realen Populationen durchaus vorkommen k¨onnten (oder so auch schon in Experimenten oder Feldbeobachtungen empirisch beobachtet worden sind). Auch hier ist es fraglich, ob das Modell eine befriedigende Erkl¨arung f¨ ur das Entstehen von Strukturen in menschlichen Populationen bietet, angesichts der Tatsache, daß reale menschliche Individuen in der Lage sind, sich ein Bild von der Struktur ihrer Umgebung zu machen und dieses Wissen auch strategisch zu nutzen.
336
K. G. Troitzsch
Abb. 11. Moore-Nachbarschaft der Gr¨ oße 3×3. Distanzabh¨ angiges Gewicht der Spieler 1/d. α = 0.7, auch weiter zur¨ uckliegende Erfahrungen spielen eine Rolle. Links: Nach 75 Perioden. Rechts: H¨ aufigkeit der Kooperierenden in den ersten 75 Perioden
Abb. 12. Moore-Nachbarschaft der Gr¨ oße 7×7. Distanzabh¨ angiges Gewicht der Spieler 1/d2 . α = 0.5. Links: Nach 75 Perioden. Rechts: H¨ aufigkeit der Kooperierenden in den ersten 75 Perioden
Dazu sind die deterministischen Automaten dieses Modells wiederum nicht f¨ ahig. Sie kalkulieren wie im dritten Beispiel nur ihren potentiellen Nutzen, diesmal nicht, indem sie in die Zukunft schauen, sondern indem sie Erfahrungen aus der Vergangenheit nutzen – ¨andert man die Parameter des Modells w¨ahrend der Simulation, so ¨ andern die Automaten nach kurzer Zeit ihr Verhalten parametergem¨ aß.
9
Ausblick
W¨ ahrend allen bisher beschriebenen Ans¨atzen gemeinsam ist, daß bestenfalls eine Art von Interaktion zwischen den Individuen vorgesehen wird oder daß es u uckkopplung zwischen der individuellen und der Makro¨berhaupt nur eine R¨ ebene gibt, gehen neuere Ans¨atze insofern weiter, als sie verschiedene Arten von Interaktionen zulassen, die untereinander wechselwirken. Diese Ans¨atze beschreiben die Individuen als Akteure (agents), die sich gem¨aß einem Satz von Regeln
Dynamische Modelle und Computersimulationen sozialer Systeme
337
verhalten (der in der Simulation mit Methoden der k¨ unstlichen Intelligenz ausgewertet wird). Vor allem diese Erweiterung der bisher verfolgten Ans¨atze, die Methoden der k¨ unstlichen Intelligenz einschließen, wird zur Zeit mit großem Nachdruck verfolgt. W¨ ahrend die klassischen“ Mikrosimulations- und Mehrebenenmodelle, aber ” auch die der Synergetik, das Verhalten jedes simulierten Individuums mehr oder weniger als black box“ betrachteten und wie in den Beispielen dieses Beitrages ” als stochastischen oder gar nur deterministischen Zustands¨ ubergang simulierten, stellen die neueren Ans¨ atze die Simulation individueller kognitiver Prozesse und der Kommunikation zwischen Individuen in den Mittelpunkt. Die simulierten Akteure haben typischerweise drei explizit modellierte Komponenten: ein Ged¨ achtnis, eine Menge von Zielen und eine Menge von Regeln. Wenn die agents“ u ¨berhaupt mit den simulierten Individuellen klassischer Mo” delle zu vergleichen sind, so entspricht dem Ged¨achtnis meist eine einzige Zustandsvariable, den Zielen eine einzige zu maximierende Funktion und den Regeln eine einzige Zustands¨ ubergangsfunktion. Mit Hilfe der Regeln der agents“ ” kann hingegen aus einer Menge von m¨oglichen Aktionen ausgew¨ahlt werden, mit denen ein Akteur seine Ziele angesichts der im Ged¨achtnis gespeicherten wesentlich reichhaltigeren Informationen u ¨ber seine Umwelt am ehesten erreichen kann – wobei sich grunds¨atzlich auch Ziele, Zielhierarchien, Regeln und Aktionsm¨ oglichkeiten ver¨ andern k¨onnen. Außer den Akteuren wird die Umwelt simuliert, die sich durch die Aktionen der Akteure gleichfalls ver¨andert. Auf diese Weise nehmen die neueren Ans¨atze die alten in sich auf, gehen aber – durch die explizite Modellierung von Zielen und Regeln – u ¨ber sie hinaus. Mit ihnen kann man ebenso wie mit den klassischen Ans¨atzen untersuchen, wie soziale Ordnung aus den Aktionen und Interaktionen einzelner Akteure entsteht. Die Strukturbildungsph¨ anomene auf Makroebene k¨onnen mit der explitziten Modellierung von Zielen und Regeln nicht notwendig besser erkl¨art werden als mit den black box“-Individuen der klassischen Ans¨atze. Die Modellierung von ” Agenten mit ver¨ anderlichen Regeln und Zielen sollte es aber erlauben, dar¨ uber hinaus aufzukl¨ aren, wie soziales Verhalten in den Individuen entsteht.
Literatur ¨ 1. Downs, A. (1968) Okonomische Theorie der Demokratie. J. C. B. Mohr (Paul Siebeck), T¨ ubingen 2. Glance, N. S., Huberman, B. A. (1993) The outbreak of cooperation. Journal of Mathematical Sociology 17(4), 281–302 3. Glance, N. S., Huberman, B. A. (1994) Das Schmarotzer-Dilemma. Spektrum der Wissenschaft, Mai-Ausgabe, pp. 36–41. 4. Haken, H. (1996) Synergetik und Sozialwissenschaften. Ethik und Sozialwissenschaften. Streitforum f¨ ur Erw¨ agungskultur 7(4), 587–594 5. Hauser, R., Hochmuth, U., Schwarze, J. (1994) Mikroanalytische Grundlagen der Gesellschaftspolitik. Ausgew¨ ahlte Probleme und L¨ osungsans¨ atze. Ergebnisse aus dem gleichnamigen Sonderforschungsbereich an den Universit¨ aten Frankfurt und Mannheim. Volume 1. Akademie-Verlag, Berlin
338
K. G. Troitzsch
6. Hauser, R., Ott, N., Wagner, G. (1994) Mikroanalytische Grundlagen der Gesellschaftspolitik. Erhebungsverfahren, Analysemethoden und Mikrosimulation. Ergebnisse aus dem gleichnamigen Sonderforschungsbereich an den Universit¨ aten Frankfurt und Mannheim. Volume 2. Akademie-Verlag, Berlin 7. Hayek, F. A. (1942) (1943) (1944) Scientism and the study of society. Economica 9, 10, 11, 267–291, 34–63, 27–39, resp. 8. Hegselmann, R. (1996) Cellular automata in the social sciences. perspectives, restrictions, and artefacts. In: Hegselmann, R., Mueller, U., Troitzsch, K. G. (Eds.) Modelling and Simulation in the Social Sciences from a Philosophy of Science Point of View. Theory and Decision Library, Series A: Philosophy and Methodology of the Social Sciences. Kluwer, Dordrecht Boston, pp. 209–230 9. Helbing, D., Weidlich, W. (1995) Quantitative Soziodynamik. Gegenstand, Methodik, Ergebnisse und Perspektiven. K¨ olner Zeitschrift f¨ ur Soziologie und Sozialpsychologie 47(1), 114–140 10. Kirk, J., Coleman, J. S. (1967) Formalisierung und Simulation von Interaktionen in einer Drei-Personen-Gruppe. In: Mayntz, R. (Ed.) Formalisierte Modelle in der Soziologie. Soziologische Texte. Vol. 39. Luchterhand, Neuwied, pp. 169–190 11. Meadows, D. L. et al. (1974) Dynamics of Growth in a Finite World. MIT Press, Cambridge, Mass., London 12. Meadows, D. H., Meadows, D. L., Randers, J. (1992) Beyond the Limits. Chelsea Green, Post Mills, Vermont 13. Sola Pool, I. de, Abelson, R. (1962) The simulmatics project. In: Guetzkow, H. (Ed.) Simulation in Social Science: Readings. Prentice Hall, Englewood Cliffs, pp. 70–81 (Orig. in: Public Opinion Quarterly 25 1961, 167–183) 14. Troitzsch, K. G., (1987) B¨ urgerperzeptionen und Legitimierung. Anwendung eines formalen Modells des Legitimations-/Legitimierungsprozesses auf W¨ ahlereinstellungen und W¨ ahlerverhalten im Kontext der Bundestagswahl 1980. Lang, Frankfurt Bern New York 15. Troitzsch, K. G., (1990) Self-organisation in social systems. In: Gladitz, J., Troitzsch, K. G. (Eds.) Computer Aided Sociological Research. Proceedings of the Workshop Computer Aided Sociological Research“ (CASOR’89), Holzhau/DDR, ” October 2nd–6th, 1989 Akademie-Verlag, Berlin, pp. 353–377 16. Troitzsch, K. G. (1994) Modellierung sozialer Interaktion. In: Schiemenz, B. (Ed.) Interaktion. Modellierung, Kommunikation und Lenkung in komplexen Organisationen. Duncker & Humblot, Berlin, pp. 159–180 17. Troitzsch, K. G. (1994) Modelling, simulation, and structuralism. In: Kuokkanen, M. (Ed.) Structuralism and Idealization. Pozna´ n Studies in the Philosophy of the Sciences and the Humanities. Editions Rodopi, Amsterdam and Atlanta GA, pp. 157–175 18. Troitzsch, K. G. (1997) Social simulation – origins, prospects, purposes. In: Conte, R., Hegselmann, R., Terna, P. (Eds.) Simulating Social Phenomena. Volume 456 of Lecture Notes in Economics and Mathematical Systems. Springer, Berlin Heidelberg New York, pp. 41–54 19. Weidlich, W. (1972) The use of statistical models in sociology. Collective Phenomena 1, 51–59 20. Weidlich, W., Haag, G. (1983) Concepts and Models of a Quantitative Sociology. The Dynamics of Interacting Populations. Springer Series in Synergetics, vol. 14. Springer, Berlin Heidelberg New York 21. Wirrer, R. (1997) Koedukation im R¨ uckblick. Die Entwicklung der rheinland-pf¨ alzischen Gymnasien vor dem Hintergrund p¨ adagogischer und bildungspolitischer Kontroversen. Volume 31 von P¨ adagogik in der Blauen Eule. Blaue Eule, Essen
Das Modellierungskonzept der Soziodynamik: Was leistet die Synergetik? Wolfgang Weidlich II. Institut f¨ ur Theoretische Physik, Universit¨ at Stuttgart, Pfaffenwaldring 57/III, D-70550 Stuttgart, Germany, e-mail:
[email protected] 1
Das Ziel der Soziodynamik
Die Soziodynamik ist ein Teilgebiet der Synergetik [1]. Ihr Ziel ist die Aufstellung und Anwendung eines allgemeinen Modellierungskonzeptes f¨ ur die quantitative Beschreibung dynamischer Makro-Ph¨anomene in der Gesellschaft. Aus zwei Gr¨ unden ben¨ otigt die Soziodynamik ein eigenes Konzept (ausf¨ uhrlich dargestellt in [2] und [3]): a) Anders als in den Naturwissenschaften existieren keine Bewegungsgleichungen auf der Mikroebene, etwa Mikrogleichungen f¨ ur Individuen, von denen man ausgehen k¨ onnte. b) In das Konzept m¨ ussen spezifische sozialwissenschaftliche Begriffe eingebaut werden, welche das Entscheidungs- und Handlungsverhalten der Akteure beschreiben. Ausgehend von der Mikroebene individueller Motivationen, Entscheidungen und Handlungen, welche wegen ihrer Komplexit¨at wahrscheinlichkeitstheoretisch behandelt wird, sollen sich daraufhin auf der Makroebene kollektiver Ph¨anomene f¨ ur relativ wenige das Geschehen dominierende Makrovariable oder Ordnungsparameter Evolutionsgleichungen ableiten lassen. Nach Kalibrierung der Modellparameter soll es sodann m¨oglich sein, unter Verwendung der Evolutionsgleichungen Szenario-Simulationen f¨ ur m¨ogliche soziookonomische Prozesse durchzuf¨ uhren, welche mit empirischen Verl¨aufen vergli¨ chen werden k¨ onnen.
2
Die Schritte der Modellierung
Die Vorgehensweise bei der Modellierung besteht aus drei Schritten: 1. dem Auffinden eines sektorspezifischen Satzes von Makrovariablen, 2. der Einf¨ uhrung ¨ elementarer dynamischer Schritte und der dazugeh¨origen Ubergangsraten und 3. der Aufstellung von Evolutionsgleichungen f¨ ur die Makrovariablen auf probabilistischer und quasi-deterministischer Ebene. 2.1
Die Konfiguration von Makrovariablen
Der Satz der Makrovariablen besteht aus kollektiven materiellen Variablen und kollektiven personellen Variablen. Die materiellen Variablen sind vor allem in der
340
Wolfgang Weidlich
¨ Okonomik wichtig. Zu ihnen geh¨oren intensive Variable (Preise, Produktivit¨at . . . ) und extensive Variable (Produktion, Investitionen . . . ). Die Konfiguration materieller Variablen sei: m = {m1 , . . . mk , . . . mM } .
(1)
Vor der Einf¨ uhrung personeller Variablen f¨ uhren wir i.a. verschiedene Subpopuande (Haltungen oder lationen P α , α = 1, 2, . . . , P ein, sowie verschiedene Zust¨ Handlungsweisen) i = 1, 2, . . . , I, worin sich die Individuen befinden k¨onnen. α Sei dann nα i die Anzahl der Mitglieder von P , welche im Zustand i sind. Das Multipel der personellen extensiven Variablen α α P P n = {n11 . . . n1I ; . . . ; nα 1 . . . ni . . . nI ; . . . ; n1 . . . nI }
(2)
heiße dann Soziokonfiguration, und {m; n} bildet die Konfiguration der Makrovariablen. 2.2
¨ Ubergangsraten zwischen Makrokonfigurationen und ihre Interpretation
Nach Wahl geeigneter Maßeinheiten besteht die elementare Dynamik der materiellen Konfiguration in einem Schritt der Art: m ⇒ m± k = {m1 , . . . , (mk ± 1), . . . mM } .
(3)
Die elementare Dynamik der Soziokonfiguration besteht in einem verallgemeinerten Migrationsschritt, n¨amlich dem Wechsel eines Mitgliedes der Subpopulation P α von Zustand i nach Zustand j: 1 1 α α α α P P n ⇒ nα ji = {n1 . . . nI ; . . . ; n1 . . . , (nj + 1), . . . , (ni − 1) . . . nI ; . . . ; n1 . . . nI } . (4)
¨ Die zu den Schritten (3) und (4) geh¨origen Ubergangsraten h¨angen von der Anfangs- und Endkonfiguration ab und lauten in allgemeiner Form: ± wk (m± k , m) = µ0 exp{Mk (mk , m)}
(5)
und α α α α (nα wji ji , n) = ν0 ni pji (nji , n) α α = ν0 n α i exp{Mji (nji , n)} .
(6)
α zustandsabh¨angige Motivationspotentiale und pα Hierbei sind Mk und Mji ji ist ¨ die individuelle Ubergangsrate eines Mitglieds von P α von i nach j.
Nach Zerlegung der Motivationspotentiale in den symmetrischen und antisym¨ metrischen Anteil hinsichtlich des Vorw¨arts- und R¨ uckw¨arts-Ubergangs k¨onnen ¨ die Ubergangsraten (5) und (6) in die Form gebracht werden: ± wk (m± k , m) = µk (m) exp{uk (mk ) − uk (m)}
(7)
Das Modellierungskonzept der Soziodynamik: Was leistet die Synergetik?
341
und α α α α α α (nα wji ji , n) = ni · νji (n) exp{uj (nji ) − ui (n)}
(8)
die einer Interpretation besser zug¨anglich ist: α α (n) = νij (n) sind bez¨ uglich des Anfangs- und EndDie Faktoren µk (m) und νji onnen als dynazustandes symmetrische Mobilit¨ aten, und uk (m) bzw. uα i (n) k¨ mische Nutzenfunktionen interpretiert werden. Es ist uα ur den i (n) ein Maß f¨ Nutzen des Zustandes i f¨ ur ein Mitglied von P α bei gegebener Konfiguration n, ur den Nutzen von mk bei gegebener Konfiguration m. und uk (m) ist ein Maß f¨
Es sei bemerkt, daß die dynamischen Nutzenfunktionen von Anfang an in ¨ einem dynamischen Kontext (n¨amlich der Ubergangsraten) definiert werden, w¨ ahrend die Maximierung unter Nebenbedingungen von Nutzenfunktionen der ¨ (neo-)klassischen Okonomik zur Definition ¨okonomischer Gleichgewichtszust¨ ande (evtl. auch komparativer Statik) dient. 2.3
Evolutionsgleichungen f¨ ur Makrovariable
Es gibt die probabilistische und die quasi-deterministische Ebene, auf welcher Evolutionsgleichungen aufgestellt werden k¨onnen. Die erste erfaßt auch die stochastischen Fluktuationen der Makrovariablen, w¨ahrend die zweite den deterministischen Verlauf ihrer Mittelwerte bzw. Quasimittelwerte behandelt. Die zentrale Gleichung der probabilistischen Beschreibungsebene ist die Mastergleichung f¨ ur die normierte Wahrscheinlichkeitsverteilung u ¨ber die Makrovariablen: X P (m, n; t) = 1 . (9) P (m, n; t) ≥ 0; m,n
Die Mastergleichung lautet: X dP (m, n; t) − {wk (m+ =− k , m)P (m, n; t) + wk (mk , m)P (m, n; t)} dt k X + − − {wk (m, m+ + k )P (mk , n; t) + wk (m, mk )P (mk , n; t)} k
−
X
α {wji (nα ji , n)P (m, n; t)}
(10)
i,j,α
+
X
α α {wij (n, nα ji )P (m, nji ; t) .
i,j,α
Auf der deterministischen Beschreibungsebene haben wir einerseits die Mit¯α telwerte m ¯ k (t), n i (t), welche definiert sind als: X mk P (m, n; t) (11) m ¯ k (t) = m,n
342
Wolfgang Weidlich
und n ¯α i (t) =
X m,n
nα i P (m, n; t) .
(12)
Sie gen¨ ugen den strengen Gleichungen dm ¯ k (t) − = wk (m+ k , m) − wk (mk , m) dt
(13)
X X d¯ nα i (t) α (nα , n) − α (nα , n) wij wji = ij ji dt j j
(14)
und
welche allerdings nicht geschlossen sind, da man zur Auswertung der rechten Seiten von (13) und (14) die L¨osung P (m, n; t) der Mastergleichung braucht. Andererseits benutzt man statt dessen besser Quasimittelwerte m ˆ k (t) und (t), welche die mittlere Fortbewegung eines B¨ u ndels stochastischer Trajekton ˆα i ˆ n ˆ ) beschreiben. Sie gen¨ rien am Systempunkt (m, ugen dem System autonomer, gekoppelter, nichtlinearer Differentialgleichungen: dm ˆ k (t) ˆ+ ˆ − wk (m ˆ− ˆ = wk (m k , m) k , m) dt X X dˆ nα i (t) α α ˆ) − ˆ) . = wij (ˆ nα wji (ˆ nα ij , n ji , n dt j j
(15) (16)
Nur dann, wenn die Wahrscheinlichkeitsverteilung P (m, n; t) eingipfelig und spitz ist, stimmen Mittelwerte und Quasimittelwerte n¨aherungsweise u ¨berein.
3
Ein Beispiel: Die Migration zweier wechselwirkender Populationen in zwei Regionen
Das Beispiel enth¨ alt nur personelle Variable. Es beschreibt die Migration der Mitglieder zweier Populationen P µ und P ν zwischen zwei Regionen (evtl. Stadtteilen) i = 1, 2. Es zeigt sich, daß das Modell je nach Wahl von Trendparametern drei verschiedene migratorische Situationen und die Phasen¨ uberg¨ange zwischen ihnen beschreiben kann, n¨ amlich 1. die homogene Durchmischung von P µ und P ν in den Regionen 1 und 2 2. die Ghettobildung (Separation) von P µ und P ν in den Regionen 1 und 2 3. die Eindring-Ausweich-Migration zwischen P µ und P ν . Die Modellbildung besteht aus folgenden Schritten: 1. Wahl der Variablen Die Mitglieder der Populationen P µ , P ν k¨onnen zwei Haltungen“ 1, 2 ein” nehmen, wobei Haltung i heißt: Wohnen in Region i“; i = 1, 2. Danach ” besteht die Soziokonfiguration aus vier Variablen n = {nµ1 , nµ2 , nν1 , nν2 } ,
(17)
Das Modellierungskonzept der Soziodynamik: Was leistet die Synergetik?
343
α wobei nα i die Anzahl der Mitglieder der Population P ist, die in Region i wohnen. Bei Vernachl¨ assigung von Geburts/Todes-Prozessen gelten die Erhaltungsgesetze:
nµ1 + nµ2 = 2M ;
nν1 + nν2 = 2N ,
(18)
so daß nur m=
1 µ (n − nµ2 ); 2 1
−M ≤ m ≤ +M
(19)
n=
1 ν (n − nν2 ); 2 1
−N ≤ n ≤ +N
(20)
und
die relevanten zeitabh¨ angigen Variablen sind. ¨ 2. Elementare Migrationsdynamik und Ubergangsraten Zu den elementaren Umz¨ ugen eines Mitgliedes von Population P µ bzw. P ν von Region i nach Region j n ⇒ nµji
bzw. n ⇒ nνji
(21)
¨ geh¨ oren die Ubergangsraten µ µ (nµji , n) ≡ wji [n] = nµi pµji [n] wji
(22)
ν (nνji , n) wji
(23)
≡
ν wji [n]
=
nνi pνji [n]
mit den individuellen Raten: pµji = ν˜µ exp uµj (nµj + 1; nνj ) − uµi (nµi , nνi ) pνji = ν˜ν exp uνj (nµj ; nνj + 1) − uνi (nµi , nνi ) .
(24) (25)
ur ein Mitglied der Population Bei der Wahl der Nutzenfunktionen uµi , uνi f¨ P µ bzw. P ν wird angenommen, daß sie nur von den Populationszahlen nµi und nνi der jeweiligen Region i abh¨angen, und zwar im einfachsten Fall linear, also mit α = µ, ν: µ ν uα i (ni , ni ) =
1 αµ µ (κ ni + καν nνi ) , 2
(26)
wobei καα und καβ (β 6= α) Trendparameter der Population P α sind, welche ihre Neigung beschreiben, mit der eigenen bzw. der anderen Population gern oder ungern zusammenleben zu wollen (κ > 0 bedeutet Agglomerationstrend, und κ < 0 Segregationstrend). Nach Einsetzen von (26) in (22) und (23) und Verwendung der Variablen m und n ergeben sich explizit die
344
Wolfgang Weidlich
Raten: µ ≡ w↑µ (m, n) = νµ (M − m) exp[∆uµ ] w12
f¨ ur (m, n) → (m + 1, n) µ ≡ w↓µ (m, n) = νµ (M + m) exp[−∆uµ ] w21 ν w12
f¨ ur (m, n) → (m − 1, n) ≡ w↑ν (m, n) = νν (N − n) exp[∆uν ]
ν w21
f¨ ur(m, n) → (m, n + 1) ≡ w↓ν (m, n) = νν (N + n) exp[−∆uν ] f¨ ur (m, n) → (m, n − 1)
(27)
mit den Abk¨ urzungen ∆uµ (m, n) = κµµ m + κµν n ∆uν (m, n) = κνµ m + κνν n und
νµ = ν˜µ exp
1 µµ κ 2
(28)
,
νν = ν˜ν exp
1 νν κ 2
.
(29)
3. Evolutionsgleichungen Die Wahrscheinlichkeitsverteilung P (n; t) h¨angt hier nur von den zwei Variablen m, n ab. F¨ ur sie ergibt sich als Spezialfall von (26) die Mastergleichung: nh i o dP (m, n; t) = − w↑µ (m, n) + w↓µ (m, n) + w↑ν (m, n) + w↓ν (m, n) P (m, n; t) dt + w↑µ (m − 1, n)P (m − 1, n; t) + w↓µ (m + 1, n)P (m + 1, n; t) + w↑ν (m, n − 1)P (m, n − 1; t) + w↓ν (m, n + 1)P (m, n + 1; t) . (30) Die Quasimittelwertgleichungen lauten: dm(t) ˆ ˆ n ˆ ) − w↓µ (m, ˆ n ˆ) = w↑µ (m, dt = 2νµ {M sinh[∆uµ (m, ˆ n ˆ )] − m ˆ cosh[∆uµ (m, ˆ n ˆ )]}
(31)
dˆ n = w↑ν (m, ˆ n ˆ ) − w↓ν (m, ˆ n ˆ) dt = 2νν {N sinh[∆uν (m, ˆ n ˆ )] − n ˆ cosh[∆uν (m, ˆ n ˆ )]} .
(32)
und
Unter den speziellen Annahmen M =N
;
κµµ = κνν = κ
;
νµ = νν = ν
(33)
Das Modellierungskonzept der Soziodynamik: Was leistet die Synergetik?
345
¨ und nach Ubergang zu skalierten Variablen κ ˜ αβ = καβ N
;
τ = 2νt ;
x=
m ˆ N
;
y=
n ˆ N
(34)
nehmen die Gleichungen (31) und (32) die Form an: dx κx + κ ˜ µν y) = sinh(˜ κx + κ ˜ µν y) − x cosh(˜ dτ dy = sinh(˜ κνµ x + κ ˜ y) − y cosh(˜ κνµ x + κ ˜ y) . dτ
(35) (36)
Szenariosimulationen Die Gleichungen k¨onnen nun unter charakteristischen Annahmen f¨ ur die Trendparameter καβ gel¨ost werden. In den Abbildungen 1 bis 4 werden F¨ alle gezeigt, die den am Anfang genannten Situationen entsprechen.
Abb. 1. Schwacher interner Agglomerationstrend κ ˜ µµ = κ ˜ νν = κ ˜ = 0.2 und schwacher externer Segregationstrend κ ˜ µν = κ ˜ νµ = −0.5. Resultat: Ein stabiler station¨ arer Punkt (x, y) = (0, 0), welcher die homogene Durchmischung der Populationen P µ , P ν darstellt. Alle Flußlinien laufen auf den station¨ aren Punkt zu
346
Wolfgang Weidlich
Abb. 2. Moderater interner Agglomerationstrend κ ˜ µµ = κ ˜ νν = κ ˜ = 0.5 und starµν νµ ker symmetrischer externer Segregationstrend κ ˜ = κ ˜ = −1.0. Die zwei stabilen station¨ aren Punkte im zweiten und vierten Quadrant beschreiben die Segregation der Populationen P µ und P ν in separate Ghettos“. Die Flußlinien laufen auf einen der ” stabilen Punkte zu
Abb. 3. Moderater interner Agglomerationstrend κ ˜ µµ = κ ˜ νν = κ ˜ = 0.5 und starke νµ µν asymmetrische externe Trends κ ˜ = +1.0; κ ˜ = −1.0. Es existiert ein stabiler Fokus (x, y) = (0, 0), welcher der homogenen Durchmischung der Populationen P µ , P ν entspricht. Alle Flußlinien spiralen in den stabilen Fokus
Das Modellierungskonzept der Soziodynamik: Was leistet die Synergetik?
347
Abb. 4. Sehr starker interner Agglomerationstrend κ ˜ µµ = κ ˜ νν = κ ˜ = 1.2 und starke νµ µν asymmetrische externe Trends κ ˜ = +1.0; κ ˜ = −1.0. Die homogene Populationsdurchmischung ist nun unstabil. Alle Flußlinien, das heißt Trajektorien, n¨ ahern sich einem Grenzzyklus als Attraktor. Dieser beschreibt einen nicht zur Ruhe kommenden migratorischen Eindring-Ausweichprozeß auf folgende Weise: Der Grenzzyklus durchl¨ auft alle vier Quadranten. Ist die Trajektorie im Quadrant 1, so leben die Majorit¨ aten beider Populationen P µ und P ν in Region 1. Erreicht sie Quadrant 2, so bedeutet das, daß Population P µ mehrheitlich in Region 2 umzieht und dabei infolge des Segregationstrendes κ ˜ µν = −1.0 der Population P ν ausweicht. Erreicht die Trajektorie Quadrant 3, so bedeutet dies, daß auch Population P ν wegen ihres Agglomerationstrendes κ ˜ νµ = +1.0 mehrheitlich nach Region 2 zieht, um dort auf Population P µ zu treffen. Diese weicht wieder in Region 1 aus, wenn die Trajektorie Quadrant 4 erreicht, usw.
Literatur 1. Haken, H. (1978) Synergetics – An Introduction. Springer, Berlin 2. Weidlich, W. (1991) Physics and Social Science – The Approach of Synergetics. Physics Reports 204, pp. 1–163 3. Weidlich W. (1999) Sociodynamics – A Systematic Approach to Quantitative Modelling in Social Science. Gordon & Breach (to appear)
Der Umgang mit Unsicherheit: Zur Selbstorganisation sozialer Systeme G¨ unter K¨ uppers Institut f¨ ur Wissenschafts- und Technikforschung, Universit¨ at Bielefeld, Postfach 100131, D-33501 Bielefeld, Germany, e-mail:
[email protected] Selbstorganisation“ steht heute als umfassender Begriff f¨ ur eine Reihe von Kon” zepten, die unter verschiedenen Namen wie Synergetik, Autopoiese, dissipative Strukturen, selbstreferente Systeme eines gemeinsam haben: die Bem¨ uhung um die Beschreibung und das Verst¨andnis des Verhaltens komplexer, dynamischer Systeme. In der Physik etwa geht es um die Erkl¨arung von Strukturbildungsprozessen in hydrodynamischen Konvektionsstr¨omungen oder um das koh¨arente Verhalten von Lichtemissionen im Laser. Die Chemie untersucht die Entstehung r¨ aumlicher und/oder zeitlicher Strukturen in chemischen Reaktionen; im Grenzgebiet zwischen Chemie und Biologie studiert man die Entstehung und Entwicklung hochkomplexer organischer Molek¨ ule und versucht die Entstehung biologischer Informationen in einer pr¨abiotischen Welt zu verstehen. Von der ¨ Neurophysiologie bis hin zur Okologie werden in der Biologie Ph¨anomene der Ontogenese und der Phylogenese untersucht, um zu verstehen, wie aus Einfachem Komplexes entstehen kann. Auch in den Sozialwissenschaften gibt es Bem¨ uhungen, die Entstehung sozialer Ordnung mit Hilfe solcher Ans¨atze zu modellieren. Im Vordergrund dieser Untersuchungen steht die Frage, inwieweit Muster sozialen Verhaltens erkl¨art werden k¨ onnen aus der Orientierung des einzelnen am jeweils anderen (vergl. hierzu die Beitr¨ age von Troitzsch und Weidlich in diesem Band). So wertvoll solche Untersuchungen auch sein m¨ogen, sie greifen zu kurz, wenn es allgemein um die Entstehung sozialer Regeln und ihren Einfluß auf soziales Verhalten geht. Diese Frage nach dem gegenseitigen Bedingungsverh¨altnis von Verhaltensregeln und Verhalten steht seit der Gr¨ undung der Soziologie als die Wissenschaft von der Gesellschaft durch Auguste Comte (1798–1857) gegen Anfang des vorigen Jahrhunderts im Zentrum soziologischen Interesses. Mit immer neuen theoretischen Ans¨ atzen versuchte man, die charakteristischen Merkmale zu finden, mit denen sowohl die Gesellschaft als Ganzes, als auch das soziale Verhalten ihrer Mitglieder beschrieben werden konnten. Von Anfang an wurden diese beiden Aspekte des Sozialen als zusammengeh¨orig gesehen: soziale Strukturen als Formen und Regeln des Zusammenlebens und soziale Prozesse als soziales Verhalten von Individuen. Aber es fehlte das theoretische R¨ ustzeug, um das gegenseitige Bedingungsverh¨ altnis von Struktur und Prozeß ad¨aquat beschreiben zu k¨onnen. Ausgangspunkt der meisten soziologischen Theorien war deshalb immer nur die eine Seite dieses Begriffspaares: die Gesellschaft oder das Individuum. Die jeweils andere Seite war dann eine Folge dieses Anfangs: Die, die das Individuum als Ausgangspunkt ihrer Untersuchungen w¨ahlten, modellierten die Gesellschaft als ¨ Uberlagerung einzelner, sich sozial verhaltender Individuen; die, die alternativ
Zur Selbstorganisation sozialer Systeme
349
dazu die Gesellschaft als unhintergehbaren Anfang setzten, versuchten soziales Verhalten als die unausweichliche Wirkung der Gesellschaft zu erkl¨aren. Die Ta¨ belle 1 gibt einen Uberblick u ¨ber diese Auseinandersetzung mit dem Verh¨altnis von Individuum und Gesellschaft.1 Tabelle 1. Theoretische Ans¨ atze in der Soziologie
Austauschtheorien
Interaktionismus
Ausgangspunkt Austauschprozesse zwischen Individuen
Die Wechselwirkung von Individuen
Funktionalismus Gesellschaftliche Funktionen
Strukturalismus Gesellschaft als soziale Strukturen
Systemtheorie
Es gibt ” (soziale) Systeme.“
Fragestellung
Theoretische Individuum/GeKategorien sellschaft Wie strukturie- Kosten/ Aussagen u ¨ber ren TauschbeNutzen, Ra- soziale Sachziehungen die tionalit¨ ats- verhalte sind Handlungen von paradigma auf Aussagen Individuen und u ¨ber Individuen die Verteilung zur¨ uckzuf¨ uhren von Ressourcen? Wie sind soziale Erwartungen, Gesellschaft Beziehungen Rollen, Rah- existiert durch m¨ oglich; Verh¨ alt- men, Inter- symbolische Innis von pers¨ onli- subjektivit¨ at, teraktionsformen cher zu sozialer Every Day der Individuen ” Identit¨ at? Life“ Wie h¨ angen Funktionale Gesellschaft wird ¨ Funktion und Aquivalente, u ¨ber Funktionen soziale Struktur Strukturen, definiert. Indivizusammen? Integration duen m¨ ussen sich und Differen- dieser Funktionazierung lit¨ at unterordnen Wie steuern Kultur, Ri- Gesellschaftliche gesellschaftliche ten, InDifferenzierung Strukturen sozia- stitutionen, formt die Indiviles Verhalten der Risikolagen duen als MitglieIndividuen? der bestimmter Schichten Wie organisieren Autopoiesis, Die Teilsysteme Systeme ihre Beobachtung, der Gesellschaft Selbsterhaltung? re-entry, sind Formen der strukturelle Kommunikation Kopplung und Kommunikation ist das Basiselement der Teilsysteme
Die Tabelle zeigt, daß die gegenseitige Konstitution von Gesellschaft und Individuum, von sozialen Prozessen und sozialen Strukturen in keinem der klas1
¨ Eine Ubersicht u ¨ber die verschiedenen Konzepte in der Soziologie ist z.B. in [28] oder in [9] zu finden.
350
G. K¨ uppers
sischen Ans¨ atze erfolgreich modelliert werden konnte. Nur die soziologische Systemtheorie sieht einen zirkul¨aren Zusammenhang zwischen Struktur und Prozeß, zwischen System und systemspezifischen Prozessen. Ihre erkenntnisleitende Unterscheidung ist nicht mehr die klassische Frage nach dem Zusammenhang der Teile mit dem Ganzen. Vielmehr liegt ihr die Unterscheidung von System und Umwelt zugrunde. Entscheidend ist also die Frage, wie ein System sich selbst, d.h. durch seine eigenen Operationen von der Umwelt ausgrenzt und diese Ausgrenzung auf Dauer stellt. Solche Systeme sind wegen dieser Ausgrenzung der Umwelt operational geschlossen“, d.h. sie sind autonom und ihre Struktu” ren sind ausschließlich Ergebnis ihrer eigenen Operationen. Diese Konstruktion erlaubt es, Systemstruktur und Systemdynamik in Beziehung zueinander zu setzen und die klassische Frage der Soziologie, wie sich Struktur und Prozeß, wie sich Gesellschaft und individuelles Verhalten gegenseitig bedingen einer Antwort n¨ aher zu f¨ uhren. Zum zentralen Begriff der soziologischen Systemtheorie ist deshalb der Begriff der operationalen Geschlossenheit geworden. Als sozialer Mechanismus leistet er sowohl die Ausdifferenzierung des Sozialen als eigenst¨andigen Ph¨anomenbereich als auch dessen Ordnung durch den Selbstbezug sozialer Prozesse. Niklas Luhmann, der Begr¨ under der soziologischen Systemtheorie benutzt als Basisoperationen sozialer Systeme Kommunikation. Die operationale Geschlossenheit stellt er her u ¨ber die Besonderheit von Kommunikation, sie ist an die feststellbare ” Reichweite der .... Operationen“ [22] gebunden: Man spricht .... von operativ ” geschlossenen Systemen und meint damit, daß solche Systeme sich durch die Art ihrer Operationen von ihrer Umwelt unterscheiden“ [23]. Kommunikation kann nur innerhalb der Kommunikation stattfinden. Kommunikation ist aber nicht das Medium, welches die sozialen Aktivit¨aten einzelner Akteure miteinander verkn¨ upft und diese so zu Mitgliedern eines sozialen Systems macht. Die, die kommunizieren, geh¨ oren nicht zum sozialen System, sie befinden sich in deren Umwelt. Die von Luhmann entwickelte soziologische Systemtheorie geht von der Existenz des Sozialen als einem eigenst¨andigen Ph¨anomenbereich aus. Es gibt Sy” steme“ ist Luhmanns ontologisches Credo. Die Existenz sozialer Systeme ist an soziale Operationen (Kommunikation) gebunden, die u ¨ber ihre Besonderheit die System-Umwelt-Differenz einrichten und die u ¨ber ihre interne Dynamik die Selbstreproduktion des Systems leisten. Einziges Ziel dieser Dynamik ist die Reduktion von Umweltkomplexit¨at. Luhmann beschreibt, welche Anforderungen dadurch an die Kommunikation gestellt werden, wie Kommunikation als soziale Operation beschaffen sein muß, was sie gef¨ahrden und was sie stabilisieren kann. Diese sehr detailliert ausgearbeitete Kommunikationstheorie“ ist nur ein ” Teil seines Gesamtkonzepts einer neuen Gesellschaftstheorie. Mit der Systemtheorie, der zweiten S¨ aule des Luhmann’schen Theoriengeb¨audes2 , ist sie nur lose verbunden. So erfahren wir nicht, was die Kommunikation zwingt zu kommunizieren und warum sie kommuniziert, wie sie kommuniziert, in der Wissenschaft anders als in der Politik, in der Wirtschaft anders als in der Liebe. Wie Systemstruktur (Institutionen) und Systemoperationen (Kommunikation) miteinander 2
Die dritte S¨ aule bildet seine Evolutionstheorie.
Zur Selbstorganisation sozialer Systeme
351
verbunden sind und wie sie sich gegenseitig bedingen, bleibt unklar, denn Luhmann nennt nicht die sozialen Mechanismen, die f¨ ur eine solche Schließung von Strukturbildung und Prozeßsteuerung“ sorgen. Aber gerade sie bestimmen ent” scheidend die Dynamik des Sozialen. In der folgenden Grafik ist diese zirkul¨are Verkn¨ upfung von Struktur und Prozeß dargestellt. Evaluation (Mechanismus) Soziale Strukturen (Gesellschaft) 6
? Soziale Prozesse (Individuum)
Konstruktion (Mechanismus)
Die beiden Mechanismen Konstruktion und Evaluation beschreiben, wie soziale Prozesse Strukturen aufbauen und wie diese Strukturen die sozialen Prozesse bestimmen. Ziel dieses Aufsatzes ist es, ein f¨ ur das Soziale geeignetes Modell einer solchen zirkul¨ aren Schließung von Prozeß und Struktur zu entwickeln, die Mechanismen dieser Schließung n¨aher zu spezifizieren und damit die Entstehung sozialer Ordnung zu erkl¨aren. Einen wesentlichen Beitrag zu diesem Programm wird die Theorie der Selbstorganisation leisten, denn sie beschreibt f¨ ur nat¨ urliche Prozesse die Entstehung von Ordnung durch die zirkul¨are Schließung von Ursache und Wirkung. Im Folgenden soll daher als erstes die Theorie der Selbstorganisation vorgestellt werden, freilich nicht als abstrakte mathematische ¨ Theorie, sondern in einer Form, die ihre Ubertragung in den Ph¨anomenbereich des Sozialen erlaubt, ohne dabei den Preis der Trivialisierung des Sozialen zu bezahlen, der mit der Mathematisierung zwangsweise verbunden ist.3 Wie ei¨ ne solche Ubertragung aussehen kann, ist dann Thema des zweiten Teils. Den Schluß bildet die Anwendung eines solchen Modells sozialer Selbstorganisation auf Innovationsprozesse sowie deren Simulation.
1
Selbstorganisation: Die Kopplung von Umweltstruktur und Systemdynamik
Die Welt, in der wir leben, ist weitgehend wohl geordnet. Manchmal ist die Ordnung einfach, mal sehr komplex und auf den ersten Blick nicht zu erkennen. Woher kommt diese Ordnung? Ist sie von außen eingerichtet, wie z.B. in meinem B¨ ucherregal, wo die B¨ ucher nach Sachgebieten geordnet sind, oder ist sie von selbst entstanden, wie z.B. bei den Streifen eines Zebras?4 Aber wie kann eine 3 4
Erst nach einer solchen Konzeptualisierung sozialer Selbstorganisation kann man nach Wegen suchen, eine mathematische Beschreibung zu finden. Hier k¨ onnte man nat¨ urlich einwenden, daß die Information des Musters in den Genen codiert ist. Aber neuere Untersuchungen haben gezeigt, daß Musterbildung in der Biologie Ergebnis eines Selbstorganisationsprozesses ist [4].
352
G. K¨ uppers
Ordnung von selbst entstehen? Wie kann sich eine Menschenmenge ordnen, wenn sie keine Vorstellung hat, wie sie sich ordnen soll? Diese Fragen k¨onnen auf zweierlei Weise beantwortet werden: Entweder ist die Ordnung der Dinge eine Eigenschaft der Dinge selbst, oder aber es muß Mechanismen geben, die aus der Vielfalt der M¨ oglichkeiten die eine, die wir beobachten, ausw¨ahlen: beim Zebra eben Zebrastreifen und keine Dalmatinerflecken. Die Wissenschaft hat lange Zeit nach diesen Mechanismen gesucht und erst in den 60-er Jahren dieses Jahrhunderts eine formal befriedigende, modellhafte Antwort gefunden. Diese Theorie der Selbstorganisation zeigt, wie aus den vielen M¨oglichkeiten, z.B. die Farben schwarz und weiß auf einem Zebrafell zu verteilen, unter den konkreten Bedingungen gerade die eine, n¨amlich die streifenf¨ormige Verteilung, ausgew¨ahlt wird. Die Theorie der Selbstorganisation liegt heute in vielen Bereichen als eine mathematisch exakt formulierte Theorie vor. Sie zeigt an vielen Beispielen der Naturwissenschaften, welcher Mechanismus f¨ ur die Entstehung von Ordnung verantwortlich ist: Die zirkul¨are Kopplung von Ursache und Wirkung. In experimentellen Anordnungen oder in technischen Apparaten wird eine solche Kopplung konstruktiv eingerichtet. Im Laser z.B. wird die Kopplung zwischen Lichtfeld und Materie u ¨ber die Auswahl geeigneter Materialien stimuliert und damit experimentell die Voraussetzung geschaffen, daß die Phasen der emittierten Lichtwellen synchron schwingen [6]. Beim Thermostaten z.B. reguliert ein Temperaturf¨ uhler u ¨ber einen Schalter den Betrieb einer Heizung, aber umgekehrt reguliert die Heizung u uhler den Schalter. Der Thermostat ¨ber den Temperaturf¨ wird durch dieses gegenseitige Bedingungsverh¨altnis von Ursache und Wirkung zu einer technischen Vorrichtung, die sich selbst reguliert. Sie sorgt in einem Raum unabh¨ angig von der Umwelt f¨ ur eine konstante Temperatur. Zirkul¨ are Kausalit¨ at ist das Kennzeichen der Selbstorganisation. Als Eigenschaft der Natur und nicht als technisches Konstrukt ist sie dort zu finden, wo Ungleichgewichte auf Ausgleich dr¨angen. Denn der Ausgleich als Wirkung ver¨ andert das Ungleichgewicht als seine Ursache und die ver¨anderte Ursache wiederum produziert eine ver¨anderte Wirkung.
Ungleichgewicht 6
? Ausgleich
Ein Beispiel f¨ ur ein Ungleichgewicht ist z.B. ein Temperaturunterschied innerhalb einer Fl¨ ussigkeit. Unter bestimmten Bedingungen setzt dieser Temperaturunterschied eine Fl¨ ussigkeitsstr¨omung in Gang, die das Temperaturprofil in der Fl¨ ussigkeit ver¨ andert. Dieser geschlossene Zirkel zwischen Ungleichgewicht und Ausgleich ordnet sich immer dann von selbst, wenn Ungleichgewicht und Ausgleich einander so lange ver¨andern, bis sie einander bedingen: Eine bestimm-
Zur Selbstorganisation sozialer Systeme
353
te Form des Ausgleichs reproduziert gerade das Ungleichgewicht, das diese Form des Ausgleichs zur Folge hat.
U 0 6
? A 0
Diese seine Ursache reproduzierende Form des Ausgleichs ist als Ordnung zu beobachten. Ordnung ist ein bestimmtes Muster im Strom der Ausgleichsprozesse. Die B´enard-Konvektion ist wohl das bekannteste Beispiel f¨ ur die Entstehung von Ordnung in Fl¨ ussigkeitsschichten durch einen Temperaturunterschied [19]. Abstrakter und in der Sprache der Systemtheorie formuliert: Die zirkul¨are Schließung von Ursache und Wirkung grenzt den Teil der Welt aus, der durch diese Schließung eingeschlossen wird. Dadurch entsteht die Differenz von System und Umwelt: Das System als ein dynamisches Wirkungsgef¨ uge von Ungleichgewicht und Ausgleich, dessen Zust¨ande allein von dieser internen Dynamik bestimmt sind, und die Umwelt als den Rest der Welt, der die f¨ ur die Aufrechterhaltung des Ungleichgewichts im System notwendigen Ressourcen bereitstellt. Diese Konzeptualisierung impliziert, daß es lokal begrenzte Ungleichgewichte in der Welt gibt, die durch entsprechende Strukturen in der Welt an ihrer Globali” sierung“ gehindert werden.5 So unterscheiden sich z.B. auf der Erde die Temperaturprofile des Wassers und der Luft voneinander und f¨ uhren dort zu jeweils spezifischen Formen der Ordnung: z.B. zu Meeresstr¨omungen bzw. Wolkenb¨andern. Wegen der operationalen Geschlossenheit von Ursache und Wirkung im System kann die Umwelt das System nur st¨oren, eine Steuerung der Systemzust¨ande durch die Umwelt ist ausgeschlossen. Im Gegensatz zur klassischen Systemtheorie bestimmt nicht mehr die Umwelt das System, sondern das System bestimmt die Umwelt. Die Schließung von Ursache und Wirkung, die die Trennung von System und Umwelt erzeugt, sorgt auch f¨ ur die Strukturbildung im Inneren des Systems. Denn die Schließung l¨ aßt dort nur ganz bestimmte Bedingungsverh¨altnisse von Ursache und Wirkung zu: nur solche, die sich gegenseitig reproduzieren. Diese gegenseitige Selbstreproduktion von Ursache und Wirkung kann im Inneren komplexer (nichtlinearer) Systeme auf vielf¨altige Weise geschehen. Welche Form des Ausgleichs sich einstellt, h¨angt ganz von der Form des Ungleichgewichts am Systemrand ab und diese Form wird bestimmt von den Strukturen in der Umwelt. Denn diese liefern die f¨ ur die Aufrechterhaltung des Ungleichgewichts notwendigen Ressourcen. Insofern spiegelt die Ordnung des Systems sowohl die Struktur der Umwelt als auch die interne Dynamik des Systems wider. Auf die5
Schon Heinz von Foerster hat darauf hingewiesen, daß Selbstorganisation nur in einer strukturierten Umwelt m¨ oglich ist (vgl. [29]).
354
G. K¨ uppers
sen Punkt werden wir am Beispiel von Innovationsnetzwerken noch n¨aher eingehen. Die zirkul¨ are Kopplung von Ursache und Wirkung vermittelt zwischen Umweltstruktur und Systemdynamik und macht so die Ordnung des Systems unabh¨ angig von Ver¨ anderungen in der Umwelt. Systeme k¨onnen in einer sich ver¨ andernden Umwelt u ¨berleben“ und dabei ihre Identit¨at bewahren. Erst bei ” dramatischen Umweltschwankungen kann ihre F¨ahigkeit zur Anpassung u ¨berschritten werden. Anpassung ist deshalb nicht wie bei Darwin eine Leistung der Umwelt, sondern eine Leistung des Systems.
2
Die Selbstorganisation des Sozialen
Will man dieses Konzept der Selbstorganisation auf soziale Prozesse u ¨bertragen und die Entstehung sozialer Ordnung erkl¨aren, so k¨onnte man in Analogie zu den Naturwissenschaften nach Ungleichgewichten in der Verteilung materieller oder ideeller G¨ uter in der Welt des Sozialen suchen. Besser, weil allgemeiner, ist es, nach sozialen Mechanismen Ausschau zu halten, die soziale Prozesse mit ihren Ursachen verkn¨ upfen und auf diese Weise die Ausgrenzung und Reproduktion sozialer Systeme leisten. Als Mechanismus der Verkn¨ upfung von Ursache und Wirkung soll hier die Ausl¨osung sozialer Aktivit¨aten durch die Wahrnehmung upfung von Unsichersozialer Unsicherheiten vorgeschlagen werden.6 Diese Verkn¨ heitswahrnehmung und -bew¨altigung besitzt gerade die erforderliche Architektur zirkul¨ arer Kausalit¨ at und scheint damit geeignet zu sein, Ph¨anomene sozialer Selbstorganisation ad¨ aquat zu beschreiben. ¨ Ausgangspunkt unserer Uberlegungen ist deshalb eine Anzahl von Individuen in einem Zustand, in dem man von den regulativen Wirkungen des Sozialen absehen kann. In einer solchen pr¨asozialen“ Welt handeln individuelle Akteure, ” wenn und insoweit individuelle Interessen an Nutzenerwartungen handlungsbestimmend sind [19]. Konkurrieren mehrere Akteure in dem Bestreben, ihren individuellen Nutzen zu mehren, um knappe Ressourcen, kommt es sehr schnell zu einer gegenseitigen Blockade. Wenn alle dasselbe haben wollen, f¨ uhrt dies zur Konfrontation, in deren Verlauf der m¨ogliche Verlust den absehbaren Gewinn bei weitem u ¨bersteigen kann. Im dem als Gefangenendilemma bekanntgewordenen Modell aus der Spieltheorie k¨onnen zwei Gefangene ihre Strafe vermindern, wenn sie sich absprechen. Wenn aber einer der Akteure die Absprache bricht, kann er einen Freispruch erwirken, w¨ahrend der andere eine drastisch h¨ohere Strafe erh¨ alt. Brechen beide die Absprache, gewinnt keiner etwas. Konfrontation ist riskant. Keiner kennt die Strategien des anderen oder die Mittel, diese zu verfolgen. Jeder handelt unter Unsicherheit, jeder muß mit allem rechnen und der einzige Ausweg scheint in der Ausschaltung des jeweils anderen zu liegen. Aber selbst da ist der Erfolg unsicher und beide Kontrahenten laufen Gefahr, selbst ausgeschaltet zu werden. Die Aufl¨osung dieses Dilemmas liegt in der Kooperation. Denn durch die Vereinbarung sozialer Regeln der Zusammenarbeit (Konsens, Absprachen, Vertr¨age, Gesetze, moralische Verpflichtungen) 6
Mit Unsicherheit wird hier ein Zustand qualifiziert, der von den in ihm handelnden Individuen als vergleichsweise ungeregelt und damit als unsicher empfunden wird.
Zur Selbstorganisation sozialer Systeme
355
wird die Unsicherheit der Konfrontation so gemindert, daß ein die eigenen Interessen verfolgendes und am subjektiven Nutzen orientiertes Handeln u ¨berhaupt erst m¨ oglich wird. Bei den Regeln handelt es sich vor allem um die drei Regelkomplexe des ¨ okonomischen Austauschs, der Sanktionen in Hierarchien und der Solidarit¨ at in Gruppen. Daß sie ordnungsstiftend sind und Handlungsrisiken u ¨berschaubar machen, ist offensichtlich. ¨ Der Ubergang vom ungeregelten Neben- oder Gegeneinander zum geregelten Miteinander markiert idealtypisch die Entstehung des Sozialen als einen eigenst¨ andigen Ph¨ anomenbereich. Das Soziale wird hier definiert als die Menge aller Regeln, die implizit oder explizit das soziale Miteinander regulieren, und zwar so, daß soziale Konflikte als Quellen der Unsicherheit m¨oglichst vermieden werden k¨ onnen. Aber auch in einer bereits ausdifferenzierten Welt des Sozialen sind die Kooperationsrisiken nicht u ¨berschaubar. Denn die Regeln der Kooperation gelten immer nur f¨ ur die spezifische Problemlage, f¨ ur die sie entwickelt wurden. Regeln, die die Kooperation im Straßenverkehr regulieren, taugen nichts f¨ ur die Regelung von Intimbeziehungen. Die Unsicherheit des Ungeregelten verschwindet nie, sie kann durch Regeln nur in einem konkreten Fall und nur f¨ ur eine gewisse Zeitspanne auf eine sozial akzeptierte Weise reduziert und so in einen Zustand relativer Sicherheit u ¨bersetzt werden. Damit ist das Problem, soziale Kooperationen zu regeln, auf Dauer gestellt. Bew¨ ahren sich Regeln der Kooperation in einem Bereich, k¨onnen sie institutionalisiert werden. Es werden Vertr¨age geschlossen, Satzungen verabschiedet und Institutionen werden beauftragt, Regelverletzungen zu ahnden und zu sanktionieren. Und da soziale Regeln immer erst interpretiert werden und insofern soziales Verhalten nicht determinieren, gibt es auch innerhalb des Institutionengef¨ uges einer Gesellschaft genug Unsicherheit, um den sozialen Umgang mit Unsicherheit als treibende Kraft des Sozialen zu sehen. In der sozialen Wahrnehmung von Unsicherheit und in den sozialen Akti¨ vit¨ aten im Umgang mit ihr haben wir das soziale Aquivalent zur zirkul¨aren Kausalit¨ at nat¨ urlicher Prozesse gefunden. W¨ahrend nat¨ urliche Systeme strukturbildend sind, sind soziale Systeme regelgenerierend, d.h informationserzeugend: Der Umgang mit der Unsicherheit des Unregulierten f¨ uhrt zur Regelbildung und die Regeln reduzieren die Unsicherheit. Die zirkul¨are Schließung von Ursache und Wirkung ist auch im Sozialen der Mechanismus der Entstehung von Ordnung: Eine bestimmte Form der Unsicherheit l¨ost eine spezifische Form des Umgangs mit ihr aus, die diese Unsicherheit solange ver¨andert, bis sie sozial akzeptabel ist und deshalb ein Gef¨ uhl sozialer Sicherheit vermittelt. Die Formen gesellschaftlicher Unsicherheitsbew¨altigung sind als soziale Ordnung beobachtbar. Sie bestehen aus Handlungsregeln, die sich konservativ verfestigen zu den verschiedenen Institutionen der Gesellschaft wie Rechtsorganen, Wirtschaftsorganisationen, Netzwerken, Parteien usw. Im Zustand sozialer Ordnung bedingen einander die Wahrnehmung von Unsicherheit und die Regeln des Umgangs mit ihr. In der Straßenverkehrsordnung z.B. bedingen einander die soziale Wahrnehmung der Verkehrsrisiken und die soziale Praxis im Umgang mit ihnen. Dieses gegenseitige Bedingungsverh¨altnis garantiert die soziale Akzeptanz der Verkehrsopfer. Die Widerst¨ande gegen die Castor-Transporte dagegen
356
G. K¨ uppers
zeigen, daß die gesellschaftliche Wahrnehmung der Unsicherheit bei der Kernenergienutzung im krassen Mißverh¨altnis zum gesellschaftlichen Umgang mit ihr stehen und langfristig u.U. einen Ausstieg aus der Kernenergie erzwingen. Der Mechanismus der Schließung von sozialer Ursache und Wirkung sorgt gleichzeitig f¨ ur die Entstehung des Sozialen (Kooperation statt Konfrontation). Sie wird begleitet von der Ausgrenzung einer Umwelt. Entsprechend unserer Konstruktion besteht diese aus den außerhalb sozialer Reguliertheit handelnden Individuen. Die operationale Schließung erzeugt das asoziale“ und das soziale“ ” ” Individuum; beide stehen sich im Verh¨altnis System und Umwelt gegen¨ uber.7 Unsicherheit l¨ aßt sich nicht absorbieren“ [8]. Sie gef¨ahrdet st¨andig die eta” blierten Formen des sozialen Zusammenlebens. Dabei kann man verschiedene Typen von Unsicherheit voneinander unterscheiden, weil sie einen ganz bestimmten Bedarf an Regulierung innerhalb des sozialen Zusammenlebens betreffen. So muß in einer Gesellschaft z.B. die Differenz Individuum/Gesellschaft geregelt sein: was f¨ allt in den Verantwortungsbereich des einzelnen und was muß durch kollektive Normen festgelegt werden. Mit anderen Worten: Was soll die Politik regulieren und was kann sie den privaten Initiativen des B¨ urgers u ¨berlassen. Neben diesen Regulierungsunsicherheiten gibt es die Unsicherheit der Normierung: die verbindliche Festlegung eines ¨offentliche und private Rechte betreffenden Tatbestands. Ist die Love-Parade Ausdruck individueller Lebensfreude oder eine Gefahr f¨ ur die ¨ offentliche Sicherheit? Solche Normierungsunsicherheiten kennzeichnen den Bereich, den in modernen Gesellschaften das Rechtssystem reguliert. Vor der Geldwirtschaft gab es in der Tauschwirtschaft die Unsicherheit, zur rechten Zeit das gew¨ unschte Tauschobjekt angeboten zu bekommen. Dies f¨ uhrte zu einer Versorgungsunsicherheit, die erst durch das Medium Geld in einer sozial vertr¨ aglichen Weise gemildert werden konnte [25]. Die Unsicherheit, geliebt zu werden oder nicht zu wissen, was die Welt im innersten zusammenh¨alt oder warum das Schicksal es mit den anderen (meist) besser meint, spannt neue Felder der Unsicherheit auf, deren Regulierung die Voraussetzung f¨ ur ein geordnetes Miteinander ist. Die Rede ist von Liebeszweifeln, von Wissens- und von Glaubensunsicherheiten. Vor den Liebeszweifeln versucht man sich in die Ehe zu retten, die ihrerseits aber kein Garant f¨ ur Liebe sein kann. Die Unsicherheit im Wissen u ¨ber die Welt reduziert die Wissenschaft.8 Und die Zweifel an der Gerechtigkeit der Welt lassen sich nur durch Hinweise auf eine h¨ohere Gerechtigkeit in einer anderen Welt sozial vertr¨aglich gestalten. Diese Aufteilung in die verschiedenen Formen von Unsicherheit erfolgt nicht allein aus analytischen Gr¨ unden. Vielmehr sind die sozialen Aktivit¨aten, die als geeignet erachtet werden, zur Reduzierung der verschiedenen Typen von Unsicherheit beitragen zu k¨ onnen, deutlich voneinander verschieden und gegenseitig nicht substituierbar. Versorgungsunsicherheiten lassen sich nicht durch Glauben, Wissensunsicherheiten nicht durch Geld und Normierungsunsicherheiten nicht durch Wissen regulieren. Die verschiedenen Formen der Unsicherheit unterscheiden sich durch die soziale Praxis im Umgang mit ihnen. Und neue Formen von 7 8
Luhmann unterscheidet das psychische vom sozialen System (vgl. [20]). Und dennoch sind wir nie sicher, und es bef¨ allt uns erneut die Unsicherheit, sp¨ atestens dann, wenn zwei Experten uns ihre gegenteilige Meinung mitteilen.
Zur Selbstorganisation sozialer Systeme
357
Unsicherheit werden im Unterschied zur Gefahr erst dann als Risiko wahrgenommen, wenn sich in der Gesellschaft entsprechende Techniken und Methoden ur Leib und Leben des Umgangs mit ihnen ausdifferenziert haben.9 Der Gefahr f¨ durch die b¨ osen Geister kann man erst dann begegnen, wenn daf¨ ur als geeignet erachtete Personen zur Verf¨ ugung stehen, die glauben machen, b¨ose Geister durch Opfergaben beschwichtigen zu k¨onnen. Ebenso ließen sich Glaubensunsicherheiten u ¨ber den Aufbau der Welt erst dann als Wissensunsicherheiten behandeln, als mit Beginn der neuzeitlichen Wissenschaft in Europa mit Hilfe von handwerklichen Techniken, die in anderen Kontexten bereits zur Verf¨ ugung standen, experimentelle Verfahren entwickelt werden konnten, die es erm¨oglichten, das unsichere Wissen des Glaubens in das sichere Wissen der Naturwissenschaften zu u uhren und Glaubensfragen von Wissensfragen zu trennen. Und wo, ¨berf¨ wie z.B. im alten China, Wissenschaft nicht das Ziel verfolgt, die Welt zu erkl¨ aren, sondern sie zu verstehen, kommt es trotz der vorhandenen Technik nicht zur Ausdifferenzierung einer mit der westlichen Wissenschaft vergleichbaren Naturwissenschaft, sondern zu Entwicklung von Verfahren der Kontemplation, die die Einheit mit der Natur herstellen und erst so ihr Verst¨andnis erm¨oglichen. Diese alternativen Wissensformen gewinnen in Europa gerade heute an Aktualit¨ at, wo die Risiken des technischen Wissens neu bewertet werden. Akkupunktur und High-Tech-Medizin existieren in friedlicher Koexistenz. Diese kurzen Andeutungen m¨ ussen gen¨ ugen, um aufzuzeigen, daß gesellschaftliche Differenzierung einhergeht mit der Ausdifferenzierung immer neuer Formen von Unsicherheit bzw. mit einem grunds¨atzlichen Wandel in bereits exi¨ stierenden Risikolandschaften. Ganz allgemein ist in der Gesellschaft ein Ubergang von der Verwaltung der Gegenwart zur Gestaltung der Zukunft zu be¨ obachten. Dieser Ubergang ver¨andert funktionierende Regelsysteme und schafft neue Unsicherheiten. In der Wirtschaft wird zunehmend die Unsicherheit, ein vorhandenes Produkt gewinnbringend auf den Markt zu bringen, durch die Un¨ sicherheit ersetzt, dieses Produkt erst entwickeln zu m¨ ussen. Dieser Ubergang von der ¨ okonomischen Unsicherheit u ¨blicher Marketingstrategien zur Innovationsunsicherheit bei der Produktentwicklung ist mit einer Umstrukturierung klassischer Organisationen verbunden. Flache Hierarchien, schlankes Management und netzwerkartige Formen der Arbeitsteilung sind heute Charakteristika erfolgreicher Unternehmen. Wissen, und damit die Generierung von Wissen ¨ innerhalb der Okonomie, bestimmt zunehmend die ¨okonomische Entwicklung.10 ¨ Auch in der Wissenschaft hat der Ubergang von der Erkl¨arung zur Konstruktion von Welt neue Formen von Wissensunsicherheiten produziert, die zu gravierenden Ver¨ anderungen in der Forschungslandschaft gef¨ uhrt haben. Von einer New ” Production of Knowledge“ ist gar die Rede [3]. Diese neue Form der Wissensproduktion, die mit den Verwendungskontexten eng verbunden ist, hat die Auswanderung der akademischen Forschung zur Folge. Dadurch wird die Selbstkontrolle der Wissenschaft, die u ¨berwiegend innerhalb der akademischen Forschung mit 9 10
Zur Unterscheidung von Risiko und Gefahr siehe [21]. Vgl. hierzu [31]. Diese Wissensproduktion außerhalb der daf¨ ur zust¨ andigen Institutionen des Wissenschaftssystem hat weitreichende Folgen f¨ ur das Wissenschaftssystem.
358
G. K¨ uppers
¨ ihrer disziplin¨ aren Uberschaubarkeit institutionalisiert war, zunehmend problematisch und durch Formen staatlicher Regulierung ersetzt.11
3
Innovationsnetzwerke
In vielen Bereichen der Gesellschaft ist es in den letzten Jahrzehnten neben den klassischen Formen Markt und Organisation zur Ausbildung einer neuen Koordinationsform sozialer Aktivit¨aten gekommen, die mit dem Begriff Netzwerk beschrieben wird. Der Schl¨ usselbegriff Vernetzung“, der sich in der wissen” ” schaftlichen Begleitforschung f¨ ur diese neuartigen Ph¨anomene findet, ist nicht leicht zu pr¨ azisieren. In den Sozialwissenschaften wird der Begriff immer dann verwendet, wenn sozialen Interaktionszusammenh¨ange u ¨bergreifend bzw. quer zu einzelnen sozialen Gebilden (Gruppen, Organisationen, System) beobachtet werden und eine eigene Form der Sozialintegration sind. Klare Grenzen (vor allem formale Organisationsgrenzen) sind f¨ ur Netzwerke nicht notwendig. Es k¨onnen zu unterschiedlichen Zeitpunkten diverse Akteure involviert sein, ebenso sind sie als pulsierende Beziehungsgeflechte mit wechselnden Akteuren zentrumslos“ [12]. Vor allem technische Innovationen“ werden heute zunehmend u ¨ber Inno” ” vationsnetzwerke“ organisiert, da diese sozusagen Modellm¨arkte f¨ ur Prototypen ” (sind), die unter sorgf¨ altig ausgehandelten Randbedingungen entstehen. Das Risiko der Marktintransparenz f¨ ur neue Produkte wird letztlich dadurch gel¨ost, daß in Innovationsnetzwerken die Gestaltung neuer Produkte und die Bildung neuer Verwendungskontexte, neue Technologien und ihre M¨arkte in einer spezifischen Akteurkonstellation gemeinsam angegangen werden, um im Falle eines Erfolgs bis zur Marktf¨ ormigkeit erweitert zu werden“ [12]. Auf diese Weise wird die Unsicherheit der Marktf¨ahigkeit von Innovationen erheblich gesenkt, da die okonomische Rationalit¨ at bereits in die Konstruktionsphase integriert wird. ¨ ¨ Uber die Gr¨ unde f¨ ur die Ausdifferenzierung solcher Innovationsnetzwerke differieren die Meinungen in der Literatur. Einigkeit besteht jedoch insofern, als die Innovationsnetzwerke mit dem Charakteristikum moderner Gesellschaften, der funktionalen Differenzierung, in Verbindung gebracht werden: Innovationsnetzwerke vermindern das Risiko gesellschaftlicher Differenzierung, das in der Un¨ uberbr¨ uckbarkeit der jeweils spezifischen Systemrationalit¨aten liegt. Dieses Argument setzt zu einseitig auf die rationale“ Geschlossenheit der funktionalen ” Teilsysteme und u ¨bersieht das Grundproblem, mit dem jede Innovation zu k¨ampfen hat: Die Produktion neuen Wissens im Kontext einer geplanten Anwendung. Dieses Problem soll im Folgenden ausf¨ uhrlicher diskutiert werden. Ganz allgemein gilt, eine neue Idee kann sich nur dann durchsetzen, wenn sie in einem bestimmten Kontext die L¨osung eines dort wahrgenommenen Problems verspricht. Eine neue Theorie in der Wissenschaft bleibt solange ohne Bedeutung, solange es ihrem Autor nicht gelingt, die scientific community zu u ¨berzeugen, einen wichtigen Beitrag zur L¨osung eines wichtigen Problems geleistet zu haben. 11
Vergleiche hierzu nur die Anstrengungen zur politischen Regulierung der Forschung im Bereich der modernen Gentechnologie, die anders als der Name suggeriert, heute zur modernen Grundlagenforschung in der Biologie geh¨ ort.
Zur Selbstorganisation sozialer Systeme
359
Das Neue muß in diesem Sinne anschlußf¨ahig sein an eine soziale Praxis, in der Probleme und deren L¨ osungen in spezifischer Weise wahrgenommen werden.12 Auch technische Innovationen k¨onnen sich auf dem Markt nur dann durchsetzen und ¨ okonomisch erfolgreich sein, wenn sie an eine soziale Praxis der Problemdefinition und -l¨ osung anschließen k¨onnen. Ein Beispiel f¨ ur die Bestimmung einer Innovation durch den Anwendungskontext liefert die Entwicklung des Sextanten. In der Seefahrt war lange Zeit eine genaue Ortsbestimmung deshalb nicht m¨oglich, weil es keine Verfahren gab, den L¨ angengrad zu bestimmen. Diese Unsicherheit bei der Ortsbestimmung hatte oft fatale Folgen. Schiffe zerschellten an Klippen und wichtige St¨ utzpunkte f¨ ur die Aufnahme frischen Wassers und Nahrung wurden nicht oder zu sp¨at erreicht. Eine naheliegende L¨ osung dieses Problems lag in der Messung des Intervalls zwischen zwei Ortszeiten: der Ortszeit eines Ortes dessen geographische L¨ange bekannt war – z. B. London – und der Ortszeit des Schiffes. Aus dem gemessenen Zeitunterschied folgt dann der L¨angengrad des Schiffes: 3 Stunden sp¨ater als London bedeutet 45◦ westlich von London. Da Breitengrad und Schiffszeit schon immer u ¨ber die Messung der Kumulationsh¨ohen von Sternen bestimmt wurden, suchte man auch bei der L¨ angengradmessung nach einem astronomischen Verfahren. Die fest installierte Schiffsuhr mit der Bezugszeit f¨ ur einen Ort bekannter L¨ ange widersprach der etablierten Praxis in der Navigation und wurde deshalb verworfen zugunsten des Sextanten, mit dem man die Schiffszeit und, u ¨ber die Messung von Sternabst¨ anden, den L¨angengrad bestimmen konnte.13 Wie dieses Beispiel zeigt, sind Innovationen nicht am gr¨ unen Tisch zu entwickeln. Das sozio-technische Umfeld, in dem sie eingesetzt werden sollen, spielt bei ihrer Konstruktion eine entscheidende Rolle. Das f¨ ur eine Innovation relevante Wissen l¨ aßt sich nur im Hinblick auf ihren Einsatz gewinnen. Auf diesen Zusammenhang zwischen Wissensproduktion und Anwendungskontext hat neuerdings auch Michael Gibbons in seinem Buch The New Production of Know” ledge“ hingewiesen [3]. Sein Befund: Das Problem der Anwendung wissenschaftlichen Wissens in nichtwissenschaftlichen Kontexten wird durch die institutionelle Verlagerung der Wissensproduktion in die Anwendungspraxis gel¨ost. Uns interessiert hier nicht die Frage, wie diese Verlagerung der Wissensproduktion das Institutionengef¨ uge der Wissenschaft ver¨andert, sondern warum pl¨otzlich dieses Problem der Anwendung wissenschaftlichen Wissens virulent wird. Bislang wurde wissenschaftlichem Wissen eine von seiner Produktion unabh¨ angige, universale G¨ ultigkeit zugeschrieben und ihm eine vom konkreten Kontext unabh¨ angige Probleml¨osungskapazit¨at einger¨aumt. Erst die Laborstudien haben darauf aufmerksam gemacht, daß ein erfolgreicher Wissenstransfer gebunden ist an den Transfer des Kontextes der Wissensproduktion [11]. Das wissenschaftliche Labor erwies sich als der klassische Ort der Produktion neuen Wissens. Es muß als Kontext erst eingerichtet werden, um an anderer Stelle 12
13
Ein Beispiel aus der Wissenschaft liefert die Quantenmechanik. Sie l¨ oste ein wichtiges Problem der Atomspektren, hatte aber große Schwierigkeiten sich durchzusetzen, weil sie gegen etablierte Denkgewohnheiten der Physik verstieß. Vgl. hierzu [17]. Eine ausf¨ uhrliche Erkl¨ arung dieses Falles unternimmt zur Zeit Stephan Cramer in seiner Dissertation. Vgl. hierzu [27].
360
G. K¨ uppers
produziertes Wissen zu best¨atigen und als Ressource f¨ ur die eigene Produktion neuen Wissens zu nutzen. Wo diese Rekonstruktion des Kontextes nicht gelingt, hilft Laborwissen“ wenig. Erst als eine universale, vom Kontext seiner Entste” hung gereinigte Form theoretischen Wissens steht es allen Nutzern zu Verf¨ ugung. Seine Anwendung im konkreten Fall erfordert dann eine Re-Kontextualisierung: Die Integration des neuen Anwendungsbezuges in die allgemeine Form des Wissens. Der Aufwand dieser Re-Kontextualisierung ist besonders hoch, wenn es um die L¨ osung komplexer, nichtlinearer Probleme geht. Im Gegensatz zu den linearen Problemen, wo kleine Ver¨anderungen in den charakteristischen Gr¨oßen stets auch kleine Wirkungen haben, ist hier der Zusammenhang von Ursache und Wirkung komplexer: kleine Ver¨anderungen k¨ onnen große Wirkungen haben. Die Komplexit¨ at der Nichtlinearit¨at liegt in der Unbestimmtheit, die die große Wirkung bei einer kleinen Ursache nicht zwingend, sondern m¨ oglich macht. Dieser unbestimmbare Zusammenhang von Ursache und Wirkung macht Wissen pl¨ otzlich zu einer Quelle von Unsicherheit.14 Diese Unsicherheit bestimmt die Bedeutung des Kontextes f¨ ur die Produktion neuen Wissens. Bei linearen Problemlagen, wo ¨ahnliche Ursachen ¨ahnliche Wirkungen haben, ist die Auswirkung des Kontextes auf das Wissen bestimmbar und das Wissen kann auf beliebige Kontexte angewandt werden. In der formalen Sprache der Mathematik bedeutet dies: Ein lineares Problem besitzt eine allgemeine L¨ osung mit freien Konstanten, u uck¨ber deren Wahl jeder Kontext ber¨ sichtigt werden kann. Die Fallgesetze beschreiben allgemein, wie ein K¨orper sich unter der Wirkung einer Anziehungskraft bewegt. Will man in einem konkreten Fall die Fallgeschwindigkeit eines K¨orpers zu einem bestimmten Zeitpunkt wissen, gen¨ ugt es, die Anfangsbedingungen und den Wert der an dem gew¨ahlten Ort g¨ ultigen Fallbeschleunigung in das allgemeine Gesetz einzusetzen und die Geschwindigkeit zu berechnen. Bei komplexen Problemen ist dieser einfache Zusammenhang zwischen Gesetzm¨ aßigkeit und Kontext nicht mehr gegeben. Geringe Schwankungen im Kontext k¨ onnen große Auswirkungen auf die L¨osung eines Problems haben. Das Wissen, das in einem Kontext einen Sachverhalt ad¨aquat beschreibt, kann in einem leicht ver¨ anderten Kontext sich als falsch erweisen. Eine allgemeine L¨osung komplexer Probleme f¨ ur beliebige Kontexte gibt es nicht. Jeder Kontext hast seine spezifische L¨ osung: Aus ¨ahnlichen Situationen kann man nichts lernen. Fassen wir zusammen: F¨ ur einfache Probleme lassen sich L¨osungen finden, die auf jeden Kontext u ¨bertragbar sind. Das ist eine direkte Folge der hier gew¨ahlten Definition von Einfachheit: Linearit¨at. Bei komplexen Problemen sind die L¨osun¨ gen wegen deren Nichtlinearit¨at extrem kontextabh¨angig. Die Ubertragung des Wissens aus vergleichbaren Situationen auf den konkreten Fall ist wegen der mit der Nichtlinearit¨ at verbundenen Unbestimmtheit des Verhaltens unsicherheitsbeladen. 14
Wichtig ist hier festzuhalten, daß diese Unsicherheit keine Folge von Wissensl¨ ucken ist. Eine nichtlineare Gesetzm¨ aßigkeit beschreibt einen bestimmten Sachverhalt exakt; aber aus diesem Wissen folgt in einem konkreten Fall nicht automatisch die Kenntnis seiner Dynamik.
Zur Selbstorganisation sozialer Systeme
361
Innovationen geh¨ oren in diese Kategorie komplexe Probleme“. Ihre Kom” plexit¨ at ist eine Folge der engen Verkn¨ upfung dreier Problemdimensionen: Eine Innovation muß funktionieren, an eine soziale Praxis anschließen und ¨okonomisch erfolgreich sein. Daß dieser Problemverbund nichtlinear ist, sieht man ¨ unmittelbar, wenn man z.B. bedenkt, daß geringf¨ ugige technische Anderungen zwar den ¨ okonomischen Erfolg verbessern, die soziale Anschlußf¨ahigkeit aber gef¨ ahrden k¨ onnen. Innovationen sind deshalb immer risikobeladen. Die Nichtlinearit¨ at der Aufgabenstellung verhindert, daß die Innovationsaufgabe in seine Teilprobleme zerlegt und an unterschiedlichen Orten mit unterschiedlicher Kompetenz gel¨ ost werden kann: Die technische Abteilung entwickelt einen Prototyp, die Fertigung sucht kosteng¨ unstige Herstellungsmethoden und geeignete Materialien, die Marketingabteilung k¨ ummert sich um die Markteinf¨ uhrung und der Verkauf sucht nach einem geeigneten Vertriebsnetz. Arbeiten alle Abteilungen optimal, entsteht ein neues Produkt, mit dem entsprechend Geld zu verdienen ist: der ¨ okonomische Erfolg ist gesichert. Diese klassische Form im Umgang mit Innovationsaufgaben innerhalb von Wirtschaftsorganisationen ist einer neuen Form gewichen. Innovationsnetzwerke haben sich etabliert und erweisen sich als erfolgreich im Umgang mit der Innovationsunsicherheit. Zum Schluß wollen wir die Gr¨ unde f¨ ur die Leistungsf¨ahigkeit dieser neuen sozialen Struktur n¨aher beleuchten. Im vorigen Abschnitt wurde gezeigt, daß Selbstorganisation im Bereich des Sozialen sich durch den Umgang mit Unsicherheit einstellt und dar¨ uber sowohl eine im Umgang mit Unsicherheit spezifische Form sozialer Kooperation entwickelt und von anderen Formen der Kooperation abgrenzt (Systembildung) und gleichzeitig diese Form so strukturiert, daß sie sich als erfolgreich erweist und die Unsicherheit reduziert (Strukturbildung). Innovationsnetzwerke sind also Formen sozialer Selbstorganisation, die sich zur Behandlung von Innovationsunsicherheiten bilden oder aber eingesetzt werden. Der Unterschied zwischen Selbstorganisation und Selbstregulierung – weil von außen eingerichtet – ist hier nicht relevant. Mehr noch: man kann die Einrichtung von Innovationsnetzwerken als politisches Instrument zur Steuerung des wissenschaftlich-technischen Fortschritts begreifen. Sie sind soziale Tools zur L¨ osung komplexer Aufgaben. Sie sind operational geschlossen in dem Sinne, daß die Wahrnehmung der Innovationsunsicherheit innerhalb des Netzes soziale Aktivit¨ aten erzeugt, diese Unsicherheit zu reduzieren. Dabei gibt es weder einen von außen vorgegebenen Plan, wie man dabei vorzugehen hat, noch ein vorgegebenes Maß zur Bewertung der zu einem bestimmten Zeitpunkt noch immer existierenden Unsicherheit. Eine Innovation ist gefunden, wenn alle im Netzwerk Beteiligten glauben, daß das Produkt die implizit gemachten Annahmen u ¨ber Funktionst¨ uchtigkeit, soziale Anschlußf¨ahigkeit und ¨okonomische Rentabilit¨at zu best¨ atigen scheint. Ganz sicher sein kann man dabei nicht. Erst nach der erfolgreichen Markteinf¨ uhrung weiß man wirklich, ob die gemachten Annahmen auch gerechtfertigt waren. Innovationsnetzwerke sind wegen ihrer zirkul¨aren Kausalit¨at operational geschlossene soziale Systeme, die aber offen sind f¨ ur die Ressourcen, die f¨ ur ihre Arbeit notwendig sind: die verschiedenen Wissensbest¨ande zur L¨osung des Innovationsproblems. Dabei kann die L¨osung nicht aus bereits vorhandenen Best¨anden
362
G. K¨ uppers
an Wissen zusammengesetzt werden. Vorhandenes Wissen dient vielmehr nur der Problemdefinition und der Entwicklung von Suchstrategien f¨ ur die Produktion von neuem Wissen, das f¨ ur die Konstruktion einer Innovation die Voraussetzung ist. Innovationsnetzwerke erzeugen aus altem Wissen neues Wissen, aus struktureller Information zweckm¨aßige Bedeutung. Die Ressource Wissen kann den Innovationsnetzwerken auf unterschiedliche Weise zur Verf¨ ugung gestellt werden: Einmal als Information u ¨ber Datenbanken und Informationssysteme; zum anderen u ¨ber die Expertise ihrer Mitglieder. ¨ Uber letztere wird auch der Zugang zu impliziten Formen des Wissens garantiert, dem beim Innovationsprozeß ebenfalls große Bedeutung zukommt. Innovationen m¨ ussen auch gelingen und das setzt K¨onnen voraus im Umgang mit der Welt. Weil Innovationsnetzwerke auch unterschiedliche Kompetenzen integrieren m¨ ussen, k¨ onnen sie nicht personell abgeschlossen sein. Jeder, der etwas zu sagen weiß, kann Mitglied werden. Das unterscheidet Innovationsnetzwerke von klassischen Organisationen, wo die Mitgliedschaft in der Regel vertraglich geregelt ist. Innovationsnetzwerke sind entstanden, um die Begrenztheit von Organisationen im Umgang mit dem Innovationsproblem zu u ¨berwinden. Ihre unschlagbare Leistungsf¨ ahigkeit entfalten Organisationen gerade dort, wo das Problem definiert ist, die Ressourcen zu seiner L¨osung bekannt sind und die Aufteilung in Teilprobleme mit beschr¨ ankter Reichweite gelingt. Bei komplexen Problemen, wo noch nicht einmal das Problem scharf definiert ist, kommt es zum oft zitierten Organisationsversagen [26]. Innovationsnetzwerke sind hier wegen ihrer Selbstorganisation die einzige Ausnahme. Dabei ist es gleichg¨ ultig, ob man sie im strengen Sinne als selbstorganisiert, d.h. als nicht von außen eingesetzt, oder als nur selbstregulierend betrachtet. Im ersten Fall erwartet man, daß die operationale Schließung eine Folge der Wahrnehmung von Innovationsunsicherheiten ist, die im Netzwerk ihren Ausgangspunkt hat, beim zweiten mal wird die zirkul¨are Schließung wie beim Thermostaten von außen eingerichtet. F¨ ur die Entstehung der Innovation ist wie f¨ ur die Strukturbildung in nat¨ urlichen Systemen, allein die operationale Schließung verantwortlich.
4
Die Simulation von Innovationsnetzwerken
F¨ ur eine laborexperimentelle Studie zur Simulation von Innovationsnetzwerken in Kleingruppen m¨ ussen diese theoretischen Vorgaben entsprechend operationalisiert werden. Es muß eine Aufgabenstellung gefunden werden, die komplex genug ist, um die Anforderungen zu stellen, die wir als typisch f¨ ur den Innovationsprozeß angesehen haben: Die technische Machbarkeit, der o¨konomische Erfolg und die Integrabilit¨ at in einen sozialen Kontext. Als eine solche Aufgabenstellung haben wir die Erfindung eines Brettspiels gew¨ahlt, das zwei Bedingungen gen¨ ugen soll: Es soll Gebrauchsmusterschutz erhalten und es soll marktf¨ahig sein. Damit soll sichergestellt sein, daß das Spiel wirklich neu ist. Das heißt, vorhandene Spiele sollten nicht einfach kopiert werden. Gleichzeitig soll das zu erfindende Spiel interessant genug sein, um sich auf dem Markt behaupten und in eine soziale Praxis Spiel“ integriert werden zu k¨onnen. Beide Anforderungen ” legen aber nicht fest, f¨ ur welchen Spieltypus (Gesellschaftsspiel, Kommunikati-
Zur Selbstorganisation sozialer Systeme
363
onsspiel, Umweltspiel etc.) eine Gruppe sich im Einzelfall entscheidet und wie sie das Spiel konkret realisiert. Dieser Spielraum wird durch die Vorgabe gewisser Materialien weiter eingeengt, die zwar ein Brettspiel zwingend machen, aber nicht festlegen, mit welcher Einteilung des Bretts und welchen Figuren, mit welchen Spielz¨ ugen und Regeln das Spiel gespielt wird. Die Aufgabe besteht also darin, eine Spielidee zu realisieren, so daß Idee und Realisation einander bedingen. Konkret heißt dies, daß aus allgemeinen Materialien (Papier, Farbe, Stifte etc.) Spielmaterialien wie z.B. Figuren, W¨ urfel, Ereigniskarten etc. hergestellt und f¨ ur ihre Benutzung Regeln entworfen werden m¨ ussen. Spielmaterial und Regeln sollen dann auch noch eine bestimmte Spielidee realisieren. Es liegt auf der Hand, daß diese komplexe Gesamtstruktur – das Spiel – durch die gemachten Vorgaben nicht determiniert ist, sondern durch die Erfindung“ geeigneter Komponenten (Figuren, Regeln etc.) ” und ihrer Verkn¨ upfung in sich stimmig“ aufgebaut werden muß. Dabei kann ” das Problem nicht in Teilprobleme zerlegt werden (wie z.B. in die Entwicklung von Regeln, Konstruktion von Figuren, Einteilung des Brettes in Felder etc.), weil nicht jede Kombination von in sich sinnvollen Elementen ein Spiel ergibt. Auf einer einmal gew¨ ahlten Bretteinteilung k¨onnen nur bestimmte Figuren mit entsprechend passenden Regeln eine Spielidee realisieren und als neues Spiel Gestalt gewinnen. Mit anderen Worten, das Problem der Aufgabenl¨osung besteht in der Verbindung verschiedener Teile zu einem wohlgeformten Ganzen, wobei es entscheidend ist, daß die Teile ihre Funktion aus dem Ganzen erhalten und das Ganze allein u ¨ber die Beziehung seiner Teile existiert. Einer Gruppe von f¨ unf einander bis dahin unbekannten studentischen Versuchspersonen wurde die Aufgabe gestellt, ein Brettspiel zu erfinden. Als Spielmaterialien erhielt die Gruppe eine farbig gestaltete, digital-analoge BrettspielUnterlage, Steckkarten, W¨ urfel, Farbstifte und weiteres Hilfsmaterial wie z.B. Bastelwerkzeug. Das gesamte vorgelegte Material konnte umgestaltet und modifiziert werden. Es diente lediglich zur Anregung und kreativen Ideenfindung, nicht aber der fixen Vorgabe z.B. eines bestimmten Spieltyps.15 Die Gruppe wurde instruiert, anhand des gegebenen Materials ein Spiel zu erfinden, auf das sich potentiell Gebrauchsmusterschutz anmelden ließe. Es solle ein Spiel entworfen werden, das neu und gleichzeitig interessant genug ist, um sich auf dem Markt zu behaupten.16 Hierbei ist es erlaubt, die vorgegebenen Spielmaterialien zu erweitern, zu erg¨anzen, umzugestalten und zu ver¨andern. Des weiteren solle der Spielentwurf zum Abschluß der 2 1/4 st¨ undigen Sitzung in einem Protokoll schriftlich festgehalten sein. Der Konstruktionsprozeß wurde von zwei Videokameras aufgezeichnet. Die Videoaufnahmen sind die Daten f¨ ur die weitere Auswertung. 15 16
Eine ausf¨ uhrliche Darstellung des Designs findet sich in [15]. Der ¨ okonomische Erfolg und die Integrabilit¨ at in eine soziale Praxis wurde dadurch zur Randbedingung f¨ ur den Konstruktionsprozeß. Dies ist insofern eine Idealisierung als in realen Innovationsnetzwerken Repr¨ asentanten der Wirtschaft und der Praxis vertreten w¨ aren. Hier m¨ ussen die Konstrukteure diese Bedingungen mit ber¨ ucksichtigen.
364
G. K¨ uppers
Die Ergebnisse von Voruntersuchungen haben ergeben, daß der Konstruktionsprozeß eines Spiels mit folgenden Variablen beschrieben und interaktionsdiagnostisch untersucht werden kann: Spielmaterial Mit dieser Variablen werden die M¨oglichkeiten der Betrachtung, Funktionszuweisung und Formgebung des Materials beschrieben. Sie umfaßt die Beschreibung und Auswahl des Materials, seine sinnvolle Verwendung und Gestaltung. Spielregeln Diese Variable beschreibt die M¨oglichkeiten, mit der eine bestimmte Spielidee in Regeln umgesetzt werden kann. Sie legen die einzelnen Operationen und deren Reihenfolge im Spiel fest. Regeln u ¨ber Regeln bestehen in einer Festlegung von Bedingungen zur Regelanwendung. Spielz¨ uge Spielz¨ uge charakterisieren die konkreten M¨oglichkeiten, mit denen die Regeln in Verbindung mit dem Spielmaterial zu Mustern verbunden werden k¨ onnen. Spielstrategie Bei der Verkn¨ upfung und Interpretation von Spielregeln k¨onnen unterschiedliche Strategien verfolgt werden, die in dieser Variablen zusammengefaßt werden. Spielidee Diese Variable charakterisiert die verschiedenen M¨oglichkeiten, das Spielthema, den Spieltyp, die Zielgruppe und das Spielziel festzulegen. Jede dieser Variablen ist definiert auf einer Menge m¨oglicher Werte. Die Menge der m¨ oglichen Werte wird eingeschr¨ankt durch die Randbedingungen. In unserem Fall sind dies die externen Vorgaben Gebrauchsmusterschutz“ (Neuheit) ” und Marktf¨ ahigkeit“ (Interessantheit). Sie legen das Definitionsgebiet der Va” riablen fest. Die Variablenwerte sind in unserem Fall keine quantitativen Gr¨oßen, sondern bezeichnen verschiedene Eigenschaften einer Gr¨oße. Die Variable Spiel” regeln“ kann die Werte W¨ urfeln“, eine Ereigniskarte ziehen“, Vorr¨ ucken“, ” ” ” Aussetzen“ etc. annehmen. Sogar ein bestimmtes Assemble solcher Grund” ” werte“ ist als Variablenwert zul¨assig. Außerdem sind die einzelnen Variablenwerte unabh¨ angig voneinander; es gibt weder Nachbarschaftsbeziehungen (Topologie) noch Abst¨ ande (Metrik). Der Konstruktionsprozeß besteht nun darin, jeder Variablen einen bestimmten Wert zuzuweisen. Die Schwierigkeit der Konstruktion liegt darin, daß diese Wertzuweisungen nicht unabh¨angig voneinander vorgenommen werden k¨ onnen. Die Konstruktion eines Spiels ist ein gekoppelter Prozeß: die Variablen¨ anderungen h¨angen in nichtlinearer Weise voneinander ab. Eine Ver¨ anderung bei einer Variablen macht Ver¨anderungen bei anderen Variablen notwendig. Eine L¨osung des Konstruktionsproblems ist ein ganz bestimmtes n-Tupel von Variablenwerten, das sich gegen¨ uber neuen Vorschl¨agen der Ver¨ anderung als invariant erweist. Erst wenn die Gruppe sicher sein kann, daß die L¨ osung auch in der Umwelt Bestand haben wird, ist der Konstruktionsprozeß abgeschlossen. Den Konstruktionsprozeß innerhalb der Gruppe haben wir auf der Ebene der aufgabenorientierten Kommunikation beobachtet und untersucht.17 Betrachtet 17
Handlungen wie z.B. das Betrachten des Spielmaterials oder das Ausprobieren von Spielz¨ ugen werden dabei nur erfaßt u ¨ber begleitende Kommunikationsakte.
Zur Selbstorganisation sozialer Systeme
365
man den Kommunikationsprozeß, so kann man zun¨achst zwei Typen von Kommunikation unterscheiden. Es werden Vorschl¨age gemacht und Entscheidungen gef¨ allt, die die Zuweisung von Werten bei den einzelnen Variablen zum Gegenstand haben.18 Laß uns ein Abenteuerspiel machen“ oder wollen wir das ” ” nicht einfach mal ausprobieren“ sind typische Beispiele f¨ ur solche Vorschl¨age. Vorschl¨ age werden von den Gruppenmitgliedern eingebracht, die Entscheidung, einen bestimmten Vorschlag zu akzeptieren, trifft die Gruppe. Die Vorschl¨age sind breit gestreut und zun¨achst gleichberechtigt, eine Entscheidung ist eine Entscheidung f¨ ur einen und gegen alle u ¨brigen Vorschl¨age. Entscheidungen sind Selektionsprozesse, die aus der Zahl m¨oglicher Alternativen eine ausw¨ahlen. Da Entscheidungen im Gegensatz zu den Vorschl¨agen von der Gruppe getragen werden, muß die Gruppe u ugen. Die Frage, ob der ¨ber Selektionskriterien verf¨ Konstruktionsprozeß als ein Selbstorganisationsprozeß verstanden werden kann, spitzt sich also zu auf die Frage, wie sich die Gruppe im Konfliktfall auf eine Entscheidung einigt. Externe Anweisungen liegen nicht vor und intern hat niemand die Macht der Entscheidung. Jede Entscheidung muß im Konfliktfall also begr¨ undet werden k¨ onnen. Zwei M¨oglichkeiten stehen daf¨ ur zur Verf¨ ugung. Einmal der Verweis auf andere Spiele und zum anderen der Verweis auf bereits getroffene Entscheidungen. Bei der Analyse der Videoaufzeichnungen des Konstruktionsprozesses konnte gezeigt werden, daß alle Entscheidungen mit Verweis auf bereits getroffene Entscheidungen gef¨allt wurden. Der Konstruktionsprozeß ist operational geschlossen. Ein Verweis auf andere Spiele kam gelegentlich vor, aber nur bei Vorschl¨ agen. Er diente dort eher der Illustration. Beispiele: Ma” chen wir das doch wie bei Pf¨anderspielen“, ... das ist doch wie bei Monopoly“ ” oder Kennt ihr das Spiel Stratego?“. ”
5
Ergebnisse
Die folgenden Grafiken verdeutlichen, wie der Konstruktionsprozeß sich zunehmend operational schließt. Stehen im Zeitfenster 1 die verschiedenen Beitr¨age noch ohne Bezug zueinander, werden sie im sp¨ateren Verlauf zunehmend voneinander abh¨ angig. Jeder neue Vorschlag und jede getroffene Festlegung muß sich vor dem Hintergrund bereits gemachter Festlegungen legitimieren. Die Grafiken zeigen die 5 Variablen der Spielentwicklung aufgetragen gegen die Zeit. Wird eine Variable w¨ahrend des Konstruktionsprozesses thematisiert, so ist ein solches Ereignis entsprechend seiner Dauer auf der entsprechenden Variablenlinie durch einen Balken gekennzeichnet. Die Thematisierung einer Variablen geschieht in unterschiedlicher Weise. Es werden Vorschl¨age gemacht, einer Variablen einen bestimmten Wert zuzuweisen; die Vorschl¨age werden differenziert; irgendwann wird u ¨ber die verschiedenen Vorschl¨age entschieden und immer wieder werden Vorschl¨ age und Entscheidungen bewertet. Vorschl¨age machen, sie differenzieren, Entscheidungen f¨allen und Vorschl¨age wie Entscheidungen bewerten sind quasi die Elementarereignisse des Konstruktionsprozesses. Diese Ereig18
Zus¨ atzlich werden Vorschl¨ age und Entscheidungen differenziert, systematisiert und bewertet.
366
G. K¨ uppers
Abb. 1. Konstruktionsprozeß des Spiels, Zeitfenster 1
nisse sind, wie bereits erw¨ ahnt, nicht unabh¨angig voneinander. Wegen der nichtlinearen Abh¨ angigkeit der Variablen k¨onnen Variablenwerte nicht unabh¨angig voneinander festgelegt werden. Alle Ereignisse h¨angen ab von fr¨ uheren Ereignissen. Eine Bewertung von Vorschl¨agen und Entscheidungen ist nur m¨oglich im R¨ uckgriff auf bereits getroffene Entscheidungen. Diese R¨ uckbezug auf fr¨ uhere Ereignisse ist in den Grafiken als Pfeil eingezeichnet. Der Pfeil markiert die Variable, die f¨ ur eine Ver¨ anderung der Ausgangsvariablen als Referenz herangezogen wurde. Insgesamt zeigt die Grafik, daß der Konstruktionsprozeß als Selbstorganisationsprozeß abl¨auft. Die nach dem eben geschilderten Verfahren gemachte Auswertung des Konstruktionsprozeß zeigt noch andere Charakteristika, auf die ich noch kurz eingehen m¨ ochte. Zun¨ achst f¨ allt auf, daß der Konstruktionsprozeß in Phasen abl¨auft. Die einzelnen Phasen unterscheiden sich dadurch, daß u ¨berwiegend nur bestimmte Variablen thematisiert werden. 5.1
Phase I Sammlungs- und Orientierungsphase
In der ersten Phase wird u ¨berwiegend die Variable Spielidee“ thematisiert. Im ” Vordergrund des Konstruktionsprozesses steht die Orientierung dar¨ uber, was es f¨ ur verschiedene Spieltypen und Spielarten gibt, die in einem Brainstorming zusammengetragen werden. Spielparameter wie Altersgruppe, Konkurrenz- versus Kooperationsprinzip etc. werden angesprochen, aber es fehlt die z¨ undende Idee“ ” f¨ ur ein neues Spiel. Nur ab und zu wird die Variable Material“ thematisiert. ” Das vorhandene Material wird im Hinblick auf seine Brauchbarkeit betrachtet. Die Atmosph¨ are ist konzentriert aber gespannt, da noch nichts Konkretes zur Idee des neuen Spiels herausgekommen ist.
Zur Selbstorganisation sozialer Systeme
367
Abb. 2. Konstruktionsprozeß des Spiels, Zeitfenster 2
Abb. 3. Konstruktionsprozeß des Spiels, Zeitfenster 3
5.2
Phase II Kreative Phase
In der zweiten Phase werden fast ausschließlich die Variablen Spielidee“ uns ” Regeln“ angesprochen. Der Name des Spiels Der Schatzmeister“ ist gefunden. ” ” Dies setzt ein sehr kreativen Prozeß in der Gruppe in Gang, in dem die grundlegende Spielidee differenziert und Regeln entwickelt werden. (z.B. Rollentausch“ ”
368
G. K¨ uppers
Abb. 4. Konstruktionsprozeß des Spiels, Zeitfenster 4
als neue Spielidee). Es kommt hierbei zu einer sehr lebhaften Interaktion zwischen den Gruppenmitgliedern. 5.3
Phase III 1. Spielphase
Die in der zweiten Phase entwickelten Ideen und Regeln werden jetzt spielerisch umgesetzt, und ihre Anwendbarkeit wird dabei ausprobiert. Die Variable Spie” len“ wird erstmalig angesprochen. Wenn beim Spielen ein Problem auftaucht, dann wird das Spielen kurz unterbrochen, um u ¨ber die jeweilige Spielregel oder Spielidee zu diskutieren. (z. B. Einf¨ uhrung der dritten Karte“). Grundlegend ” bei diesen Diskussionen ist jedoch immer der praktische Bezug zum Spielen. Die Gruppe ist sehr konzentriert, und es herrscht ein gutes Gruppenklima. 5.4
Phase IV Basteln
Um weiterspielen zu k¨ onnen, muß das vorliegende Material entsprechend ver¨ andert und bearbeitet werden. Ver¨anderungen der Variablen Material“ wer” den im Kontext der Festlegungen der Variablen Spielidee“ und Spielregeln“ ” ” diskutiert. Es wird dabei ruhig und konzentriert gearbeitet. 5.5
Phase V 2. Spielphase
Nachdem nun das entsprechende Material zur Verf¨ ugung steht, kann weitergespielt werden. Auch hier werden in Bezug zum konkreten Spiel noch weitere Differenzierungen an der Spielidee und an den Regeln vorgenommen. In beiden Spielphasen werden viele Entscheidungen u ¨ber konkrete Vorschl¨age getroffen.
Zur Selbstorganisation sozialer Systeme
369
Außerdem macht das Spielen der Gruppe in beiden Phasen sichtlich Spaß, was sehr motivationsf¨ ordernd wirkt. 5.6
Phase VI Erstellen eines Regelkatalogs
In einer relativ kurzen Phase wird nur die Variable Regeln“ angesprochen. Die ” Regeln sind praktisch ausprobiert worden und werden nun in einem Regelkatalog zusammengestellt. 5.7
Phase VII Die Konstruktion des Endes
In dieser Phase vergr¨ oßert sich das angesprochene Variablenspektrum wieder. Beim Erstellen des Regelkatalogs war das Problem aufgetaucht, wie das Ende des Spiels gestaltet werden soll. Am Anfang werden dazu einige kreative Vorschl¨ age vorgebracht, aber nach kurzer Zeit ufert die Diskussion dar¨ uber aus, und die Gruppe kann sich nicht auf eine von allen akzeptierte L¨osung einigen. Am Ende ist darum das Gruppenklima ¨außerst gespannt, und die Aufmerksamkeitsbzw. Konzentrationsf¨ ahigkeit einzelner Mitglieder bricht stellenweise v¨ollig zusammen. Es bilden sich zwei Fronten zu dem Problem, wie der Abschluß des Spiels konkret aussehen soll. Erst nach einer f¨ ur diese Gruppe ungew¨ohnlich langen und kontrovers gef¨ uhrten Diskussion kommt man zu einer befriedigenden L¨ osung des Problems. Dieser letzte Teil ist im Vergleich zu den u ¨brigen Phasen u ¨berdurchschnittlich lang, und wird darum auch von allen Mitgliedern als besonders anstrengend empfunden. Aber am Ende ist die gestellte Aufgabe – ein Brettspiel zu entwickeln – erfolgreich gel¨ost worden. Jetzt wird sich der allgemeinen Zufriedenheit allen Mitgliedern u ¨ber das Spiel versichert. Die Spannung wird vollst¨ andig abgebaut und Zufriedenheit u ¨ber die erfolgreiche Zusammenarbeit ist allen Mitgliedern anzumerken. Diese Phaseneinteilung richtet sich haupts¨achlich nach der unterschiedlichen Thematisierung der einzelnen Variablen. Sie korrespondiert mit inhaltlichen Aspekten des Konstruktionsprozesses. Aber auch andere Phasen im Verlauf des Konstruktionsprozesses lassen sich unterscheiden. So kann man z.B. den Prozeß nach der Dichte der Ereignisse einteilen und so ereignisreiche von ereignisarmen Prozessen trennen. Oder man kann nach Krisen der Entwicklung fragen. Solch kritische Phasen zeichnen sich durch eine Dominanz von Bewertungen als Kommunikationsereignisse aus. Es werden keine neuen Vorschl¨age gemacht und keine Entscheidungen getroffen. Der Prozeß tritt quasi auf der Stelle, ohne aber die in den Bewertungen gemachten Problematisierungen als irrelevant ignorieren zu k¨ onnen. Inwieweit diese inhaltlichen Krisen mit Krisen in der sozialen Dimension zusammenh¨ angen muß noch u uft werden. Eine Interpretation k¨onnte ¨berpr¨ sein, daß bei funktionierendem Konstruktionsprozeß es zu keinen sozialen Krisen kommt und der level of groupness“ deshalb niedrig ist. Treten aber inhaltliche ” Krisen auf, muß ein hoher level of groupness“ erreicht werden, um die Krise zu ” meistern. Interessant ist auch, daß es o¨fter Zust¨ande der Entwicklung gibt, in denen der Konstruktionsprozeß inneh¨alt und eine Zusammenfassung des bisherigen Ablaufs mit einer kritischen W¨ urdigung folgt. Hier entsteht der Eindruck, daß
370
G. K¨ uppers
solche Zust¨ ande im Prinzip eine L¨osung des Konstruktionsprozesses beinhalten, die sich aber im Verlauf der kritischen Bewertung als nicht tragf¨ahig erweisen. Theoretisch w¨ urde man solche Zust¨ande als instabile Eigenl¨osungen bezeichnen. Dabei ist es unerheblich, ob die Instabilit¨at eine Folge der mangelnden Ausarbeitung im Detail oder einer Inkonsistenz der Konstruktion ist.
6
Zusammenfassung
Mit der Theorie der Selbstorganisation haben wir ein Konzept vorgestellt, das im Unterschied zur soziologischen Systemtheorie die sozialen Mechanismen benennt, die das Soziale als Ganzes und in seinen Teilsystemen ausgrenzt und strukturiert: die zirkul¨ are Kausalit¨at zwischen sozialer Ursache – die Wahrnehmung von Unsicherheit – und sozialer Wirkung – soziale Aktivit¨aten zur Reduzierung der Unsicherheit. Anders als in der Luhmann’schen Systemtheorie wird bei diesem Ansatz der Mechanismus der operationalen Schließung und die mit ihm verbundene Entstehung sozialer Ordnung auf beobachtbare soziale Prozesse zur¨ uckgef¨ uhrt. Der Mechanismus der Selbstorganisation verbindet die Ebene des sozialen Handelns mit der sozialer Strukturen: Die Wahrnehmung von Unsicherheit und der Umgang mit ihr produzieren Regeln des erfolgreichen, d.h. sozial akzeptierten Umgangs mit Unsicherheit: die soziale Akzeptanz der Unsicherheit stabilisiert den praktischen Umgang mit ihr. Bew¨ahren sich die Regeln der Unsicherheitsbew¨ altigung werden sie institutionalisiert und sind als Absprachen, Vertr¨ age, Satzungen und Institutionen zu beobachten. Diese Ordnung des Sozialen bleibt solange stabil, wie es ihr gelingt, die soziale Erwartung an ihre Unsicherheitsbew¨ altigung aufrecht zu erhalten. Einzelne Abweichungen im sozialen Verhalten k¨ onnen daher die soziale Ordnung nicht gef¨ahrden. Die Soziale Ordnung erweist sich als robust. Mit dieser Robustheit sozialer Ordnung haben alle Versuche, soziale Entwicklungen zu steuern, zu tun. Soziale Strukturen lassen sich erst dann verandern, wenn die den Strukturen zugrundeliegenden sozialen Prozesse der Unsi¨ cherheitsbew¨ altigung sich ¨ andern: Erst eine Ver¨anderung in der Wahrnehmung von Unsicherheit und der daraus resultierende Bedarf an Regulierung f¨ uhrt zu sozialem Wandel. Das heißt aber nicht, daß man ihn nicht herbeif¨ uhren kann. Die Innovationsnetzwerke sind ein Instrument ihn zu gestalten. Ihre Funktion besteht gerade darin, die Produktion von Wissen und die Konstruktion sozialer Praxis miteinander zu verbinden. Die Simulation eines Innovationsprozesses hat diesen Bezug als notwendige Voraussetzung f¨ ur den Erfolg verdeutlicht. Innovationsnetzwerke sind insofern extern eingerichtete, zirkul¨ar-kausal operierende Sozialtechniken zur Gestaltung neuer Technologien und damit freilich auch des gesellschaftlichen Wandels. Nicht der Kontext steuert die Entwicklung komplexer, selbstorganisierender Systeme, sondern die Integration des Kontextes in die Produktion neuer sozialer und technischer Innovationen [30].
Zur Selbstorganisation sozialer Systeme
371
Literatur 1. Beck, U. (1986) Risikogesellschaft. Auf dem Weg in eine andere Moderne. Suhrkamp, Frankfurt am Main 2. Beck, U. (1988) Gegengifte. Die organisierte Unverantwortlichkeit. Suhrkamp, Frankfurt am Main 3. Gibbons, M. (1995) The New Production of Knowledge: The Dynamics of Science and Research in Contemporary Societies. Sage, London et al. 4. Gierer, A. (1986) Physik der biologischen Gestaltbildung: In: Dress, A., Hendrichs, H., K¨ uppers, G. (Hrsg.) Selbstorganisation. Die Entstehung von Ordnung in Natur und Gesellschaft. Piper, M¨ unchen, pp. 103–120 5. Gripp-Hagelstange, H. (1995) Niklas Luhmann. Eine erkenntnistheoretische Einf¨ uhrung. Wilhelm Fink, M¨ unchen 6. Haken, H. (1983) Erfolgsgeheimnisse der Natur: Synergetik: Die Lehre vom Zusammenwirken. 3. Auflage, Dt. Verlags-Anstalt, Stuttgart 7. Herbold, R., Krohn, W., Weyer, J. (1991) Technikentwicklung als soziales Experiment. Forum Wissenschaft 8 (4), 26–32 8. Japp, K. P. (1996) Soziologische Risikotheorie: Funktionale Differenzierung, Politisierung und Reflexion. Juventa-Verlag, Weinheim 9. Kiss, G. (1993) Einf¨ uhrung in die soziologischen Theorien. Westdeutscher Verlag GmbH, Opladen 10. Kneer, G., Nassehi, A. (1994) Niklas Luhmanns Theorie sozialer Systeme. 2. Auflage, Wilhelm Fink, M¨ unchen 11. Knorr, K. (1997) The Organization of Embeddedness: A Constructivist Approach to Micro-Macro Relations. In: Smatka, J. (ed.) Varieties of Structural Approach (in print) 12. Kowol, U., Krohn, W. (1994) Innovationsnetzwerke. IWT-Papers 6/94, Bielefeld, pp. 13 + 24 13. Kowol, U. (1996) Innovationsnetzwerke. Rekursive Technikentwicklung zwischen Nutzungsvisionen und Verwendungspraxis. (im Erscheinen) 14. Krohn W., K¨ uppers G., Paslack R.(1987) Selbstorganisation - Zur Genese und Entwicklung einer wissenschaftlichen Revolution. In: Schmidt S. J. (Hrsg.) Der Diskurs des Radikalen Konstruktivismus. Suhrkamp, Frankfurt am Main, pp. 441– 465 15. Krohn W., K¨ uppers G., Nowak W. (1992) Recursive Interaction and the Dynamics of Knowledge Production in Research Groups: An Empirical Simulation of Knowledge Production. In: Tschacher, W., Schiepek, G., Brunner, E. J. (eds.) Self-Organisation and Clinical Psychology. Springer, Heidelberg, pp. 434–451 16. Krohn W., K¨ uppers G. (1989) Die Selbstorganisation der Wissenschaft. Suhrkamp, Frankfurt am Main 17. K¨ uppers, G. (1982) Die Nobelpreise in Physik und Chemie 1901-1929: Materialien zum Nominierungsprozess. Report Wissenschaftsforschung 23. Kleine Verlag, Bielefeld 18. K¨ uppers G., Krohn W. (1992) Selbstorganisation und Funktion sozialer Systeme. In: Krohn W., K¨ uppers G. (Hrsg.) Emergenz - Die Entstehung von Ordnung, Organisation und Bedeutung. Suhrkamp, Frankfurt am Main 19. K¨ uppers, G. (1996) Selbstorganisation: Selektion durch Schließung. In: K¨ uppers, G. (Hrsg.) Chaos und Ordnung: Formen der Selbstorganisation in Natur und Gesellschaft. Reclam, Stuttgart, pp. 122–149 20. Luhmann, N. (1984) Soziale Systeme. Grundriß einer allgemeinen Theorie. Suhrkamp, Frankfurt am Main
372
G. K¨ uppers
¨ 21. Luhmann, N. (1986) Okologische Kommunikation: Kann die moderne Gesellschaft sich auf ¨ okologische Gef¨ ahrdungen einstellen? Westdeutscher Verlag, Opladen 22. Luhmann, N. (1990) Die Wissenschaft der Gesellschaft. Suhrkamp, Frankfurt am Main, p. 28 23. Luhmann, N. (1991) Selbstorganisation und Information im politischen System. In: Niedersen, U. (Hrsg.) Selbstorganisation. Jahrbuch f¨ ur Komplexit¨ at in den Natur-, Sozial- und Geisteswissenschaften. Band 2, Duncker & Humblot, Berlin, p. 13 24. Luhmann, N. (1991a) Soziologie des Risikos. De Gruyter, Berlin et al. 25. Luhmann, N. (1997) Die Gesellschaft der Gesellschaft. Suhrkamp, Frankfurt am Main 26. Mill, U., Weißbach, H.-J. (1992) Vernetzungswirtschaft. Ursachen, Funktionsprinzipien, Funktionsprobleme. In: Malsch, Mill, U. (Hrsg.) ArBYTE: Modernisierung der Industriesoziologie? Berlin 27. Sobel, D. (1995) Longitude: The True Story of a Lone Genius Who Solved the Greatest Scientific Problem of His Time. Fourth Estate, London 28. Turner, J. H. (1986) The Structure of Sociological Theory. 4., Dorsey, Chicago (Ill.) 29. von Foerster, H. (1984) Observing Systems. 2. Intersystems Publications, Seaside (CA) ¨ 30. Wilke, H. (1983) Entzauberung des Staates: Uberlegungen zu einer sozietalen Steuerungstheorie, Athen¨ aum-Verlag, K¨ onigstein/Ts. 31. Willke, H. (1995) Das intelligente Unternehmen. In: Beratergruppe Neuwaldegg. Service Fachverlag, Wien
Teil VIII
¨ Okonomische Systeme
374
¨ VIII. Okonomische Systeme
In der dynamischen Wirtschaftstheorie werden nichtlineare Gleichungen benutzt, um ¨ okonomische Grenzzyklen, quasi-periodisches Verhalten, Bifurkationssequenzen und chaotische Entwicklungsmuster zu modellieren. Das Anwendungsproblem allerdings besteht darin, diese Modelle in den großen Datenmassen großskaliger ¨ okonomischer Systeme zu erkennen. Als praktisches Beispiel wird eine Anwendung der fraktalen Geometrie bei der Analyse von B¨orsenzeitreihen untersucht.
¨ Nichtlineare Dynamik in der Okonomie Hans-Walter Lorenz Wirtschaftswissenschaftliche Fakult¨ at, Friedrich-Schiller-Universit¨ at, D–07740 Jena, Germany, e-mail:
[email protected] 1
Einleitung
Die dynamische Wirtschaftstheorie besch¨aftigt sich mit der modellhaften Beschreibung von Ver¨ anderungen wirtschaftlicher Variablen im Zeitablauf. Als Modell“ wird in diesem Zusammenhang ein mathematisch beschreibbares ” Ger¨ ust von Verhaltensweisen und technischen Zusammenh¨angen bezeichnet, welches letztlich dynamische Systeme in Form von Differenzen- oder Differentialgleichungssystemen definiert. Die Ver¨anderung volkswirtschaftlicher Variablen wie z.B. des Bruttosozialprodukts, der Inflationsrate oder der Arbeitslosenquote und betriebswirtschaftlicher Gr¨ oßen wie dem Unternehmensumsatz oder der Verweildauer in Produktionswarteschlangen werden mit diesem Ansatz grunds¨atzlich als das Ergebnis der Interaktion wirtschaftlicher Einheiten angesehen, bei denen in verschiedenster Form Verkn¨ upfungen zwischen aufeinanderfolgenden Zeitpunkten zu verzeichnen sind. Die entstehenden dynamischen Systeme k¨onnen dabei ausschließlich deterministischer Natur sein; in vielen dynamischen ¨okonomischen Betrachtungen wird jedoch angenommen, daß die Entwicklung wirtschaftlicher Variablen auch von weiteren, exogen bestimmten, sowohl ¨okonomischen als auch nicht-¨ okonomischen Gr¨ oßen beeinflußt wird. Die allgemeinste Form dynamischer okonomischer Systeme lautet damit bei Unterstellung eines z.B. diskreten Zeit¨ konzeptes x1,t = f1 (x1,t−1 , x2,t−1 , . . . , xn,t−1 ) + µ1,t , x2,t = f2 (x1,t−1 , x2,t−1 , . . . , xn,t−1 ) + µ2,t , .. . xn,t = fn (x1,t−1 , x2,t−1 , . . . , xn,t−1 ) + µn,t ,
(1)
wobei die exogenen Zufallsvariablen µi , i = 1, . . . , n, h¨aufig als normalverteilte Zufallsvariablen mit dem Mittelwert Null und vorgegebener Varianz angenommen werden. In einer großen Zahl dynamischer ¨okonomischer Modelle ist unterstellt worden, daß die Funktionen fi , i = 1, . . . , n, in Gl. (1) linear sind. Der wichtigste Grund f¨ ur diese Annahme in den 1940er Jahren (d.h. dem eigentlichen Beginn der mathematischen Wirtschaftstheorie) bis in die 1960er Jahre d¨ urfte darin gesehen werden, daß in der Regel nur f¨ ur lineare dynamische Systeme — und auch meist nur, wenn sie niedrig-dimensional waren — analytische Aussagen zu ihrem dynamischen Verhalten getroffen werden konnten. Handelte es sich um h¨oherdimensionale Systeme, dann konnten mit Hilfe der linearen Algebra zwar h¨aufig
376
H.-W. Lorenz
Stabilit¨ atseigenschaften von Fixpunkten abgeleitet oder in begrenztem Ausmaß Aussagen zu den Bedingungen regul¨aren oszillierenden Verhalten getroffen werden; interessantere dynamische Ph¨anomene — sowohl von einem ¨okonomischen als auch formalen Standpunkt gesehen — konnten und k¨onnen mit solchen linearen dynamischen Systemen jedoch nicht abgebildet werden. Lineare dynamische Systeme k¨onnen in vielen ¨okonomischen Umfeldern bei Unterstellung entsprechender Verhaltensweisen und technisch-¨okonomischer Be¨ ziehungen entstehen. Bei der Mehrzahl aller in der Okonomik betrachteten funktionalen Beziehungen handelt es sich jedoch nicht um unumst¨oßliche Wahrheiten, sondern um zweckgebundene Annahmen zur Beschreibung eines bestimmten — u.U. nicht existierenden, sondern alls erstrebenswert erachteten — wirtschaftlichen Ph¨ anomens. In diesem Sinne stellen lineare funktionale Beziehungen und entsprechende lineare dynamische Systeme nur eines von vielen m¨oglichen Modellszenarien dar; es k¨ onnte gesagt werden, daß lineare Systeme ein Maß von Null in der Palette der m¨ oglichen Modellierungsszenarien dynamischer ¨okonomischer Prozesse aufweisen. Die Mehrzahl formaler ¨okonomischer Modelle wurde jedoch — ohne auf m¨ ogliche Dynamisierungen und damit verbundene Schwierigkeiten bei der Untersuchung der entstehenden dynamischen Systeme Bezug zu nehmen — traditionellerweise in allgemeinster Weise als nichtlineare Systeme formuliert. Gelegentlich wurden die Nichtlinearit¨aten explizit begr¨ undet, wie dies insbesondere bei dem wichtigen Konzept der sog. (neo-) klassischen Produktionsfunktion — d.h. der funktionalen Beziehung zwischen dem Einsatz von sog. Produktionsfaktoren wie Arbeit, Kapital und Boden und der Menge der produzierten G¨ uter auf Unternehmens- oder Volkswirtschaftsebene — der Fall war. Eine Vielzahl weiterer, grunds¨ atzlich nichtlinearer wirtschaftlicher Beziehungen k¨onnte an dieser Stelle genannt werden. Interessanterweise ist auch in vielen traditionellen Modellen der dynamischen Wirtschaftstheorie urspr¨ unglich von allgemein formulierten, d.h. Nichtlinearit¨ aten grunds¨atzlich nicht ausschließenden, funktionalen wirtschaftlichen Beziehungen ausgegangen worden. Um analytischen Schwierigkeiten auszuweisen, sind jedoch h¨aufig Vereinfachungen durchgef¨ uhrt worden, indem zum Beispiel Taylor-Approximationen (erster Ordnung) nichtlinearer dynamischer Systeme an Fixpunkten durchgef¨ uhrt und eigentlich nichtlineare Systeme somit in (lokal definierte) lineare dynamische System transformiert wurden. Neben diesen nichtlinearen Systemen, die der analytischen Einfachheit halber in lineare Systeme u uhrt wurden, existiert jedoch eine gr¨oßere Zahl von ¨berf¨ Modellen (vor allen der 1940er und 1950er Jahre), in denen explizit nichtlineare ¨ okonomische Beziehungen unterstellt wurden und entsprechende dynamische Systeme untersucht wurden. Die fehlende Verf¨ ugbarkeit angemessender analytischer Instrumente zur Untersuchung dieser Systeme hat viele der derzeitigen Autoren dazu veranlaßt, nicht-analytische, graphische und heuristische Argumente in der Diskussion dieser Systeme zu verwenden. Die in letzter Zeit von der Mathematik bereitgestellten Methoden und Theoreme erlauben es nicht nur, die in traditionellen nichtlinearen o¨konomischen Modellen heuristisch vermuteten dynamischen Eigenschaften zu best¨atigen. Es k¨onnen außerdem neue dynamische
¨ Nichtlineare Dynamik in der Okonomie
377
Modelle gezielt entwickelt werden, um beobachtbare wirtschaftliche Ph¨anomene abbilden zu k¨ onnen. Vor allem aber ist mit der Kenntnis der M¨oglichkeit komplexer, chaotischer Systemdynamik in einfachen dynamischen ¨okonomischen Modellen ein v¨ ollig neuer Forschungszweig der dynamischen Wirtschaftstheorie entstanden, in dessen Zentrum die Frage steht, welche Anforderungen ein ¨okonomisches Modell (bzw. die abgebildete Wirklichkeit) erf¨ ullen muß, um chaotische Verhaltensmuster zu erzeugen.1
2
Periodische Muster in ¨ okonomischen Modellen
Regul¨ are und anhaltende Oszillationen, d.h. solche dynamischen Ablaufmuster, die z.B. sinusf¨ ormigen Wellenbewegungen in der Zeit mit konstanter Amplitude entsprechen, sind in ¨ okonomischen Modellen aus zwei Gr¨ unden bedeutsam. • Viele ¨ okonomische Zeitreihen sind durch l¨angere Zeitr¨aume anhaltenden Wachstums und anschließende Schrumpfungsphasen gekennzeichnet. Wenn diese Zeitreihen die Entwicklung gesamtwirtschaftlicher ¨okonomischer Gr¨ oßen angeben, wird diese Abfolge von Expansions- und Schrumpfungsphasen als Konjunkturzyklus bezeichnet. Die Konjunkturtheorie, die sich mit der Erkl¨ arung der Entstehung dieser Zyklen besch¨aftigt, hat die beobachteten Auf- und Abschwungphasen stilisiert, indem sie von Unregelm¨aßigkeiten in den Zeitreihen abstrahierte. Der eigentliche“ Konjunkturverlauf wurde als ” sinusf¨ ormige Schwingung interpretiert (auf den ggf. ein Rauschen aufgelegt war). • Die Wirtschaftswissenschaften sind h¨aufig an der Stabilit¨at von Gleichgewichten, d.h. solchen Szenarien, in denen auf M¨arkten Angebot und Nachfrage bei einem bestimmten Wert des Preises des betrachteten Gutes u ¨bereinstimmen, interessiert. Ein solches Gleichgewicht ist stabil, wenn es mit dem Fixpunkt eines geeignet formulierten dynamischen Systems u ¨bereinstimmt und dieser Fixpunkt ein Attraktor ist.2 Wenn das betrachtete dynamische System jedoch strukturell instabil ist, dann k¨onnen m¨oglicherweise auch f¨ ur okonomisch sinnvolle Parameterwerte Bifurkationsph¨anomene auftreten, so ¨ daß ein f¨ ur bestimmte Parameterbereiche vormals stabiler Fixpunkt bei ei¨ ner Anderung der Parameter instabil wird und ein periodisches Verhalten des Modells beobachtet werden kann. Die Wirtschaftstheorie ist hier an regul¨ aren Oszillationen vor allem interessiert, um angeben zu k¨onnen, wann diese Oszillationen nicht eintreten werden. 1
2
Obwohl die meisten folgenden Beispiele der volkswirtschaftlichen Literatur entstammen, hat sich in letzter Zeit herausgestellt, daß nichtlineare Ph¨ anomene auch f¨ ur die Betriebswirtschaftslehre relevant sein k¨ onnen. Beispiele werden u.a. in Feichtinger und Kopel [15] und Weiber [43] vorgestellt. Auf den etwas komplexeren Fall eines sog. moving equilibrium, in dem zwar stets ein Gleichgewicht in dem erw¨ ahnten ¨ okonomischen Sinn herrscht, dieses Gleichgewicht sich jedoch best¨ andig aufgrund zus¨ atzlicher Effekte ¨ andert, soll hier aus Platzgr¨ unden nicht eingegangen werden.
378
H.-W. Lorenz
Im folgenden werden beide Motivationen zum Studium periodischen Verhaltens dynamischer Systeme in den Wirtschaftswissenschaften getrennt diskutiert, ¨ obwohl es inhaltliche Uberschneidungen der Modelle geben kann. 2.1
Konjunkturzyklen als periodische Ablaufmuster dynamischer Systeme
Die moderne Konjunkturtheorie, die das Konjunkturph¨anomen als formale Eigenschaft mathematischer dynamischer Systeme begreift, hat ihre Urspr¨ unge in den 1930er Jahren, als in den wegweisenden Arbeiten von Samuelson [38] und Hicks [21] gezeigt wurde, daß Zyklen bereits in einfachsten linearen ¨okonomischen Szenarien wie dem sog. Multiplikator-Akzelerator-Modell auftreten k¨ onnen. Es sei hierzu ein Land betrachtet, welches keinen Außenhandel betreibt.3 Der gesamte Konsum, Ct , aller Personen in dieser Wirtschaft in einer diskreten Periode t h¨ ange linear ab von dem Einkommen, Yt−1 , welches alle Erwerbst¨atigen in der vorhergehenden Periode t − 1 erzielt haben, d.h. Ct = c · Yt−1 ;
0 < c ≤ 1.
(2)
Die (Netto-)Investitionen It , d.h. die Erh¨ohung des Kapitalstocks in der betrachteten Wirtschaft, seien abh¨ angig von der Ver¨anderung des Einkommens in der Vorperiode, d.h. It = β · (Yt−1 − Yt−2 );
0 ≤ β ≤ 1.
(3)
Wenn das Einkommen in der Vorperiode gegen¨ uber dem Einkommen in der Vorvorperiode gestiegen ist, werden gem¨aß dieser Hypothese die Nettoinvestitionen steigen, weil die mit dem erh¨ohten Einkommen verbundene erh¨ohte G¨ uternachfrage nur produziert und angeboten werden kann, wenn der Kapitalstock entsprechend erh¨ oht wird. Ferner finden in jeder Periode Ersatzinvestitionen in H¨ ohe des nat¨ urlichen Kapitalverschleißes D (der sog. Abschreibungen) statt. ur den G¨ utermarkt — d.h. Yt = Ct + Aus der Gleichgewichtsbedingung4 f¨ It + D — kann die folgende inhomogene lineare Differenzengleichung zweiter Ordnung abgeleitet werden: Yt = (c + β) · Yt−1 − β · Yt−2 + D.
(4)
Bekanntlich erzeugen solche Differenzengleichungen oszillierende Zeitreihen, wenn komplexe Eigenwerte vorliegen. Diese k¨onnen f¨ ur bestimmte Parameterintervalle eintreten. Oszillationen mit konstanter Amplitude (d.h. demjenigen Szenarium, welches die traditionelle Theorie mit dem Konjunkturph¨anomen verbunden hat) treten in diesem System jedoch nur dann auf, wenn c = 1/β gilt, 3 4
Detaillierte Beschreibungen des folgenden Modells k¨ onnen in jedem Lehrbuch zur Konjunkturtheorie gefunden werden. Vgl. z.B. Gabisch und Lorenz [16]. Hierbei handelt es sich um eine fundamentale Aussage der sog. keynesianischen Makro¨ okonomik, die in jedem grundlegenden Lehrbuch beschrieben wird und deshalb an dieser Stelle nicht n¨ aher erl¨ autert werden soll.
¨ Nichtlineare Dynamik in der Okonomie
379
d.h., wenn die Parameter c und β in einem wohldefinierten Verh¨altnis zueinander stehen. Bei infinitesimaler Abweichung von dieser Relation kommt es entweder zu explodierenden oder ged¨ampften Schwingungen. Das erste diese Ph¨anomene ist ¨ okonomisch nicht sinnvoll, weil es sich zerst¨orende Wirtschaften implizieren w¨ urde; das zweite Ph¨ anomen steht nicht im Einklang mit dem Wunsch, anhaltende Oszillationen zu modellieren.5 Es kann somit festgehalten werden, daß es zwar m¨ oglich ist, in einfachsten linearen ¨okonomischen Modellen persistentes oszillierendes Verhalten der Systeme zu generieren, daß dies jedoch voraussetzt, daß ¨ okonomische Parameter in einer exakt einzuhaltenden numerischen Relation zueinander stehen. Weil ¨ okonomische Gr¨oßen aber nie mit absoluter Genauigkeit bekannt sein k¨ onnen, ist der Fall persistenter Oszillationen in Modellen, die zu linearen Differenzengleichungen zweiter oder h¨oherer Ordnung f¨ uhren, als eher esoterisch einzusch¨ atzen. ¨ Es folgt aus diesen Uberlegungen, daß zur Modellierung anhaltender Oszillationen andere Konzepte w¨ unschenswert sind. Eine M¨oglichkeit zur Erzeugung alternativer nichtlinearer dynamischer Systeme besteht darin, den G¨ ultigkeitsbereich eigentlich linear angelegter Modelle zu begrenzen und somit st¨ uckweise definierte Systems zu betrachten. In dem oben erw¨ahnten MultiplikatorAkzelerator-Modell k¨ onnen z.B. zwei Grenzen f¨ ur den Umfang der Investitionen wirksam werden. Bei positiven Bruttoinvestitionen (d.h. der Summe von It und den Ersatzinvestitionen in H¨ohe von D) ist es bei großen Werten der Differenz atzlich m¨oglich, daß die Kapazit¨at der Investitionsg¨ uterindusYt−1 −Yt−2 grunds¨ trie, Ic , u ¨bertroffen wird. Die Bruttoinvestitionen k¨onnen somit nicht gr¨oßer als die Kapazit¨ at dieser Industrie sein. Andererseits k¨onnen (Netto-) Investitionen nicht beliebig negativ sein, wenn ausgeschlossen sein soll, daß Maschinen aktiv zerst¨ ort werden. Sinnvollerweise muß unterstellt werden, daß die Abschreibungen, D, eine untere Schranke f¨ ur die Nettoinvestionen in dem Fall darstellen, daß uckweise die Differenz ∆Yt−1 : = Yt−1 − Yt−2 negativ ist. In Abb. 1 ist diese st¨ definierte Investitionsfunktion graphisch dargestellt.
Abb. 1. Eine st¨ uckweise-lineare Investitionsfunktion 5
Ged¨ ampfte Oszillationen in (4) k¨ onnen andererseits w¨ unschenswerte Ph¨ anomene sein, wenn zus¨ atzlich stochastische Zufallsvariablen die Entwicklung einer Wirtschaft beeinflussen.
380
H.-W. Lorenz
¨ Aus diesen Uberlegungen folgt, daß die Entwicklung der Wirtschaft durch das st¨ uckweise definierte System Ic − D wenn ∆ · Yt−1 > c · Yt−1 + Ic β Ic −D (5) Yt = (c + β) · Y ≥ ∆Yt−1 ≥ −D t−1 − β · Yt−2 + D wenn β β −D c · Yt−1 wenn β > ∆Yt−1 beschrieben wird. Es ist bei der Analyse des Systems (5) jedoch zu bedenken, daß die st¨ uckweise Definition der Entwicklung des Bruttosozialproduktes Yt nur dann Sinn macht, wenn unterstellt werden darf, daß die Parameter solche Werte annehmen, daß das grundlegende System (4) in der Tat an die oberen und unteren Schranken stoßen kann. Hicks [21] hat behauptet, daß der Parameter β (der sog. Akzelerator) in modernen Wirtschaften einen solchen Wert annimmt, daß das System (4) explosive Schwingungen erzeugt. Die modellierte Wirtschaft st¨ oßt somit zwangsl¨ aufig irgendwann gegen die angenommen oberen und unteren Schranken und erzeugt anhaltende Oszillationen, die wegen der unstetigen Entwicklung an den oberen und unteren Schranken und den unterschiedlichen Bewegungsgesetzen unsymmetrisch sind. Allerdings wird im vierten Abschnitt dieses Beitrags auf die Problematik einer empirischen Bestimmung“ von Para” metern in diesen einfachen dynamischen ¨okonomischen Modellen hingewiesen. Es erscheint vielmehr als w¨ unschenswert, solche dynamischen ¨okonomischen Modelle zu entwickeln, in denen ein oszillierendes Verhalten weitgehend unabh¨ angig von den Parameterwerten eintritt. Eines der ¨okonomisch einfachsten, vom formal-mathematischen Standpunkt jedoch durchaus ergiebigen Konjunkturmodelle in dieser Hinsicht wurde bereits 1940 von N. Kaldor vorgestellt. In dem zeit-stetigen Modell wurde unterstellt, daß sich das gesamte Einkommen einer Wirtschaft, Y , erh¨ oht, wenn die gesamtwirtschaftliche Nachfrage gr¨oßer als das gesamtwirtschaftliche Angebot ist. Die Differenz zwischen Nachfrage und ¨ Angebot kann entsprechend grundlegender Uberlegungen durch die Differenz von Investitionen und Sparen ausgedr¨ uckt werden. Die Anpassungsgleichung f¨ ur das gesamtwirtschaftliche Einkommen lautet demnach ∂ Y (t) = α · I(t) − S(t); ∂t
0 ≤ α ≤ 1,
(6)
wobei ∂/∂t bzw. ein Punkt u ¨ber einer Variablen die (partielle) Ableitung dieser Variablen nach der Zeit kennzeichnen. Zusammen mit der tautologischen Aussage, daß die (Netto-)Investitionen nichts anderes als die Ver¨anderung des Kapitalstocks in der Zeit sind, d.h. daß ∂ K(t) = I(t) ∂t
(7)
ist, konnte Kaldor [23] ein zwei-dimensionales Differentialgleichungssystem formulieren, welches imstande ist, endogene, persistente Konjunkturzyklen zu generieren, welche weitgehend unabh¨angig von den unterstellten Parameterwerten sind. Die Voraussetzung hierf¨ ur bestand in der Annahme geeigneter Nichtlinearit¨ aten in den funktionalen Abh¨angigkeiten der Investitionen und des Sparens
¨ Nichtlineare Dynamik in der Okonomie
381
(vgl. zu den angenommen Nichtlinearit¨aten auch Kalecki [24]). W¨ahrend Kaldor die Existenz von geschlossenen Orbits in diesem Modell mit graphischen, heuristischen Methoden nachzuweisen versuchte, ist es m¨oglich, mit bekannten S¨ atzen der nichtlinearen Dynamik die Existenz von Grenzzyklen zu beweisen. Vgl. hierzu insbesondere die Pionierarbeit von Chang und Smyth [11]. In der Abb. 2 ist der Phasenraum des Kaldor-Modells mit den Isoklinen ∂Y /∂t = 0 und ∂K/∂t = 0 dargestellt. Der nicht-monotone Verlauf des Graphen f¨ ur ∂Y /∂t = 0 folgt dabei aus den Annahmen zu den Investitions- und Sparfunktionen. F¨ ur große Werte des Anpassungskoeffizienten ist der Fixpunkt des Systems (6)-(7) bei gegebenen nichtlinearen Investitions- und Sparfunktionen instabil.
Abb. 2. Der Phasenraum des Kaldor-Modells zusammen mit einem Grenzzyklus
Die schraffierte Fl¨ ache in der Abb. 2 kennzeichnet eine Menge I an Zustandsvariablen, die als trapping region“ bezeichnet werden kann: sobald ein ” Zustandsvektor innerhalb der schraffierten Fl¨ache erreicht wird, verl¨aßt das System diesen Bereich nicht mehr. Zusammen mit der Instabilit¨at des Fixpunktes (Y ∗ , K ∗ ) folgt dann aus dem Poincar´e-Bendixson-Theorem,6 daß sich innerhalb des schraffierten Gebietes mindestens ein geschlossener Orbit (Grenzzyklus) befindet. Die Eindeutigkeit dieses geschlossenen Orbits kann mit diesem Theorem allerdings nicht garantiert werden. Um die Existenz multipler Grenzzyklen (welche abwechselnd stabil und instabil sind) auszuschließen, ist die Annahme bestimmter Symmetrie-Eigenschaften in den funktionalen Beziehungen erforderlich ¨ (vgl. [27] f¨ ur eine Ubersicht). 6
Einzelheiten zu dem Theorem und dem Nachweis seiner Voraussetzungen werden in [30] beschrieben.
382
H.-W. Lorenz
In anderen F¨ allen kann es schwierig sein, die Existenz von Zyklen mit Hilfe des Poincar´e-Bendixson-Theorems nachzuweisen, weil eine Menge I wie in der Abb. 2 nicht in einfacher Weise gefunden werden kann (vgl. z.B. [5]). Es ist deshalb in mehreren Arbeiten zu zeigen versucht worden, daß viele Modelle der traditionellen Konjunkturtheorie formal mit Prototyp-Modellen der dynamischen Systemtheorie u ¨bereinstimmen. So entspricht das Modell von Goodwin [18], mit dem die Entwicklung von Lohnquote und Arbeitslosenquote im Zeitablauf erkl¨ art werden sollte, formal dem aus der Biologie bekannten sog. LotkaVolterra-System. In anderen Arbeiten ist die Analogie traditioneller Modelle mit z.B. Relaxations-Oszillatoren oder der Li´enard-Gleichung demonstriert worden.7 Das Poincar´e-Bendixson-Theorem ist nur f¨ ur zwei-dimensionale, zeit-stetige dynamische Systeme definiert. Ferner stellen die erw¨ahnten Prototyp-Modelle in der Regel ebenfalls zwei-dimensionale dynamische Systeme dar. Aus diesem Grund — und weil die analytische Handhabbarkeit relativ bequem ist — bedienen sich viele neuere Arbeiten des Hopf-Bifurkationstheorems, mit dem — zumindest in zeit-stetigen Systemen — die Existenz von geschlossenen Orbits auch in h¨ oher-dimensionalen Systemen nachgewiesen werden kann. Bemerkenswert ist hierbei, daß mit dem Hopf-Bifuraktionstheorem gezeigt werden konnte, daß Zyklen auch in Modellen entstehen k¨onnen, die eigentlich nicht als Konjunkturmodelle konzipiert worden waren. Beispiele hierf¨ ur sind in Benhabib und Miyao [6], Benhabib und Nishimura [7], Boldrin [8] und einer Vielzahl weiterer Beitr¨ age vor allem der mehrsektoralen Wachtumstheorie aufgezeigt worden. Bei einer W¨ urdigung dieser Arbeiten ist allerdings zu bedenken, daß mit dem HopfTheorem lediglich eine lokale Bifurkation etabliert werden kann, d.h. daß die nachgewiesenen Zyklen sehr kleine Amplituden aufweisen oder nur in einer sehr kleinen Umgebung des Bifurkationspunktes auftreten k¨onnen. Die Stabilit¨at der m¨ oglicherweise nachgewiesenen lokalen Zyklen ist dar¨ uber hinaus in der Regel nicht zu bestimmen, weil in ¨okonomischen Modellen in der Regel keine Aussage u ur den stabilen Fall erforderlichen Vorzeichen gewisser dritter Ablei¨ber die f¨ tungen in den unterstellten funktionalen Beziehungen getroffen wird.8 2.2
Oszillierendes Verhalten als Negativkriterium
Mit Modellen der Wirtschaftstheorie sollen entweder beobachtete wirtschaftliche Ph¨ anomene erkl¨ art“ oder m¨ogliche Ergebnisse in fiktiven, aber potentiell ” m¨ oglichen Szenarien aufgezeigt werden. Die oben skizzierten Modelle der Konjunkturtheorie geh¨ oren zu der ersten Klasse von Modellen, da Schwankungen in der wirtschaftlichen Aktivit¨at als Faktum aufgefaßt werden und nach Erkl¨ arungen f¨ ur diese Schwankungen gesucht wird. Das Wissen u ¨ber m¨ogliches oszillierendes Verhalten in dynamischen ¨okonomischen Modellen kann jedoch 7 8
Vgl. [30], Chapter 2, f¨ ur eine ausf¨ uhrliche Diskussion. Wenn diese Voraussetzung von bestimmten numerisch spezifizierten dynamischen Systemen erf¨ ullt wird, von anderen — mit dem gleichen ¨ okonomischen Gehalt behafteten — jedoch nicht, dann m¨ ussen die ersten spezifizierten Systeme als nichtgenerisch angesehen werden, die sich nicht stellvertretend f¨ ur das allgemeine Systeme verhalten.
¨ Nichtlineare Dynamik in der Okonomie
383
auch dann wichtig sein, wenn empirische Zeitreihen nicht oszillieren: es k¨onnen dann Parameterbereiche definiert werden, bei denen ein beobachtetes regul¨ares Systemverhalten garantiert wird. Als Beispiel f¨ ur einen solchen Ansatz soll das traditionelle, bereits in den Anf¨ angen der Wirtschaftstheorie entwickelte mikro¨okonomische Modell eines Marktes f¨ ur ein bestimmtes Produkt betrachtet werden. Erste gr¨ undliche mathematische Formulierungen dieses Modells gehen auf Marshall [32], Walras [42] ¨ und andere Okonomen aus der zweiten H¨alfte des 19. Jhds. zur¨ uck. Mit Hilfe von Optimierungs¨ uberlegungen wurde die These aufgestellt, daß sowohl die Nachfrage nach einem Gut als auch dessen Angebot vor allem von dem Preis dieses Produktes abh¨ ange. Als Gleichgewichtspreis wurde solch ein Preis bezeichnet, bei dem die funktional von diesem Preis abh¨angigen Angebots- und Nachfragemengen u ¨bereinstimmen und somit Gleichgewichtsmengen darstellen. In weiten Teilen der Mikro¨okonomik wird in der Regel postuliert, daß beobachtbare wirtschaftliche Gr¨oßen solche Gleichgewichtswerte darstellen oder stets nahe an diesen liegen. Dies impliziert, daß ein dynamisches System, welches die Ver¨ anderung der betreffenden Variablen beschreibt, wenn der Produktpreis und die dazugeh¨ origen Angebots- und Nachfragemengen aus irgendeinem Grund nicht ihre Gleichgewichtswerte annehmen, einen stabilen Fixpunkt aufweisen m¨ ußte. Bei den als normal“ angesehenen funktionalen Abh¨angigkeiten, d.h. ” bei einer monoton ansteigenden Angebotsfunktion und einer monoton fallenden Nachfragefunktion, sowie einem dynamischen System in Form des sogenannten Preis-Tˆatonnement nach Walras [42], liegt tats¨achlich ein solcher (eindeutiger) stabiler Fixpunkt vor. Diese Anpassungsregel besagt, daß der Preis eines Produktes erh¨ oht wird, wenn die Nachfrage gr¨oßer als das Angebot ist, und analog der Preis sinkt, wenn die Nachfrage kleiner als das Angebot bei den jeweiligen Preisen ist.9 In Arbeiten von Debreu [13], Sonnenschein [40] u.a. ist jedoch darauf hingewiesen worden, daß die Monotonie der Angebots- und Nachfragefunktionen nicht aus den u ¨blicherweise unterstellten individuellen Verhaltensweisen von Nachfragern und Anbietern folgt. Es ist nachgewiesen worden, daß diese Standardannahmen nicht ausschließen, daß Angebots- und Nachfragefunktionen auf den M¨ arkten nichtlineare Formen aufweisen k¨onnen, bei denen die Stabilit¨at des Fixpunktes nicht mehr gew¨ahrleistet ist und z.B. oszillierendes Verhalten eintreten kann. Es scheint zur Zeit offen, welche weiteren Annahmen zum individuellen ¨ okonomischen Verhalten notwendig sind, um Oszillationen und komplexeres Verhalten auszuschließen. Wenn dennoch mit dem traditionellen Ansatz instabile Fixpunkte (und andere komplexe Systemdynamiken) ausgeschlossen werden sollen, ist es erforderlich nachzuweisen, ob und bei welchen Parameterwerten ein Fixpunkt seine Stabilit¨ at verliert. Oszillierendes Verhalten wird somit zu einem Negativkriterium bei der Festlegung des als ¨okonomisch sinnvoll erachteten Pa9
Diese Aussage bezieht sich hier auf den Fall, daß lediglich der Markt f¨ ur ein einzelnes Produkt betrachet wird. Werden simultan mehrere M¨ arkte f¨ ur mehrere Produkte untersucht, sind meist weitere Bedingungen wie z.B. die sog. Bruttosubstitutionalit¨ at zu erf¨ ullen, um stabile Fixpunkte zu garantieren. Vgl. z.B. [1] f¨ ur eine Zusammenstellung der wichtigsten Beitr¨ age.
384
H.-W. Lorenz
rameterbereichs. Mit den im n¨achsten Abschnitt diskutierten Fortschritten in der nichtlinearen dynamischen Systemtheorie sind allerdings auch in den Wirtschaftswissenschaft Zweifel formuliert worden, ob die Konzentration auf stabile Gleichgewichte in vielen Bereichen der Diszplin sinnvoll gewesen ist.
3
Chaos in ¨ okonomischen Modellen
Die im vorangegangenen Abschnitt diskutierten dynamischen Ph¨anomene und die damit verbundenen Probleme beziehen sich zwar s¨amtlich auf nichtlineare dynamische Systeme, wenn jedoch von der programmatischen Rolle der Nichtlinearit¨ aten f¨ ur die weitere Entwicklung vieler Disziplinen gesprochen wird, werden meist — zumindest implizit — diejenigen Nicht-Linearit¨aten gemeint, welche zu komplexem Systemverhalten f¨ uhren. Als komplex seien hier alle Ablaufmuster bezeichnet, zu dessen hinreichender Beschreibung nicht-triviale statistische Maße erforderlich sind. Im Mittelpunkt der folgenden Ausf¨ uhrungen sollen sog. chaotische dynamische Systeme stehen, da sie die gr¨oßte Aufmerksamkeit auf sich gezogen haben.10 Die im folgenden vorgestellten Beispiele der Entstehung chaotischer Dynamik in ¨ okonomischen Modellen repr¨asentiert lediglich eine kleine Auswahl existierender Ans¨ atze.11 Es soll mit dieser Auswahl lediglich demonstriert werden, daß Chaos keine Ausnahmeerscheinung in den Modellen der dynamischen Wirtschaftstheorie ist. Die ¨ okonomischen Beispiele werden im folgenden danach unterschieden, ob in ihnen das diskrete oder das stetige Zeitkonzept unterstellt wird. 3.1
Chaos in niedrig-dimensionalen, zeit-diskreten dynamischen Systemen
Als das mathematisch best-verstandene nichtlineare dynamische System darf die sog. logistische Gleichung bezeichnet werden: xt+1 = f (xt ) ≡ µxt (1 − xt ),
x ∈ R.
(8)
F¨ ur 0 ≤ µ ≤ 4 bildet diese Gleichung die Zustandsvariable x aus dem Einheitsinterval in das Einheitsinterval ab, d.h. f : [0, 1] → [0, 1]. Bekanntlich f¨ uhrt eine Erh¨ ohung des Parameters µ zuerst zu stabilen Fixpunkten x∗ > 0, dann zu Fixpunkten h¨ oherer Ordnung (¨ uber sog. Periodenverdopplungsbifurkationen) und schließlich zu chaotischem“ Verhalten, d.h. im Sinne von Li und Yorke [26] ” zu i) der gleichzeitigen Existenz von periodischem und aperiodischem Verhalten 10
11
Die sog. katastrophen-theoretischen Modelle in den Wirtschaftswissenschaften der 1970er Jahre sollen hier nicht weiter vertieft werden, da mit ihnen in der Regel einerseits ein gewisses regul¨ ares dynamisches Verhalten modelliert wurde, andererseits solche Ans¨ atze heute nur noch selten in der dynamischen Wirtschaftstheorie verwendet werden. Eine umfassende Bibliographie fr¨ uherer Beitr¨ age zur ¨ okonomischen Chaosforschung ¨ findet sich in [37]. Vgl. auch die Ubersichten in [36] und [30].
¨ Nichtlineare Dynamik in der Okonomie
385
und ii) einer best¨ andig aufeinanderfolgenden Divergenz und Konvergenz zweier Zeitreihen, die in unterschiedlichen Startpunkten begannen.12 Eindimensionale Differenzengleichungen wie (8) sind in mehreren Teildisziplinen der dynamischen Wirtschaftstheorie anzutreffen. Beispiele entstammen vor allem der Wachstumstheorie (vgl. [12]) und der Mikro¨okonomik mit Preisbildungsdynamiken auf einzelnen M¨arkten (vgl. [3]). Es ist in mehreren Arbeiten gezeigt worden, daß mit geeigneten — in der Regel zus¨ atzlichen und h¨aufig ad hoc formulierten — Annahmen die in diesen Modellen auftauchenden Differenzengleichungen in die Form (8) oder eine ¨ahnliche (d.h. topologisch ¨aquivalente Form) u uhrt werden k¨onnen. An dieser Stelle soll ein klassisches ¨berf¨ Beispiel erw¨ ahnt werden, in dem die relevanten Nichtlinearit¨aten bereits in der Prim¨ arquelle angenommen werden. Auf die M¨oglichkeit chaotischer Dynamik in dem sog. Walrasschen Konsumenten-Tˆatonnement hat zuerst Day [12] hingewiesen. Dieses Beispiel zeigt auch, daß der Graph der Funktion f (·) nicht wie in (8) die Form einer nach unten offenen Parabel besitzen muß, um eine chaotische Dynamik zu erzeugen. Traditionellerweise wird angenommen, daß sowohl die Nachfrage nach G¨ utern utern in der in einer beliebigen Periode t, xdt , als auch das Angebot an diesen G¨ Periode t, xst , von dem zur Zeit herrschenden Preis des Gutes, pt , abh¨angt, d.h. daß xdt = xd (pt ) und xst = xs (pt ). Meist wird ferner angenommen, daß die Nachfragefunktion eine durchgehend negative Steigung besitzt, d.h. daß f¨ ur die ur die Angebotsfunktion wird meist eine poAbleitung dxd (pt )/dpt < 0 gilt. F¨ sitive Steigung unterstellt, d.h. es gilt dxs (pt )/dpt > 0. Walras [42] hat — wie oben bereits angedeutet wurde — einen Vorschag daf¨ ur geliefert, wie man sich den Preis¨ anderungsprozeß vorstellen k¨onnte, wenn der Preis nicht sein Gleichgewichtsniveau annimmt, d.h. wenn xdt (pt ) 6= xst (pt ) ist. Mit dem Konstrukt des sog. Walrasschen Konsumenten-Tˆatonnement wird angenommen, daß der Preis erh¨ oht wird, wenn die Nachfrage bei dem herrschenden Preis gr¨oßer als das Angebot ist, und gesenkt wird, wenn das Gegenteil der Fall ist. Formal ausgedr¨ uckt heißt dies: f 0 (·) ≥ 0. (9) ∆pt+1 ≡ pt+1 − pt = f xdt (pt ) − xst (pt ) , ¨ folgt in diesem Mit zt (pt ) ≡ xdt (pt ) − xst (pt ) als der sog. Uberschußnachfrage Standardfall, daß dzt (pt )/dpt ≤ 0. Die Standardform des dynamischen Systems in diesem Fall lautet (10) pt+1 = f zt (pt ) + pt ≡ g(pt ). Das dynamische System besitzt demnach bei normal“ verlaufenden Angebots” und Nachfragekurven einen Eigenwert in H¨ohe von 0 ≤ λ = g 0 (·) ≤ 1, so daß der Fixpunkt stabil ist. Walras [42] hat jedoch selbst auch andere Verl¨aufe der Angebots- und Nachfragefunktionen unterstellt. Im linken Teil der Abb. 3 ist die urspr¨ unglich von 12
Einzelheiten des Bifurkationsverhaltens werden in [30] und in jedem weiteren Lehrbuch zur nichtlinearen Dynamik vorgestellt. Vgl. zu der logistischen Gleichung vor allem [34].
386
H.-W. Lorenz
Walras angenommene Angebotsfunktion wiedergegeben, die einen zur p-Achse zur¨ uckgebogenen Graphen aufweist. Ein solcher Verlauf kann z.B. mit dominierenden Einkommenseffekten begr¨ undet werden. Der Graph der dynamischen Gleichung (10) ist im rechten Teil der Abb. 3 dargestellt worden. Die gestrichelte Linie beschreibt einen Fixpunkt dritter Ordnung, so daß nach dem Li/ Yorke-Kriterium das System (10) Chaos aufweist.
Abb. 3. Das Walrassche Konsumenten-Tˆ atonnement
Als Beispiel eines zweidimensionalen zeit-diskreten dynamischen Systems wird im folgenden ein Szenarium betrachtet, welches sich zwar ebenfalls mit Preisbildungen auf M¨ arkten besch¨aftigt, in dem die Mengenanpassung jedoch nicht nur als funktionale Folge der Preis¨anderungen interpretiert wird. W¨ahrend das oben erw¨ ahnte Walrassche Konsumenten-Tˆatonnement vor allem f¨ ur Tauschwirtschaften geeignet erscheint, wird jetzt explizit angenommen, daß das G¨ uterangebot auf dem betrachteten Markt von Unternehmen bereitgestellt wird. Dieser Aspekt eines Tˆatonnement-Prozesses ist besonders von Marshall [32] betont worden. Das folgende Modell gr¨ undet sich auf die grundlegenden Arbeiten von Beckmann und Ryder [4] und Mas-Colell [33], welche die simultane Preis-Mengenanpassung allerding aus der Perspektive einer regul¨aren, d.h. nichtchaotischen Dynamik untersuchten. Einzelheiten zu dem folgenden Szenarium k¨ onnen [28] entnommen werden. Es sollen hierbei zwei Grunds¨atze f¨ ur das unternehmerische Handeln unterstellt werden, welche besonders von Walras [42] f¨ ur Produktionswirtschaften postuliert wurden: (i) Der G¨ uterpreis ¨ andert sich entsprechend des Gesetzes von Angebot und ¨ Nachfrage, d.h., der Preis erh¨oht sich (verringert sich), wenn die Uberschußnachfrage positiv (negativ) ist. (ii) Das Angebot (Produktion) ¨andert sich entsprechend des Gesetzes der Profitabilit¨ at, d.h., die Unternehmen w¨ahlen denjenigen Produktionsplan, der ihnen die h¨ ochsten Gewinne verspricht. Es wird im folgenden angenommen, daß die Zahl der Unternehmen in der betrachteten Wirtschaft konstant ist und nicht variiert werden kann, wenn auf-
¨ Nichtlineare Dynamik in der Okonomie
387
grund positiver Gewinne f¨ ur Außenseiter ein Anreiz besteht, in dem betreffenden Markt aktiv zu werden, oder wenn bestehende Unternehmen eigentlich aus dem Markt ausscheiden wollen, weil sie Verluste erwirtschaften.13 Bezeichne xt die in der Periode t ingesamt produzierte und angebotenen G¨ utermenge. Ferur das gehandelte Gut auf diesem Markt. Die ner sei pt der herrschende Preis f¨ Nachfragefunktion lautet xdt = F (pt ), d.h. die Nachfrager orientieren sich am realisierten Preis in dieser Periode. Der Ausdruck c(xt ) bezeichnet die in der Periode t w¨ ahrend der Produktion angefallenen St¨ uckkosten. Bei einem Preis u uckkosten kann ein Gewinn erwirtschaftet werden; bei pt < c(xt ) ¨ber diesen St¨ tritt ein Verlust ein. Die zwei oben angedeuteten Grunds¨atze f¨ ur unternehmerisches Handeln f¨ uhren mit dieser Notation und den unterstellten Verhaltensfunktionen zu den Anpassungsgleichungen ∆pt ≡ pt − pt−1 = α F (pt−1 ) − xt−1 , ∆xt ≡ xt − xt−1 = β pt−1 − c(xt−1 ),
(11)
pt = α F (pt−1 ) − xt−1 + pt−1 , xt = β pt−1 − c(xt−1 ) + xt−1 .
(12)
oder
Die erste Gleichung in (12) beschreibt die Preisanpassung — hier ist letztlich offen, von wem die Preisanpassung durchgef¨ uhrt wird — entsprechend der ¨ tats¨ achlichen Uberschußnachfrage w¨ahrend der abgelaufenen Periode t − 1 und determiniert einen neuen Preis f¨ ur die kommende Periode t. Die zweite Gleichung sagt aus, daß die Angebotsmenge in der Periode t z.B. ausgedehnt wird, uckkosten wenn der in der Vorperiode herrschende Preis pt−1 gr¨oßer als die St¨ c(xt−1 ) war. Die Konstanten α > 0 und β > 0 sind Anpassungskoeffizienten. Das dynamische System (12) weist f¨ ur regul¨are“ Funktionsverl¨aufe, d.h. f¨ ur ” ur eine fallende Nachfragefunkeine steigende St¨ uckkostenfunktion c(xt ) und f¨ ares dynamisches Verhalten in Form von Konvergenzen auf tion F (pt ) ein regul¨ stabile Fixpunkte oder stabile periodische Orbits auf. Es ist in der Literatur jedoch darauf hingewiesen worden, daß es nicht unplausibel ist, wenn angenommen wird, daß die (aggregierte) Nachfragefunktion f¨ ur mittlere G¨ uterpreise eine positive Steigung aufweist (vgl. [33]). Bei solchen Verl¨aufen und zudem hinreichend hohen Werten der Anpassungskoeffizienten α und β erzeugt das System sog. Seltsame Attraktoren. In Abb. 4 ist ein Beispiel eines solchen Attraktors wiedergegeben, der durch die Trajektorie des Systems (12) nach Ausschluß einer hinreichend großen transienten Phase definiert wird und ein geometrisches Gebilde darstellt, aus dem die Trajektorie sich im weiteren Verlauf nicht mehr entfernt. Innerhalb des Seltsamen Attraktors springen die aufeinanderfolgenden Systemzust¨ ande scheinbar willk¨ urlich von einem Bereich des Attraktors zu einem anderen Bereich; mit statistischen Maßen wie dem Lyapunov-Spektrum 13
Ein solches Markteintritts-/Marktaustrittsszenarium mit einer variablen Zahl von Unternehmen wird in [28] genauer beleuchtet.
388
H.-W. Lorenz
Abb. 4. Ein Seltsamer Attraktor des Marshallschen Produzenten-Tˆ atonnenents; pt (horizontal) vs. xt (vertikal)
kann nachgewiesen werden, daß eine Trajektorie auf diesem Attraktor chaotisch im Sinne dieses Maßes ist. 3.2
Chaos in niedrig-dimensionalen, zeit-stetigen dynamischen System
Im Falle zeit-stetiger dynamischer Systeme kann eine chaotische Dynamik bekanntlich erst dann eintreten, wenn das betrachtete System die zeitliche Entwicklung mindestens dreier Zustandsvariablen beschreibt. In der traditionellen dynamischen Wirtschaftstheorie sind solche Systeme mit einer Dimension von ≥ 3 recht selten anzutreffen, weil ihre analytische Behandlung bereits auf erhebliche rechentechnische Probleme st¨oßt.14 Das folgende Modell stellt eine einfache Erweiterung eines in der Literatur ausgiebig diskutierten Lagerhaltungsmodells dar. Dieses Modell kann auf einfache Weise modifiziert werden kann, um ein Beispiel einer chaotischen Dynamik in einem zeit-stetigen Szenarium zu erzeugen. Metzler [35] hat mit einem zeit-diskreten Konjunkturmodell die Grundlagen f¨ ur eine umfangreiche Lagerhaltungsliteratur gelegt. Das folgende Modell beruht auf einer zeit-stetigen Variante des urspr¨ unglich in einer zeit-diskreten Form vorgestellten Ansatzes, die auf Gandolfo [17] zur¨ uckgeht. Bezeichne Y die gesamte Produktion in einer Wirtschaft im Zeitpunkt t; kennzeichne ferner B(t) unschten Lagerbestand den tats¨ achlichen Lagerbestand in t und B d (t) den gew¨ in t. Mit der Anpassungsgleichung (13) wird ausgedr¨ uckt, daß die Produktion erh¨ oht wird, wenn der gew¨ unschte Lagerbestand h¨oher ist als der tats¨achliche 14
Dies stellt den wesentlichen Grund daf¨ ur dar, daß die Mehrzahl der traditionellen Konjunkturmodelle der 1950er und 1960er Jahre sich auf zwei Zustandsvariablen beschr¨ ankt hatte.
¨ Nichtlineare Dynamik in der Okonomie
389
Lagerbestand: ∂ Y = α B d (t) − B(t) , ∂t
α > 0.
(13)
Es sei angenommen, daß der gew¨ unschte Kapitalstock vom erwarteten Einkomange: men, Y e (t) in t, abh¨ B d (t) = kY e (t),
k > 0.
(14)
Das erwartete Einkommen, Y e , werde entsprechend einer modifzierten, der zeitstetigen Variante des Modells angepaßten sog. extrapolativen Erwartungsbildungshypothese gebildet. Insbesondere gelte: Y e (t) = Y + a1
∂ ∂2 Y (t) + a2 2 Y (t). ∂t ∂t
(15)
¨ Die Anderung der Erwartungen betr¨agt demnach ∂2 ∂3 ∂ ∂ e Y (t) = Y + a1 2 Y (t) + a2 3 Y (t). ∂t ∂t ∂t ∂t
(16)
Auf der anderen Seite ¨ andert sich der tats¨achliche Lagerbestand, wenn das G¨ uterangebot von der G¨ uternachfrage abweicht, d.h. wenn das Sparen nicht den Investititionen entspricht. Es gelte: ∂ B(t) = S(t) − I(t), ∂t
(17)
mit S als Sparen” und I als Investitionen”. ” ” Aus diesen Verhaltensannahmen, entsprechenden Differenzierungen nach der Variable Zeit” und geeigneten Substitutionen folgt f¨ ur die Entwicklung der ” Produktion (des Einkommens) in diesem Modell: S(t) − I(t) αka1 − 1 ∂ 2 1 ∂ ∂3 Y = Y + Y + , 3 2 ∂t αka2 ∂t a2 ∂t ka2
(18)
oder, abgek¨ urzt: ∂2 ∂ ∂3 Y + A1 2 Y + A2 Y = β −I(t) . 3 ∂t ∂t ∂t
(19)
Das dynamische Verhalten dieser Differentialgleichung dritter Ordnung h¨angt entscheidend von den konkreten Ausgestaltungen der Investitions- und Sparfunktion ab. Gandolfo [17] hat z.B. nachgewiesen, daß der dynamische Prozeß (19) instabile Fixpunkte impliziert, wenn das Sparen in der u ¨blichen Form eine lineare Funktion des Einkommens ist, d.h. S = s · Y , 0 < s ≤ 1, wenn ferner die Investitionen im Zeitablauf konstant sind, und wenn A1 in (19) negativ ist. Alternativ sei ein anderes Szenarium unterstellt, welches mit den allgemeinen keynesianischen Grunds¨atzen jedoch noch kompatibel ist. Wenn unterstellt wird, daß die Sparfunktion eine vom Einkommen abh¨angige, ansteigende, aber
390
H.-W. Lorenz
konkave Funktion ist und wenn ferner behauptet werden kann, daß die Investitionen ebenfalls vom Einkommen abh¨angen und hierbei einen konvexen Verlauf annehmen, dann kann f¨ ur geeignete Parameterwerte ein Seltsamer Attraktor wie in Abb. 5 entstehen.15 Insbesondere muß durch die funktionalen Formen und die Parameterwerte sichergestellt werden, daß A1 > 0 und daß A2 hinreichend nahe an Eins liegt, und daß der aufgrund der Konkavit¨ats- und Konvexit¨atsannahmen parabelf¨ ormige Verlauf des Graphen der rechten Seite in (19) durch einen Kontrollparameter gestreckt werden kann. In der Tat ist das dynamische System (19) einer Variante des sogenannten Shilnikov-Szenarium ¨aquivalent und besitzt einen spiralf¨ ormigen homoklinischen Orbit. Einzelheiten werden in [29] vorgestellt.
Abb. 5. Ein modifiziertes Metzler-Szenarium, Y (horizontal) vs. ∂Y /∂t (vertikal)
4
Theoretische Komplexit¨ at und die Wirklichkeit“ ”
¨ Mit dem Uberblick im letzten Abschnitt ist zu zeigen versucht worden, daß auch in den Wirtschaftswissenschaften solche Nichtlinearit¨aten entweder bereits untersucht wurden oder leicht konstruiert werden k¨onnen, die deterministisches Chaos verursachen k¨ onnen. Diese Beispiele chaotischer Dynamik in theoretischen okonomischen Modellen m¨ ussen aber als akademische Spielerei bezeichnet wer¨ den, wenn nachgewiesen werden kann, daß Chaos kein empirisch nachweisbares Ph¨ anomen in beobachteten wirtschaftlichen Zeitreihen ist.16 Im folgenden Unter15
16
Es ist in Abb. 5 absichtlich auf die u ¨bliche Praxis verzichtet worden, die aufeinanderfolgenden Systemzust¨ ande mit Linien zu verbinden, um die Struktur des Attraktors besser verdeutlichen zu k¨ onnen. Es wird im folgenden stets unterstellt, daß in den im letzten Abschnitt vorgestellten theoretischen Beispielen f¨ ur chaotisches Verhalten stets alle relevanten ¨ okonomischen Restriktionen eingehalten wurden, so daß also Chaos nicht nur dann in diesen Modellen entsteht, wenn implausible oder technisch und ¨ okonomisch unm¨ ogliche Parameterwerte angenommen werden.
¨ Nichtlineare Dynamik in der Okonomie
391
¨ abschnitt wird deshalb ein kurzer Uberblick u ¨ber die empirische Chaosforschung ¨ geboten. Mit den Ergebnissen dieser empirischen Uberpr¨ ufung kann die Relevanz der theoretischen Modelle des letzten Abschnitts gepr¨ uft werden. Im zweiten Unterabschnitt dieses Kapitels wird auf m¨ogliche Inkonsistenzen zwischen ¨ Modellannahmen und -ergebnis in theoretischen Uberlegungen hingewiesen. 4.1
Sind empirische ¨ okonomische Zeitreihen chaotisch?
Die im letzten Abschnitt vorgestellten Modelle der dynamischen Wirtschaftstheorie mit chaotischen Eigenschaften repr¨asentieren sehr einfache Vorstellungen von der Wirklichkeit und k¨ onnen eigentlich nur als didaktische Mittel begriffen werden, wenn demonstriert werden soll, wie einfach Chaos in der dynamischen Wirtschaftstheorie entstehen kann. Es kann nicht ernsthaft behauptet werden, daß beobachtete empirische Zeitreihen von solchen niedrig-dimensionalen, rein deterministischen Systemen erzeugt werden. Wenn davon ausgegangen werden darf, daß die Entwicklung tats¨achlicher ¨okonomischer Variablen grunds¨atzlich mit einem System der Art (1) beschrieben werden kann, dann wird die Dimension eines solches Systems vermutlich hoch sein und der Einfluß der exogenen Zufallsvariablen nicht unerheblich sein. Die Frage nach der empirischen Relevanz des Chaosph¨ anomens ist also nicht als die Frage zu interpretieren, ob die oben vorgestellten Modelle die Wirklichkeit beschreiben oder nicht. Eine sta¨ tistische Uberpr¨ ufung der vorliegenden Daten kann lediglich Auskunft dar¨ uber vermitteln, ob es u ¨berhaupt sinnvoll ist, in vereinfachenden, abstrahierenden, theoretischen Reflexionen sich mit dem Chaosph¨anomen zu besch¨aftigen. Bekanntlich sind in der nicht-parametrischen Statistik eine Reihe von Maßen entwickelt worden, mit denen vor allem zwei Fragen beantwortet werden sollen. Die auf Grassberger und Procaccia [20] zur¨ uckgehende sog. Korrelationsdimension kann Auskunft u ¨ber die Frage geben, ob eine Zeitreihe u ¨berwiegend von dem deterministischen Kern eines Systems der allgemeinen Art (1) oder von einem Zufallsprozeß erzeugt worden ist. Mit der Bestimmung des gr¨oßten Lyapunov-Exponenten oder des gesamten Lyapunov-Spektrums kann anschließend entschieden werden, ob eine sensitive Abh¨angigkeit von den Startwerten vorliegt oder nicht. Hiermit wird meist — vorausgesetzt, Chaos“ wird entspre” chend definiert — auch die Frage nach der Existenz chaotischer Zeitreihen verbunden. Gelegentlich wird auch die sogenannte Kolmogorov-Dimension als Maß der Informationsgewinnung u ungliche Startwertdifferenzen und eine ex¨ber urspr¨ ponentielle Divergenz auf einem Seltsamen Attraktor herangezogen. F¨ ur die empirischen Chaos-Tests o¨konomischer Zeitreihen sind dar¨ uber hinaus weitere Maße entwickelt und eingesetzt worden. Mit dem popul¨aren BDSTest kann eine Zeitreihe auf ihre i.i.d.-Eigenschaft u uft werden. Brock [9] ¨berpr¨ hat darauf hingewiesen, daß jeweils die Korrelationsdimensionen und die gr¨oßten Lyapunov-Exponenten einer beobachteten Zeitreihe einerseits und der Residuen einer bestimmten linearen Repr¨asentation dieser Zeitreihe andererseits u ¨bereinstimmen, wenn die Zeitreihe chaotisch ist. Mit der auf Scheinkman und LeBaron [39] zur¨ uckgehenden shuffle diagnostic wird die beobachtbare Struktur in chaotischen dynamischen Prozessen ausgenutzt, um Aussagen u ¨ber die Chaoseigenschaft zu gewinnen: wenn eine willk¨ urliche Mischung der urspr¨ unglichen Daten
392
H.-W. Lorenz
zu einer merklich h¨ oheren Korrelationsdimension als bei der originalen Zeitreihe f¨ uhrt, kann dies als Indiz daf¨ ur gelten, daß die urspr¨ ungliche Zeitreihe nicht durch einen Zufallsprozeß entstanden war. Einzelheiten zu diesen und weiteren Maße werden in [10], [19] und [30] vermittelt. In einer großen Zahl von Beitr¨agen sind diese Maße f¨ ur makro- und mikro¨okonomische Zeitreihen ermittelt worden. Untersuchte makro¨okonomische Zeitreihen sind hier vor allem Sozialproduktsdaten und Arbeitslosenzahlen gewesen, jedoch wurden auch (meist modifizierte) Geldmengengr¨oßen untersucht. Insbesondere aufgrund der weiter unten diskutierten Datenproblematik ist jedoch auch eine große Zahl mikro¨ okonomischer Datens¨atze u uft worden: Neben klas¨berpr¨ sischen Konjunkturindikatoren wie der Rohstahl-Produktion standen Finanz” marktdaten“ wie Ertragss¨ atze am Aktienmarkt und am Gold- und Silbermarkt oder die Wechselkurse der wichtigsten internationalen Devisenkurse im Mittelpunkt. Obwohl die Untersuchungen nat¨ urlich zu Nuancen in der Beurteilung der unterschiedlichen Ergebnisse gef¨ uhrt haben, kann die folgende allgemeine Zusammenfassung der bisher gefundenen Ergebnisse gewagt werden. In mehreren F¨ allen gibt es starke Hinweise darauf, daß die Zeitreihen sich so verhalten, als wenn sie von niedrig-dimensionalen, deterministischen Systemen erzeugt worden w¨ aren. Es existieren jedoch nur wenige Beispiele ¨okonomischer Zeitreihen, in denen z.B. signifikante positive gr¨oßte Lyapunov-Exponenten ermittelt wurden und gleichzeitig einige weitere, speziell f¨ ur ¨okonomische Zeitreihen entwickelte Maße die f¨ ur eine chaotische Dynamik erforderlichen Gr¨oßenordnungen annahmen. Als Ergebnis dieser Untersuchungen muß deshalb festgehalten werden, daß es Hinweise auf eine wichtige Rolle von Nichtlinearit¨aten gibt, stochastische Prozesse demnach nicht diejenige entscheidende Rolle spielen, die ihnen von Teilen der modernen ¨ okonomischen Theorie zugemessen wird, daß jedoch der Nachweis von Chaos“ bisher nicht eindeutig erfolgen konnte. ” Diese Uneindeutigkeit bei der Beurteilung, ob empirische ¨okonomische Zeitreihen Chaos aufweisen oder nicht, hat ihren Ursprung in drei wesentlichen Eigenschaften ¨ okonomischer empirischer Zeitreihen: • Die oben beschriebenen Maße sind f¨ ur Szenarien mit unendlich vielen Da¨ tenpunkten konzipiert worden. Okonomische Zeitreihen — vor allem auf der makro¨ okonomischen Ebene — setzen sich jedoch h¨aufig h¨ochstens aus Quartalsdaten, meistens aus Jahresdaten zusammen. Datens¨atze mit lediglich 20 bis 40 Eintr¨ agen sind keine Seltenheit, so daß die Aussagekraft eines der ermittelten Maße zur Chaoseigenschaft als stark eingeschr¨ankt erscheint, weil die Maße nicht gen¨ ugend Zeit gehabt haben, gegen station¨are Werte zu konvergieren. • Die Standardmaße wie die Korrelationsdimension und das LyapunovSpektrum sind unter der Annahme entwickelt worden, daß ein gegebenes dynamisches System die Bewegung der Zustandsvariablen beschreibt. In den Wirtschaftswissenschaften muß jedoch davon ausgegangen werden, daß die dynamischen Systeme, welche die Entwicklung wirtschaftlicher Variablen in der kurzen Frist beschrieben, sich im Zeitablauf ¨andern k¨onnen. Mit dem technischen Fortschritt und der Entwicklung neuer Produkte kann sich sogar die Dimension des generierenden dynamischen Systems ¨andern. Die statisti-
¨ Nichtlineare Dynamik in der Okonomie
393
schen Maße sind entweder (wegen der uneindeutigen Dimension) nicht klar definiert, oder sie finden auch hier u.U. keine Zeit, gegen station¨are Werte zu konvergieren. • Es gibt wirtschaftliche Variablen (vor allem aus dem finanzwirtschaftlichen Bereich), f¨ ur die relativ große Datens¨atze u ¨ber relativ kurze Zeitr¨aume vorliegen und die somit die oben erw¨ahnte Kritik u ¨berstehen k¨onnten. Solche Zeitreihen weisen jedoch h¨aufig bestimmte Eigenschaften auf, die den assoziierten Attraktoren eine geometrische Struktur verleihen, welche als Hinweis auf chaotische Eigenschaften des Attraktors misinterpretiert werden k¨onnen. Beispiele k¨ onnen in Ultimo-Effekten, Montags- und Freitagseffekten, Jahresendeffekten usw. auf den Aktien- und Wertpapierb¨orsen oder in saisonalen Effekten in klimaabh¨ angigen Branchen gesehen werden. Wenn nicht davon ausgegangen werden kann, daß diese Effekte von dem gedanklich unterstellten dynamischen System selbst erzeugt werden, dann m¨ ussen diese Effekte sorgf¨ altig ausgefiltert werden, bevor die erw¨ahnten Maße f¨ ur die betreffende Zeitreihe ermittelt werden. Nach diesen Filterungen muß dann jedoch u.U. ein regul¨ ares Verhalten konstatiert werden. Zur Zeit besteht somit die unbefriedigende Situation, daß die Hypothese chaotischer Dynamik in wirtschaftlichen Zeitreihen nicht in einfacher Weise zu u ufen ist. Es ist weder m¨oglich, die Hypothese eindeutig zu falsifizieren, ¨berpr¨ weil nicht vollst¨ andig klar ist, welche Filterungen vor der Ermittlung der relevanten Maße erforderlich sind, noch k¨onnen die vielversprechenden Vorergebnisse als endg¨ ultig erachtet werden, weil die vorliegenden Zeitreihen eigentlich zu kurz sind und die Evolution dynamischer ¨okonomischer Systeme beachtet werden muß. 4.2
Modellannahmen und Modellergebnisse – Kompatibilit¨ at oder Gegensatz?
Dynamische ¨ okonomische Modelle, welche in der Lage sind, f¨ ur geeignete Parameterwerte chaotische Zeitpfade zu erzeugen, m¨ ussen jedoch nicht nur vor dem oben beschriebenen empirischen Hintergrund beurteilt werden, n¨amlich ob sich tats¨ achliche ¨ okonomische Zeitreihen wirklich chaotisch verhalten. S¨amtliche im dritten Abschnitt vorgestellten Szenarien mit komplexer Dynamik sowie viele weitere Beispiele beruhen auf traditionellen Ans¨atzen, welche zu g¨anzlich anderen Zwecken konstruiert wurden, als zu denen sie in der Chaosforschung verwendet werden. Die im dritten Abschnitt vorgestellten Preis- und/oder Mengenanpassungsprozesse — sowohl in der Form des Walrasschen Konsumenten- als auch in der Form des Marshallschen Produzenten-Tˆ atonnement — sind urspr¨ unglich als didaktische Hilfsmittel konstruiert worden, um die m¨ogliche Konvergenz von Preisen und Mengen auf ihre Gleichgewichtswerte auch in den F¨allen zu illustrieren, in denen aus den Modellannahmen nicht erkennbar ist, von welchen Individuen Preise ge¨ andert werden k¨onnen. Wenn jedoch z.B. im Walrasschen Konsumenten-Tˆatonnement Chaos entsteht, dann kann dieses Modell offensichtlich nicht als gutes“ Modell zur Beschreibung des gew¨ unschten Effekts in Form ” der Konvergenz angesehen werden, weil das Tˆ atonnement von den beteiligten
394
H.-W. Lorenz
Akteuren nach kurzer Zeit aufgrund der nicht erfolgten Konvergenz gegen die Gleichgewichtswerte aufgegeben werden w¨ urde. Es ist jedoch auch eine bestimmte R¨ uckkopplungswirkung der Modellresultate auf die Modellannahmen zu ber¨ ucksichtigen. W¨ahrend in naturwissenschaftlich orientierten Disziplinen es typischerweise keine R¨ uckwirkungen der Modellergebnisse auf die Modellszenariem gibt, werden in den Geisteswissenschaften — zu denen hier die Wirtschaftswissenschaften gez¨ahlt werden sollen — menschliche Verhaltensweisen modelliert, welche durchaus von den Modellergebnissen abh¨ angig sein k¨ onnen. Um das wesentliche Argument darlegen zu k¨onnen, wird hier unterstellt, daß das betrachtete theoretische Modell die ermittelbaren empirischen Daten sehr genau erzeuge, das Modell die Wirklichkeit somit gut erkl¨ are“. ” Zur Verdeutlichung dieses Einwands sei exemplarisch die Erwartungsbildungshypothese (15) betrachtet. Extrapolative Erwartungen sind besonders dann sinnvoll, wenn die betrachtete Variable einen Trend aufweist. W¨ahrend eines regul¨ ar erscheinenden Umlaufs auf dem Attraktor der Abb. 5 werden mit der Hypothese (15) die Erwartungen bei geeigneten Werten der Koeffizienten zutreffen. Im geometrisch chaotischen Auge“ des Attraktors werden jedoch die ” entsprechend der Hypothese (15) gebildeten Erwartungen systematisch falsch sein, und die Individuen werden m¨oglicherweise ihre Erwartungen aufgrund anderer Hypothesen bilden. ¨ Ahnliche Effekte k¨ onnen in anderen Szenarien beobachtet werden. In vielen ¨ okonomischen Modellen, in denen angenommen wird, daß die betrachteten Individuen Optimierungskalk¨ ule durchf¨ uhren, sind diese Kalk¨ ule nur dann durchf¨ uhrbar, wenn allen Beteiligten eine große Informationsmenge zur Verf¨ ugung steht. Sinnvollerweise muß aber angenommen werden, daß diese Informationen nur dann vorliegen k¨onnen, wenn die wirtschaftliche Umwelt, innerhalb derer die Individuen agieren, relativ einfach gestaltet ist. Im hier interessierenden dynamischen Kontext bedeutet dies insbesondere, daß die Zeitpfade der betrachteten Variablen einfach“ sein m¨ ussen, d.h. daß vor allem stabile Fix” punkte und Grenzzyklen eintreten sollten, um den Informationserfordernissen Rechnung zu tragen. Bei komplexem Systemverhalten sind diese Verhaltensregeln jedoch h¨ aufig nicht mehr zu rechtfertigen, weil sie implizieren, daß die beteiligten Individuen u ugen m¨ ussen, ¨ber eine (zu) große Informationsmenge verf¨ um ihre Entscheidungen treffen zu k¨onnen. Angesichts komplexer Umwelten ist das Treffen einer optimalen“ Entschei” dung in dem Sinne, daß alle f¨ ur die Entscheidung relevanten Informationen vorliegen und ausgenutzt werden, offensichtlich eingeschr¨ankt. Individuelle Verhaltensweisen, welche als sinnvoll angesichts regul¨arer Umwelten eingesch¨atzt werden m¨ ussen, werden in komplexen Umwelten vermutlich ersetzt werden durch alternative Verhaltensregeln, welche sich vermutlich durch vereinfachte und wenige kognitive F¨ ahigkeiten voraussetzende Regeln auszeichnen werden. Ein konsistentes Modellszenarium entsteht jedoch nur dann, wenn diese einfachen Adaptionsregeln — es sei hier an die oben angenommene Identit¨at von Modellresultat und Wirklichkeit erinnert — auch zu komplexen Resultaten f¨ uhren. Wenn einfache Adaptionsregeln unterstellt werden und die modellierte Wirtschaft regul¨are dy-
¨ Nichtlineare Dynamik in der Okonomie
395
namische Muster aufweist, wird mittelfristig nicht zu rechtfertigen sein, warum die Individuen diese einfachen Regeln verfolgen. Nur wenn aus einfachen Adaptionsregeln — die aus Gr¨ unden einer komplexen Umwelt angenommen wurden — auch folgt, daß die betrachteten Modelle komplexe Dynamiken erzeugen, liegt ein konsistentes dynamisches ¨okonomisches Modell vor. Die Mehrzahl der existierenden ¨ okonomischen Beispiele f¨ ur die Entstehung chaotischer Dynamik k¨onnen dieses Konsistenzkritierium nicht erf¨ ullen.
5
Zusammenfassung
Mit den vorangegangenen Ausf¨ uhrungen ist zu zeigen versucht worden, daß Nichtlinearit¨ aten in Modellen der dynamischen Wirtschaftstheorie nicht untypisch sind und seit langer Zeit in formalen Betrachtungen von Oszillationsph¨anomenen verwendet werden. Gelegentlich werden explizit lineare dynamische Systeme betrachtet, entweder weil in einfacher Art zu handhabende Optimierungskalk¨ ule zu solchen Systemen f¨ uhren oder weil bestimmte Stabilit¨atseigenschaften von Fixpunkten als w¨ unschenswert erachtet werden.17 Angesichts des breiten Spektrums m¨ oglicher funktionaler Formen in wirtschaftlichen Relationen sind Nichtlinearit¨ aten jedoch keine Ausnahmeerscheinungen in dynamischen ¨okonomischen Modellen. In diesen theoretischen Reflektionen sind folglich dynamische Ph¨ anomene wie Grenzzyklen, quasi-periodisches Verhalten, Bifurkationssequenzen und chaotische Entwicklungsmuster sowohl in zeit-diskreten als auch zeitstetigen Systemen als Eigenschaften zu werten, die aufgrund der Entwicklung des mathematischen Wissens zwar erst in den letzten zwei Jahrzehnten analytisch etabliert werden konnten, in vielen fr¨ uhen Modellen jedoch bereits seit langer Zeit angelegt waren. Nichtlinearit¨aten sind von einigen wirtschaftswissenschaftlichen Teildisziplinen zur theoretischen Erkl¨arung empirisch beobachteter, anhaltender Oszillation herangezogen worden. Dies gilt insbesondere f¨ ur die Konjunkturtheorie, deren explizite Aufgabe darin besteht, die wiederholte Auf- und Abw¨ artsbewegung meist gesamtwirtschaftlicher Gr¨oßen wie des Bruttosozialprodukts oder der Zahl der Besch¨aftigten in einem Wirtschaftsgebiet zu erkl¨aren. Es existieren jedoch auch Ans¨ atze in der Literatur, die zwar von allgemeinsten funktionalen Formen dynamischer Prozesse ausgehen, sich dann jedoch ausschließlich auf die Ableitungen von Stabilit¨atsbedingungen von Fixpunkten konzentrieren. Dies ist bspw. der Fall in der sogenannten Allgemeinen Gleichgewichtstheorie, welche sich mit Fragen der Existenz, Eindeutigkeit und Stabilit¨at von TauschGleichgewichten in Wirtschaften mit n G¨ utern und m Individuen besch¨aftigt. Obwohl die allgemeine Formulierung des ¨okonomischen Szenariums grunds¨atzlich eine große Zahl dynamischer Ablaufmuster zul¨aßt, grenzt die Allgemeine Gleichgewichtstheorie die meisten m¨oglichen Muster aus und konzentriert sich auf Fixpunktstabilit¨ aten. Die Bedeutung von Nichtlinearit¨aten in den Wirtschaftswissenschaften ist vor allem dort zu sehen, wo diese Nichtlinearit¨aten zu Ablaufmustern f¨ uhren, welche in linearen Systemen auf keinen Fall anzutreffen sind. Dies ist insbesondere bei 17
Vgl. zu diesem letzten Punkt z.B. [31].
396
H.-W. Lorenz
chaotischen dynamischen Systemen der Fall. Die theoretische Chaosforschung hat verdeutlicht, daß traditionelle nichtlineare dynamische Systeme f¨ ur geeignete funktionale Spezifizierungen oder sogar nur f¨ ur geeignete Parameterwerte bei unver¨ anderten funktionalen Beziehungen in der Lage sind, chaotische Ablaufmuster zu erzeugen. Dar¨ uberhinaus ist ferner aufgezeigt worden, daß diejenigen Nichtlinearit¨ aten, von denen bekannt ist, daß sie ein Potential f¨ ur die Erzeugung chaotischer Ablaufmuster besitzen, in ¨okonomischen Modellen nicht nur nicht untypisch sind, sondern zur generischen Klasse von Modellspezifikationen geh¨ oren. Nach mehr als zwanzig Jahren ¨okonomischer (theoretischer) Chaosforschung kann festgehalten werden, daß Modelle mit einem Chaos-Potential keine exotischen Ausnahmef¨ alle darstellen, sondern daß bei geeignetem, m¨oglichst allgemein gehaltenen Modellszenarium das Ph¨anomen chaotischer Ablaufmuster h¨ aufig als typische, generische Eigenschaft dieser Modelle bezeichnet werden kann. W¨ ahrend es also m¨ oglich ist, die Chaoseigenschaft theoretischer ¨okonomischer Modelle nachzuweisen, bleibt zu untersuchen, ob diese Besch¨aftigung mit einem formalen Ph¨ anomen sinnvoll angesichts der empirischer Daten ist. In der nicht-parametrischen Statistik sind verschiedene Maße entwickelt worden, die hilfreich bei der Behandlung von Fragen sein k¨onnen, ob das die vorliegenden Daten erzeugende System nichtlinear oder linear ist, ob der (re-) konstruierte Attraktor eine fraktale Dimension aufweist oder ob eine Startwertabh¨angigkeit vorliegt oder nicht. Das Ergebnis dieser empirischen Chaosforschung kann nur schwierig zusammengefaßt werden. Die meisten der ermittelten Maße sind unter den Annahmen konstruiert worden, daß einerseits unendlich viele Datenpunkte vorliegen und daß die die empirischen Daten erzeugenden dynamischen Prozesse ausschließlich deterministisch sind. Beides kann — wie oben dargelegt wurde — f¨ ur ¨ okonomische Zeitreihen nicht unterstellt werden. Es scheint sich jedoch die Tendenz abzuzeichnen, daß empirische ¨okonomische Zeitreihen h¨aufig von deterministischen, nichtlinearen Prozessen erzeugt worden sind. Ob beobachtete empirische Zeitreihen wirklich chaotisch sind, erfordert offensichtlich einen weiteren Forschungsaufwand. Die Bedeutung der existierenden theoretischen Beispiele f¨ ur die Entstehung chaotischer Dynamik muß jedoch nicht nur an der empirischen Relevanz, sondern auch an der Konsistenz von Modellkonstruktion und -ergebnis gemessen werden. In prominenten Beispielen chaotischer Dynamik in ¨okonomischen Modellen wird unterstellt, daß sich Individuen so verhalten, als wenn sie sich in station¨ aren, leicht zu durchschauenden Umgebungen aufhalten w¨ urden. Eine chaotische Dynamik als Ergebnis dieser Annahmen erscheint deshalb als inkonsistent. Angesichts einer chaotischen Umwelt sollte davon ausgegangen werden, daß Individuen entsprechende einfachende Verhaltensregels praktizieren, die ihrereseits wieder dazu f¨ uhren sollten, daß komplexe Umwelten resultieren. ¨ Letztlich implizieren diese Uberlegungen, daß die Chaosforschung nur eine einzelne Stufe auf der Treppe hin zu einem Verst¨andnis des Komplexit¨atsph¨anomens ist. Die bisherige Chaosforschung in den Wirtschaftswissenschaften hat sich mit der Frage besch¨ aftigt, ob in existierenden oder leicht modifizierbaren Modellen der dynamischen Wirtschaftstheorie eine komplexe, chaotische Systemdy-
¨ Nichtlineare Dynamik in der Okonomie
397
namik erzeugt werden kann. Die unterstellten Verhaltensannahmen sind jedoch in der Regel lediglich f¨ ur regul¨are, d.h. meist station¨are Umwelten konstruiert worden. Die eigentliche Herausforderung, die sich bei einer bewußt wahrgenommenen M¨ oglichkeit chaotischer Dynamik in existierenden Modellen und empirischen Daten stellt, besteht in der Frage, wie individuelles Verhalten angesichts komplexer Umwelten modelliert werden kann. Bemerkenswerterweise muß eine solche Verhaltensweise angesichts komplexer Umwelten nicht in deterministischen Systemen der bekannten Art m¨ unden; es ist denkbar, daß eine angemessene Modellierung individueller Verhaltensweise in der Konstruktion von z.B. zellul¨ aren Automaten, von Fitness-Landschaften und ¨ahnlichem enden. Erste Ans¨ atze sind z.B. in den Arbeiten von Arthur [2], Epstein und Axtell [14], Hol¨ land [22] oder Kauffman [25] vorgestellt worden. Ein phantasieanregender Uberblick u ¨ber existierende alternative Modellierungsm¨oglichkeiten wird in Waldrop [41] vorgestellt.
Literatur 1. Arrow, K. J., Hurwitz, L. (eds.) (1977) Studies in Resource Allocation Processes. Cambridge Univesity Press, Cambridge London New York 2. Arthur, W. B. (1988) Self-Reinforcing Mechanisms in Economics. In: Anderson, P. W., Arrow, K. A., Pines, D. (eds.) The Economy as an Evolving Complex System. Santa Fe Institute Studies in the Sciences of Complexity V. AddisonWesley, Reading, pp. 9–31 3. Bala, V., Majumdar, M. (1992) Chaotic Tˆ atonnement. Economic Theory 2, 437–445 4. Beckmann, M. J., Ryder, H. E. (1969) Simultaneous Price and Quantity Adjustment in a Single Market. Econometrica 37, 39–50 5. Benassy, J. P. (1984) A Non-Walrasian Model of the Business Cycle. Journal of Economic Behavior and Organization 5, 77–89 6. Benhabib, J., Miyao, T. (1981) Some New Results on the Dynamics of the Generalized Tobin Model. International Economic Review 22, 589–596 7. Benhabib, J., Nishimura, K. (1979) The Hopf Bifurcation and the Existence of Closed Orbits in Multisector Models of Optimal Economic Growth. Journal of Economic Theory 21, 421–444 8. Boldrin, M. (1991) Perfectly Competitive Models of Endogenous Business Fluctuations. European Economic Review 35, 300–305. 9. Brock, W. A. (1986) Distinguishing Random and Deterministic Systems: Abridged Version. Journal of Economic Theory 40, 168–195 10. Brock, W. A., Hsieh, D. A., LeBaron, B. (1991) Nonlinear Dynamics, Chaos, and Instability: Statistical Theory and Economic Evidence. MIT Press, Cambridge 11. Chang, W. W., Smyth, D. J. (1971) The Existence and Persistence of Cycles in a Non-Linear Model: Kaldor’s 1940 Model Re-examined. Review of Economic Studies 38, 37–44 12. Day, R. H. (1994) Complex Economic Dynamics, Vol. I. MIT Press, Cambridge 13. Debreu, G. (1974) Excess Demand Functions. Journal of Mathematical Economics 1, 15–23 14. Epstein, J. M., Axtell, R. (1996) Growing Artificial Societies. The MIT Press: Cambridge
398
H.-W. Lorenz
15. Feichtinger, G., Kopel, M. (1994) Nicht-lineare dynamische Systeme und Chaos: Neue Impulse f¨ ur die Betriebswirtschaftslehre? Zeitschrift f¨ ur Betriebswirtschaftslehre 64, 7–34 16. Gabisch, G., Lorenz, H.-W. (1989) Business Cycle Theory. 2nd edn. Springer, Berlin Heidelberg New York 17. Gandolfo, G. (1996) Economic Dynamics. 3rd ed. Springer, Berlin Heidelberg New York 18. Goodwin, R. M. (1967) A Growth Cycle. In: Feinstein, C.H. (ed.) (1967) Socialism, Capitalism and Economic Growth. Cambridge University Press, Cambridge 19. Granger, C. W. J. (1991) Developments in the Nonlinear Analysis of Economic Series. Scandinavian Journal of Economics 93, 263–276 20. Grassberger, P., Procaccia, I. (1983) Measuring the Strangeness of Strange Attractors. Physica 9D, 189–208 21. Hicks, J. R. (1950) A Contribution to the Theory of the Trade Cycle. Oxford University Press, London 22. Holland, J. (1988) The Global Economy as an Adaptive Process. In: Anderson, P.W., Arrow, K.A., Pines, D. (eds.) The Economy as an Evolving Complex System. Santa Fe Institute Studies in the Sciences of Complexity V. Addison-Wesley, Reading, pp. 117–124 23. Kaldor, N. (1940) A Model of the Trade Cycle. Economic Journal 50, 78–92 24. Kalecki, M. (1937) A Theory of the Business Cycle. Review of Economic Studies 4, 77–97 25. Kauffman, S. A. (1988) The Evolution of Economic Webs. In: Anderson, P. W., Arrow, K. A., Pines, D. (eds.) The Economy as an Evolving Complex System. Santa Fe Institute Studies in the Sciences of Complexity V. Addison-Wesley, Reading, pp. 125-146 26. Li, T. Y., Yorke, J. A. (1975) Period Three Implies Chaos. American Mathematical Monthly 82, 985–992 27. Lorenz, H.-W. (1987) On the Uniqueness of Limit Cycles in Business Cycle Theory. Metroeconomica 38, 281-293 28. Lorenz, H.-W. (1992) On the Complexity of Simultaneous Price-Quantity Adjustment Processes. Annals of Operations Research 37, 51–71 29. Lorenz, H.-W. (1992) Complex Dynamics in Low-Dimensional Continuous-Time ˇ Business Cycle Models: The Sil’nikov Case. System Dynamics Review 8, 233–250 30. Lorenz, H.-W. (1993) Nonlinear Dynamical Economics and Chaotic Motion. 2nd edn. Springer, Berlin Heidelberg New York 31. Lorenz, H.-W. (1998) Zur Komplexit¨ at des Einfachen in der dynamischen Wirtschaftstheorie. In: Schweitzer, F., Silverberg, G. (eds.) Evolution und Selbstorga¨ nisation in der Okonomie, erscheint demn¨ achst 32. Marshall, A. (1938) Principles of Political Economy. 8th edn. MacMillan and Co., London 33. Mas-Colell, A. (1986) Notes on Price and Quantity Tˆ atonnement Dynamics. In: Sonnenschein, H. (ed.) Models of Economic Dynamics. Springer, Berlin Heidelberg New York, 49–68 34. May, R. M. (1976) Simple Mathematical Models With Very Complicated Dynamics. Nature 261, 459–467 35. Metzler, L. A. (1941) The Nature and Stability of Inventory Cycles. Review of Economic Studies 23, 113–129 36. Puu, T. (1997) Nonlinear Economic Dynamics. 4th edition. Springer, Berlin Heidelberg New York
¨ Nichtlineare Dynamik in der Okonomie
399
37. Rosser, J. B. (1991) From Catastrophy to Chaos: A General Theory of Economic Discontinuities. Kluwer Academic Publishers, Boston Dordrecht London 38. Samuelson, P. A. (1939) Interactions Between the Multiplier Analysis and Principle of Acceleration. Review of Economic Statistics 21, 75–78 39. Scheinkman, J. A., LeBaron, B. (1989) Nonlinear Dynamics and Stock Returns. Journal of Business 62, 311–337 40. Sonnenschein, H. (1972) Market Excess Demand Functions. Econometrica 40, 549–563 41. Waldrop, M. M. (1994) Complexity. Penguin, London 42. Walras, L. (1874) El´ements d’´economie politique pure. L. Corbaz, Lausanne. [Eng¨ lische Ubersetzung: Elements of Pure Economics or the Theory of Social Wealth. Richard D. Irwin, Homewood, 1926] 43. Weiber, R. (1993) Chaos: Das Ende der klassischen Diffusionsforschung? Marketing 15(1), 35–46
Fraktale Geometrie von B¨ orsenzeitreihen: Neue Perspektiven o ¨konomischer Zeitreihenanalysen Carl J. G. Evertsz, Ralf Hendrych, Peter Singer und Heinz-Otto Peitgen1,2 1
2
CeVis – Centrum f¨ ur Complexe Systeme und Visualisierung, Universit¨ at Bremen, Universit¨ atsallee 29, D–28359 Bremen, Germany, e-mail:
[email protected] MeVis – Centrum f¨ ur medizinische Diagnosesysteme und Visualisierung, Universit¨ at Bremen, Universit¨ atsallee 29, D–28359 Bremen, Germany
Zusammenfassung Dieser Beitrag enth¨ alt eine Einf¨ uhrung in die fraktale Geometrie von B¨ orsenzeitreihen und einige neuere Resultate der Autoren. Zun¨ achst werden einige Grundkonzepte der fraktalen Geometrie wie das Konzept der Selbst¨ ahnlichkeit erl¨ autert und gezeigt, wie dies bei der Analyse nat¨ urlicher Ph¨ anomene eingesetzt werden kann. Der Hauptteil der Arbeit besch¨ aftigt sich mit dem fraktalen Charakter von Aktienkursen und den mathematischen Konzepten, welche diesen beschreiben. Zentrale Aussage ist die statistische Selbst¨ ahnlichkeit der DAX-Aktien, welche durch Prinzipien der Skaleninvarianz motiviert wird. Diese ist eng an Potenzgesetze mit fraktalen Hurst-Exponenten gekn¨ upft. Zusammenh¨ ange und Vorteile gegen¨ uber klassischen Modellen und ihren Parametern wie zum Beispiel Volatilit¨ aten werden diskutiert. Die Anwendung der oben beschriebenen Konzepte zur Bewertung von Optionsscheinen wird erl¨ autert.
1
Fraktale Geometrie
Benoit Mandelbrots Entdeckung [37], daß Selbst¨ahnlichkeit ein u ¨bergreifendes Ordnungsprinzip f¨ ur viele komplexe nat¨ urliche und gesellschaftliche Ph¨anomene ist, hat in vielerlei Hinsicht der Forschung neue Impulse gegeben [48] [59] [46] [17] [6]. Zum Beispiel konnten geometrische Aspekte von K¨ ustenlinien, Turbulenzen, Aktienkursen, verzweigenden Baumstrukturen, Wolken und Struktureigenschaften von Materialien zum ersten Mal oder auf neue Art und Weise konzeptionell erfaßt und gemessen werden. Zu fraktalen Objekten geh¨oren jedoch keine euklidischen Maße wie L¨ ange, Oberfl¨ache oder Dichte. Ihre quantitative Beschreibung erfordert deshalb andere geometrische Konzepte wie etwa fraktale Maße [24] [50] [37] und die dazugeh¨ origen Dimensionen [37] [48] [18]. H¨ aufig besitzen fraktale Objekte eine besondere Art von Selbst¨ahnlichkeit. Exakte geometrische Selbst¨ahnlichkeit einer Punktmenge bedeutet, daß diese Vereinigung endlich vieler Kopien ihrer selbst ist. Diese Kopien werden aus der ¨ urspr¨ unglichen Punktmenge durch Ahnlichkeitstransformationen erzeugt. Dies wird in Abb. 1 illustriert. Das dort gezeigte Sierpinski-Dreieck besteht f¨ ur eine beliebig vorgegebene nat¨ urliche Zahl n aus 3n Kopien von sich selbst in jeweils 2n -facher Verkleinerung. Exakte Selbst¨ ahnlichkeit in der oben beschriebenen strengen Form ist zwar nur in der Mathematik zu finden, jedoch sind viele nat¨ urliche Ph¨anomene der-
Fraktale Geometrie von B¨ orsenzeitreihen
Abb. 1. Das exakt selbst¨ ahnliche Sierpinski-Dreieck
401
Abb. 2. Dielektrische Entladung (Lichtenberg-Muster) in Plastik
artiger Selbst¨ ahnlichkeit in n¨aherungsweisem Sinne unterworfen. Die Selbst¨ahnlichkeit eines Ph¨ anomens bedeutet dabei, daß das Ph¨anomen auf allen Skalen der Beobachtung ann¨ ahernd gleich ist. So k¨onnte zum Beispiel ein Zellenbiologe durch Beobachtung der unter einem Mikroskop wahrgenommenen nat¨ urlichen Zellstrukturen eine gute Sch¨atzung des eingestellten Vergr¨oßerungsfaktors geben. Wenn man aber die Zelle durch eine selbst¨ahnliche Geometrie wie die eines Sierpinski-Dreiecks ersetzt, so ist es nicht mehr m¨oglich, den Vergr¨oßerungsfaktor zu bestimmen. In der Natur wie etwa bei K¨ ustenlinien oder der in Abb. 2 gezeigten Lichtenberg-Figur findet man eine statistische Form der Selbst¨ahnlichkeit. Das bedeutet, daß sich Teilb¨ aumchen verschiedener Gr¨oße einander nicht exakt gleichen. Sie haben aber dieselben statistischen Verteilungseigenschaften. Bei Materialoberfl¨ achen und Zeitreihen wird das Selbst¨ahnlichkeitskonzept durch das ¨ Konzept der Selbstaffinit¨ at ersetzt. Dies bedeutet, daß oben genannte Ahnlichkeitsabbildungen durch affine Transformationen zu ersetzen sind. Ein selbstaffines Objekt setzt sich dann aus kleineren Teilen zusammen, welche durch unterschiedliche Vergr¨ oßerung (Skalierung) entlang seiner verschiedenen Freiheitsgrade bestimmt sind. Um auch die Selbst¨ahnlichkeitseigenschaften von Wahrscheinlichkeitsmaßen quantitativ zu beschreiben, ben¨otigt man jedoch noch komplexere mathematische Konzepte [11] [26] [18] [13]. Die fraktale Geometrie hat eine Vielfalt von einfachen mathematischen Algorithmen hervorgebracht [37] [48] [39], mit denen man geometrische Modelle so generieren kann, daß sie den in der Natur beobachtbaren Formen qualitativ sehr ahnlich sind. Neben ihrer Anwendung in der Film- und Computerspiel-Industrie ¨ zeigen diese Modelle, daß hinter der Entstehung von nat¨ urlichen fraktalen Geometrien nicht unbedingt komplizierte physikalische, genetische oder chemische Prozesse stecken. Schon einfache Algorithmen k¨onnen r¨aumliche und zeitliche Muster erzeugen, die in ihren grunds¨atzlichen Aspekten nat¨ urliche Muster in erster Ordnung gut ann¨ ahern. Diese mathematischen Modelle eignen sich auch sehr gut f¨ ur die theoretische Erforschung physikalischer Ph¨anomene mit fraktalen Geometrien wie z.B. der Diffusion in fraktalen Medien [46] [6].
402
C. J. G. Evertsz, R. Hendrych, P. Singer und H.-O. Peitgen
In den Naturwissenschaften wurden seit Anfang der achtziger Jahre große Fortschritte in der Erforschung der Entstehung und der Modellierung von fraktalen Formen gemacht, die man in der Natur beobachten kann. Nichtlineare Dynamik, Zufallsprozesse sowie die Theorie kritischer Ph¨anomene und Selbstorganisation spielen dabei eine große Rolle [17]. Das Perkolationsmodell [1] [22] ist ein sch¨ ones Beispiel eines einfachen Modells, das sich in einer seiner vielen Variationen sehr gut f¨ ur die grobe Modellierung - z.B. von physikalischen Eigenschaften und Prozessen in por¨osen Medien - eignet. In diesem Modell kommt es zum Zusammenspiel der fraktalen Geometrie, der Theorie der Phasen¨ uberg¨ange und der Wahrscheinlichkeitstheorie.
2
Die fraktale Geometrie von Aktienkursen
Das Handeln und Spekulieren auf M¨arkten und Wertpapierb¨orsen ist ein altes gesellschaftliches Ph¨ anomen. Im neunzehnten Jahrhundert gab es eine große Befruchtung zwischen den Entwicklungen in der Thermodynamik und ¨okonomischen Theorien. In der Folge konzentrierte sich die Forschung mehr auf die Gleichgewichtsaspekte als auf die Fluktuationen [43] [42]. Die mathematische Theorie von Preisfluktuationen begann im Jahre 1900 mit der Doktorarbeit von Louis Bachelier [2]. Er legte hierin nicht nur den Grundstein zur deskriptiven Theorie der Finanzm¨ arkte, sondern leistete auch Pionierarbeit zur systematischen Erforschung der mathematischen Theorie der Diffusionsprozesse (siehe [29] und [53]). Der Bacheliersche Ansatz wurde von Samuelson [51] aufgegriffen (siehe [53]) und in exponentieller Form als geometrische Brownsche Bewegung zur Beschreibung von Aktienkursen etabliert. Das Gaußsche Random-Walk-Modell (Brownsche Bewegung) spielt noch heute eine große Rolle in der Finanzmathematik sowohl aus akademischer Sicht als auch aus Sicht der Anwendungen in der Finanzindustrie. Es ist zugleich das bekannteste Beispiel eines selbst¨ahnlichen stochastischen Prozesses. Bei B¨ orsenkursen gibt es zwei offensichtliche Skalen: die Preisskala und die Zeitskala. Bezeichnet {X s (t)}Tt=1 die Zeitreihe der t¨aglichen Preise von Aktie s u ¨ber einen Zeitraum T , dann versteht man unter einer Beobachtung der Aktie auf T /k der Zeitskala k die Zeitreihe {X s (kt)}t=1 . Solange es sich um h¨aufig gehandelte Aktien wie etwa die 30 DAX-Aktien handelt und solange man Skalen innerhalb eines Tages ( intraday“-Skalen f¨ ur 0 < k < 1) nicht mit einbezieht, ist der Begriff ” der Zeitskalen wohldefiniert. 2.1
Preisskaleninvarianz
Der Begriff einer Preisskala (oder eines Preisniveaus) ist weniger gut definiert, weil die Aktienpreise in ihren Gr¨oßenordnungen schwanken. Dennoch k¨ onnte man diese PT Skala n¨aherungsweise definieren als einen mittleren Preis hX s i = (1/T ) t=1 X s (t), wenn die Zahl T nicht zu groß ist, z.B. T = 250 Handelstage ≈ 1 Jahr. An der Preisskala kann man als Anleger wenig ¨andern. Sie ¨ andert sich bei Stocksplits oder bei andauernden von der Fundamentalseite getriebenen Trends wie dem fast stetigen Anstieg von SAP von 50 DM auf 155
Fraktale Geometrie von B¨ orsenzeitreihen
403
250
DM
DAX Aktien 208
167
125
83
42
0 0
750
1500
2250
3000
DM Abb. 3. Auf der horizontalen Achse ist der mittlere Aktienpreis f¨ ur die individuellen 30 DAX-Aktien eingetragen und auf der vertikalen Achse die Standardabweichung ihrer t¨ aglichen Preisschwankungen. Die hier betrachte Zeitspanne ist 18.10.95 bis 18.10.96
DM zwischen Juni 1994 und Juni 1995. Eine Preisskaleninvarianz bedeutet dann, daß es f¨ ur einen B¨ orsenspezialisten und auch durch eine quantitative Analyse nicht m¨ oglich ist, einen Unterschied zwischen den normierten Aktienzeitreihen ur verschiedene Aktien festzustellen, der auf einen Unter{(1/hX s i)X s (t)}Tt=1 f¨ schied in den Preisskalen zur¨ uckzuf¨ uhren ist. Zum Beispiel sollten DAX-Aktien mit hohen Preisen auch entsprechend h¨ohere Preisschwankungen haben, so daß die empirisch beobachteten prozentualen Preisspr¨ unge in den verschiedenen Aktien nicht von ihrer Preisskala abh¨angen. Abbildung 3 zeigt den mittleren Aktienpreis gegen¨ uber der Standardabweichung der t¨aglichen Preisschwankungen. Die lineare Abh¨ angigkeit der Preisfluktuationen vom Preisniveau zeigt, daß die t¨ aglichen Renditen in erster Ordnung unabh¨angig von der Preisskala sind. Abweichungen von dieser Preisskaleninvarianz sind zu erwarten in jungen“ M¨arkten ” und bei weniger liquiden Wertpapieren. 2.2
Zeitskaleninvarianz
Zeitskaleninvarianz bedeutet, daß weder f¨ ur einen B¨orsenspezialisten noch f¨ ur die quantitative Analyse ein Unterschied zwischen beispielsweise t¨aglichen, w¨ ochentlichen und monatlichen Preiszeitreihen (Charts) erkennbar ist, wenn die Koordinatenachsen nicht beschriftet sind. Daß dies in der Tat unm¨oglich ist, wird in Abb. 4 demonstriert. In dieser Abbildung sind f¨ ur die Zeitskalen k = 1, 5, 20 (t¨ aglich, w¨ ochentlich und monatlich) die aufeinanderfolgenden Preise {X s (kt)}tt00 +60 geplottet worden. Es ist faktisch nicht m¨oglich, anhand dieser graphischen Darstellungen zu entscheiden, welche die t¨agliche, die w¨ochentliche
404
C. J. G. Evertsz, R. Hendrych, P. Singer und H.-O. Peitgen
ln Preis
Skalen
C
B
A
0
Zeit
30
60
Zeit
Abb. 4. Links: Nat¨ urliche Logarithmen der t¨ aglichen Schlußkurse des Deutschen Aktienindex (DAX) vom 3. November, 1986 bis 4. August, 1993. Rechts: Je eine Zeitreihe u aglichen Preisen, u ochentlichen Preisen und ¨ber 60 Tage mit t¨ ¨ber 60 Wochen mit w¨ u ¨ber 60 Monate mit monatlichen Preisen
oder die monatliche Zeitreihe ist. Die Zuordnung ist im letzten Abschnitt unter Kommentar A zu finden. Obige Beobachtung bedeutet aber auch, daß, abgesehen von einem Skalenfaktor, die Anleger, die auf einer t¨aglichen Skala spekulieren, eine ¨ ahnliche Preisfluktuation empfinden wie Anleger, die auf der monatlichen Skala agieren. Diese Beobachtung wurde schon 1963 von Mandelbrot [34] f¨ ur Baumwollpreise gemacht. Im weiteren bezeichnen wir mit X(t) die Aktienpreisprozesse, und ferner seien mit Yk (t) = ln X(t + k) − ln X(t) ≈ [X(t + k) − X(t)]/X(t) die k-Tages-Renditen bezeichnet, das heißt die Renditen auf einer Beobachtungsskala von k Tagen. Skaleninvarianz aufgrund statistischer Selbst¨ahnlichkeit der Renditezeitreihen bedeutet, daß die k-Tages-Renditen Yk (t) die gleiche Verteilung haben wie die normierten k 0 -Tages-Renditen c(k, k 0 )Yk0 , wobei c(k, k 0 ) ein Skalierungfaktor ist und k, k 0 ∈ {1, 2, . . . }. Eine Skaleninvarianz im Sinne der Selbst¨ahnlichkeit bedeutet aber auch, daß die formalen Beziehungen zwischen meßbaren Gr¨oßen wie zum Beispiel Momente auf verschiedenen Skalen selbst wieder unter Skalierung invariant sind. Betrachtet man dazu den Quotienten der meßbaren mittleren Betr¨ age der k- und k 0 -Tages-Renditen, so soll auch h|Yλk |i h|Yk |i = h|Yk0 |i h|Yλk0 |i
(1)
Fraktale Geometrie von B¨ orsenzeitreihen
405
f¨ ultig sein. ur alle Skalierungen mit λ ∈ IR, λ > 0 und alle Skalen k, k0 > 0 g¨ Dies impliziert nat¨ urlich auch die Gleichheit der Skalierungsfaktoren c(k, k 0 ) = c(λk, λk 0 ) und insbesondere f¨ ur λ = 1/k 0 die Beziehung c(k, k 0 ) = c(k/k 0 , 1). Betrachtet man nun die Mittelwerte h|Yk |i als Funktionen von k, differenziert beide Seiten der Gleichung (1) formal nach k und setzt anschließend k 0 = k, so erh¨ alt man die Beziehung ∂ lnh|Yλk |h ∂ lnh|Yk |h = ∂ ln k ∂ ln(λk)
(2)
f¨ ur alle λ ∈ IR, λ > 0, d. h. eine konstante Gr¨oße f¨ ur alle k, die wir mit H bezeichnen wollen. H=
∂ lnh|Yk |h . ∂ ln k
(3)
Die resultierende homogene lineare Differentialgleichung erster Ordnung ∂h|Yk |h H − h|Yk |h= 0 ∂k k
(4)
ur die mittleren Betr¨age der hat die L¨ osung h|Yk |h= C k H mit C = h|Y1 |h. F¨ k-Tages-Renditen gilt also ein Potenzgesetz < h|Yk |h ∼ k H .
(5)
ur die Skaleninvarianz beHieraus lassen sich die Skalierungsfaktoren c(k, k 0 ) f¨ stimmen, und man erh¨ alt: P
Yk = P
k k0
H Yk0 ,
(6)
ur ist identisch verteilt“ steht. Der Exponent 0 ≤ H ≤ 1 wird meistens wobei = f¨ ” Hurst-Exponent genannt. Entartete F¨alle sind H = 0 f¨ ur weißes Rauschen und H = 1 f¨ ur glatte, nicht konstante Funktionen. F¨ ur die Modellierung von Aktienpreisprozessen durch Gaußsche Prozesse mit unabh¨ angigen, identisch verteilten Zuw¨achsen wie im Random-Walk-Modell von Bachelier folgt aus dem Zentralen Grenzwertsatz, daß die Beziehung (6) erf¨ ullt ist mit dem Hurst-Exponenten H = 1/2. Aus dieser Gleichheit der reskalierten endlichdimensionalen Verteilungen folgt, daß im Gaußschen Random-Walk als Aktienmodell die Preisfluktuationen auf der monatlichen Zeitskala (k = 20) die gleiche Verteilung – die Normalverteilung – haben wie die t¨ aglichen Preisfluktuationen (k = 1), multipliziert mit dem Faktor 201/2 . Weil man bei einer Vergr¨oßerung der Zeitskala mit einem Faktor k die Preisfluktuationen mit einem Faktor ungleich k, n¨amlich k H mit H 6= 1/2 vergr¨ oßern muß, um in der Verteilung dieselben Fluktuationen wie auf Zeitskala k zu bekommen, spricht man in diesen F¨allen nicht von statistischer Selbst¨ ahnlichkeit, sondern von statistischer Selbstaffinit¨at.
406
2.3
C. J. G. Evertsz, R. Hendrych, P. Singer und H.-O. Peitgen
Die Selbstaffinit¨ at der 30 DAX-Aktien und ihre Bedeutung
Der Hurst-Exponent kann mit Hilfe der Beziehung (5) aus empirischen Daten gesch¨ atzt werden. Dazu berechnet man die mittleren absoluten k-Tages-Renditen PT −k ur h|Yk |h= (T − k)−1 i=1 |Yk (t)|, und falls ein Plot von lnh|Yk |h u ¨ber ln k, f¨ k = 2i , i = 0, 1, 2, . . . eine ann¨ahernd grade Linie liefert, bestimmt man H durch lineare Regression. Neben der hier genannten Methode sind verschiedene alternative Methoden m¨ oglich, [25] und [62] seien hier erw¨ahnt. Es sei bemerkt, daß statistische Qualit¨ atsaussagen f¨ ur die zugeh¨origen Sch¨atzer wie zum Beispiel Konsistenz nur bei genauer Kenntnis des statistischen Modells f¨ ur die Zeitreihe oglich sind. (Yk ) m¨ F¨ ur den Zeitraum von Januar 1979 bis September 1996 sind die nach oben beschriebener Methode gesch¨atzten Hurst-Exponenten in Abb. 5 dargestellt. Wie durch die eingetragenen mittleren quadratischen Fehler angedeutet wird und f¨ ur die Preussag AG (PRS) in Abb. 6 links zu sehen ist, liegen die in den log-logPlots eingetragenen Punkte sehr gut auf einer Geraden. Die lineare Regression wurde f¨ ur alle Aktien auf den Skalen zwischen einem Tag und 28 Tagen, also etwa einem Jahr realisiert.
Abb. 5. Die Hurst-Exponenten f¨ ur die 30 DAX-Aktien, erhalten mit Hilfe einer linearen Regression zwischen einem Tag und 28 Tagen (≈ 1 Jahr) f¨ ur die Zeitspanne von Jan. 1979 bis Sep. 1996. Die vertikalen Balken stellen den mittleren quadratischen Fehlern dar
Es gibt zwei Beobachtungen, die wir herausheben wollen. Erstens haben die 30 DAX-Aktien sehr unterschiedliche Hurst-Exponenten, und zweitens sind die gemessenen Exponenten fast alle gr¨oßer als der Exponent H = 0.5 aus dem Gaußschen Random-Walk-Modell (Standard-Modell).
Fraktale Geometrie von B¨ orsenzeitreihen
407
Der Unterschied in den Hurst-Exponenten hat weitreichende Konsequenzen f¨ ur die Art und Weise, auf die man aus der historischen 1-Tages-Volatilit¨at die kTages-Volatilit¨ at, d.h. die Volatilit¨at der k-Tages-Renditen, bestimmen soll. Die historische 1-Tages-Volatilit¨at ist dabei erkl¨art als die (empirische) Standardabweichung der t¨ aglichen Renditen u ¨ber einen historischen Zeitabschnitt von z.B. 100 Tagen. In der Praxis wird f¨ ur die Berechnung der 1-Jahres-Volatilit¨at einer Aktie die 1-Tages-Volatilit¨ at mit einem Faktor 2600.5 ≈ 16 multipliziert. Jedoch sollte man f¨ ur eine Aktie mit einem Hurst-Exponenten H = 0.6 eher einen Faktor 2600.6 ≈ 28 nehmen. Ausgehend von einer Volatilit¨at σ von z.B. 1 % findet man deshalb mit dem Standardmodell, daß eine Preis¨anderung von 16% in einem Jahr ein 1σ-Ereignis ist, w¨ahrend unter Ber¨ ucksichtigung des gemessenen Hurst-Exponenenten eine Preis¨anderung von 28% in einem Jahr ein 1σ-Ereignis darstellen w¨ urde. Anders notiert, prognostiziert das Standardmodell mit Wahrscheinlichkeit 0.32 eine Preis¨anderung von mehr als 16%, w¨ahrend man unter Ber¨ ucksichtigung des Hurst-Exponenten H = 0.6 mit derselben Wahrscheinlichkeit eine Preis¨ anderung von mehr als 28% vorhersagt. Dabei stellt man fest, daß man schon aufgrund der Unterschiede in den Hurst-Exponenten f¨ ur Aktien mit H > 0.5 die Wahrscheinlichkeiten f¨ ur große Preis¨anderungen erheblich untersch¨ atzt. Es sollte bemerkt werden, daß f¨ ur das Verifizieren derartiger Aussagen die Form der gegebenen Wahrscheinlichkeitsverteilung, wie die der Normalverteilung im Standardmodell nicht notwendigerweise bekannt sein muß da diese Aussagen schon mit Hilfe von (5) bzw. (6) abzuleiten sind. ¨ Die berechneten Hurst-Exponenten bilden die Grundlage f¨ ur die Uberpr¨ ufung der Skalierbarkeit der Verteilungen der k-Tages-Renditen. Abbildung 6 rechts zeigt f¨ ur die Daimler AG einen Plot der reskalierten k-Tages-Renditen 4
dai
ln Pk(x)
2
0
–2
–4
–6 –0.15
–0.10
–0.05
–0.00
0.05
0.10
0.15
x=Xk/k^H
Abb. 6. (Links) Log-Log-Plot der mittleren Betrages der k-Tages-Renditen versus k f¨ ur Preussag AG (PRS). (Rechts) Die Verteilungen der reskalierten k-Tages-Renditen k−H Yk mit H = 0.59 und k = 2i , i = 1, . . . , 6 f¨ ur die Daimler AG (DAI). Die er” zeugende Verteilung“, auf welche die normierten Verteilungen zusammenfallen, ist eine 1-Tages-Rendite Verteilung. Die unterbrochene Kurve ist die Gaußsche Dichte mit der Varianz der 1-Tages-Renditen
408
C. J. G. Evertsz, R. Hendrych, P. Singer und H.-O. Peitgen
¨ (k −H(dai) Yk ) f¨ ur k = 2i , i = 1, . . . , 6 und H(dai) = 0.59. Die Ubereinstimmung zeigt, daß die 64-Tages-Renditen (3-Monats-Renditen) bei einem Skalierungsfaktor von (2/64)H(dai) dieselbe Verteilung haben wie die 2-Tages-Renditen. Die Verteilung, auf welche die reskalierten k-Tages-Renditen zusammenfallen, ist die Verteilung der 1-Tages-Renditen. Wir nennen sie die erzeugende Verteilung, weil man aus ihr zusammen mit dem Hurst-Exponenten H und dem Skalierungsgesetz (6) alle Renditenverteilungen auf h¨oheren Skalen n¨aherungsweise bestimmen kann [16]. W¨ aren die Modellannahmen des Gaußschen Random-Walk-Modells richtig, so m¨ ußte man neben der Sch¨atzung des Exponenten H = 0.5 auch die erzeugende Verteilung als eine Gaußverteilung identifizieren. Aus dem Vergleich mit der Gaußverteilung, die auf Basis der empirischen Standardabweichung σ = 0.0144 der 1-Tages-Renditen von DAI in Abb. 6 eingef¨ ugt wurde, sieht man sofort, daß die empirische erzeugende Verteilung keine Gaußverteilung ist. Bei den empirischen Verteilungen beobachtet man sogenannte heavy tails“, was bedeutet, daß ” die empirischen Dichten zu den Enden hin langsamer abfallen als die Dichte der Normalverteilung, die ein exponentielles Abklingverhalten hat. Absch¨atzungen mit dem Gaußschen Modell leiden deshalb unter zwei Fehlerquellen. Weder der Hurst-Exponent noch die Verteilung entsprechen den empirischen Ergebnissen. Weil die Schw¨ anze der empirischen Dichten viel fetter sind, wird die Unterbewertung, die schon durch den h¨oheren Hurst-Exponenten gegeben ist, noch einmal verst¨ arkt. Deshalb sind Kursabst¨ urze im Gaußschen Random-Walk-Modell nicht plausibel. F¨ ur die Daimler-Aktie mit einer 1-Tages-Volatilit¨at von σ = 1.44% findet man im Zeitraum von Januar 1979 bis September 1996 allein sechs Preissteigungen, die mehr als f¨ unfmal gr¨oßer sind als die angegebene Volatilit¨at und neun Crashes“ um mehr als das sechsfache der Volatilit¨at. Das sind f¨ unfzehn ” extreme 5σ-Ereignisse in einer Stichprobe von 17 Jahren. In einem Gaußschen Random-Walk mit einer 1-Tages-Volatilit¨at σ findet aber ein solcher 5σ-Sprung innerhalb eines Tages im Durchschnitt nur einmal in 13000 Jahren statt. Eine Risikobewertung mit dem Skalierungsgesetz (6) auf Grundlage des empirischen Hurst-Exponenten und der empirischen erzeugenden Verteilung verspricht eine viel realistischere Absch¨atzung der Wahrscheinlichkeiten von Kursschwankungen. Diese Wahrscheinlichkeiten und die zugrundeliegenden stochastischen Prozesse spielen auch eine zentrale Rolle in der Bewertung von abgeleiteten Wertpapieren (sogen. Derivaten) wie z.B. Optionen (siehe 2.5). Das auf breiter Basis in der Finanzindustrie benutzte Optionsbewertungsmodel von Black und Scholes [4] geht davon aus, daß die Aktienpreisprozesse mit dem Bachelier-Modell modellierbar sind. In der Black-Scholes-Formel f¨ ur Optionspreise findet man dann auch explizit die Normalverteilung und den Hurst-Exponenten H = 0.5. Neben dem aktuellen Aktienpreis, dem Aus¨ ubungspreis und der Restlaufzeit (siehe 2.5 ) beruht die Preisberechnung nur auf der empirisch bestimmten historischen Volatilit¨ at. Die berechneten Optionspreise weichen jedoch sehr oft von den Marktpreisen ab. Die Hoffnung ist, durch angepaßtere Optionsbewertungsmodelle beruhend auf (6) bei gen¨ ugend guter Parametersch¨atzung empirische Beobachtungen der Marktpreisdynamik besser zu ber¨ ucksichtigen.
Fraktale Geometrie von B¨ orsenzeitreihen
2.4
409
Modelle f¨ ur statistische Selbst¨ ahnlichkeit
Wie oben erw¨ ahnt, leistete Benoit Mandelbrot entscheidende Pionierarbeit auf ¨ dem Gebiet von Skalierungsgesetzen in der Okonomie [34] und arbeitete diese zum Teil mathematisch auf. Die hier diskutierte Beobachtung der statistischen Selbstaffinit¨ at von Preisprozessen auf verschiedenen Zeitskalen wurde von ihm schon 1963 f¨ ur Baumwollpreise gemacht. Zur damaligen Zeit waren klassische Arbeiten der fraktalen Geometrie (z.B. [47] [28] [24]) noch nicht wiederentdeckt, aufgearbeitet und von der statistischen Seite her weiterentwickelt. P ur die endEin selbstaffines Skalierungsgesetz der Form Yk (t) = c(k, k 0 )Yk0 f¨ ur k, k 0 ∈ lichdimensionalen Verteilungen mit einem Skalierungfaktor c(k, k 0 ) f¨ {1, 2, . . . } ist mit vielen verschiedenen stochastischen Prozessen modellierbar. So sind etwa α-Levy-stabile Prozesse mit unabh¨angigen und station¨aren Inkrementen selbstaffin mit c(k, k 0 ) = c0 (k/k 0 )H und H = 1/α, wobei 0 < α < 2 der Index der Levy-stabilen Verteilung ist [34] [20] [18]. Solche Prozesse haben in ihren endlichdimensionalen Verteilungen sehr fette Schw¨anze und unendliche Varianz. Weil sie in diesem Sinne n¨aher an den empirischen Beobachtungen liegen, spielen sie in der Finanzmathematik eine zunehmend gr¨oßere Rolle [52] [39]. Ein anderer Aspekt ist, daß stochastische Prozesse mit endlicher Varianz aufgrund des Gaußschen Zentralen Grenzwertsatzes einen Hurst-Exponenten abweichend von 1/2 haben k¨onnen, wenn Langzeitkorrelationen vorhanden sind. Ein Beispiel hierf¨ ur ist die gebrochene Brownsche Bewegung [35] [36] [39]. Ein weiteres Beispiel sind selbst¨ahnliche Prozesse vom Hermite Rang [58]. Aus Grenzwerts¨ atzen [19] der Wahrscheinlichkeitstheorie folgt, daß als Grenzverteilungen von Summen aus unabh¨angigen Zufallsvariablen entweder α-Levystabile Verteilungen auftreten k¨onnen, oder die Gaußverteilung. Dies spiegelt sich in der Skalierungsgleichung f¨ ur das stabile Gesetz wider [30]. Verl¨aßt man die unabh¨ angige Welt, so kommt man in die gr¨oßere Klasse der selbst¨ahnlichen oder semistabilen Variablen und Prozesse, welche durch die Skalierungsgleichung (6) gegeben sind. Diese Entdeckung geht auf Lamperti [32] zur¨ uck, der diese Prozeßklasse erstmal systematisch untersuchte (siehe auch [33]). Er konnte zeigen, daß die Klasse von stochastischen Prozessen mit der Skalierungseigenschaft (6) ebenso m¨ achtig ist wie die Klasse der station¨aren stochastischen Prozesse. Ist ahnlich mit Skalierung (6), so ist Zk := e−Hk Yek station¨ar. n¨ amlich (Yk ) selbst¨ In ¨ ahnlicher Weise l¨ aßt sich aus jedem station¨aren ein selbst¨ahnlicher Prozeß erzeugen [32]. F¨ ur das Random Walk-Modell (Yk ) von Bachelier machte schon Doob diese Beobachtung [9]. F¨ ur dieses Modell liefert (Zk ) den bekannten Geschwindigkeitsprozeß zur Brownschen Molekularbewegung [45]. Die Klasse der station¨ aren Prozesse wiederum korrespondiert eins zu eins mit der Menge aller Massenverteilungen [56]. Damit ist klar, daß die Klasse der Prozesse, die (6) erf¨ ullen, relativ groß ist. Bei den DAX-Aktien kann man, wie in Abb. (6) dargestellt wurde, durchaus fettere Schw¨ anze beobachten. Sie sind jedoch nicht so extrem ausgepr¨agt, wie bei Levy-stabilen Verteilungen, wo man ein Abklingverhalten der Form p(x) ∼ x−1−1/H hat. Es gibt auch zeitliche Korrelationen [14] [16], weshalb diese Aktien
410
C. J. G. Evertsz, R. Hendrych, P. Singer und H.-O. Peitgen
kompliziertere Prozesse darstellen als die beiden oben genannten Prozesse (αLevy-stabile Prozesse und fraktale Brownsche Bewegung). Man k¨ onnte auch vermuten, daß die beobachtete approximative Skalenunabh¨ angigkeit der DAX-Aktien einfach das Ergebnis einer Selbstorganisation ist, die gesteuert wird durch ein unbewußtes ¨okonomisches Prinzip, wonach keine Zeitskala bevorzugt wird. W¨are es zum Beispiel so, daß die Renditeverteilung auf den Skalen unter 2 Monaten anders w¨are als auf den Skalen u ¨ber 2 Monaten, dann w¨ urde sich das herumsprechen und es k¨onnte leicht passieren, daß alle Investoren entweder nur eine Investitionsdauer unterhalb oder oberhalb von 2 Monaten bevorzugen. Im Gegensatz zu Modellen aus der Physik wie zum Beispiel der NavierStokes-Gleichung f¨ ur Turbulenz, gibt es f¨ ur den Aktienmarkt kein fundamentales mikroskopisches Modell. Nichtsdestotrotz gibt es eine Reihe von Modellans¨atzen. Die empirische Forschung an Handelsm¨arkten und an Wertpapierpreisen ist eine Voraussetzung f¨ ur die Weiterentwicklung dieser Ans¨atze. Die zunehmende Digitalisierung der Wertpapierm¨arkte und die verbesserten M¨oglichkeiten an hochwertige Daten zu kommen, werden sicher zu diesen Entwicklungen beitragen. 2.5
¨ Die Bewertung von Optionen - ein kurzer Uberblick
Die Bewertung von Optionen ist im Augenblick eines der aktivsten Gebiete in Theorie und Praxis von Finanzmathematik und Stochastik. Der letzte Nobelpreis f¨ ur Wirtschaftswissenschaften ging an Black, Merton und Scholes f¨ ur ihre theoretischen Arbeiten zur Bewertung von Optionen [4] [41]. Aktienoptionen sind spezielle Aktienderivate, welche auf der Basis von Wetten“ auf zuk¨ unftige ” Kursentwicklungen bestimmte Vor(ver)kaufsrechte einr¨aumen. Man unterscheidet zwischen Call- und Putoptionen (Calls und Puts). Bei den ersteren wird ein Kaufrecht zu bestimmten Konditionen angeboten, bei den letzteren ein Verkaufsrecht. Die Kernfrage ist, zu welchem Preis ein derartiges Recht gehandelt werden soll. F¨ ur Puts und Calls ist diese Frage prinzipiell dieselbe, so daß wir uns hier nur auf Calls beschr¨ anken wollen. Die Konditionen, zu welchen man einen Call kauft oder schreibt, k¨ onnen sehr vielf¨altige sein. Die gebr¨auchlichsten Kontrakte sind die Europ¨ aische Calloption, die Amerikanische Calloption und die Asiatische Calloption; daneben existieren zahlreiche exotische Optionsscheinformen. Aus Gr¨ unden der Einfachheit befassen wir uns mit der Europ¨aischen Calloption. Andere Optionstypen werden ¨ahnlich bewertet. (a) Eine Europ¨ aische Calloption ist das verbriefte Recht, eine optierte“ Aktie ” mit gegenw¨ artigem Preis S0 (Underlying) zu einem vereinbarten Preis K (Exercise Preis) an einem festgelegten Stichtag T zu erwerben. ur eine solche Option, den ein K¨aufer zum Beispiel bereit ist (b) Der Preis c0 f¨ zu zahlen, sollte f¨ ur K¨ aufer und Verk¨aufer gleichermaßen akzeptabel (fair) sein und h¨ angt im allgemeinen davon ab, (i) welches Fairneßprinzip zugrundegelegt wird, (ii) welches Aktienmodell angenommen wird, (iii) und welche Konditionen ur und Parameter gegeben sind, zum Beispiel S0 , K, T und die Zinsrate r% f¨ festverzinsliche Anlagen. (c) Das Modell von Black, Scholes und Merton [4] [41] bedeutete einen großen
Fraktale Geometrie von B¨ orsenzeitreihen
411
Durchbruch in Theorie und Praxis der Optionsbewertung. Fundamentale Idee war das sogenannte Hedgen“. Es bedeutet, grob gesprochen, daß es m¨oglich ” ist, durch Kauf von Aktien und zugeh¨origen Optionsscheinen Verlustrisiken zu minimieren. Dies erscheint zun¨achst widersinnig, da gemeinhin Optionen dem Beobachter als noch riskantere Anlagen als Aktien erscheinen. Zum Hedgen“ ” verwendeten Black und Scholes das Bacheliersche Modell (Brownsche Bewegung) f¨ ur die log-Preise der Bezugsaktien. Die Argumentation von Black-Scholes [4] war komplex und machte von Itos Kalk¨ ul (siehe [27]) Gebrauch. Dieser f¨ uhrte sie auf die Differenz zweier Normalverteilungen (siehe [61]), welche auch wie folgt geschrieben werden kann: √ S0 N (d) − K e−RT N (d − σ T ) c0 = =
e−RT √ 2π
Z∞
1
(S0 e(R− 2 σ
2
)T +σT 1/2 z
− K)+ e−z
2
/2
dz.
(7)
−∞
Mit N ist hierbei die kumulative Standardnormalverteilung bezeichnet und mit √ d := (log(S0 /K) + (R + 12 σ 2 )T ))/(σ T ). Das Aktienmodell hierzu ist gegeben durch Sk = S0 exp(Yk ) mit Yk = (R − 12 σ 2 )k + σξk , wobei (ξk ) eine StandardBrownsche-Bewegung ist. Als einziger aktienspezifischer Parameter geht die Volatilit¨ at σ ein. Der Hurst-Exponent ist in der obigen Formel in den Wurzeln von T , in der zweiten Zeile in T 1/2 enthalten. Legt man als Wahrscheinlichkeitsraum den Raum aller stetigen Kurven mit der zugeh¨origen unendlichdimensionalen“ ” Normalverteilung (Wienermaß Q∗ = QW , siehe [45]) zugrunde, so kann man den Callpreis c0 als Erwartungswert schreiben: c0
=
EQ∗ (e−RT (S0 eYT − K)+ ).
(8)
Auf die Hintergr¨ unde dieser Formel wollen wir im folgenden kurz eingehen, bevor wir M¨ oglichkeiten zur fraktalen“ Bewertung von Optionen skizzieren. ” (d) Ein einfacher Zugang zur Bewertung von Optionen: Der Ansatz von Black und Scholes [4] mit Hilfe des Ito-Kalk¨ uls ließ zun¨achst viele Fragen offen, die durch den Einsatz der Theorie der Martingale nach und nach geschlossen wurde [54]. Cox, Ross und Rubinstein [8] gelang jedoch ein elementarer Zugang mit Hilfe des Invarianzprinzips von M. Donsker, siehe [27], indem sie die Brownsche Bewegung durch einen Binomialen Verzweigungsprozeß ersetzten. Folgendes Gedankenexperiment folgt den Ideen von Cox, Ross und Rubinstein [8] [61] und enth¨ ullt den Kern der Idee des Hedgens: Es sei angenommen, man weiß von einer Aktie mit dem gegenw¨artigen Preis von S0 = 50 DM, daß sie mit einer Wahrscheinlichkeit von f¨ unfzig Prozent auf S1 (ωu ) = 100 DM steigt oder auf S1 (ωd ) = 25 DM f¨allt, und zwar innerhalb einer Zeitperiode T = 1. Der gegenw¨ artige Festzinssatz soll mit r = 25% veranschlagt werden, um schnelle ¨ Uberschlagsrechnungen zu erm¨oglichen. Die Optionsscheine auf die Aktie sollen den Exercise-Preis von K = 50 festschreiben. Frage: Wieviele Aktien a1 zum Preis S0 muß man auf Kredit zu b1 DM mit r% Verzinsung kaufen und wieviele Optionsscheine auf die Aktie zum Preis c0 verkaufen, damit bei Laufzeit T = 1 und Aus¨ ubungspreis K der in Anspruch genommene Kredit zur¨ uckgezahlt
412
C. J. G. Evertsz, R. Hendrych, P. Singer und H.-O. Peitgen
werden kann? Die Antwort ist im letzten Abschnitt unter Kommentar B zu finden. ¨ Aquivalent zu obiger Idee ist es, einen Kapitalprozess Xtπ = at St + bt Bt , gebildet aus der Aktie St und festverzinslichem Kapital Bt zu betrachten, dessen Zuw¨ achse sich im wesentlichen aus denen der Aktie speisen ( Selbstfinan” zierung“). In unserem Gedankenexperiment war B1 = 1. Ein fairer Preis c0 ( Gleichgewichtspreis“) f¨ ur K¨aufer und Verk¨aufer ist dann das kleinste m¨ogli” ur eine geeignete Strategie π = (at , bt ) die che Kapital x = X0π derart, daß f¨ Auszahlbedingung XTπ ≥ max{0, ST − K} = (ST − K)+ gilt. F¨ ur das Gedankenexperiment ergibt sich der faire Preis als Minimum einer linearen Funktion unter den Nebenbedingungen X1π (ω) ≥ (S1 (ω) − K)+ , ist also als L¨ osung zweier Gleichungen mit zwei Unbekannten zu erhalten, n¨amlich X1π (ωu ) = (S1 (ωu ) − K)+ und X1π (ωd ) = (S1 (ωd ) − K)+ . Das Ergebnis π = (a1 , b1 ) setzt man in X0π ein und erh¨alt nach elementarer Rechnung: (Bsp.)
c0
= e−R [pQ (S1 (ωu ) − K)+ + (1 − pQ )(S1 (ωu ) − K)+ ] ; pQ =
r − ˜b . (9) a ˜ − ˜b
Die Parameter a ˜ und ˜b sind dabei die m¨oglichen Outcomes“ des log-Preises ” der Aktie, welche durch S1 (ω) = S0 (1 + ρ(ω)) modelliert ist, und R = ln(1 + r). Die Zufallsvariable ρ(ω) entspricht dabei dem Renditeprozeß und kann als fairer M¨ unzwurf mit den beiden Werten a ˜ und ˜b interpretiert werden. Die Einsichten, welche man durch dieses einfache Beispiel gewinnt, kann man wie folgt zusammenfassen: ◦ Der faire Preis l¨ aßt sich stets durch einen Erwartungswert der Form (8) als Funktional des Aktienprozesses beschreiben. ◦ Das dazu n¨ otige Wahrscheinlichkeitsmaß Q∗ ist im allgemeinen nicht das Wahrscheinlichkeitsmaß Q, welches dem Renditeprozeß zugrundeliegt, sondern h¨ angt mit diesem durch dQ∗ = g · dQ zusammen. ◦ Diese Dichte kann in den meisten F¨allen durch exponentielles Verschmieren (Esscher-Transformation) gem¨aß g(x) = eθx /LQ (θ) erreicht werden, wobei LQ (θ) die Laplace-Transformierte der Renditeverteilung bezeichnet. Diese Idee geht auf Gerber und Shiu zur¨ uck [21]. In unserem Gedankenexperiment war Q ≈ 12 (δa˜ +δ˜b ). Die richtige Wahl des Para¨ meters θ im elementaren Beispiel, welche die Ubereinstimmung der Formeln (8) und (9) garantiert, ist in Kommentar C angegeben. Das allgemeine Prinzip, welches sich hinter dieser Wahl verbirgt, ist, daß Q∗ bzw. g bzw. θ so gew¨ahlt werden m¨ ussen, daß der diskontierte Preisprozeß (e−rk Sk ) bzgl. des Maßes Q∗ ein Martingal ( faires Gl¨ ucksspiel“) wird [54]. Innerhalb des Rahmens von Prozessen mit ” unabh¨ angigen Inkrementen kann dies oft durch Esscher-Transformation erreicht werden. In unserem Beispiel braucht man daf¨ ur nur die Gleichung E(1+ρ) = 1+r bzw. LQ (θ + 1)/LQ (θ) = eR zu l¨osen. Abschließend wollen wir noch drei Bemerkungen machen: Iteriert“ man die Ar” gumentation unseres Gedankenexperimentes, indem man an jedem Outcome“ ” des einfachen Models wieder dieselbe Aufw¨arts- bzw. Abw¨artsbewegung starten
Fraktale Geometrie von B¨ orsenzeitreihen
413
l¨ aßt und setzt dieses Verfahren fort, erh¨alt man das bereits erw¨ahnte Binomial¨ verzweigungsmodell, und es kommt zur Uberlagerung von Dirac-Verteilungen. ∗ Die Verteilung Q ist dann ¨aquivalent zu einem Binomialmaß. Der zentrale Grenzwertsatz liefert dann die Normalverteilung als Grenzverteilung und man gelangt zu (7). In dieser Formel braucht man keine Maßverschmierung mehr, da das zugrundegelegte Maß schon das richtige“ war. Hat man jedoch eine andere ” ungliche Maß mit Hilfe der sogenannDrift“ als µ = r − 12 σ 2 , muß man das urspr¨ ” ten Girsanov-Theorie [27] transformieren, erh¨alt aber letztlich doch wieder (7). Die von Gerber und Shiu entwickelte Theorie der Esscher-Transformation er¨offnet die M¨ oglichkeit jenseits der Welt der Diffusionsprozesse geeignete Maße zur Bewertung einer Option zu generieren. Dies wurde von Eberlein bei der Preismodellierung mit hyperbolischen Verteilungen [12] und von Barndorff-Nielsen bei der Modellierung mit Normal-Inversen Gaußverteilungen [3] genutzt. Zu diesen Modellen passen jedoch nicht zeitliche Skalierungsgesetze, wie in vorhergehenden Abschnitten beschrieben. (e) Beispiel von Optionen aus dem DAX: Die folgende Tabelle enth¨alt Optionsscheine aus dem DAX. Die historische Volatilit¨at (H.-Vola.) wurde aus empirischen Daten auf jeweils einem Hundert-Tage-Vergangenheitsfenster gesch¨atzt und auf ein Jahr hochgerechnet. Die Laufzeit ist in Vielfachen eines Jahres angegeben. W¨ ahrend die Black-Scholes-Preise bei den ersten Aktien nicht sehr stark von den Marktpreisen abweichen, ist dies bei den letzten Aktien der Fall. Die Hoffnung besteht, daß verfeinerte Modelle, welche den oben aufgezeigten Skalierungsgesetzen Rechnung tragen, bessere Ergebnisse liefern. Aktie Preis Ex.-Preis Laufzeit H.-Vola. BS-Preis Markpreis Umsatz Allia 504.90 380.00 0.56 0.37 143.11 141.60 600 DtBk 109.10 100.00 0.91 0.36 21.73 21.19 7500 DtTel 31.15 33.00 1.02 0.32 3.96 3.15 6200 CoBa 64.30 70.00 2.07 0.39 14.65 11.75 1800 Siem 105.10 95.00 0.32 0.41 16.19 13.10 4600 DtTel 31.15 40.00 1.61 0.32 3.13 1.90 4000 CoBa 64.30 69.10 0.67 0.39 7.11 4.50 10000 Thys 357.00 425.00 1.61 0.33 46.56 2.90 28000 2.6
Fraktale Optionsbewertung
In diesem Abschnitt soll kurz beschrieben werden, wie Skalierungsgesetze genutzt werden k¨ onnen, um Optionsbewertungsformeln zu gewinnen. Wir stellen dabei drei M¨ oglichkeiten vor, welche alle auf Formeln der Form K K (10) c0 = S0 F log , R, T, H − Ke−rT G log , R, T, H S0 S0 beruhen. Diese verallgemeinern (7). Wie die Funktionen F und G zu erhalten sind, wollen wir nun ´en detail beschreiben.
414
C. J. G. Evertsz, R. Hendrych, P. Singer und H.-O. Peitgen
(a) Skalierung und Esscher-Transformation: Wir gehen davon aus, daß der Renditeprozeß (log-Preisprozeß) der zum Optionsschein geh¨origen Aktie ein diskreter, auf endlich vielen Zeitpunkten lebender stochastischer Prozeß mit unabh¨ angigen Inkrementen ist, dessen Inkremente zentriert sind und Wahrscheinlichkeitsverteilungen mit kompaktem Tr¨ager haben. Hier greift die Theorie der Esscher-Transformation. Zun¨achst sch¨atzt man den Hurst-Exponenten, danach die Dichte q(x) der Eintagesrendite. Man kann dazu adaptive Kerndichtesch¨ atzer benutzen (siehe z.B. [57]). Man verwendet das Skalierungsgesetz (7), um gem¨ aß qT (x) := t−H q(T −H x) hochzuskalieren. Diese Dichte wird durch Esscher-Transformation in eine faire“ verwandelt. Dazu l¨ost ” man zuerst die Gleichung LQ (θT T H + T H ) = eR LQ (θT T H ) mit dQ(x) = ur θ. In (10) setzt man dann folgende Funktion F ein qT (x) dx numerisch f¨ F (log SK0 , R, T, H) = e−RT F˜ (T −H log SK0 , (θT + 1) T H , θT ), wobei wir hierin R∞ F˜ (z, α, θ) := z eαy q(y) dy/LQ (θ) und G = F gesetzt haben. (b) Levy-Esscher-Ansatz: Anstatt die empirisch gesch¨atzte Eintagesrenditeverteilung zu benutzen, fitten wir letztere durch eine α-Levy-stabile Verteilung mit Dichte q(x). Diese skalieren wir dann hoch und verfahren wie in (a). Eine Besonderheit ist hier jedoch enthalten: Da die Esscher-Transformierten von α-Levystabilen Verteilungen i. a. nicht existieren, schneiden wir vorher deren Schw¨anze ab bzw. gl¨ atten die Verteilung durch Faltung mit einer geeigneten Kernfunktion. (c) Subordinationsmethode: Diese geht auf Hurst, Platen und Rachev [49] zur¨ uck. Die Idee besteht ebenso wie bei (b) darin, den Renditeprozeß durch einen α-Levy-stabilen Prozeß zu approximieren. Dieser wird allerdings mit Hilfe der Brownschen Bewegung durch Zeitsubstitution angesetzt - in der ¨ Rechnung, daß nicht Form Yk := ξT (k) . Damit tr¨agt man der Uberlegung die physikalische Zeit f¨ ur den Aktienhandel entscheidend ist, sondern eine Zeit T (k), die den sporadischen Aktionen auf dem Markt Rechnung tr¨agt. ur den fairen Preis T (k) ist ein von (ξk ) unabh¨angiger α/2-stabiler Prozeß. F¨ hat man dann im wesentlichen c0 = EQ0 (c BS (T (T )) wegen Unabh¨angigkeit, wobei c BS der Black-Scholes Preis zur Zeit T ist. Das Maß Q0 geh¨ort zum Mutterprozeß (ξk ), und wird durch eine Girsanov-Typ Transformation erzeugt. Auf diese Weise erh¨ alt man F (log(K/S0 ), R, T, H) = F− (log eRT S0 /K) RT = F√ S0 /K), wobei die Funktionen durch und G(log(K/S + (log e R ∞0 ), R, T, H) 1 N ((x ∓ λv)/ λv) dS (1, 1, 0)(v) gegeben sind mit λ := F± (x) = α/2 2 0 ur die zentrierte standardisierte stabile Verteilung 2σ 2 cos((απ)/4)2/α T 2/α f¨ 1 . Es sei bemerkt, daß diese Methode nur f¨ ur HurstSα/2 (1, 1, 0) und α = H Exponenten H > 0.5 Sinn macht. (d) Beispiel eines Optionsscheins: DAI-C/170-98/06. Diesen Schein einer CallOption auf die Daimler Aktie zum Exercise-Preis von 170 DM betrachten wir f¨ ur ein Fenster von Restlaufzeiten (Restlauf-Zt) bis zur Aus¨ ubung. Wir vergleichen darin den Marktpreis (Mk-Preis) mit dem nach der Black-Scholes-Formel berechneten Preis (BS-Preis) und den fraktalen Preisen: Levy-SubordinationsPreis (LS-Preis) - siehe 2.6.(c) - und Esscher-Transformations-Preis (ES-Preis) - siehe 2.6.(a). Es ergibt sich folgende Preis-Tabelle:
Fraktale Geometrie von B¨ orsenzeitreihen
415
Restlauf-Zt. Mk-Preis BS-Preis LS-Preis ES-Preis -263.0000 7.5900 5.6393 4.7355 2.1149 -260.0000 7.9000 6.3016 5.3717 3.2634 -254.0000 6.5600 4.7728 4.5177 2.9585 -249.0000 5.0800 4.0595 3.8622 2.4740 -246.0000 4.4000 3.1468 3.6608 2.2720 -241.0000 4.9300 2.9855 5.6829 3.6844 -238.0000 3.5400 2.4684 4.8841 2.8324 -233.0000 3.2600 2.0572 3.1982 1.2211 -228.0000 3.6900 2.6775 2.8907 1.3834 -225.0000 2.2700 2.1378 3.2021 1.5466 -220.0000 1.6400 1.5832 2.2869 0.9586 -217.0000 2.4000 2.0075 2.7601 1.1753 -212.0000 2.6500 2.1653 2.5715 1.0197 -207.0000 2.2500 1.9765 2.7671 1.0745 -204.0000 2.9500 3.7924 4.3639 2.0217 -199.0000 3.3200 4.5555 4.7225 2.3075 -196.0000 3.0600 3.9579 5.6353 2.6819 -191.0000 2.5700 3.7135 6.2963 3.0635 -186.0000 2.3100 2.8498 4.4923 1.9636 -183.0000 2.2700 2.9554 5.8492 2.5638 (e) Abschließende Bemerkungen: Erste Untersuchungen mit den neuen Modellen haben gezeigt, daß die hiermit erhaltenen Preise sich zum Teil deutlich von den entsprechenden Black-Scholes-Preisen unterscheiden und auch n¨aher am Markt liegen k¨ onnen. Plottet man die in obiger Tabelle enthaltenen Preise der DaimlerOption in einen Graphen, wird dies deutlich. Alle Modelle leiden jedoch theoretisch wie praktisch unter verschiedenen Unzul¨anglichkeiten: Theoretisch: In der sogenannten Black-Scholes-Welt“ ist Q∗ eindeutig und die ” Auszahlfunktion duplizierbar durch eine Handelsstrategie. Es liegt ein vollst¨andiger Markt vor, in dem jede Anforderung erreichbar ist [23]. In der α-Levystabilen und selbst¨ ahnlichen Welt ist dies i.a. nicht mehr gegeben. Immerhin liefert die Esscher-Transformation ein Maß, welches bzgl. einer geeigneten NutzenFunktion optimal ist (siehe Antwort der Autoren zu Diskussionsbeitr¨agen in [21]). Praktisch: Heikel in allen Modellen, sowohl Black-Scholes wie auch den fraktalen, ist eine verl¨ aßliche Sch¨atzung der richtigen“ Parameter (Volatilit¨at und ” Hurst). Im großen und ganzen scheinen implizit bestimmte Parameter, welche durch numerische L¨ osen der Gleichung c0 (par) = c markt auf der Grundlage von in der Vergangenheit beobachteten Marktpreisen ermittelt werden, zumindest innerhalb kurzer Zeitr¨aume besser geeignet. Eine weitere Beobachtung ist, daß die betrachteten Parameter wie Volatilit¨at und Hurst zeitabh¨angige Gr¨oßen sein k¨ onnen. Das macht eine dahingehende Verfeinerung aller hier betrachteten Modelle unumg¨ anglich. F¨ ur das Black-Scholes-Modell sind bereits erste Schritte in diese Richtung durch GARCH-Modellierungen gemacht worden [10].
416
C. J. G. Evertsz, R. Hendrych, P. Singer und H.-O. Peitgen
Grunds¨ atzlich: Alle oben genannten Modelle verlassen aber nicht den grunds¨atzlichen Rahmen, welchen Black und Scholes vorgegeben haben. Dieser, insbesondere (8), beinhaltet das Fehlen von Arbitragem¨oglichkeiten ( Free Lunches“). ” Klar wird dies zum Beispiel, wenn man den Wertebereich R(c0 ) der durch (7), (8), (10) gegebenen Funktionen betrachtet. F¨ ur diesen gilt die Einschr¨ankung R(c0 ) ∈ [S0 − e−rT K, S0 ]. Wenn es aber auch vorkommt, daß Marktoptionsdaten dieses Intervall verlassen, dann gibt es zwei M¨oglichkeiten: Entweder besteht die Chance auf Arbitrage und Formeln von Typ (8) greifen nicht, da kein Maß Q∗ existiert, welches eine Dichte bzgl. des urspr¨ unglichen Wahrscheinlichkeitsmaßes Q hat, welche Q∗ fair“ macht (Fundamentalsatz der Optionsbewertung, siehe ” z.B. [23]). Oder aber, wenn keine M¨oglichkeit zur Arbitrage erkennbar ist, paßt das Bewertungsmodell grunds¨atzlich nicht. Dazu sei bemerkt kommt, daß der Begriff der Arbitrage (siehe z.B. [55] f¨ ur eine exakte Definition), gemessen an praktischen Vorstellungen, wohl sehr unzureichend definiert ist. Bei der praktischen Wertung, ob Marktoptionsdaten sich ausserhalb des Bereich [S0 − e−rT K, S0 ] aufhalten, ist auf Datenasynchronit¨aten zu achten. Auf die Grenzen des Konzeptes der Arbitragefreiheit hatte 1967 schon Mandelbrot [40] hingewiesen.
3
Anhang
Kommentar A: Auf der rechten Seite der Abb. 4 ist (C) die t¨agliche, (B) die w¨ ochenliche und (A) die monatliche DAX-Preiszeitreihe. Kommentar B: Man muß zwei Aktien auf Kredit kaufen und dazu vierzig DM Kredit aufnehmen. Den Rest der f¨ ur den Kauf der Aktien n¨otigen Summe finanziert man durch den Verkauf von drei Optionsscheinen zum Preis von zwanzig DM. Trifft das vereinfachte Aktienmodell aus (c) zu, so wird ein potentieller K¨ aufer beim Fallen der Aktie von seinem erworbenen Recht keinen Gebrauch machen und Aktienwert und Schuldenstand heben sich auf, bei einem Anstieg reicht der gemachte Gewinn aus dem Verkauf der Aktie gerade aus, um die gemachten Schulden zu tilgen. Kommentar C: Der richtige Wert des Parameters θ in unserem einfachen Beispiel errechnet sich zu # " exp(˜b) − exp(R) 1 1 · . log 1 − θ = p exp(˜ a) − exp(R) a ˜ − ˜b
Literatur 1. Aharony, A., Stauffer, D. (1992) Introduction to percolation theory. Taylor and Francis, London 2. Bachelier, L. (1900) Theory of Speculation. Thesis reprinted in: Ref [7], pp. 17–78 3. Barndorff-Nielsen, O. (1996) Normal inverse Gaussian processes and the modelling of stock returns. Research Report 300, Department of Theoretical Statistics, University of ˚ Aarhus
Fraktale Geometrie von B¨ orsenzeitreihen
417
4. Black, F., Scholes, M. (1973) The Pricing of Options and Corporate Liabilities. Journal of Political Economy 81, 637–659 5. Buckley, J. A. (1990) Large deviation techniques in decision, simulation and estimation. John Wiley, New York 6. Bunde, A., Havlin, S. (1996) Fractals and Disordered Systems. Springer, Berlin Heidelberg New York 7. Cootner, P. H. (1964) The random character of stock market prices. The M. I. T. Press, Cambridge (MA) 8. Cox, J. C., Ross, S. A., Rubinstein, M. (1979) Option Pricing: A Simplified Approach. Journal of Financial Economics 7, 229–263 9. Doob, J. L. (1942) Brownian mouvement and stochastic equations. Ann. of Math. 43, reprinted in: Wax, N. (Ed.) (1954) Selected papers on noise and stochastic processes. Dover Publications, New York 10. Duan, J. (1995) The Garch option pricing model. Mathematical Finance 5, 13–32 11. Dubbins, L., Freedman, A. (1966) Random distribution functions. Proc. of the fifth Berkeley Symposion on Mathematical Statistics and Probability, held at the Statistical Labratory University of California, University of California Press 12. Eberlein, E., Keller, U. (1995) Hyperbolic distributions in finance. Bernoulli 1, 1–39 13. Evertsz, C. J. G., Mandelbrot, B. B. (1992) Multifractal measures. In Ref [48], pp. 921–953 14. Evertsz, C. J. G., Berkner, K. (1995) Large deviation and self-similarity analysis of curves: DAX stock prices. Chaos, Solitons and Fractals 6, 121–130 15. Evertsz, C. J. G. (1995) Self-similarity of high-frequency USD-DEM exchange rates. Proc. of first Int. Conf. on High Frequency Data in Finance 3, Olsen and Associates, Z¨ urich 16. Evertsz, C. J. G. (1995) Fractal Geometry of Financial Time Series. In: Evertsz, C. J. G., Peitgen, H.-O., Voss, R. F. (Eds.) Fractal geometry and analysis. World Scientific, Singapore 17. Evertsz, C. J. G. Peitgen, H.-O., Voss, R. F. (Eds.) (1995) Fractal geometry and analysis. World Scientific, Singapore 18. Falconer, K. J. (1990) Fractal Geometry. John Wiley and Sons Ltd., Chichester (England) 19. Feller, W. (1950) An introduction to probability theory and its applications. Vol. 1, Wiley 20. Gnedenko, B. V., Kolmogorov, A. N. (1968) Limit distributions for sums of independent random variables. Addison-Wesley 21. Gerber H. U., Shiu, E. S. (1994) Option Pricing by Esscher Transforms. Transactions of the Society of Actuaries 46, 99–191 22. Grimmett, G. (1989) Percolation. Springer, New York 23. Harrison, J., Pliska, S. (1981) Martingales and stochastic integrals in the theory of continuous trading. Stochastic Processes and their Appl. 11, 215–260 24. Hausdorff, F. (1919) Dimension und ¨ außeres Maß. Mathematische Annalen 79, 157–179 25. Higuchi, T. (1988) Approch to irregular time series on the basis of fractal theory. Physica D31, 277–283 26. Hutchinson, J. E. (1981) Fractals and self-similarity. Indiana Univ. Math. J. 30(5), 711–747 27. Karatzas, I., Shreve, S. (1988) Brownian motion and stochastic calculus. Springer, Berlin
418
C. J. G. Evertsz, R. Hendrych, P. Singer und H.-O. Peitgen
28. Von Koch, H. (1906) Une m´ethode g´eometrique ´el´ementaire pour l’etude de certaines questions de la theorie des courbes planes. Acta Mathematica 30, 145–174. 29. Kolmogorov, A. N. (1931) On analytic methods in probability theory. Mathematische Annalen 104, 415–458 30. Kolmogorov, A. N., Gnedenko A. (1975) Limit Theorems in Probability Theory. VEB Deutscher Verlag der Wissenschaften, Berlin 31. HFDF (1993) The High Frequency Data in Finance 1993 data set have been obtained from Olsen and Associates Research institute for applied Economics“, ” e-mail:
[email protected] 32. Lamperti, J. (1962) Semistable stochastic processes. Trans. Amer. Math. Soc, 104, 62–78 33. Lamperti, J. (1972) Semistable Markov processes. Zeitschr. Wahrscheinlichkeitstheorie und verw. Gebiete 22, 205–220 34. Mandelbrot, B. B. (1963) The variation of certain speculative prices. The Journal of Business of the University of Chicago. 36, 394-419 35. Mandelbrot, B. B. and van Ness, J. W. (1968) Fractional Brownian motions, fractional noises and applications. SIAM Review 10(4), 422–437 36. Mandelbrot, B. B. and Wallis, J. R. (1969) Computer experiments with fractional Gaussian noises I, II, III. Water resources research 5, 1, 228–267 37. Mandelbrot, B. B. (1983) Fractal Geometry of Nature. W. H. Freeman, San Francisco 38. Mandelbrot, B. B. (1988) An introduction to multifractal distribution functions. In: Stanley, H. E., Ostrowsky, N. (Eds.) (1988) Random fluctuations and pattern growth. Kluwer Academic Publishers, Dordrecht, pp. 279–291 39. Mandelbrot, B. B. (1997) Fractals and Scaling in Finance. Springer, New York Berlin Heidelberg 40. Mandelbrot, B. B. (1967) When can price be arbitraged efficiently? A limit to the validity of the random walk and martingale models. The Review of Economics and Statistics 41. Merton, Robert C. (1973) Theory of rational option pricing. Bell Jounal of Economics and Management Science 4 42. Mirowski, P. (1995) Mandelbrot’s economics after a quarter century. In: Evertsz, C. J. G., Peitgen, H.-O., Voss, R. F. (Eds.) (1995) Fractal geometry and analysis. World Scientific, Singapore 43. Mirowski, P. (1989) More heat than light. Cambridge University Press, Cambridge 44. M¨ uller, U. A., Dacorogna, M. M., Olsen, R. B., Pictet, O. V., Schwarz, M., Morgenegg, C. (1990) Statistical study of foreign exchange rates, empirical evidence of price change scaling law, and intra-day analysis. Journal of Banking and Finance 14, 1189–1208 45. Nelson, E. (1967) Dynamical theories of Brownian motion. Princeton University Press, Princeton 46. Nonnenmacher, T. F., Losa, G. A., Weibel, E. R. (Eds.) (1993) Fractals in Biology and Medicine. Birkh¨ auser, Basel Boston Berlin 47. Peano, G. (1890) Sur une courbe, qui remplit un aire plane. Mathematische Annalen 36, 157–160 48. Peitgen, H.-O., J¨ urgens, H., Saupe, D. (1992) Chaos and Fractals. Springer, New York 49. Hurst, S., Platen, E., Rachev, S. (1996) Option Pricing for Log-stable asset price model. Financial Mathematics Research Report FMRR 004-96, Canbera 50. Rogers, C. A. (1968) Hausdorff Measures. Cambridge University Press, Cambridge
Fraktale Geometrie von B¨ orsenzeitreihen
419
51. Samuelson, P. A. (1965) Rational theory of warrent pricing. Industrial Managment Review 6, 13–32 52. Samorodnitzsky, G., Taqqu, M. (1994) Stable Non-Gaussian Processes: Stochastic Modells with infinite Variance. Chapman Hall, London 53. Shiriaev, A. (1994) On some basic conceps and some basic stochastic models used in finance, Siam Theory of probability and its applications. 39(1), 1–13 54. Shiriaev, A., Kabanov, Y., Melnikov, A. (1994) Towards the theory of pricing of options of both European and American types. II. Continuous time, Siam Theory of probability and its applications. 39(1), 61–102 55. Shiriaev, A., Kabanov, Y., Melnikov, A. (1994) Towards the theory of pricing of options of both European and American types. I. Discrete time. Siam Theory of probability and its applications 39(1), 14–61 56. Shiriaev, A. (1994) Probability. Springer, Berlin 57. Silverman, B. (1986) Density Estimation for statistical Data Analysis. Chapman and Hall, London 58. Taqqu, M. S. (1991) Self similar processes and related ultraviolett and infrared catastrophes. In: Fritz, J., Lebowitz, L., Szasz, D. (Eds.) (1991) Coll. Math. Soc. Bolai 27, Random fields. Vol. II, Janos Bolai Math. Soc., Budapest, pp. 1057–1096 59. Turcotte, D. L. (1994) Fractals and Chaos in geology and geophysics. Cambridge University Press, Cambridge 60. Voss, R. F. (1992) 1/f noise and fractals in Economic time series. In: Peitgen, H.O., Sakas, G., Englert, G., Encarna¸ca ˜o, J. L. (Eds.) (1992) Fractal geometry and computer graphics. Springer, Berlin 45–52 61. Watsham, T. J. (1992) Options and futures in international portofolio management. Chapman and Hall, London 62. Whittle, P. (1955) Hypothesis testing in time series analysis. Hafner, New York 1955
Teil IX
Innovative Systeme
422
IX. Innovative Systeme
Die moderne Wirtschafts- und Gesellschaftsentwicklung h¨angt entscheidend von der Entwicklungsdynamik von Wissenschaft und Technik ab. Innovationsf¨ahigkeit erweist sich als Schl¨ usselqualifikation f¨ ur komplexe Systeme und nichtlineare Dynamik in Natur und Gesellschaft. In der Wissensgesellschaft werden z.B. Unternehmen als innovative Superorganismen verstanden, deren Wissensmanagement Kenntnisse nichtlinearer Dynamik in komplexen Systemen erfordert. In welchem Umfang lassen sich Innovationsentwicklungen in Technik und Wissenschaft durch nichtlineare dynamische Systeme modellieren? Welche Konsequenzen ergeben sich daraus f¨ ur Zukunftsprognosen und die Bewertungen von Innovationstrends und Forschungsentwicklungen?
Komplexe Systeme und lernende Unternehmen? Franz Josef Radermacher Forschungsinstitut f¨ ur anwendungsorientierte Wissensverarbeitung (FAW), Helmholtzstraße 16, D–89081 Ulm, Germany, e-mail:
[email protected] Zusammenfassung F¨ ur die Theorie und Praxis der Unternehmensorganisation hat in den letzten Jahren die Formalisierung von Strukturen und Prozessen und die Beschreibung bzw. Dokumentation und Ablage von Abl¨ aufen in Datenbanken oder Informationssystemen eine immer gr¨ oßere Bedeutung gewonnen. Mit dieser Entwicklung verbunden ist die Zielsetzung, eine h¨ ohere Striktheit/Normiertheit der Abl¨ aufe zu erreichen, um so eine bessere planerische Durchdringung aller relevanten Prozesse sicherzustellen. Mit dieser Entwicklung verbunden ist eine verbesserte Transparenz. Sie erlaubt auch ein leichteres Auswechseln von F¨ uhrungskr¨ aften und eine gr¨ oßere Verteilbarkeit der Abl¨ aufe. Verbunden damit ist allerdings auch eine st¨ arkere B¨ urokratisierung. Dieser dominierende Trend einer immer weitergehenden Formalisierung st¨ oßt allerdings zunehmend an Grenzen hinsichtlich der erzielbaren Leistungsniveaus. Deshalb werden seit einigen Jahren unter dem Schlagwort einer lernenden Organisation bzw. fraktaler oder selbst¨ ahnlicher Strukturen und unter Betonung von Selbstorganisationsprinzipien andere Ans¨ atze ins Spiel gebracht. Diese erneut ver¨ anderte Sicht ist vor allem durch die Notwendigkeit einer raschen Anpassung an sich immer schneller ver¨ andernde M¨ arkte, Produktlandschaften und Konkurrenzverh¨ altnisse motiviert. Der folgende Beitrag versucht, diese Themen genauer zu beleuchten. Basis bildet als Hintergrund eine Analyse unterschiedlicher Mechanismen der Wissensgenerierung, -repr¨ asentation und -verarbeitung in Form einer Vier-Ebenen-Architektur. Diese geht aus von biologischen Systemen, l¨ aßt sich aber auf beliebige komplexe Informationsverarbeitungssysteme, sogenannte Superorganismen, ausdehnen. Hierunter fallen insbesondere Unternehmen. In diesem Umfeld k¨ onnen auch unterschiedliche Lernmechanismen analysiert werden, die den unterschiedlichen verfolgten Ans¨ atzen der Organisation lernender Unternehmen zugrunde liegen. Zugleich werden die Reichweite solcher Ans¨ atze und das Umsetzungspotential am Markt kurz angesprochen und ebenso die dazu korrespondierenden Fragen eines Wissensmanagements. Gerade letzteres spielt f¨ ur lernende und zuk¨ unftig virtuelle Unternehmen angesichts der Dynamik der M¨ arkte eine immer gr¨ oßere Rolle. Der Text ist so aufgebaut, daß zun¨ achst in Teil 1 in das Thema und die aktuelle Debatte um lernende Unternehmen eingef¨ uhrt wird. In Teil 2 geht es dann um Fragen der Organisation von Wissen und Systemen mit einem besonderen Blick auf den Bereich der lernenden Unternehmen. Schließlich behandelt Teil 3 Einzelaspekte des konkreten Wissensmanagements. Ein Ausblick schließt den Text ab. ?
Das Manuskript ist entstanden in Verbindung mit dem 20. AUT-Kolloquium Wissensmanagement der Siemens AG, N¨ urnberg, 12. Dezember 1996.
424
1 1.1
F. J. Radermacher
Einordnung des Themas in die aktuelle Debatte Zunehmende Explizitheit der Organisation vs. fraktale Organisation von Unternehmen
Die Entwicklung der Theorie der Organisation wie auch die konkrete Ausgestaltung von Managementstrukturen in Unternehmen ist in den letzten 25 Jahren zunehmend gepr¨ agt durch einen fortschreitenden Prozeß der immer weitergehenden Explizitmachung von Abl¨ aufen. Große international t¨atige Unternehmensberatungen, aber teilweise auch die Gesetzgebung und gerichtliche Entscheidungen (Vorstandsverantwortung) haben diese Entwicklung massiv gef¨ordert. Gerade unter dem Aspekt der Qualit¨atssicherung war es dabei das Ziel, alle Abl¨aufe und Prozesse zu formalisieren und m¨oglichst weitgehend versteckte Wirkungskr¨afte und ggf. auch Erfolgsquellen offen zu legen. Gerade große Beratungsunternehmen haben Unternehmen immer st¨arker entlang der Idee der formalisierten Prozeßorientierung hin ausgerichtet. Dies hatte teilweise den (erw¨ unschten) Nebeneffekt, daß Manager vergleichsweise einfacher als zuvor von einem Unternehmen zum anderen wechseln konnten. Die Explizitmachung der Abl¨aufe und ihre Standardisierung hat viele Vorteile, macht allerdings auch – manchmal zu sehr – Gegebenheiten durchschaubar. Das geheimnisvolle“ Element in vielen erfolgreichen, ” aber unverstandenen Wechselwirkungen geht verloren. In Teilen verliert man auch eine nat¨ urliche, automatische Anpassungsf¨ahigkeit, da nun Verantwortlichkeiten, Zust¨ andigkeiten definiert sind und vieles u urokratisch ¨ber Regelwerke b¨ fixiert und nur noch schwer zu ver¨andern ist. Insbesondere ist in formalisierten Strukturen ja vergleichsweise pr¨azise zu pr¨ ufen, ob man sich an ein vorgegebenes Schema h¨ alt bzw. gegen das Schema verst¨oßt. Hohe Hierarchieebenen bekommen de facto mehr Einfluß, haben aber andererseits oft nicht die Hand am Puls der Entwicklung. Eine l¨ ahmende B¨ urokratie kann die Ver¨anderung von Regelwerken erschweren. Insofern ist dieser Trend durchaus nicht unproblematisch, er ist nicht nur mit Vorteilen, sondern auch mit Nachteilen verbunden. Dies gilt auch f¨ ur den Schutz von geheimen Erfolgsfaktoren. Diese sind besonders gut gesch¨ utzt, wenn auch die eigene Firma sie nicht genau kennt (aber hat!). Zu den Vorteilen einer Regelbasierung geh¨ort allerdings, daß ein Betrieb nicht l¨ anger auf Gedeih und Verderb vom Mitarbeiterstab abh¨angig ist, Wissen wird transformierbarer, objektivierbarer; neue, bereits qualifizierte Mitarbeiter k¨ onnen leichter vom freien Markt hinzugewonnen werden, im Zweifelsfall ist auch der Transfer der Inhalte bzw. das Einbeziehen von Partnern in Firmen leichter. In Firmen, deren Organisationsstruktur weitgehend durch Regelwerke bestimmt ist, sind Rechte und Pflichten klarer gegliedert und definiert, eine tief gestaffelte Hierarchie wird m¨ oglich, Verantwortung kann leichter auf hohen Ebenen u ¨bernommen werden (was die Gerichte im Bereich der Haftung auch teilweise einfordern), Informationen k¨onnen andererseits teilweise monopolisiert werden. So werden Strukturen erm¨ oglicht, die manchmal an fr¨ uhere Formen milit¨arischer Organisationen oder auch an den klassischen Taylorismus erinnern. Unter dem enormen Druck des Weltmarktes und angesichts der rasanten Innovationsgeschwindigkeiten sowohl auf der Seite der Technik, als auch auf der
Komplexe Systeme und lernende Unternehmen
425
Seite der ¨ okonomischen Randbedingungen und der organisatorischen Bedingungen, die unter dem Druck der Globalisierung nicht mehr l¨anger lokal kontrolliert und verlangsamt werden konnten, hat sich in den letzten Jahren gezeigt, daß das Paradigma einer immer weitergehenden Explizitmachung von Organisationsstrukturen, Abl¨ aufen, Lernverfahren usw. nicht mehr u ¨berall tr¨agt. Die Verh¨altnisse ver¨ andern sich nun dermaßen schnell, daß es oftmals nicht mehr m¨oglich ist, ¨ an hoher Stelle in Unternehmen die Anderungen am Markt bzw. neue Entwicklungen in den Labors als solche u ¨berhaupt noch zu registrieren, geschweige denn rechtzeitig in ver¨ anderte Organisationsstrukturen, Zugriffsm¨oglichkeiten auf Datenbanken, unterschiedliche Wissensbanken usw. umzusetzen. Die Komplexit¨at der Verh¨ altnisse ist zu groß, eine breite Regelorientierung zu schwerf¨allig, die Wechselwirkung mit dem konkreten Know-how, wie es sich kontinuierlich in der Prozeßausf¨ uhrung durch die Mitarbeiter aufbaut, kann entlang einer reinen Regelorientierung nicht mehr ausreichend f¨ ur die Belange des Unternehmens aktiviert werden. 1.2
Wissensverwaltung im Rahmen der Informations- und Wissensgesellschaft
Wir befinden uns global auf dem Weg in eine Wissensgesellschaft. Auf diesem Weg wird Wissen immer mehr zu einer Hauptwertsch¨opfungsquelle. In den sich entwickelnden virtuellen Unternehmungen wird Wissen auch immer wichtiger zur Sicherung des Zusammenhalts im Unternehmen, zum Schaffen eines Corporate Memory, zur Sicherung von Kontinuit¨at. Dies gilt auch f¨ ur die gesamte Thematik der Kundenbeziehung, der Qualit¨atssicherung, der Zusammenarbeit mit anderen usw. Es sind ganz unterschiedliche Formen des Wissens, die dabei zuk¨ unftig an Bedeutung gewinnen werden. Zun¨achst sei hier auf Wissen u ¨ber Informationsquellen hingewiesen, Wissen u ¨ber denkbare Know-how-Inputs, Wissen u ¨ber Mitarbeiter, Partner, Kunden, Wissen u ¨ber Produktionsverfahren und Prozesse, aber auch u ¨ber aktive Wissenskomponenten in Form von Aktorik, die neuronal oder symbolisch realisiert sein k¨onnen. Wissen wird ganz wesentlich u ¨ber Meta-Datenbanken und unter Nutzung von interoperablen Begriffssystemen auf der Basis einer im Hintergrund operierenden Weltmodellierung und teilweise auch unter Nutzung von Mechanismen der Diskursverwaltung abgelegt. F¨ ur die konkrete Verteilung von Information und f¨ ur das Finden von Inhalten werden intelligente Filter und Broker, in Verbindung mit Maßnahmen zur Qualit¨ atssicherung des Wissens, an Bedeutung gewinnen. Aus der Sicht des Unternehmens von zentraler Bedeutung ist dabei Wissen u ¨ber alle im Unternehmen ablaufende Prozesse, Produktionsverfahren, Qualit¨atssicherungsmaßnahmen, Konditionen usw., wobei zuk¨ unftig Online-R¨ uckmeldungen, zum Beispiel des Qualit¨ atsniveaus der eigenen Produkte w¨ahrend der Nutzung beim Kunden, an Bedeutung gewinnen werden. Schließlich gewinnt die Informationsverarbeitung (im weitesten Sinne) immer weiter an Bedeutung und damit die Nutzung von Netzwerken, Betriebssystemen, Middleware, Datenbanksystemen, Meta-Datenbanksystemen, Methodenbanken, GIS-Systemen, Repositories usw. Letzten Endes wird auch das Wissen u ¨ber die gesamte Informations- und Kom-
426
F. J. Radermacher
munikationsinfrastruktur (technisches Infrastrukturwissen) als eigenst¨andig repr¨ asentierte Information eine zunehmende Bedeutung besitzen. Die Bew¨altigung dieser immer st¨ arker wachsenden Informationsbest¨ande ist im Bereich der Organisationen unbedingt erforderlich. 1.3
Realisierung von virtuellen Unternehmungen
Im Zuge der verst¨ arkten Nutzung der Telematik und insbesondere mit Blick auf die immer weitergehende Nutzbarmachung der internationalen Kostendifferenzen zwischen Anbietern und Arbeitnehmern wird die virtuelle Unternehmung an Bedeutung gewinnen. Die virtuelle Unternehmung gewinnt aber auch deshalb an Bedeutung, weil sie auch bei uns ganz andere Formen der Organisation der Arbeit m¨ oglich werden l¨aßt. So wird heute bereits in der Konstruktion die Zusammenarbeit mittels CAD-Systemen an Standorten in verschiedenen Erdteilen realisiert; dies kann u utzt und mit ¨ber moderne Groupware-Tools unterst¨ Videokonferenzeinrichtungen abgesichert werden. Leitidee ist dabei u.a. die Vorstellung der Konstruktion 24 Stunden am Tag im Wechsel u ¨ber die verschiedenen Erdteile, was eine enorme weitere Beschleunigung der Entwicklungsprozesse erm¨oglicht. Die Virtualisierung und die Nutzung moderner Telematik wird es erlauben, vieles schneller, besser, anders als bisher zu machen. Schon heute werden Außendienstmitarbeiter u ¨ber Mobilfunk eingebunden, k¨ onnen beim Kunden zu abschließbaren fertigen Vertr¨agen vor Ort kommen. In der Wechselwirkung mit dem Kunden fallen ganze Bearbeitungsstufen weg, hier wird Interaktion mittels Multimedia-Technologie als Kontaktkanal zum Kunden gleichzeitig zur Schnittstelle zu allen Informations-, Waren-, Wirtschafts- und Steuerungssystemen des jeweiligen Unternehmens. Zu Ende gedacht wird der Kunde in seiner Kommunikation mit dem System selber zum Disponenten. Aber nicht nur f¨ ur die Wechselwirkung mit Zulieferern, sondern auch f¨ ur die Einbeziehung von Arbeitnehmern wird das Global Sourcing an Bedeutung gewinnen, und vielfach wird der virtuelle Mitarbeiter auch ein eigenst¨ andiger Unternehmer sein. Dabei werden viele heutige Funktionen von Unternehmen ausgelagert werden, beispielsweise auch bestimmte Aufgaben im Sekretariats- und Assistentenbereich. Beziehungen zum Arbeitnehmer werden teilweise tempor¨ arer sein als heute, mobile Arbeitspl¨ atze spielen eine zentrale Rolle. Am Rande erw¨ ahnt sei nur, daß in der virtuellen Firma aufgrund der geringeren Orientierung an Hierarchien und interner Politik in diesen H¨ausern die immer wieder notwendigen Anpassungsprozesse am Markt wahrscheinlich besser als bis heute m¨ oglich vorgenommen werden k¨onnen. Eine wesentliche Unternehmensfunktion wird es in diesem Umfeld sein, die richtigen Informationen zur richtigen Zeit an der richtigen Stelle verf¨ ugbar zu machen. Wie oben schon angedeutet, wird es dabei u.a. darum gehen, den Zusammenhalt der Mitarbeiter und der Partner des Unternehmens auch u ¨ber große Distanzen und m¨ oglicherweise h¨aufige Personalwechsel zu sichern und Kooperation technisch zu unterst¨ utzen. In diesem Umfeld wird das Vertragsmanagement an Bedeutung gewinnen, und es wird auch darum gehen, Bezahlung u ¨ber Netze miteinzubeziehen. Dabei wird die Kompetenz f¨ ur das Thema Sicherheit/Security“ ”
Komplexe Systeme und lernende Unternehmen
427
eine noch sehr viel h¨ ohere Bedeutung gewinnen, als sie heute schon besitzt, weil die Unternehmensdaten in diesem Prozeß st¨arker verteilt sein werden und die Bew¨ altigung der Sicherheitsthematik, und damit u.a. auch das in diesem Umfeld wichtige Key-Management, zu leisten sein werden. Das betrifft auch den Umgang mit Zulieferern, Kunden, aber z.B. auch das Management von Konsortien und von Projekten f¨ ur spezielle Aufgaben. Ganz allgemein ist in diesem Umfeld sicherzustellen, daß ein Corporate Memory als rechnergest¨ utztes System verf¨ ugbar ist. 1.4
Die lernende Unternehmung
Aus einer Vielzahl von Gr¨ unden befinden sich unsere Unternehmen neben der Virtualisierung auch auf dem Weg zu einer lernenden Unternehmung. Das h¨angt damit zusammen, daß in der komplexen Welt, wie sie heute besteht, klassische, eher statische Strukturen, vor allem auch (aus organisatorischer Sicht) prim¨ar regelwerkgest¨ utzte Systeme, die klassische Organisationsprinzipien abbilden, nicht mehr reaktionsschnell genug sind. Aus diesem Grund wird es darauf ankommen, neben Regelwerken auch informelle Beziehungen und Strukturen, wie sie sich beispielsweise u ¨ber Intranetze firmenintern und interessenbezogen herausbilden k¨ onnen, aber insbesondere auch die mehr intuitiven bzw. neuronalen F¨ahigkeiten der Mitarbeiter, besser als bisher mit ins Spiel zu bringen. Dies schließt die M¨ oglichkeit und Notwendigkeit mit ein, daß sich Mitarbeiter ihrerseits kontinuierlich weiterbilden, wobei die Art der ben¨otigten Inhalte teils von seiten der Unternehmung vorgegeben wird, aber teils auch u ¨ber ein individuelles Suchverhalten der Mitarbeiter von diesen selbst identifiziert werden wird. Es geht also im weitesten Sinne darum, Wissen auf allen Ebenen, wie es in Teil 2 noch genauer diskutiert wird, nutzbar zu machen und Mitarbeiter u ¨ber die Vorgabe von Zielen und Leitideen sowie die Bereitstellung aller relevanten Informationen zu koordinieren, wobei eine geeignete Wechselwirkung zwischen Explizitheit und dem, was an anderer Stelle mehr intuitiv, also neuronal bzw. strukturell vorhanden ist, sicherzustellen ist. Die Sicherstellung der Rahmenbedingungen f¨ ur diese wichtigen zuk¨ unftigen Prozesse betreffen unmittelbar auch Funktionen der Logistik. Die angesprochene Forcierung der Nutzung des Know-hows der Mitarbeiter ist so zentral, daß es mittlerweile oftmals prim¨ar darum geht, dieses Wissen in geeigneter Form leistungswirksam werden zu lassen. Das bedeutet in der Regel weniger Hierarchie, andere Formen der Organisation und der Strukturbildung (Heterarchien [9]), mehr Freiheit und Empowerment“ f¨ ur die Mitarbeiter und ” von der F¨ uhrungsseite her eine starke Betonung darauf, Bedingungen herbeizuf¨ uhren, unter denen Mitarbeiter sich bestm¨oglich entfalten k¨onnen. Hier geht es dann auch darum, als einzelner wie als Gruppe immer besser zu lernen und f¨ ur die Firma die besten L¨ osungen zu finden. In diesem Zusammenhang spielt eine gute Organisation des Miteinanders der Mitarbeiter im Sinne der Bereitstellung technischer Infrastrukturen, wie Intranetze, im Sinne von Nervensystemen von Unternehmen, Selbstorganisationsm¨oglichkeiten u ¨ber Agenden, bequemer Zugang zu Wissensquellen aller Art und die M¨oglichkeit der lokalen Erweiterung
428
F. J. Radermacher
solcher Wissensbanken um pers¨onlich interessierende Inhalte eine große Rolle. Es liegt in der Natur der Sache, daß dermaßen selbst¨andig agierende Mitarbeiter eine klare Vorstellung brauchen von den Zielen der Unternehmung, und zwar auf allen Ebenen. Letztlich f¨ uhrt dies im Sinne der Theorie selbst¨ ahnlicher Strukturen dazu, daß die Unternehmungen rekursiv aus ineinander verschachtelten Substrukturen aufgebaut werden, die weitgehend unabh¨angig agieren sollen, wobei die einzelnen Subkomponenten ihrerseits in vielem dem Ganzen ¨ahneln (Selbst¨ ahnlichkeit). All dies ist stark auf Miteinander, Wechselwirkung, Empowering ausgelegt und beinhaltet, daß alle Teile u ¨ber klare Vorstellungen hinsichtlich der Ziele der Unternehmen verf¨ ugen m¨ ussen. Gedanklich handelt es sich um so etwas wie Profitcenter, die aber durch klare Zielvektoren und eine breite Verf¨ ugbarmachung von Informationen gef¨ uhrt werden, und dies unter Rahmenbedingungen und Vorgaben der Wechselwirkung, die zur gemeinsamen Erreichung u ¨bergeordneter Ziele, und nicht zur Suboptimalit¨at f¨ uhren. Prinzipien der Selbstorganisation sind entscheidend und ebenso die Nutzung von Metawissen, sowohl auf der Ebene der Strukturen und in der Organisation der Zusammenarbeit, als auch bei den einzelnen Mitarbeitern. In diesem Prozeß geht wieder viel von der Orientierung und klaren Vorgabe, wie sie f¨ ur den Trend zur Explizitmachung der Organisation kennzeichnend war, verloren. Erfolgsfaktoren sind teilweise wieder versteckter und stecken teilweise in den K¨opfen der Mitarbeiter, teilweise in der Art der sich herausbildenden Formen der Interaktion. Zentral in lernenden Unternehmen wird auch die permanente Weiterbildung sein. F¨ ur die Ausbildung bedeutet das z.B. die Bereitstellung von Lernumfeldern, in denen lebenslanges Lernen stattfinden kann. Schon aufgrund der Kostensituation, aber auch erneut mit Blick auf die Optimierung der eigenen M¨oglichkeiten in der Konkurrenz zu anderen werden zuk¨ unftig die wesentlichen Ausbildungsprozesse und Lernvorg¨ ange punktuell inhalts- und zweckbezogen am Point of Learning, d.h. im Unternehmen vor Ort zur selbstgew¨ahlten Zeit, multimedial ablaufen. Um dies als Unternehmen in optimaler Weise sicherstellen zu k¨onnen, wird man sich in geeignete Wissenskooperationen mit verschiedensten Partnern in Verb¨ unden, Nutzergemeinschaften, Wertsch¨opfungsketten und nat¨ urlich mit entsprechenden Wissenschaftlern im Forschungs- und Universit¨atsbereich themenspezifisch koppeln. Auch das wird wiederum stark getrieben werden u ¨ber die M¨ oglichkeiten der Netze. In diesem Umfeld kommt der Qualit¨atssicherungsfunktion von innen eine wesentliche Bedeutung zu und das in einer weltweiten Perspektive, womit auch F¨ahigkeiten im Bereich der Bewertung und Zertifizierung von Ausbildungsinhalten bzw. Qualifikationen gefordert werden.
2 2.1
Fragen zur Organisation von Wissen und Systemen Wissen: Was ist das, und wo ist es repr¨ asentiert?
Im folgenden wird versucht, Wissen, wie es im Rahmen allgemeiner, z.B. biologischer Systeme, f¨ ur das Funktionieren von Maschinen (Robotern) oder in Organisationen sowie auch in gr¨ oßeren Strukturen des Zusammenwirkens von Menschen
Komplexe Systeme und lernende Unternehmen
429
und Maschinen, sogenannten Superorganismen, eine Rolle spielt, zu klassifizieren. Dabei wird eine Vier-Ebenen-Architektur der Wissensverarbeitung zugrunde gelegt, die es im Prinzip erlaubt, ganz unterschiedliche Formen, Systeme und Anwendungsbereiche dieser Art abzudecken und die zugleich ausdrucksstark genug zu sein scheint, alle relevanten Formen von Wissen einzuordnen. Unterschieden werden in dieser Perspektive vier verschiedene Ebenen (vgl. Abb. 1). 1. Signalebene Auf der untersten Ebene geht es um eine unmittelbare Wechselwirkung physikalischer Natur von Systemen mit der umgebenden Welt. In diesen Kontext geh¨ oren insbesondere auch Signale. Signale werden u ¨ber Sensorsysteme abgegriffen bzw. identifiziert und induzieren einerseits unmittelbare Wirkungen, andererseits werden aus ihnen mit Hilfe sogenannter Filter Merkmale als eine erste Form der Informationsverdichtung herausgefiltert. Bestimmte Sensoren zielen dabei (prim¨ ar) auf die Außenwelt des Systems, andere prim¨ar auf die Innenwelt. 2. Merkmalsebene Merkmale sind die Eingangsinformation der 2. betrachteten Ebene der Informationsverarbeitung. Hier setzen einerseits funktionale Transformationen derartige Merkmale, z.B. zur Motorik bzw. Aktorik, etwa in Form trainierter (k¨ unstlicher) neuronaler Netze ein. Andererseits k¨onnen auf der Basis von Merkmalen mittels Klassifikatoren Objekte bzw. Begriffe identifiziert werden. 3. Symbolebene Die Symbolebene (Ebene 3) operiert auf Objekten bzw. Begriffen, und zwar mittels unterschiedlicher Mechanismen der Symbolverarbeitung (Verarbeitung von Regeln, Logik, Relationalsysteme usw.). Dies ist die klassische ane der K¨ unstliche Intelligenz (KI) als wissenschaftliche Disziplin. Dom¨ 4. Theorieebene Von der 3. Ebene geht es in besonderen F¨allen weiter zur 4. Ebene der Theorien und Modelle. Hier ist es dann z.B. m¨oglich, mit zum Teil aufwendigen mathematischen Kalk¨ ulen der Optimierung, Statistik, Entscheidungstheorie und Numerik zu Aussagen und Schl¨ ussen zu kommen. Zur Illustration der Wirkungszusammenh¨ange auf diesen verschiedenen Ebenen seien entsprechende Abl¨aufe in der menschlichen Informationsverarbeitung genannt (vgl. Abb. 2): Wenn jemand mit der Nadel in die Haut gestochen wird, dann bewegt sich zun¨ achst einmal die Haut nach innen und der Arm nach hinten – das ist die Ebene der unmittelbaren physikalischen Wechselwirkung (Ebene 1). Gleichzeitig kann der Betroffene (bzw. sein Gehirn oder sein Nervensystem) aus dem begleitenden Signalstrom aber auch Informationen bzw. Merkmale herausfiltern, die indirekt beschreiben, daß ihn da offenbar etwas piekst. Diese erkannten Merkmale fließen (auf der 2. betrachteten Ebene) in ein biologisches neuronales Netz ein, das motorisches Verhalten bewirkt. Dabei wird z.B. der Arm reflexhaft zur¨ uckgezogen. Dies geschieht, ohne daß der Betroffene in diesem Moment bereits (bewußt) weiß, daß ihn etwas gepiekst hat. Der Betroffene kann dann allerdings auf der n¨achsth¨oheren Stufe der Abstraktion (3. Ebene) die
430
F. J. Radermacher
Abb. 1. Vier Ebenen der Informationsverarbeitung und der Erzeugung von Wirkung
Komplexe Systeme und lernende Unternehmen
431
Situation auch erkennen, d.h. geeignet begrifflich klassifizieren als eine Situation, in der ihn jemand gepiekst hat. Auf dieser Ebene kann ein Mensch dann bei Bedarf die Lage analysieren und ein angemessenes Verhalten ableiten. Schließlich k¨ onnen Menschen, z.B. als Wissenschaftler, auf einer nochmals h¨oheren Ebene (Ebene 4) auch an einer Theorie arbeiten, die pr¨azise beschreibt, was passiert, wenn eine Nadel die Haut trifft, wie dort die Signalstr¨ome zeitlich bzw. von der Intensit¨ at her verlaufen usw. Dabei werden die Signalstr¨ome u.U. durch Systeme von Differentialgleichungen beschrieben und anschließend L¨osungen dieser Systeme untersucht. Es ist dabei interessant zu unterscheiden, auf welcher Ebene man jeweils welche Aufgabe mit welchen Mechanismen angehen kann. Beispiel: Nadelstich
Abb. 2. Vier-Ebenen-Architektur am Beispiel Nadelstich“ ”
Die hier vorgestellte Architektur ist aus der Verfolgung des Evolutionsprozesses in der Biologie abgeleitet. Im Evolutionsprozeß wirkten zun¨achst nur Faktoren auf der untersten Ebene. Als die Lebensformen komplexer wurden, konkret mit der Ausbildung von Nervensystemen, kam die 2. Ebene hinzu. Bereits bei manchen Vogelarten ist die 3. Ebene zumindest partiell ausgepr¨agt, d.h. diese Tiere k¨ onnen bereits Zust¨ ande klassifizieren. Nat¨ urlich sind Leistungspotentiale auf der 3. Ebene zentral f¨ ur Primaten und insbesondere Menschen. Nicht zuletzt f¨ allt die Sprache wesentlich in diesen Bereich. Schließlich haben die Menschen und insbesondere die Wissenschaft als Gesamtsystem in den letzten paar tausend Jahren mit ihren Theoriebildungen die 4. Ebene erreicht.
432
F. J. Radermacher
Das Gesamtleistungsspektrum an intellektueller Kapazit¨at auf allen genannten vier Ebenen, das soeben dargestellt wurde, ist u ¨brigens bei Menschen/S¨augetieren im Gehirn bzw. im Nervensystem ganzheitlich in einer neuronalen Architektur realisiert, deren M¨ oglichkeiten – u ¨berspitzt gesagt – auch mißbraucht“ ” werden k¨ onnen zu Leistungen, f¨ ur die sie urspr¨ unglich nicht erfunden“ worden ” waren. Dieses Basisleistungsverm¨ogen eines biologischen Nervensystems besteht prim¨ ar in der F¨ ahigkeit, Beziehungen zwischen Mustern r¨ uckgekoppelt in Form des Lernens an Beispielen zu etablieren. Inhaltlich korrespondiert dies zu Fragen der Funktionsapproximation in der Mathematik. Es gibt mittlerweile mathematische S¨ atze, die dieses Basispotential neuronaler Netze pr¨azise beschreiben. Es sei an dieser Stelle erneut erw¨ahnt, daß sich die hier f¨ ur biologische Systeme gegebenen Hinweise auch auf (biologische) Superorganismen, z.B. Insektenstaaten, Schw¨ arme, Staaten oder auch das System Menschheit u ¨bertragen lassen. Die Nutzung dieser Sicht zu einem besseren Verst¨andnis des Systems Menschheit wird im folgenden ebenfalls kurz angesprochen. Dabei steht folgende Beobachtung am Ausgangspunkt: So leistungsf¨ ahig die einzelnen Wissenschaften als Gesamtsysteme heute sind – auch im Verh¨ altnis zu einzelnen Menschen –, so wenig entwickelt ist doch bisher das Wissen der Menschheit u ¨ber sich selbst. Hier gibt es bis heute nur eine begrenzte Intuition (Ebene 2), ebenso nur begrenztes Wissen in Form von Regeln (Ebene 3) und erst recht keine leistungsf¨ahigen, quantitativen Theorien der Menschheit u ¨ber sich selbst. Der einzelne Mensch ist in dieser Hinsicht hinsichtlich seines Wissens u ¨ber sich selbst deutlich weiterentwickelt als die Menschheit, und das wohl auch schon unter Steinzeitbedingungen. Die Menschheit ist in diesem Sinne, letztlich nicht viel anders als Unternehmen noch vor einigen Jahren, prim¨ar bei der 2. Ebene der beschriebenen kognitiven Hierarchie angekommen, d.h. wir erahnen z.B. intuitiv als Gesellschaft, welche Bedrohungen auf uns wirken und wie bestimmte gesellschaftliche oder technische Innovationen sich einmal auf unser sp¨ateres Leben auswirken k¨ onnen. Dies ist aber oft noch sehr unpr¨azise und entspricht insofern der 2. Ebene der betrachteten Wissenshierarchie, es handelt sich also eher um neuronale, nichtverbalisierte Vorstellungen und Erwartungen hinsichtlich m¨oglicher Entwicklungen. Langsam bewegen wir uns nun als Menschheit auf die 3. Ebene zu, d.h. wir beginnen als Menschheit, Kalk¨ ule dar¨ uber zu entwickeln, wie wir funktionieren, d.h. es gibt die ersten begrifflichen Entwicklungen f¨ ur ein Design von Gesellschaftsstrukturen. Interessant ist dennoch, daß die Menschheit, so gut sie auch bei der Entwicklung einzelner wissenschaftlicher Theorien ist, in ihren Denkprozessen als Gesamtheit“ immer noch sehr viel langsamer operiert als ” jeder einzelne. Das heißt, daß Gesellschaften, wie teilweise auch Unternehmen, nach wie vor beinahe jeden einzelnen logischen Schritt durchleben“ m¨ ussen, ” mit all seinen Konsequenzen, weil wir politisch oder organisatorisch nicht dazu in der Lage sind, eine Kette von mehreren logischen Schritten ganzheitlich zu vollziehen und vorausschauend in ihren Konsequenzen mitzubedenken und gegebenenfalls daraus die notwendigen politischen Maßnahmen abzuleiten. Dies ist ein besonders leidiges Problem der Politik, aber auch vieler Unternehmen, die ¨ meist weit hinter den Uberlegungen einzelner Personen zur¨ uckbleiben. F¨ ur diese
Komplexe Systeme und lernende Unternehmen
433
Schwerf¨ alligkeit muß man sp¨ater oft bezahlen, z.B. als Firma mit Verlusten im Markt. 2.2
Zur Einordnung der Vier-Ebenen-Architektur in andere gesellschaftliche Anwendungsfelder bzw. Gegenstandsbereiche
In ¨ ahnlicher Weise wie biologische Systeme, inklusive Superorganismen, kann man auch andere, nicht-biologische Systeme mit der hier zugrundeliegenden Theorie studieren, was im Kontext dieses Textes besonders interessant ist. So beispielsweise Serviceroboter, Mensch-Maschine-Systeme und Unternehmen. Unternehmen sind in diesem Zusammenhang nat¨ urlich von besonderem Interesse; hierauf wird im weiteren kurz eingegangen. In der folgenden Abb. 3 wird f¨ ur Unternehmen beispielhaft auf Wissenselemente eingegangen, die auf den verschiedene Wechselwirkungsebenen angesiedelt sind. Die unterste Ebene 1 betrifft z.B. Geb¨audetypen, T¨ urh¨ohen, Raumgr¨oßen, Ausstattung mit Infrastruktur usw. Ebene 2 betrifft indirekte, nicht unmittelbar aus Ursache-Wirkungsargumenten abgeleitete Mechanismen zur Steigerung der Kommunikation, also z.B. die Art der Einteilung der Einheiten und Teams (in Arbeitsgruppen, Projekte, Abteilungen usw.), das Aufstellen von Kopierern, die Plazierung von Treppenh¨ ausern, eine großz¨ ugige Cafeteria, Plazierung von Pflanzen, Einbringen von Kunst usw. Wesentlich f¨ ur diese Ebene ist auch der gesamte Umgang mit Fragen der Form, der Farbe oder des Designs. Die Wissensebene 3 betrifft die Ablage von Vorschriften und Kalk¨ ulen bzw. Organisationsprozessen und Regelwerken, die vorgeben, wie sich Personen in Unternehmen zu verhalten haben. Hier sind auch der (explizite) juristische Bereich, Auditing-Verfahren, Normen, ISO-Regelwerke usw. angesiedelt. Auf der 4. Ebene der mathematischen Modelle sind schließlich Modelle dar¨ uber angesiedelt, wie bestimmte Entscheidungsprozesse in der Wechselwirkung von Abteilungen untereinander zu erfolgen haben. Erw¨ ahnt sei auch, daß die jeweiligen Schwergewichte und die wichtigsten Wirkungsfaktoren auf den verschiedenen Ebenen sehr stark abh¨angen von der Gr¨oße der jeweiligen Firma oder Organisation, die man zu beschreiben versucht. So haben Untersuchungen gezeigt, daß f¨ ur das Einzelindividuum einer der wichtigsten Ansatzpunkte zur Ver¨ anderung von Prozessen die Motivation darstellt, etwas, was sehr stark auf den Ebenen 2 und 3 der besprochenen Hierarchie angesiedelt ist. F¨ ur Gruppen ist der vielleicht wichtigste Faktor die jeweilige Organisationsform, d.h. die Organisation der Mechanismen der Wechselwirkung unter den Beteiligten. Dieser Aspekt ist inhaltlich sehr stark auf den Ebenen 1 und 2 angesiedelt. F¨ ur gr¨ oßere Verb¨ande oder Unternehmen scheint schließlich ein ganz zentraler Erfolgsfaktor die Verf¨ ugbarkeit von Informationen zu sein. Dies sind Mechanismen, die ganz wesentlich auf den Ebenen 2 und 3 angesiedelt sind, aber ihrem Charakter nach wiederum ganz anders sind als die Motivationsseite bei den Individuen.
434
F. J. Radermacher
Beispiel: Designprozeß
Abb. 3. Vier-Ebenen-Architektur am Beispiel Designprozeß“ im Unternehmen ”
2.3
Prinzipielle Lernmechanismen auf den betrachteten Verarbeitungsebenen
Aufgrund des soeben Gesagten l¨aßt sich in ganz unterschiedlichen Kontexten Wissen interpretieren als das Wirken von Operatoren auf Mustern bzw. Daten, wobei die Muster bzw. Daten ganz unterschiedlichen Repr¨asentationsformen angeh¨ oren k¨ onnen und die Operatoren auf die jeweilige Repr¨asentationsform zugeschnitten sind (z.B. neuronale Netze und zugeh¨orige Lernmechanismen, symbolische Welten und Regelextraktion mittels statischer Methoden). Leistungsstarke Lernmechanismen bilden in diesem Kontext besonders wichtige Faktoren zur Steigerung der Leistungsf¨ ahigkeit von Unternehmen als Superorganismen. Sie sind auf der jeweiligen Ebene ganz spezifisch. Strukturebene Auf der Strukturebene erfolgen kontinuierliche Anpassungen, z.B. durch Erfahrungen getrieben oder durch technischen Fortschritt erm¨oglicht, und zwar u.a. hinsichtlich der Art der realisierten Geb¨aude, der Bedingungen f¨ ur die dort arbeitenden Arbeitnehmer, Formen der zur Verf¨ ugung gestellten Hilfsmittel (wie Maschinen und Werkzeuge usw.). Hier ist permanent ein genuineigener Findungsprozeß sozialer und technischer Art im Gange, der hin reicht bis zu nationalen Ausbildungssystemen, internationalen Konkurrenzmechanismen, Vereinbarungen der Tarifpartner usw. All dies hat wesentlichen Einfluß auf die strukturellen Bedingungen, unter denen die anderen Ebenen operieren. Verkn¨ upfung, Kommunikation, Wechselwirkung Auf dieser eher neuronalen Ebene findet das Lernen von und in Unternehmen in Form des Miteinanders von Personen, seien es Mitarbeiter, Kunden oder Zulieferer, statt. Hier
Komplexe Systeme und lernende Unternehmen
435
pr¨ agen sich bestimmte Formen der Interaktion, des Austauschs, der Motivation usw. heraus. Es sind dies alles Prozesse, die stark von Networking“ im Sinne ” eines menschlichen Miteinanders bestimmt sind. Es ist bekannt, daß die jeweilige Kommunikationskultur enormen Einfluß auf das Verhalten der einzelnen, aber durchaus auch auf deren Kreativit¨at und Leistungsf¨ahigkeit hat. Dabei h¨angt es am Stand der Entwicklung, den ¨außeren Rahmenbedingungen, aber auch den konkreten Produktbed¨ urfnissen, welche Art von Struktur, Freiheit, Motivation, Empowering, Kontrolle usw. jeweils die besten Ergebnisse bringt. Neuerdings gewinnen dabei Formen der internen und externen Vernetzung (z.B. Intranetze, Zugriff auf Wissensbanken, Diskussionsforen) eine zunehmende Bedeutung. Lernen auf der Ebene der Regelwerke Lernen auf dieser Ebene besteht in der Extraktion von Regeln oder S¨atzen von Vorschriften und Organisationsprinzipien, die sich in der Vergangenheit bew¨ahrt haben und nun in neuen Umgebungen umgesetzt werden. Die Einbeziehung von Unternehmensberatern, die Beteiligung an Benchmarkingprozessen sowie Formen der Zertifizierung tun das ihre zur weiteren Verbreitung und st¨andigen Umfokussierung dieser Regelwerke. In entsprechenden Regelwerken stecken oft sehr viel geronnene, zum Teil inzwischen nicht mehr direkt verf¨ ugbare bzw. zutreffende Erfahrungen fr¨ uherer Prozesse. Lernen kann in der bewußten Modifikation von Regelwerken, im Sinne der Herstellung neuer Verkn¨ upfungen, bestehen. Hierf¨ ur gibt es oftmals formalisierte Prozeduren, Abstimmungen usw., die eine Art Meta-Ebene des Umgangs mit Regelwerken bilden. Lernen auf der Modellebene Auf der Modellebene besteht Lernen sehr stark in der Fortentwicklung und Anpassung von Theorien bzw. in der Ausgestaltung der dort wirksamen Algorithmik. Im Kontext von Unternehmen betrifft das heute etwa die Qualit¨ at der Ausgestaltung von Decision Support Systemen. 2.4
Was ist Kreativit¨ at?
Kreativit¨ at und Lernen sind wichtige Themen, um das Ph¨ anomen Intelligenz zu studieren, aber auch, um die Leistungsf¨ahigkeit von Unternehmen in Innovationsprozessen zu beurteilen. Dabei geht es um Kreativit¨at der Mitarbeiter wie des Unternehmens als Superorganismus. Kreativit¨at kann dabei allgemein als eine geeignete Koppelung der beiden Mechanismen Erzeugung von L¨osungen“ und ” Auswahl von L¨ osungen“ in sehr großen Strukturr¨aumen verstanden werden. ” Viele Personen sind u ¨berzeugt, daß nur der Mensch kreativ ist, und sie denken dabei z.B. an Geistesblitze, wenn etwa beim Probleml¨osen, beim Verstehen eines Witzes, bei der Interpretation eines komplizierten Bildes pl¨otzlich die neue Idee oder die richtige Interpretation wie aus dem Nichts heraus da ist. Demgegen¨ uber werden bekannte Lernerfolge, etwa bei Maschinen, bei h¨oheren Primaten oder von Strukturen und Systemen wie dem Immunsystem, der DNS im Bereich der Vererbung oder u ¨berhaupt im gesamten Evolutionsprozeß gerne u ¨bersehen.
436
F. J. Radermacher
Typische Beispiele menschlicher Kreativit¨at (im Sinne der Erzeugung und Bewertung von L¨ osungen) sind vor dem beschriebenen Hintergrund einer VierEbenen-Architektur einzuordnen, wobei wir meistens von Intuition sprechen, wenn es sich um ganzheitliche, teilweise auch emotional gepr¨agte und logisch schwer begr¨ undbare Vorschl¨age (Ebene 2) handelt in Abgrenzung zu logisch erschlossenen und entsprechend begr¨ undbaren Ergebnissen (Ebene 3). Bewertungskriterien, die hier gef¨ uhlsm¨aßig, teils auch unbewußt, wirken k¨onnen, sind: Qualit¨ at von Vorhersagen, K¨ urze von Beschreibungen, Einfachheit von L¨osungen, Formen der Symmetrie oder Harmonie, Stimmigkeit, Generalisierbarkeit, Analogieeigenschaften usw. Als Ph¨anomen besonders interessant sind dabei f¨ ur Menschen die bereits angesprochenen Geistesblitze (z.B. Bildverstehen, Verstehen von Witzen). Menschen haben bei solchen Geistesblitzen oft den Eindruck, daß es bei ihnen pl¨ otzlich klick“ macht, so als k¨ame der Einfall oder die Idee aus ” dem Nichts – wie ein Wunder, wunderbar. Mancher kennt auch das Ph¨anomen, daß er am n¨ achsten Morgen aufwacht, und eine lange gesuchte Idee pl¨otzlich da ist. Manche Menschen versuchen dies zu systematisieren bzw. zu forcieren, z.B. dadurch, daß sie abends vor dem Zubettgehen ein Problem noch einmal gr¨ undlich durchdenken und hoffen, daß sie am n¨achsten Morgen mit einer L¨osung aufwachen. Das hat schon oft Wunder“ bewirkt. Nicht u ¨berraschend haben ” sich konsequenterweise in den letzten Jahren verschiedene Schulen und Formen des Kreativit¨ atstrainings herausgebildet und teilweise auch kommerziell an Bedeutung gewonnen. Aus wissenschaftlichen Untersuchungen weiß man, daß unterschiedlichste Kreativit¨ atsprozesse beim Menschen in dem hier beschriebenen Rahmen verstanden werden k¨ onnen. So wurde in der Literatur der großen wissenschaftlichen Erfindungen, aber auch der Technikentwicklung, aufgezeigt, wie durch geschickte Kombination und Fortentwicklung fr¨ uherer Erfindungen neue L¨osungen entstanden sind. Dabei wird auch immer wieder deutlich, wie teilweise nicht mehr ben¨ otigte Elemente fr¨ uherer L¨osungen in neuen Kontexten noch lange weiterleben (z.B. erinnern die ersten Eisenbahnabteile noch stark an Pferdekutschen). Des weiteren verstehen wir mittlerweile relativ gut, in welcher Weise in menschlichen Kreativit¨ atsprozessen die Wechselwirkung zwischen dem Unbewußten und dem Bewußten eine große Rolle spielt, wobei die unbewußte Ebene massiv-parallel ausgestaltet ist und eher neuronal-intuitiv (Merkmalsebene) operiert, w¨ ahrend die bewußte Ebene prim¨ ar sequentiell und auf der Symbolebene abl¨ auft. Aufgrund des Gesagten spielen eher intuitive Mechanismen (z.B. neuronale Klassifikatoren) und stures Abarbeiten auch beim Menschen auf der Ebene von Hilfsprozessen“ des Denkens eine große Rolle, und dabei wird vieles ausprobiert, ” bewertet (nach Prinzipien wie Symmetrie, K¨ urze der Beschreibung, Analogieeigenschaften usw.) und auch wieder verworfen, bis schließlich eine denkbare interessante L¨ osung gefunden wird, die dem Bewußtsein bekanntgemacht wird und dann dort aufblitzt. Das ist dann f¨ ur uns der ber¨ uhmte Geistesblitz, der aus dem Nichts zu kommen scheint und der bei der hier gew¨ahlten Betrachtungsweise viel von seiner Magie“ verliert. Denn tats¨achlich stehen hinter diesem Wunder“, ” ” f¨ ur uns unbemerkt, oftmals Sekunden, Minuten, Stunden oder sogar Tage har-
Komplexe Systeme und lernende Unternehmen
437
ter, simultan betriebener Rechenarbeit (Ausprobieren), die in ihrem Charakter ¨ zumindest Ahnlichkeiten zu dem aufweist, was wir bei heutigen (intelligenten) technischen Systemen realisieren oder bei Primaten vermuten oder beobachten. Unser Bewußtsein meint demgegen¨ uber in diesem Augenblick, der Mensch h¨atte gerade einen genialen Einfall gehabt. Gut zu beobachten sind derartige Abl¨aufe auch in der Bildverarbeitung, z.B. bei der Interpretation der modernen 3-D-Bilder. Dort kann man durch bewußte Introspektion versuchen zu erahnen, wie unbewußte Prozesse des eigenen Gehirns angestrengt versuchen, zu einer plausiblen 3-D-Bildinterpretation zu kommen, welche die Informationen, die u ¨ber zwei visuelle Kan¨ale angeliefert werden, so einem m¨ oglichen Modell der realen Welt zuzuordnen erlaubt, daß die Informationen konsistent sind und eine gewisse Qualit¨at der Plausibilit¨at (unbewußter Teil des Auswahlprozesses) aufweisen. Aus der Psychologie kennt man entsprechende Ph¨ anomene auch bei der Interpretation von Hohlbildern von Gesichtern, bei der sich das Gehirn, d.h. die dort wirksamen unbewußten Filter, weigert, Sichten, also Interpretationen, zu akzeptieren, die der u ¨blichen Erfahrung (hier: nach innen statt wie u ¨blich nach außen gew¨olbte Gesichter) widersprechen. Bestimmte Drogen, Alkohol, Nikotin, extreme Erfahrungen, aber auch bestimmte Gehirnkrankheiten k¨ onnen die Kraft dieser Filter signifikant mindern. Mehr L¨osungen – h¨ aufig auch zu viele – geraten dadurch auf die bewußte Ebene, Auswahlprozesse erfolgen dann auf h¨ oherer Ebene der Informationsverarbeitung. Gerade im Bereich der Kunst, teilweise auch der Wissenschaft, macht man sich gelegentlich entsprechende Formen der Stimulanz zu Zwecken der Kreativit¨atssteigerungen zunutze. Es bietet sich geradezu an, diese hier gemachten Beobachtungen zu u ¨bertragen auf die Kreativit¨ at von Gruppen, Organisationen, Firmen als Ganzes. Auch hier wird es darum gehen, spontane Prozesse des Erzeugens von L¨ osungen geeignet zu koppeln mit Filtern, die die Qualit¨at solcher L¨osungen beurteilen und zu Auswahlentscheidungen kommen. Zu den h¨aufig genutzten Mechanismen geh¨ oren Methoden des Brainstorming oder Aufenthalte von Teams in der Einsamkeit eines Berghofes oder das Hinzuziehen eines Spezialisten f¨ ur Kreativit¨at. All dies sind Ansatzpunkte, die Freiraum schaffen, Neues zulassen und damit helfen sollen, abseits von Hierarchien zun¨achst einmal Ideen zu generieren, Ideen entstehen zu lassen. Die sp¨ ateren Prozesse der Entscheidungsfindung u ¨ber diese Ideen, die Pr¨ ufung ihrer Tragf¨ahigkeit usw. sind dann unter Umst¨anden eher wieder klassisch und erinnern an die Filter, mit denen wir im Gehirn L¨osungen ausw¨ ahlen bzw. teilweise verwerfen, modifizieren usw. 2.5
Verteilte vs. hierarchische Organisation: Netzwerke
Eine weitere zentrale Frage, die heute in der Diskussion um schlanke bzw. lernende Unternehmen eine große Rolle spielt, betrifft eine vern¨ unftige Organisation der Informationsverarbeitung und Entscheidungsautorit¨at zwischen m¨oglicherweise parallel operierenden Komponenten bzw. Einheiten einerseits und der Notwendigkeit der Zusammenf¨ uhrung und Integration von Ergebnissen auf h¨oheren Ebenen andererseits. Ein gutes Beispiel f¨ ur die hier bestehenden M¨oglichkeiten liefert der Aufbau des menschlichen Gehirns als massiv-paralleles System,
438
F. J. Radermacher
(teilweise) kontrolliert durch ein lineares, eindimensionales Bewußtsein. H¨ohere Kontrollstufen sind dabei in der Regel symbolisch organisiert und resultieren in der Regel aus der Notwendigkeit der Koordinierung/Priorisierung bestimmter knapper, h¨ aufig nur einmal vorhandener Ressourcen. Bei Firmen betrifft das etwa die Frage der Eigent¨ umerrolle, die jeweilige Rechtsform, Finanzen, den Firmennamen, Know-how-Bereiche, Zugriff auf Mitarbeiter, Kundenbindungen usw. Auch bei Unternehmen – und gerade auch bei einer weitergehenden Virtualisierung und der Entwicklung hin zum lernenden Unternehmen geht es also darum, wie man die genaue Organisationsstruktur auspr¨agen soll. Hier ist irgendwo zwischen streng hierarchischen Modellen und einer fast beliebigen Verteiltheit und wechselseitigen Verkn¨ upfung von Suborganisationen die richtige L¨osung zu finden. Auf den Ansatz sogenannter Heterarchien sei hier erneut verwiesen. Sehr vern¨ unftig ist ein weitgehendes freies Operieren von Subeinheiten, die mit einer klaren Mission um einen bestimmten Typ von Markt oder eine knappe Ressourcen herum organisiert sind. Die jeweilige knappe Ressource bildet dabei die tiefere Begr¨ undung f¨ ur eine jeweilige F¨ uhrungsebene der Einzeleinheit und damit letztlich auch f¨ ur die Schaffung dieser Einheit. Das Ineinanderschachteln solcher Einheiten, das von Hierarchien knapper Ressourcen herr¨ uhrt, f¨ uhrt zu einer weitergehenden Vernetzung und Vermaschung in immer wieder u ¨bergeordnete Kontexte, der ihrerseits knappe Ressourcen verwalten und dabei die Rahmenbedingungen festlegen, unter denen die jeweils untergeordneten Systeme operieren. Derartige – fraktale – Strukturen weisen insgesamt einen hohen Grad von Selbst¨ ahnlichkeit auf und sind wesentlich bestimmt durch den Markt (das Biotop“), in dem sich das Unternehmen bewegt. Der Grad der Hierarchisie” rung wird dabei von diesem Biotop“ mitbestimmt. Hierarchie ist Information, ” konkurriert aber mit dem Potential der Selbstorganisation als leistungsf¨ahiger Lernmechanismus.
3 3.1
Konkrete Anforderungen und Vorgehensweisen fu ¨ r ein Wissensmanagement von Unternehmen Bestandsaufnahme des Status quo
Aufgrund von Gespr¨ achen mit ganz verschiedenen Unternehmen scheint es heute in vielen Firmen so zu sein, daß die Situation hinsichtlich des eigenen Wissensmanagements eher unzufriedenstellend ist. Es gibt relativ wenig Transparenz dar¨ uber, was ein Unternehmen weiß, vor allem in gr¨oßeren Unternehmen. Ein gefl¨ ugelter Spruch lautet: Wenn Firma X w¨ ußte, was Firma X weiß, w¨are Firma X nicht zu schlagen. Das Wissen ist dabei oft abgelegt“ in verschiedenen ” Personen bzw. deren Erfahrungen und kann allenfalls von diesen f¨ ur neue Aufgaben aktiviert werden. Dabei gibt es weder ein begriffliches Ger¨ ust, in dem diese Erfahrungen transportiert werden k¨onnten, noch kann man sich als thematisch interessierter Dritter dar¨ uber informieren, daß es diese Erfahrungen gibt. Schon gar nicht k¨ onnen die entsprechenden Informationen u ¨ber Rechner oder digital
Komplexe Systeme und lernende Unternehmen
439
ausgetauscht werden. Dies gilt sogar dann, wenn textliche Darstellungen existieren. Denn oft wird dasselbe Wort mit verschiedenen Bedeutungen verwendet oder es werden unterschiedliche Worte f¨ ur denselben Gegenstand benutzt. Hinzu kommt mit der Verschlankung der Unternehmen in den letzten Jahren ein erheblicher Verlust an Personen, die aufgrund langj¨ahriger Erfahrung u ¨bergreifend zwischen verschiedenen Bereichen und Wissensbest¨anden h¨atten vermitteln k¨ onnen. Wissen ist damit sehr stark fragmentarisiert und personifiziert, es steht im Zweifelsfall auch in Ordnern, kann aber nicht mehr mit vertretbarem Aufwand identifiziert werden. Selbst da, wo Wissen digitalisiert wird, wie heute in Protokollen von Arbeitsgruppen oder Berichten von FMEA-Teams in der Qualit¨ atssicherung, sind auch diese Texte wiederum viel zu umfangreich und nicht nach einheitlichen Schemata und Begriffssystemen aufgebaut, so daß auch hier die Verkn¨ upfung u ¨ber Rechner nur sehr begrenzt m¨oglich ist. In vielen Unternehmen ist es tats¨achlich so, daß man heute bei der r¨ uckblickenden Analyse von aufgetretenen Fehlern feststellt, daß eigentlich schon rechtzeitig und im vorhinein alle ben¨otigten Informationen da waren, um den Fehler zu vermeiden, diese Informationen aber nicht zur richtigen Zeit an der richtigen Stelle ankamen. Es gab kein leistungsf¨ ahiges Fr¨ uhwarnsystem, die Abl¨ aufe waren zu langsam, die entscheidenden Personen haben die relevanten Informationen nie bekommen, oder die Wichtigkeit dieser Information aus der Art, wie sie pr¨ asentiert wurde, nicht erkennen k¨onnen. Eine unbedingte Notwendigkeit ist deshalb auf jeden Fall die bessere Vernetzung von Menschen ( Connecting ” People“) und die Nutzung der Informationstechnik, um Problem Owner“ und ” Solution Provider“ besser als bisher m¨oglich zusammenzubringen und dabei die ” vorhandenen Informationsressourcen deutlich besser als bisher zu nutzen. 3.2
Ans¨ atze zur Verbesserung der Situation
Zur Bew¨ altigung der anstehenden Probleme gibt es ganz unterschiedliche Ans¨ atze. In Umfeldern, die schon l¨anger mit dem Thema des Wissensmanagements zu tun haben, z.B. in der staatlichen Verwaltung oder in der Organisation der Umweltinformationen u ¨ber die ganze Bundesrepublik, hat sich u ¨ber die Jahre gezeigt, daß alle Ans¨atze, die auf starke Zentralisierung und einen grunds¨ atzlichen Neuaufbau von Informationssystemen abzielten, gegen¨ uber dem Tagesgesch¨ aft und der dauernden Belastung der Mitarbeiter und angesichts der Notwendigkeit ihrer Motivation keine Chance auf dauerhafte Umsetzung haben. Insofern sollten L¨ osungen sehr stark auf Prinzipien der Selbstorganisation abzielen. Sie sollen den Mitarbeitern ein großes Maß an Angeboten zur wechselseitigen Vernetzungen, etwa u ¨ber Intra- und Internetze, Diskussionsforen usw. er¨ offnen. Ferner soll mit modernen Werkzeugen, wie z.B. Groupware-Tools, die Zusammenarbeit vereinfacht und der Informationsaustausch verfl¨ ussigt werden. In diesem Umfeld ist es auch wichtig, Freir¨ aume zu schaffen, um Neues auszuprobieren und in Wissensmanagement und Wissensaustausch investieren zu k¨ onnen. Ein vielversprechender Ansatz besteht darin, die vorhandenen Informationssysteme der Mitarbeiter, Arbeitsgruppen oder Bereiche zu nutzen und geeignet
440
F. J. Radermacher
weiterzuentwickeln und dabei die Frage der Ownership, der Hoheit u ¨ber die Daten usw. vern¨ unftig zu kl¨ aren. Nur wenn die Betroffenen ihre eigenen Systeme aus eigenem Interesse ad¨ aquat weiterentwickeln und pflegen, ist eine vern¨ unftige Basis vorhanden, auf der sich h¨ohere Funktionalit¨aten aufbauen lassen. Hier ist dann allerdings daf¨ ur Sorge zu tragen, daß von den jeweils lokalen Systemen ¨ ausgehend M¨ oglichkeiten der Ubersetzung in u ¨bergeordnete Zusammenh¨ange konzeptionell und technisch vorgesehen werden und gleichzeitig Anreizsysteme f¨ ur die Weitergabe und den Austausch von Informationen geschaffen werden. Hier geht es unter Umst¨ anden auch um monet¨are Anreize, vor allen Dingen aber um Sichtbarkeit und Empowering in der eigenen Arbeit und Verantwortung. In diesem Umfeld ist dann der Wissenstransfer geeignet zu organisieren. Der wesentliche Ansatz besteht in der breitfl¨achigen Integration und Verf¨ ugbarmachung von Wissen und der geeigneten Aufbereitung von Informationen zur Erschließung von Mehrwerten, z.B. basierend auf der Theorie der f¨ oderierten verteilten Datenbanksysteme, die u ¨ber Meta-Informationssysteme miteinander gekoppelt werden. In derartigen Meta-Informationssystemen sind Hinweise auf die Art der jeweils in bestimmten Datenbanken enthaltenen Daten, ihre Qualit¨ at und Verf¨ ugbarkeit, die Zust¨andigkeit und Verantwortung f¨ ur die Qualit¨at der Daten, Zugriffsmechanismen usw. abgelegt und insbesondere auch Hinweise auf Konversionsprogramme, die ben¨otigt werden, um Daten aus einem Kontext in einen anderen zu transformieren. Die Basis f¨ ur einen breitfl¨achigen Austausch bilden als Hintergrund vorhandene gemeinsame Begriffssysteme, die vorabge¨ stimmt werden m¨ ussen und von denen her Ubersetzungen in die Einzelsysteme und zur¨ uck zu leisten sind. Im Bereich der deutschen Umweltverwaltung spielt hier beispielsweise der (mehrsprachige) Thesaurus des Umweltbundesamtes (als Teil des Umweltdatenkatalogs) mit u ¨ber 10.000 Begriffen eine zentrale Rolle. Hinsichtlich der Geographieseite gilt dies in entsprechender Weise f¨ ur die amtliche topographische Karte (ATKIS). In entsprechenden Ans¨ atzen muß es eine wesentliche Leitidee sein, die Organisationsform von Unternehmen so zu w¨ahlen, daß Einheiten jeweils um bestimmte, knappe Ressourcen herum organisiert sind, wobei sie f¨ ur diese knappe Ressource die jeweils gr¨ oßte zust¨andige Gruppe bilden, die von dieser Ressource direkt betroffen ist. Es ist die wesentliche Aufgabe solcher Gruppen, mit diesen Ressourcen verantwortlich umzugehen und beste L¨osungen zu produzieren. Es scheint in diesem Kontext vern¨ unftig zu sein, entlang der Vier-EbenenArchitektur und orientiert an dem Thema Bewußtsein“ (im biologischen Sinne) ” so etwas wie Leitst¨ ande der jeweiligen Organisationseinheit zu entwickeln. Hier geht es darum, daß man auf der F¨ uhrungsebene des jeweiligen Teilsystems versucht, die mit einer breit gef¨ acherten Sensorik der Informationsaufnahme nach außen und nach innen gewonnenen Informationen u ¨ber entsprechende Filterprozesse ganzheitlich verf¨ ugbar zu machen. Dies zielt auf wichtige Tatbest¨ande, die zeitgerecht an die entsprechende F¨ uhrungsebene zu bef¨ordern sind. Dazu sollten Teams von Personen im Rahmen derartiger Leitst¨ande, teils mit technischer Unterst¨ utzung, die richtigen Verkn¨ upfungen vornehmen und so in vielen F¨ allen schon im Vorfeld von Problemen ein Handeln erm¨oglichen. Zumindest sollte sichergestellt sein, daß relevante Informationen noch vor den Zeitpunkten,
Komplexe Systeme und lernende Unternehmen
441
zu denen Entscheidungen bereits gefallen sind, die zust¨andigen Verantwortlichen erreichen und so bessere Entscheidungen auf der jeweiligen Ebene erm¨oglichen. Hierzu sind neben der bisherigen Organisation auf den jeweiligen F¨ uhrungsebenen Kernteams von Personen (Wissensverarbeitung, Broker) zu verankern, die sich wesentlich mit der Verarbeitung dieser (Leitstand-)Informationen besch¨aftigen. Dazu sind z.B. Themen/Issues zu definieren, die permanent zu verfolgen sind. Ferner ist systematisch auch ein Bestand an Regeln aufzubauen, gem¨aß deren Themen zu verfolgen und neue Themen zu betrachten sind. In diesem Umfeld ist auch daran zu denken, daß man ein geeignetes Team beauftragt, permanent daran zu arbeiten, verborgene Erfolgsquellen des Unternehmens bzw. der Unternehmenseinheit zu identifizieren. Bei all diesen Zielen ist allerdings immer zwischen Explizitheit und mehr neuronale, u.a. u ¨ber mehrere Personen verteilte, L¨osungen nachzudenken, um insbesondere auch eine gen¨ ugende Sicherheit vor Zugriffen von außen auf dieses wesentliche Firmen-Know-how zu erreichen. Die Identifikation von Erfolgsfaktoren kann dabei durchaus das Zusammenwirken mehrerer Informationsbroker beinhalten und ebenso das Einsetzen von Agenten f¨ ur bestimmte Themen. Schließlich sei erw¨ ahnt, daß als weitere organisatorische Maßnahme die tempor¨ are Gew¨ ahrung von Narrenfreiheit f¨ ur bestimmte Arbeitsgruppen oder Personen, der Aufbau von Task-Forces, Projektteams oder Ideenpools wesentliche Faktoren zum Auf- und Ausbau eines Wissensmanagement sein k¨onnen, vor allem, wenn es (tempor¨ ar) um die Steigerung des Kreativit¨ atspotentials eines Unternehmens geht. 3.3
Zu beachtende Wissenskategorien
Bei den hier vorgeschlagenen Vorgehensweisen sind ganz unterschiedliche Wis¨ senskategorien zu beachten. Ganz wesentlich ist das Ubersichtswissen – wer macht wo wie was, und wo findet man welche Informationen in welcher Qualit¨ at und wie greift man darauf zu? Allgemein wichtig ist auch sogenanntes Meta-Wissen, auf das im Text schon mehrfach hingewiesen wurde. Wichtig ist auch das Wissen u ¨ber Technologien, Konstruktionen und vor allem Prozesse, ferner das Wissen u ¨ber die vorhandene Infrastruktur, das Wissen u ¨ber die Qualit¨ at verf¨ ugbarer Broker, Fachwissen f¨ ur die jeweiligen Fachgruppen, das Wissen u ahige Partner in der eigenen Mannschaft und bei Zulieferern, in ¨ber leistungsf¨ ¨ Amtern, in der Wissenschaft (wof¨ ur man so etwas wie Gelbe Seiten ben¨otigt). Schließlich sei das Wissen u ¨ber den Verlauf wesentlicher Diskussionen bzw. Diskurse zu großen Themen erw¨ahnt, die man mittlerweile systemseitig mit Hilfe moderner Diskursrepr¨ asentationssysteme (z.B. HyperIBIS [1]) dokumentieren kann. 3.4
Technikkomponenten
Auf die Dauer wird es wichtig sein, das Wissensmanagement sehr weitgehend technisch zu unterst¨ utzen. Wie schon angedeutet, spielen hierf¨ ur Indices, Thesauri, Begriffssysteme, Verzeichnisse, Gelbe Seiten, usw. eine große Rolle. Wich-
442
F. J. Radermacher
tige Komponenten f¨ ur die Zukunft sind auch Filter, die aus der Sicht des Informationsanbieters bewirken sollen, daß Information (nur) an die richtigen Adressaten gehen, aber diese auch erreichen, w¨ahrend sie aus der Sicht der jeweiligen Abnehmer bzw. Adressaten bewirken sollen, daß nur solche Informationen sie erreichen, an denen sie wirklich interessiert sind. Hierbei ist auf Dauer nat¨ urlich ¨ mit intelligenten Techniken des gegenseitigen Uberlistens zu rechnen. Navigatoren, aber auch sogenannte Search Engines helfen, Informationen in komplizierten Welten zu identifizieren und zu verkn¨ upfen, und Broker haben die noch weitergehende Aufgabe, auf Fragen Dossiers im Sinne von konsolidierten Antworten bereitzustellen. Dabei ist ein Broker sehr oft ein Mensch, zunehmend aber auch ein Mensch, der durch technische Komponenten unterst¨ utzt wird. Diese Unterst¨ utzung l¨ aßt sich im Prinzip auf Dauer noch sehr weit treiben (technische Broker). Wie bei Menschen oder in der Wissenschaft geht es ferner oftmals darum, implizites Wissen, wie es z.B. in großen Datenbest¨anden vorliegt, auf eine explizite (symbolische) Wissensebene zu holen. Eine wichtige Leitidee ist dabei das sogenannte Data Mining in ganz unterschiedlichen Kontexten, u.a. im Umfeld Data Warehouse. F¨ ur den Umgang mit sensiblen Informationen, gerade auch f¨ ur Broker, wird man weiterhin versuchen, immer mehr automatische Elemente der Wissenssicherung einzubauen, z.B. die Nutzung von Hypertext zur Herstellung von Verkn¨ upfungen, eine automatische Bearbeitung von Adressen, Herausarbeiten von Bez¨ ugen zwischen Volltexten auf der Basis gemeinsamer Begriffssysteme und Thesauri, den Einbau von Konsistenzsicherungsmechanismen und die Nutzung von Weltwissen, z.B. auf Basis des Systems CYC [2] zur Identifikation indirekter Verkn¨ upfungsm¨ oglichkeiten zwischen Informationseinheiten. Letztere Funktion u ¨bernehmen in manchen Kerntexten mittlerweile auch Geoinformationssysteme, weil der Bezug u upfun¨ber den Ort (und die Zeit) oft sinnvolle Verkn¨ gen zwischen ansonsten unabh¨angig abgelegten Themen und Inhalten erlaubt. 3.5
Wissensbewertung/-bilanzierung von Unternehmen
In der sich dynamisch ver¨ andernden internationalen Wettbewerbssituation wird zuk¨ unftig neben der klassischen Unternehmensbilanz eine Bewertung der Leistungsf¨ ahigkeit einer Firma in bezug auf Wissen und Innovationsf¨ ahigkeit eine immer gr¨ oßere Rolle spielen. Man wird versuchen, in einer geeigneten Form der Bilanzierung das Wissen u ¨ber das Unternehmen ganzheitlich darzustellen. Dies ist gerade unter heutigen Bedingungen nicht einfach, weil man sich heute zun¨ achst noch schwertut, bei der Frage nach dem Wissen eines Unternehmens u ¨berhaupt u ¨ber die Ebene der Einzelindividuen hinauszugehen, also gr¨oßere Teile des Unternehmens wie Gruppen, Abteilungen oder ganze Teilunternehmen als Gegenstand bzw. Tr¨ ager dieser Thematik u ¨berhaupt zu begreifen. Hinzu kommt, daß f¨ ur alle diese Superorganismen“ dann auch das Wissen auf unterschiedlichen ” Ebenen zu betrachten ist. Dabei ist es ein ganz wesentliches und kennzeichnendes Charakteristikum des wichtigen Wissens auf der 2. Ebene der betrachteten kognitiven Hierarchie (neuronal, intuitiv, ganzheitlich), daß es sich eben nicht kalk¨ ulhaft, symbolisch beschreiben l¨aßt, denn immer dann, wenn dies der Fall
Komplexe Systeme und lernende Unternehmen
443
ist oder nach Anstrengungen doch geleistet werden kann, ist im Grunde genommen das Wissen von der Ebene 2 auf die Ebene 3 gehoben worden. Oftmals ist dieser Schritt der Explizitmachung allerdings prinzipiell unm¨oglich, vielfach ist er auch zu aufwendig und oft ist er aus sicherheitstechnischen und anderen Gr¨ unden auch gar nicht sinnvoll bzw. gewollt. Hier muß dann f¨ ur die Klassifikation auf abgeleitete Kriterien abgehoben werden. Man denke hier etwa an das Beispiel einer Designaufgabe (vgl. Abb. 3). Hier l¨aßt sich oft nicht beschreiben, wie die konkrete Kompetenzfunktion eines Mitarbeiters im Bereich Design aussieht. Man kann aber dennoch festhalten, wie oft der Mitarbeiter bei welchem Typ von Designarbeiten in der Vergangenheit erfolgreich war. Diese Art von (indirekter Bewertungs-)Information ist oft f¨ ur die notwendigen Managemententscheidungen v¨ ollig ausreichend. Vor diesem Hintergrund wird konkret empfohlen, ein Instrument der Wissensbewertung f¨ ur die Zukunft entlang einer Hierarchie zu entwickeln, die zumindest den Faktor Mensch, die verf¨ ugbaren Wissenssysteme und die Leistungsf¨ ahigkeit der Organisationsstruktur entlang der in diesem Text diskutierten Mechanismen und Wissensrepr¨ asentationsebenen untersucht. F¨ ur die einzelnen genannten Faktoren sollten dabei u.a. die im folgenden genannten Aspekte mit in die Betrachtung einbezogen und auf Dauer auch Gegenstand von Benchmarkingprozessen werden: 1. Faktor Mensch Hier sollte man in geeignet aggregierter Form das Leistungspotential der einzelnen Mitarbeiter aufnehmen und bewerten, und zwar mit Bezug auf Klassifikationen wie Ausbildung, akademische Disziplinen, wissenschaftliche Preise, Patente, Fortbildung, Tagungsteilnahme, publizierte Texte, Positionen in Gremien, Mitwirkung in Kommissionen, Dauer der Mitwirkung in der Firma, eingenommene Funktionen usw. 2. Aufnahme der verf¨ ugbaren Wissenssysteme Anzahl, Gr¨ oße, Thematik von Daten- und Wissensbanken. Wie groß ist der Umfang dieser Wissenssysteme? Wieviele Personen haben Zugang zu welchen Daten? Gibt es Intranetze, gibt es offene Foren? Wie kommt man an diese Informationen? Gibt es einen Thesaurus, Verweissysteme, MetaInformationssysteme, automatische Zugriffe (orientiert an Themen), gibt es ein Issuemanagement usw.? 3. Die Leistungsf¨ ahigkeit der organisatorischen Strukturen Operationalisierung der Firmenkultur, Gruppenbildungen, Offenheit, zeitliche Freir¨ aume. Kann man im Unternehmen als einzelner auch einmal ganz verr¨ uckte Themen alleine verfolgen? Wie oft wurde umorganisiert? Wie stark wird entlang autorit¨ arer Strukturen operiert? Werden Spinner“ bewußt ” eingesetzt? Werden Groupware Tools eingesetzt? Wie erfolgte der Cultural Change in der Vergangenheit? All dies zielt auf die Generalfrage: Wie funktioniert diese Firma? Gibt es spezifische Arbeitsgruppen, die versuchen, Erfolgsfaktoren auf der organisatorischen Ebene – selbst wenn diese nicht expliziter Natur sind – zu identifizieren. Was sind die Zukunftsfelder, auf denen das Unternehmen seine Chancen sieht? Wie sahen diese Felder in der Vergangenheit aus, und wie wurden die jeweiligen Pl¨ane umgesetzt und die
444
F. J. Radermacher
Ziele erreicht? Wo liegen auf diesem Wege die Qualit¨aten des Personals, handelt es sich mehr um eine F¨ahigkeit, Dinge zu tun oder um die F¨ahigkeit, geeignete Personen auszuw¨ahlen, zu coachen, Pflichtenhefte zu formulieren. Besteht die Kernkompetenz mehr in der F¨ uhrungsqualit¨ at oder im konkreten fachlichen Handeln?
4
Zusammenfassung und Ausblick
Hinsichtlich der Auspr¨ agung lernender Organisationen bzw. eines Wissensmanagement leben wir im Moment in einer interessanten Zeit des Umbruchs. Es wird immer deutlicher, daß die einzelnen Mitarbeiter in vielen Firmen ein ganz zentrales Element der Leistungsst¨arke darstellen, daß man diese Mitarbeiter f¨ordern muß, daß man ihre Lernf¨ ahigkeit, ihren Zugriff auf Wissen und Ressourcen, Kontakte aller Art, st¨ arken muß. Es wird auch deutlich, daß die Organisation kleinerer und gr¨ oßerer Einheiten technisch unterf¨ uttert und durch Datenbanken und Wissenssysteme gest¨ utzt werden muß. Eine wesentliche Rolle spielt die Verf¨ ugbarkeit bestimmter Wissensquellen in Form von Daten, Informationsbanken, Meta-Informationssystemen, Adreßsystemen usw. Die Leistungsquellen sind dabei auf ganz unterschiedlichen Ebenen abgelegt, von reinen Strukturebenen, u ¨ber mehr neuronal-ganzheitliche Wechselwirkungen, u ¨ber symbolische Kalk¨ ul- und Regelwerke, bis hin zu Algorithmen und mathematischen Modellen. Die ad¨ aquate Organisation des Unternehmens ist dabei die Schl¨ usselfrage. Unter heutigen Marktbedingungen geht es dabei wesentlich darum, eine geeignete Wechselwirkung zwischen eher regelhaften Organisationsprinzipien und der Selbstorganisation von Gruppen und dem Empowering des einzelnen zu leisten. ¨ Ahnlich zu den Architekturbildungen, wie sie etwa der Ausbildung des Bewußtseins im menschlichen Gehirn zugrunde liegen, ist dabei in der Regel weder die Verfolgung einer ausschließlich symbolisch-hierarchischen, noch einer ausschließlich neuronal-selbstorganisierenden Struktur ad¨aquat. Vielmehr geht es darum, eine auf den jeweiligen Kontext zugeschnittene geeignete Koppelung einerseits von Regelwerken und andererseits von Selbstorganisationsmechanismen neuronaler Art zu erreichen. Dabei bilden die Regelwerke in der Regel eine Art ¨außere H¨ ulle, ein Rechtssystem, einen Rahmen, in dem sich individuelle neuronale ¨ Strukturen entfalten k¨ onnen. In Uberlappungsbereichen k¨onnen dabei durchaus beide Ans¨ atze konkurrieren bzw. sich erg¨anzen. Lernen findet auf beiden Ebenen statt, und es gilt, diese Lernprozesse geeignet zu koordinieren, und zwar sowohl im Bereich der einzelnen Personen wie der Organisationsstrukturen. Dies beinhaltet auch die Bereitschaft zu der immer wieder notwendigen Ver¨anderung der den Rahmen bildenden Regelwerke, und zwar im Sinne eines permanenten Business-Reengineering und einer Anpassung der u ¨bergeordneten Mission eines Unternehmens an die sich st¨andig ver¨andernden Verh¨altnisse im Markt.
Komplexe Systeme und lernende Unternehmen
445
Literatur 1. Isenmann, S., Lehmann-Waffenschmidt, M., Reuter, W. D., Schulz, K.-P. (1992) Diskursive Umweltplanung: Computergest¨ utzte Behandlung b¨ osartiger“ Proble” me. Zeitschrift f¨ ur angewandte Umweltforschung 5 (4), 466–485 2. Lenat, D.B., Guha, R. V. (1989) Building Large Knowledge-based Systems, Representation and Inference in the CYC Project. Addison-Wesley, Reading (MA) 3. Radermacher, F. J. (1992) Von der Artificial Intelligence zu Neuronalen Netzen. In: Der Mensch im Schnittpunkt der Technik. Proceedings zum Europ¨ aischen Technologieforum K¨ arnten, 1991, 35–50 4. Radermacher, F. J. (1995) Chancen und Risiken von Innovationen am Beispiel der ¨ Automatisierung von Kognitionsleistungen. Festveranstaltung – 10 Jahre Oster¨ reichisches Forschungsinstitut f¨ ur Artificial Intelligence / 20 Jahre Osterreichische Studiengesellschaft f¨ ur Kybernetik, Wien, 17. November 1994, Technical Report des FAI 5. Radermacher, F. J. (1995) Informations- und Kommunikationstechnik: Basis einer auf Wissen und Nachhaltigkeit angelegten weltweiten Industriegesellschaft. Vortrag im Rahmen des Technischen Symposiums Change in TIME (Telekommunikation ” – Information – Multimedia – Entertainment)“ der Siemens Nixdorf Informationssysteme AG, M¨ unchen, anl¨ aßlich der Verabschiedung von Dr. H. Nasko und Dr. H. Rogge, 19. September 1995 6. Radermacher, F. J. (1995) Kreativit¨ at – das immer wieder neue Wunder. Forschung und Lehre 10, 545–550 7. Radermacher, F. J. (1995) Organisation – Qualit¨ at – Technologien. Wie sichert man die Wettbewerbsf¨ ahigkeit von Unternehmen in einem zunehmend chaotischen Umfeld? Beitrag zum 13. Qualit¨ atsleiter-Forum Qualit¨ at leben – kundenorientiert ” denken – kontinuierlich lernen“, 22.-23. M¨ arz 1995, B¨ oblingen 8. Radermacher, F. J. (1996) Cognition in Systems. Cybernetics and Systems 27 (1), 1–41 9. Schwaninger, M. (1996) Structures for Intelligent Organizations. Diskussionsbeitr¨ age No. 20, Universit¨ at St. Gallen
Evolutions- und Innovationsdynamik als Suchprozeß in komplexen adaptiven Landschaften Werner Ebeling1 , Andrea Scharnhorst2 , Miguel A. Jim´enez Monta˜ no3 4 und Karmeshu 1 2 3 4
Humboldt-Universit¨ at zu Berlin, Institut f¨ ur Physik, Unter den Linden 6, D–10099 Berlin, Germany, e-mail:
[email protected] Wissenschaftszentrum Berlin f¨ ur Sozialforschung, Reichpietschufer 50, D–10785 Berlin, Germany Universidad de las Americas Puebla, Apartado Postal 47, Cholula 72820 Puebla, Mexico Jawaharlal Nehru University, School of Computer and System Sciences, New Delhi 110067, India
¨ Zusammenfassung Innovationsf¨ ahigkeit stellt ein Schl¨ usselelement des Uberlebens in sich ver¨ andernden Umwelten dar. Dies gilt sowohl f¨ ur Organismen, f¨ ur individuelle Akteure als auch f¨ ur gesellschaftliche Systeme, seien sie nun technischer, ¨ okonomischer oder sozialer Natur. In einer Gesellschaft, die von Beschleunigung des Fortschritts und Globalisierung gepr¨ agt ist, geh¨ ort die Untersuchung von Innovationsprozessen zu den zentralen Fragestellungen ganz unterschiedlicher Wissensbereiche. In diesem Beitrag wird Evolutions- und Innovationsdynamik aus dem Blickwinkel einer geometrisch orientierten Evolutionstheorie betrachtet. Evolution wird als kollektive Suche wechselwirkender Populationen nach lokal besseren L¨ osungen in einem hochdimensionalen Ph¨ anotypraum beschrieben, in dem eine Fitnesslandschaft definiert ist. Im Zentrum des vorliegenden Beitrags steht die Realisierung dieses Landschaftsbildes in formalen Modellen und die Analyse von Ans¨ atzen, die sich aus diesem Konzept f¨ ur das Verst¨ andnis von Innovationsprozessen ergeben. Im ersten Teil der Arbeit vergleichen wir kontinuierliche und diskrete Modellbeschreibungen. Besonders analysieren wir den verschiedenen Merkmalskontext der Populationen, Konkurrenzprozesse zwischen diesen, m¨ ogliche Selektionskriterien und die Entstehung des Neuen im Modell. Die Vorteile kontinuierlicher Modelle, die die evolution¨ are Suche in Merkmalsr¨ aumen mit ver¨ anderlichen Fitnesslandschaften beschreiben, werden herausgearbeitet. Im zweiten Teil der Arbeit werden als Beispiel der Modellierung diskrete und kontinuierliche Beschreibungen von Innovationsprozessen in der technologischen Evolution behandelt. Dabei werden technologische Trajektorien, Lebenszyklen von Produkten und Technologien, und Innovationsfolgen betrachtet.
1
Einleitung
Abstrakte hochdimensionale R¨aume waren lange Zeit nur Objekte der Mathematik und der theoretischen Physik. Neuerdings spielen solche R¨aume in Verbindung mit Landschaftsmodellen eine zunehmend wichtige Rolle f¨ ur die Veranschaulichung und Analyse dynamischer Prozesse in verschiedenen wissenschaftlichen Disziplinen. Zu den ersten Forschern, die Landschaften in hochdimensionalen R¨ aumen als Modell der biologischen Evolution einsetzten, geh¨orte Wright
Evolution als Suche in komplexen Landschaften
447
[95]. Seither hat sich dieser Modelltyp in der biologischen Evolutionstheorie ¨ durchgesetzt [14] und die Ubertragung auf andere Evolutionstheorien steht auf der Tagesordnung. Die Einf¨ uhrung eines Raumes erm¨oglicht die Definition von Begriffen wie Nachbarschaft und Abstand und — was f¨ ur die Evolutionstheorie von besonderer Bedeutung ist — die Betrachtung von Bewertungs- bzw. Fitnesslandschaften als Funktionen u ¨ber diesem Raum. Weiterhin k¨onnen in diesem Bild erstmalig solche wichtigen Konzepte wie Evolutionsgeschwindigkeit eingef¨ uhrt werden. Die Systemdynamik wird aus der Gestalt der Bewertungsfunktion abgeleitet. Im einfachsten Fall handelt es sich dabei um eine lokale Gradientendynamik, es gibt aber viel kompliziertere F¨alle, in denen die Populationsverteilung die Form der Landschaft und damit auch die Suche in der Landschaft nichtlinear beeinflußt. Die Darstellung und Analyse von dynamischen Systemen in Zustandsr¨ aumen mit Landschaften hat bereits wesentlich zum Verst¨andnis nichtlinearer Evolutions-Ph¨ anomene beigetragen [14] [22]. Solche Vorstellungen spielen auch beim Wissenstransfer in andere Gebiete eine wichtige Rolle (vgl. in neuerer Zeit z.B. [47]). Ob nun mit explizitem Bezug auf nichtlineare Theorie und Modellbildung oder ohne, abstrakte Landschaften findet man auch im sozialwissenschaftlichen Kontext. Als Beispiel sei hier nur auf den kontinuierlichen Raum (attitude space) politischer Haltungen verwiesen [84]. Dieser Raum dient als Modell empirisch gewonnener H¨aufigkeitsverteilungen (Politbarometer). Potentialmodelle in diesem Raum fungieren als Erkl¨arungsansatz f¨ ur beobachtete Haltungswechsel großer Bev¨olkerungsgruppen. F¨ ur das Wissenschaftssystem lassen sich (Land-)Karten von Forschungsfronten, Problemgebieten und Disziplinen erstellen. Ihre N¨ ahe oder Distanz definiert sich aus der Vernetzung wissenschaftlicher Artikel durch gemeinsame Referenzen (co-citation analysis) oder gemeinsam benutzte Termini (co-word analysis) [82] [13]. Landschaften werden u ¨ber diesem Raum durch die H¨aufigkeit von Arbeiten oder deren Zitationsrate gebildet. In j¨ ungster Zeit wurde vorgeschlagen, solche Landschaften mit Hilfe moderner Algorithmen zur Verarbeitung und grafischen Darstellung von Informationen aus großen Datenbanken aufzubauen. Diese Wissenschaftslandschaften sollen zur Darstellung und Erkundung der realen Wissensentwicklung und f¨ ur Investitionsstrategien in erfolgversprechende innovative Wissensbereiche genutzt werden [70]. Ein weiteres Beispiel stellt der Raum technologischer Merkmale von Produkten dar [74]. In diesem Raum l¨aßt sich die Entstehung, Bewegung, Differenzierung und das Verschwinden von Produkttypen darstellen. R¨aumliche Konzepte technologischen Wandels (etwa das Bild technologischer Trajektorien) k¨ onnen so empirisch sichtbar gemacht und gepr¨ uft werden. Die vorliegende Arbeit ist der Verallgemeinerung und Pr¨azisierung von Modellen sozio-technologischer Prozesse mit r¨aumlicher Darstellung gewidmet. Unser Anliegen ist es zu untersuchen, inwieweit spezielle Landschaftskonzepte und Modelle aus naturwissenschaftlicher Theorienbildung einen Bezugsrahmen f¨ ur das Verst¨ andnis von Evolutions- und Innovationsdynamik sozialer Systeme darstellen k¨ onnen. Wir gehen dabei zun¨achst von dynamischen Landschaftsmodellen im Kontext der Physik aus und betrachten ihre konzeptionelle Rolle f¨ ur die Analyse evolutiver Prozesse. Der dabei konstituierte Zusammenhang von Evolution und Optimierung l¨ aßt sich auf modelltheoretischer Ebene verschieden abbilden.
448
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
Dies f¨ uhrt zu unterschiedlichen Modellbeschreibungen, die mehr oder weniger explizit auf das Landschaftsbild Bezug nehmen. Von Seiten der zu beschreibenden sozialen Ph¨ anomene werden wir uns in dieser Arbeit auf Prozesse der Technologieevolution konzentrieren. Die in Theorien des technologischen Wandels konzipierten r¨ aumlichen bzw. Landschaftsvorstellungen bilden dabei den Bezugspunkt f¨ ur eine Analyse der zun¨ achst auf einer allgemeinen Ebene eingef¨ uhrten Modelle und Konzepte in diesem Feld. In der Mathematik und Physik kommt ganz allgemein dem Zustandsraum — als abstraktem mathematischem Raum der Zustandsvariablen — eine wesentliche Bedeutung zu. Je nach betrachtetem, konkretem System lassen sich mitunter Funktionen u ¨ber dem Zustandsraum definieren, deren Extremaleigenschaften Aussagen u at und Stabilit¨at von Zust¨anden und Prozessen liefern. ¨ber Stationarit¨ In der klassischen Physik ist es der Phasenraum (Ort, Impuls), in dem f¨ ur mechanische Systeme die potentielle Energie und die Hamilton-Funktion als skalare Funktionen u ¨ber dem Phasenraum definiert sind. Die Minima dieser Funktionen kennzeichnen besondere Konfigurationen, die im ged¨ampften System stabile Lagen darstellen. In der Thermodynamik bilden makroskopisch definierte Variable bzw. Zustandsgr¨ oßen den Raum, in dem thermodynamische Potentiale als ausgezeichnete Zustandsgr¨ oßen definiert werden. Die Analyse der Extremaleigenschaften dieser Funktionen erm¨ oglicht die Bestimmung von Zustandsver¨anderungen (Trajektorien im Phasenraum) und der Stabilit¨at von Gleichgewichtszust¨anden. Zeichnen sich thermodynamische Gleichgewichtsprozesse in abgeschlossenen Systemen durch eine Maximierung der Entropie aus, so lassen sich lineare Nichtgleichgewichtsprozesse durch eine Minimierung der Entropieproduktion charakterisieren [18] [22]. Die im Rahmen der Katastrophentheorie [83] untersuchten sogenannten Gradientensysteme stellen ein weiteres prominentes Beispiel dar. Die Trajektorien der Systemdynamik folgen dabei den Gradientenlinien einer Potentialfunktion und eine topologische Analyse der Potentialfl¨achen f¨ uhrt zu station¨ aren Zust¨ anden und deren Stabilit¨at. F¨ ur die meisten komplexen Systeme existieren allerdings, wenn u ur die Stationarit¨at ¨berhaupt, nur lokale Kriterien f¨ von Prozessen und die Stabilit¨at station¨arer Zust¨ande [18] [22]. Wir beziehen uns in dieser Arbeit auf Landschaften in einem evolutions¨ theoretischen Zusammenhang. Der Ubergang von allgemeinen dynamischen Systemen zu evolution¨ aren Prozessen f¨ uhrt dabei u ¨ber Konkurrenz und Selektion. Selektion schließt immer eine Bewertung und damit die Existenz eines Vergleichsmaßstabes ein. Als Funktion des Zustandes kann ein solches Selektionskriterium — und sei es auch nur lokal definiert — als Landschaft u ¨ber dem Zustandsraum interpretiert werden. Im Landschaftsbild f¨ uhrt Selektion — anschaulich ¨ gesehen — zum Ersteigen des n¨achstgelegenen Gipfels. Der Ubergang von einem Selektions- zu einem Evolutionsprozeß geht u ¨ber Folgen solcher lokaler Elementarprozesse. Damit ist insbesondere die Frage verbunden, wie einmal erreichte lokale Gipfel wieder verlassen werden k¨onnen, also wie station¨are Zust¨ande wieder instabil werden. Der Schl¨ ussel dazu sind Mutationen. Innovationen sind besondere Mutationen, die zu bisher nicht aufgetretenen besonders folgenreichen Zust¨ anden f¨ uhren. Das Testen neuer Zust¨ande stellt ein wesentliches Element dar, um in der Konkurrenz Vorteile zu erringen. Evolution l¨aßt sich dann als
Evolution als Suche in komplexen Landschaften
449
Folge von Selbstorganisationsschritten auffassen. Die Bewertungslandschaft mit lokalen Attraktoren fungiert als eine Art Evolutionsprinzip, das die qualitativen Eigenschaften der m¨ oglichen Selektions- und Evolutionsprozesse im System beschreibt. Evolution wird damit als lokale Optimierung bestimmter Parameter oder Funktionen beschreibbar. Globale Evolutionskriterien existieren nur in Sonderf¨ allen der Dynamik [18] [22]. Der Zusammenhang von Evolution und Optimierung l¨aßt sich bereits in einfachen Evolutionsmodellen abbilden. Betrachten wir als Beispiel die Fisher-EigenDynamik [22]. Hier entscheiden die Reproduktionsraten u ¨ber den Selektionsverlauf. Im klassischen Fisher-Eigen-Modell ohne Mutationen und unter der Randbedingung einer konstanten Populationsgr¨oße gewinnt die Sorte mit der gr¨oßten Selbstreproduktionsrate (Fitness), w¨ahrend alle anderen Konkurrenten ausselektiert werden. Werden in das System immer neue, bessere Sorten eingef¨ uhrt, so l¨ aßt sich zeigen, daß dabei die mittlere Fitness eines Populationsensembles anw¨ achst. F¨ ur diese Gr¨ oße gilt ein vollst¨andiges Evolutionsprinzip [18]. Die Modellbeschreibung in diesem Beispiel enth¨alt alle Elemente evolution¨arer Suche (Reproduktion, Konkurrenz, Selektion, Mutation), ohne diese notwendigerweise in einem Suchraum anzusiedeln. Als Einheiten der Evolution fungieren Populationen. Diese werden in diskreten Evolutionsmodellen, wie auch in anderen traditionellen populationsdynamischen Modellen (etwa in Lotka-Volterra-Systemen [63] und in Replikatorsystemen [43]) als klassifizierbar und nummerierbar angesehen, d.h. in einem gewissen Sinne typologisiert beschrieben. Die Entstehung von Neuem im System ist damit an die Entstehung eines neuen Typs mit neuen Eigenschaften gebunden. Um eine solche diskrete Beschreibung mit einem Raumkonzept zu verbinden und Bewertungs- bzw. Selektionskriterien verschiedener Typen von Populationen als Landschaft darzustellen, muß zus¨atzlich eine Nachbarschaftsbeziehung zwischen Sorten definiert werden. Zu einer anderen M¨ oglichkeit der Beschreibung von Evolutionsdynamiken in Landschaften gelangt man, wenn man von vornherein von einem — abstrakten — Merkmalsraum (¨ ahnlich einem ph¨anotypischen Merkmalsraum) ausgeht. In diesem sind individuelle Merkmalsstrukturen durch Orte und Populationen durch Gruppen besiedelter Orte repr¨asentiert. Entsprechend dem Landschaftsbild soll die Dynamik der Besiedlung des Merkmalsraums einer Bewertungsfunktion folgen, die dann als Fitness in einem verallgemeinerten Sinne verstanden wird. Evolution wird als Prozeß des Bergsteigens in dieser fiktiven Landschaft beschrieben. Dem Problem der Definition einer Fitnessfunktion und der Kennntnis ihrer konkreten Gestalt wird durch den Ansatz einer korrelierten Zufallslandschaft Rechnung getragen. Damit lassen sich Verbindungen zur Physik ungeordneter Systeme1 [6] und zur Beschreibung der Dynamik in Fitnesslandschaften herstellen. Letztere werden sowohl im Kontext makromolekularer Evolution [31] als auch im Kontext komplexer Optimierungsprobleme [65] [46] [78] [88] [66] untersucht. Zunehmend wird das Konzept von adaptiven und Fitnesslandschaften 1
Mit der Verbindung zur Theorie ungeordneter Potentiale in der Festk¨ orperphysik schließt sich in einem gewissen Sinne der Kreis zwischen evolutionstheoretisch konzipierten Landschaften und den zu Beginn genannten herk¨ ommlichen“ Landschafts” vorstellungen in der Physik.
450
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
auch in Hinsicht auf die Beschreibung und das Verst¨andnis sozio-technologischer Evolution diskutiert [4] [46] [93] [24]. Der Vorteil dieses Zugangs liegt neben seiner Anschaulichkeit auch darin, daß Prozesse der Formierung von Populationen ebenso wie ihr Verschmelzen oder ihre Differenzierung endogen aus der Systemdynamik folgen und keiner taxonomischen Eingriffe bed¨ urfen. Individuelle Variabilit¨ at kann explizit beschrieben werden. Wir werden in dieser Arbeit die Aussagef¨ ahigkeit solcher Modelle bez¨ uglich von Evolutions- und Innovationsprozessen im Vergleich mit diskreten Beschreibungen hervorheben. Dabei konzentrieren wir uns auf Ans¨ atze zur Modellierung von konkurrierenden Populationen in adaptiven Landschaften [27] [19] [28]. Diese gehen von einem kontinuierlichen Merkmalsraum aus und werden im folgenden als kontinuierliche Modelle bezeichnet. Diskrete und kontinuierliche Modelle sind in gewisser Weise ¨aquivalent.2 Sie erm¨ oglichen unterschiedliche Perspektiven der Sicht auf ein und denselben Entwicklungsprozeß. Beide Modellans¨atze unterscheiden sich dabei aber durchaus in ihren konzeptionellen Ans¨ atzen und den formalen Aussagef¨ahigkeiten. Dies spielt f¨ ur konkrete Modellbeschreibungen und insbesondere auch in der Anwendung auf soziale Ph¨ anomene eine wesentliche Rolle. Im ersten Teil der Arbeit (Abschn. 2) wird daher der Frage nachgegangen, wie Populationen als Einheiten der Evolution jeweils unterschiedlich in ihrem Merkmalskontext beschrieben werden. Diese Betrachtung wird auf konzeptioneller Ebene (2.1) begonnen und auf der Ebene der mathematischen Formalisierung (2.2) fortgef¨ uhrt. Den Ausgangspunkt bildet ein verallgemeinerter Populationsbegriff.3 Auf konzeptioneller Ebene wird zwischen typologischer und merkmalsorientierter Beschreibung von Populationen unterschieden. Um die Relevanz des konzeptionellen Kontextes formaler Modelle f¨ ur eine Beschreibung sozialer Ph¨anomene sichtbar zu machen, greift diese Unterscheidung Diskussionen um die Relevanz verschiedener biologischer Denkans¨ atze f¨ ur die Beschreibung von Prozessen des technologischen Wandels auf [55]. Die folgende Modelldiskussion beschr¨ankt sich aber nicht auf Prozesse technologischen Wandels, sondern wird zun¨achst auf einer allgemeinen — methodologischen — Ebene gef¨ uhrt. Die mit einer typologischen Orientierung verbundenen diskreten Modelle werden dabei als allgemein bekannt vorausgesetzt und nur 2
3
¨ Vergleichbar etwa der Aquivalenz zwischen verschiedenen Formulierungen der Quantentheorie durch die Heisenbergsche Matrizenmechanik einerseits und die Schr¨ odingersche Wellenmechanik anderseits Im urspr¨ unglichen populationsdynamischen Ansatz steht der Begriff der Populati”¨ on“ f¨ ur eine Gruppe von Organismen, die in Hinsicht auf Evolution und Okologie als eine Einheit agieren [67]. In Theorien der Selbstorganisation ist dieser Begriff auf Gruppen von Elementen beliebiger Natur erweitert worden. Als Elemente k¨ onnen dabei Teilchen, Molek¨ ule, Organismen aber auch Individuen, Organisationen und Institutionen fungieren. Deren Zugeh¨ origkeit zu einer Gruppe orientiert sich an jeweils bestimmten individuellen Merkmalen, wie z.B. der Reaktionsf¨ ahigkeit von Molek¨ ulen im Fall chemischer Sorten, der politischen Pr¨ aferenzen von Personen im Fall von W¨ ahlergemeinschaften oder der Nutzung bestimmter Technologien in Firmen im Fall von technologischen Populationen. Die Gruppen bzw. Populationen sind relativ autonome, wechselwirkende Subsysteme, die im System Wettbewerbs- und Selektionsprozessen ausgesetzt sind.
Evolution als Suche in komplexen Landschaften
451
summarisch als Referenzpunkt behandelt. Ausf¨ uhrlicher wird dagegen auf merkmalsorientierte Beschreibungen mittels Landschaftsvorstellungen und kontinuierlicher Suchr¨ aume eingegangen. Die mathematische Formalisierung konkretisiert die zun¨ achst konzeptionell eingef¨ uhrten Systembeschreibungen und f¨ uhrt zu mathematischen Modellen, die jeweils verschiedene Aspekte von Evolutions- und Innovationsdynamiken beschreiben. Auf der Ebene der kontinuierlichen Modelle wird dabei insbesondere auf verschiedene Formen der R¨ uckkopplung zwischen Bewertungsfunktion und Systemdynamik (Konzept der adaptiven Landschaft) eingegangen. Im zweiten Teil der Arbeit (Abschn. 3) werden diese unterschiedlichen Aspekte der Modellbeschreibung im Hinblick auf das Verst¨andnis von Teilprozessen der Technologieentwicklung untersucht. R¨aumliche Vorstellungen des technologischen Wandels — wie etwa natural trajectories of technological change [58] [17] oder innovation avenues [68] — bilden dabei den Bezugspunkt des Theorie- und Methodentransfers. Im Zentrum stehen Aspekte bzw. quantifizierbare Ph¨anomene technologischer Innovationsprozesse. Im Fall der kontinuierlichen Beschreibung bildet die Frage technologischen Wandels von Produkttechnologien entlang technologischer Trajektorien den empirisch-ph¨anomenologischen Bezugsrahmen der Modellbildung. Technologische Populationen werden als Lokalisationsph¨anomene in unbekannten — aber spezifisch strukturierten — Suchlandschaften er¨ kl¨ art. Uber die Lokalisation der im ganzen Raum definierten Realisierungsh¨aufigkeit technologischer Merkmale an bestimmten Orten bilden sich abgrenzbare Populationen. Deren Zentren k¨onnen nunmehr wieder diskret beschrieben werden. Im Rahmen des kontinuierlichen Ansatzes werden Innovationen spezifisch mit der Schrittweite des evolution¨aren Suchprozesses verbunden. Als Beispiel einer diskreten Beschreibung wird die Aufeinanderfolge von (Basis-)Innovationen in einem entsprechenden Modell betrachtet. Den Ausgangspunkt bildet eine kontinuierliche zeitliche Ver¨ anderung von populationsspezifischen Merkmalen im Sinne einer individuellen Reifung der ansonsten diskret beschriebenen technologischen Population (Lebenszyklus). Dies f¨ uhrt zu einem Erkl¨arungsansatz f¨ ur die Existenz einh¨ ullender Funktionen bei Folgen von Substitutionsprozessen. Die Einh¨ ullende kann dabei als eine Art Kammlinie zwischen lokalen Optima technologischer Evolution betrachtet werden. Diese wird mit unterschiedlicher Geschwindigkeit durchlaufen. Dabei wechseln sich Phasen von stetiger Ver¨anderung mit kurzzeitigen Spr¨ ungen ab. Die Arbeit schließt mit einer Einordnung der entwickelten Konzepte und Modelle in den Wissenstransfer zwischen unterschiedlichen Disziplinen (Abschn. 4). In einem Ausblick wird auf weitere Anwendungsm¨oglichkeiten formaler evolutionstheoretischer Modelle in sozio-¨okonomischen Kontexten verwiesen.
452
2
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
Populationen als Einheiten der Evolution – verschiedene Modelltypen
2.1
Typologische und merkmalsorientierte Beschreibung von Populationen
Populationen sind die Einheiten der Evolution.4 In der Geschichte der biologischen Theorienbildung wird als Populationsdenken“ die wesentlich mit der ” Darwinschen Theorie verbundene Einsicht in die Rolle von individueller Variabilit¨ at f¨ ur die Evolution verstanden. Die Betonung der Einzigartigkeit der Individuen wird dem Denkansatz eines Essentialismus“ gegen¨ ubergestellt, der den ” Typ bzw. die Klasse als wesentlich ansieht [54]. Die Variabilit¨at und Vielfalt von Individuen in Gruppen wird von einer Normabweichung im Sinne eines Fehlers oder einer St¨ orung zur eigentlichen Quelle der Evolution [81]. Mathematische Modelle in der Populationsbiologie abstrahieren auf unterschiedliche Art und Weise von den konkreten Eigenschaften der Populationen. W¨ ahrend die Populationsgenetik die Struktur genotypischer Eigenschaften der Mitglieder der Population und deren Ver¨anderung anhand von H¨aufigkeitsver¨ teilungen beschreibt, beziehen sich die meisten Modelle der Okologie auf die Gr¨ oße und Verteilung interaktiver Populationen [67]. Bei Verallgemeinerungen des Populationsbegriffs — etwa in der Synergetik [36] [39], in der Organisationssoziologie [40] oder in Arbeiten zur Ausbreitung von technologischen Innovationen [50] — wird meist auf den Modellkontext der Populationsdynamik (Lotka-Volterra-Modelle) zur¨ uckgegriffen. Dies hat in bezug auf Theorien ¨ und Modelle des technologischen Wandels zur Kritik an einer Uberlast der Beschreibung intertechnologischer Wechselwirkungen und einer Vernachl¨assigung intratechnologischer Prozesse gef¨ uhrt [75] [72]. Diese Kritik steht im Zusammen¨ hang mit prinzipiellen Uberlegungen zur Relevanz biologischer Evolutionstheorien f¨ ur ¨ okonomische und technologische Prozesse [55] [56] [5]. Dabei wird insbesondere die Bedeutung eines population thinking hervorgehoben. Dieses sieht die typischen Merkmale als Abstraktionen von einem in der Realit¨at breit variierenden Verhalten an und r¨ uckt die Variabilit¨at ins Zentrum der Betrachtung. Im Unterschied dazu wird typological thinking mit der Fokussierung auf einige wenige Merkmale in der Unterscheidung von den Populationen verbunden. In diesem Abschnitt wollen wir an diese — in unterschiedlichen Kontexten — gef¨ uhrte Diskussion ankn¨ upfen. Wir werden dabei zwischen den traditionellen diskreten und den neuen kontinuierlichen Modellen unterscheiden und dabei von 4
Das folgende Zitat charakterisiert das Verh¨ altnis von Individuen und Populationen bez¨ uglich der Orte von Mutation und Selektion aus Sicht biologischer Evolutionstheorien: Mutationen sind die letzte Ursache von Variationen, und Gene stellen die ” Einheiten der Variation dar. Individuelle Organismen sind die Einheiten der Selektion. Doch Individuen entwickeln sich nicht evolution¨ ar — sie k¨ onnen nur wachsen, sich fortpflanzen und sterben. Evolution¨ are Ver¨ anderungen treten auf bei Gruppen von miteinander interagierenden Organismen. Arten sind die Einheiten der Evolution. Der Philosoph David Hull bringt dies auf die Kurzformel: Gene mutieren, Individuen unterliegen der Selektion, und Arten entwickeln sich evolution¨ ar. Dies zumindest ist die Auffassung des orthodoxen Darwinismus.“[34]
Evolution als Suche in komplexen Landschaften
453
einer typologischen und einer merkmalsorientierten Beschreibung von Populationen sprechen. Die Terminologie lehnt sich inhaltlich an die obigen Begriffspaare an.5 Das Problem typologisches versus merkmalsorientiertes Denken erscheint dann in der Gestalt der Abbildung der Population im Modell und der unterschiedlichen Ber¨ ucksichtigung ihrer Merkmalskontexte. Typologische Beschreibung – diskrete Modelle. Der klassische populationsdynamische Zugang behandelt die Einheiten der Evolution als klassifizierbar, voneinander unterscheidbar und damit abz¨ahlbar. Jeder Einheit (Sorte, Population) wird eine Nummer, d.h. eine nat¨ urliche Zahl i = 1, 2, 3, ... zugeordnet. Die Populationen bilden somit eine abz¨ahlbare Menge. Jede Einheit wird durch eine quantifizierbare, zeitabh¨ angige Gr¨oße — eine reelle Zahl xi (t) — charakterisiert. ¨ Das sind im Fall der evolution¨aren Okologie die Dichte bzw. Anzahl der Individuen konkurrierender Arten (etwa in R¨auber- und Beutesystemen), in der Theorie der molekularen Evolution chemische Konzentrationen verschiedener makromolekularer Sorten und im Fall von Innovationsdiffusion die Zahl der Nutzer einer Technologie. Die Synergetik bezeichnet diese quantitativen Gr¨oßen als Ordner, die die Populationen auf der Makroebene repr¨asentieren. Die Zeitabh¨angigkeit der Ordner wird durch eine mathematische Abbildung, in der Regel dargestellt durch gew¨ ohnliche Differentialgleichungen, definiert. Damit wird in einem gewissen Sinne von der Merkmalsstruktur der einzelnen Individuen in der Population und deren Ver¨ anderung abstrahiert und die Konkurrenz zwischen verschiedenen Populationen ins Zentrum gestellt. In der mathematischen Beschreibung f¨ uhrt dieser Ansatz zu Systemen nichtlinearer gew¨ohnlicher Differentialgleichungen6 , die wir im folgenden als diskrete Modelle bezeichnen. Im Fall einer diskreten Beschreibung ist die Grundgr¨ oße der Beschreibung die Anzahlvariable xi (t) welche der Sorte i zugeordnet ist. Die Eigenschaften, die die Populationen kennzeichnen, werden in einem gewissen Sinne als verborgene Parameter behandelt, mit Ausnahme der Eigenschaften, die als Systemparameter in die Systemdynamik eingehen (Abb. 1). Die Eigenschaften verbergen sich sozusagen hinter einer Nummer i, unter der der Eigenschaftskomplex als Beschreibung (in Worten oder auch in mathematischer Form) abgelegt ist. Die Berechtigung und der Nutzen einer solchen Reduktion liegen im hohen Abstraktionsgrad der Systemdynamik. Wie die Synergetik herausgearbeitet hat, wird die Variabilit¨at individuellen Verhaltens auf der Mikroebene durch Koordinationseffekte reduziert. Die Individuen erscheinen nur noch als anonymes Mitglied eines mit einer Nummer bezeichneten Kollektivs. Die Herausbildung einiger weniger Ordner ist ein kooperativer Effekt, eine gewisse Synchronisierung der individuellen Verhaltensm¨oglichkeiten. Letztendlich ist es die Existenz verschiedener Zeitskalen (d.h. langsam und schnell 5
6
Sie stellt aber keine direkte Entsprechung dar. Wir verwenden den Populationsbegriff in dem schon erw¨ ahnten verallgemeinerten Sinne als Abstraktion und in Verbindung mit formalen Modellen. Der mit formalen Operationalisierungen immer verbundene Grad an Reduktion f¨ uhrt auch bez¨ uglich der merkmalsorientierten Beschreibung dazu, daß nur bestimmte Aspekte von Variabilit¨ at abgebildet werden. oder Differenzengleichungen mit diskreter Zeit; wir werden uns im folgenden auf Modelle mit kontinuierlicher Zeitvariable beschr¨ anken.
454
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
Einheiten der Evolution = Populationen diskrete Beschreibung
kontinuierliche Beschreibung Merkmale
{q1, q2 , q3 ,..., qk ,...} Merkmalsvariable
"verborgene" Parameter q1 = q1(i )
r
q2 = q2 (i )
i
q = {q1, q2 ,..., qd }
... qk = qk (i ) ...
Beschreibung des Systemszustands r
{x ( t ),..., x ( t ),...}
x(q1 (t ),..., qk (t ),...) = x(q, t )
Menge von Besetzungszahlen
Besetzungsfunktion über dem Merkmalsraum
1
i
Abb. 1. Diskrete und kontinuierliche Beschreibung von Populationen
variierender Systemgr¨ oßen), die eine Entkopplung von mikroskopischer und makroskopischer Beschreibung m¨oglich macht. Mit dieser Art der Systembeschreibung l¨ aßt sich die Herausbildung makroskopischer Ordnungszust¨ande verstehen. ¨ Das Verst¨ andnis des Ubergangs zwischen verschiedenen solcher makroskopischen Ordnungszust¨ anden dagegen bleibt an die Ber¨ ucksichtigung individueller Variabilit¨ at gebunden. Merkmalsorientierte Beschreibung – Landschaften und kontinuierliche Modelle. Die Beschreibung der Population wird erweitert, wenn man auf die Ebene der individuellen Charakterisierung der Mitglieder der Population zur¨ uckkehrt. Eine mathematische Beschreibung erfordert jedoch auch in diesem Falle einen hohen Abstraktionsgrad. Lassen sich zeitlich Merkmale quantifizieren, die durch einen reellwertigen Satz von d Variablen q = q1 , q2 , ..., qd charakterisiert werden, dann kann ein abstrakter Merkmalsraum Q definiert werden. Die einzelnen Merkmale qi bilden die Koordinaten des Merkmalsraumes Q der die Dimension d hat. In der Regel liegen viele Merkmale vor, d.h. d ist eine große Zahl. Die Koordinaten q1 , ..., qd kennzeichnen die Auspr¨agung des jeweiligen Merkmals. Ein Punkt im Raum Q kennzeichnet somit den aktuellen Zustand eines Individuums durch seine Merkmalskonfiguration. Die Ver¨ande-
Evolution als Suche in komplexen Landschaften
455
rung realisierter Merkmale f¨ uhrt zu einer Bewegung der entsprechenden Punkte analog zur Bewegung von Teilchen anhand zeitlich variierender Koordinaten im Ortsraum. Die Bewegung dieser Punkte wird im kontinuierlichen Modell nicht individuell beschrieben, sondern u ¨ber eine Dichte-Funktion x(q, t). Die Dichtefunktion ist eine reellwertige nichtnegative Funktion u ¨ber dem Raum Q, die eine komplizierte Struktur mit vielen Maxima besitzt. Die meisten Stellen im QRaum sind unbesetzt, d.h. die Dichtefunktion ist dort Null und nur an wenigen g¨ unstigen“ Stellen liegen lokale Maxima der Dichtefunktion vor. Die Dichte” funktion x(q, t) tritt an die Stelle der diskreten Funktion xi (t). Populationen werden aus Gruppen von Elementen/Individuen mit ¨ahnlichen Eigenschaften gebildet, die r¨ aumlich einander benachbart sind. Eine Population entspricht geometrisch einem lokalen Maximum der Dichtefunktion. Die r¨aumliche Anordung der Populationen folgt aus der N¨ahe oder Distanz ihrer Merkmalsstruktur. Die Dynamik von Populationen folgt aus Ver¨anderungen auf der Merkmalsebene, die durch die Zeitabh¨ angigkeit der Funktion x(q, t) widergespiegelt wird. Man kann auch sagen, daß in einem solchen Merkmalsraum Merkmalskombinationen durch bestimmte Orte, Individuen durch realisierte oder besiedelte Orte und Populationen als lokale Anh¨ aufungen solcher besiedelten Orte charakterisiert sind. Die Systemdynamik ¨ außert sich in der Ver¨anderung der Gestalt der Verteilung u ¨ber den lokalen Maxima und durch die zeitlichen Verschiebungen der lokalen Maxima. Sie ist durch die Regeln der zeitlichen Ver¨anderung der Besiedlung definiert. Mathematisch wird die Systemdynamik in der Regel durch eine partielle Differentialgleichung f¨ ur die Funktion x(q, t) beschrieben. Um die Evolutionsdynamik zu quantifizieren, wollen wir annehmen, daß sich die Merkmale verschiedener Orte hinsichtlich zus¨atzlicher Kriterien unterscheiden. Damit f¨ uhren wir eine Bewertungsfunktion u ¨ber dem Merkmalsraum ein, deren topologische Struktur mit der Systemdynamik verkoppelt ist. Eine solche Bewertung — im einfachsten Fall durch eine skalare Funktion w(q, t) gegeben — ordnet jedem Raumpunkt einen Funktionswert zu, der ein Maß f¨ ur die lokale Fitness ist. Es ist auch vorstellbar, daß sich unter den Merkmalen eines auszeichnet und als Bewertung verstanden werden kann. Dies setzt voraus, daß zwischen den Merkmalen Abh¨angigkeiten bestehen derart, daß sich ein Merkmal als Funktion anderer ergibt. In empirischen Untersuchungen zum technologischen Wandel werden z.B. oft Leistungsparameter als Funktion von technischen Parametern dargestellt und auch als eine Art vergleichender Bewertungsmaßstab verstanden. Inwieweit eine solche Gr¨oße auch relevant f¨ ur die Systemdynamik ist, l¨aßt sich nur in einem konkreten Modellkontext beantworten. Die so eingef¨ uhrte Bewertungsfunktion bildet eine Landschaft u ¨ber dem abstrakten Merkmalsraum. Wir betrachten also im Grunde genommen zwei Landschaften: die der aktuellen Besiedlung und die der prinzipiellen Bewertung von Orten im Merkmalsraum. Im Kontext biologischer Evolution ist die Idee einer Fitnesslandschaft“ zuerst von Wright (1932) entwickelt worden. ” Wright beschreibt die Existenz verschiedener Maxima der Adaptivit¨at in einem hochdimensionalen Raum m¨oglicher Gen-Kombinationen. Das Problem f¨ ur die Evolution besteht dann nach Wright darin, wie die Spezies den Weg von niedrigeren zu h¨ oheren Berggipfeln finden und dabei die dazwischen
456
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
liegenden T¨ aler u ¨berwinden. Allgemein handelt es sich um das Problem, wie in einer vielgestaltigen Landschaft lokale Optima gefunden und wieder verlassen werden k¨ onnen. Die Vorstellung einer skalaren Fitnessfunktion ist mit Sicherheit zu einfach, um die komplexen Vorg¨ange biologischer Evolution abzubilden. Landschaftsmodelle aber bieten die M¨oglichkeit, grundlegende Eigenschaften des Evolutionsprozesses zu untersuchen. Gegenw¨artig finden sich Arbeiten zu Fitnesslandschaften“ im Kontext molekularer Evolution [77], ” der Komplexit¨ atsforschung [46], und evolution¨arer Algorithmen [7] [66]. Dem Problem der Definition und Bestimmung einer Fitnessfunktion wird dadurch Rechnung getragen, daß diese als Zufallslandschaft mit bestimmten statistischen Eigenschaften dargestellt wird. Damit lassen sich Verbindungen zur Physik ungeordneter Systeme [6] herstellen. Die verwendeten verschiedenen Modellzug¨ ange h¨ angen dabei auch von der Natur des Suchraums ab. W¨ahrend in einem kontinuierlichen Suchraum (Zustands- oder Merkmalsraum) immer eine Metrik und damit sowohl ein Abstand zwischen Punkten als auch eine Schrittweite des Such- bzw. Mutationsprozesses definiert ist, k¨onnen in diskreten Suchr¨aumen verschiedene Nachbarschaften definiert werden.7 Wir konzentrieren uns im folgenden auf kontinuierliche R¨aume. Der Vorteil dieses Zugangs besteht darin, individuelle Variabilit¨ at explizit zu beschreiben. Damit ist aber auch eine h¨ohere mathematische Komplexit¨ at verbunden, die analytische Aussagen erschwert. Dies wird in dem folgenden Abschnitt anhand der mathematisch-formalen Darstellung des typologischen und des merkmalsorientierten Zugangs diskutiert.
2.2
Mathematische Formalisierung diskreter und kontinuierlicher Beschreibungen – allgemeiner Modellrahmen
Die Unterschiede zwischen diskreter und kontinuierlicher Beschreibung finden ihren Ausdruck in der Formalisierung der Systemvariablen, der -parameter und der Systemdynamik. Sie f¨ uhren letztendlich zu unterschiedlichen Klassen von mathematischen Modellen. Wir fassen nun die bereits kurz angedeuteten Konzepte zusammen und verallgemeinern diese auf der Basis formaler mathematischer Modelle: In der diskreten Beschreibung sind die Populationen durch die Zahl bzw. H¨ aufigkeit xi von Elementen eines bestimmten Typs i charakterisiert. Der Zustand des Systems zu einem bestimmten Zeitpunkt t ist folglich durch die Werte der Besetzungszahlen xi aller im System befindlichen Populationen zum Zeitpunkt t bestimmt. In der kontinuierlichen Beschreibung wird jedem Punkt im Merkmalsraum Q (d.h. jedem Vektor q = (q1 , q2 , . . . , qd ) von Merkmalsvariaaufigkeit) zugeordnet, die die Realisierung bestimmblen qk eine Zahl (bzw. H¨ ter Parameterkombinationen kennzeichnet (s. Abb. 1). Damit wird eine Dichtefunktion x(q, t) u ur die Beschreibung der ¨ber dem Merkmalsraum definiert. F¨ Systemdynamik f¨ uhren wir neben der Unterscheidung zwischen diskreten und 7
Zum Zusammenhang zwischen Nachbarschaftsstruktur, Mutationsoperator und Fitnesslandschaft siehe [66].
Evolution als Suche in komplexen Landschaften
deterministisch
diskrete Modelle
d r xi = fi (x1,... xi ,... xn;u) dt r u = {u1,u2,..., up} Systemparameter nichtlineare gewöhnliche Differentialgleichungssysteme z.B. Lotka-Volterra
stochastisch
d r x = f (x ,... x ,...x ;u) + Fi (t ) dt i i 1 i n Fi ...stochastische Quelle
457
kontinuierliche Modelle
r
r
∂ t x(q, t ) = f (x(q, t ),U ) r
r
u1(q),..., ui (q), U = r r uj (q; x(q, t)),... Parameterfunktionen oder -funktionale
partielle Differentialgleichung z.B. Reaktions-Diffusions-Glg.
funktionale Fokker-Planck-Gleichung
Langevin-Gleichung oder Fokker-Planck Gleichung
Ni =12 , ,...
xi = Ni / N
P(N1,...Ni , Nj ,...)
funktionale Master-Gleichung
∂t P =WP Master-Gleichung
Abb. 2. Formale Modelle der diskreten und kontinuierlichen Beschreibung von Populationen
kontinuierlichen Modellen im obigen Sinne als weiteres Differenzierungsmerkmal die deterministische und die stochastische Dynamik ein und erhalten damit zun¨ achst vier Modelltypen (Abb. 2). Je nachdem, ob die relevante Systemvariable x f¨ ur die Besetzung der Populationen kontinuierliche oder nur diskrete Werte annehmen kann, unterscheidet man auf der Ebene der stochastischen Beschreibung nochmals zwischen zwei verschiedenen Ans¨atzen. Im Fall diskreter Werte der Besetzung geht man zu ganzzahligen Besetzungszahlen Ni u ¨ber und benutzt den Mastergleichungsformalismus. Mit Hilfe dieses Formalismus wird individuelles Verhalten auf der Mikroebene spezifisch mit dem Trendverhalten des Systems auf der Makroebene verkn¨ upft [91]. Das stochastische Bild, das nur Wahrscheinlichkeitsaussagen u ¨ber die individuellen Aktionen macht, ist besonders geeignet f¨ ur die Beschreibung von Evolutionsprozessen, aber mathematisch vielfach zu kompliziert. In fr¨ uheren Arbeiten haben die Autoren die Relevanz solcher — im doppelten Sinne diskreter — stochastischer Modelle insbesondere zur Beschreibung von Neuerungsprozessen herausgearbeitet [9] [12]. Im folgenden beschr¨ anken wir uns weitgehend auf die einfacheren deterministischen Beschreibungen. Das sich in den zeitlichen Ver¨anderungen der Systemvariablen xi (t) und x(q, t) spiegelnde Systemverhalten wird durch die Funktionen fi bzw. f be-
458
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
stimmt. Diese h¨ angen wesentlich von der Konfiguration verschiedener Systemparameter Ui bzw. u(q) ab. Die Systemparameter beschreiben neben der populations- bzw. merkmalsspezifischen Auspr¨agung von Wachstumsprozessen auch Interaktionen zwischen Populationen bzw. realisierten Merkmalskombina¨ tionen. Uber Zugangs- und Abgangsprozesse von Elementen in und aus dem im Prinzip offenen System definieren Systemparameter die Art der SystemUmwelt-Kopplung. Durch eine Zeitabh¨angigkeit der Systemparameter k¨onnen sowohl exogene Faktoren der Systementwicklung (im Sinne getriebener Systeme) als auch Aspekte der Individualentwicklung abgebildet werden. Sofern die Systemparameter populations- bzw. merkmalsspezifisch sind (d.h. von i bzw. q abh¨ angen), k¨ onnen sie auch mit einer Bewertung der Population bzw. realisierter Merkmalskombinationen verbunden werden. Diese Bewertung kann als durch die Umwelt determiniert verstanden werden. Betrachten wir als Beispiel, wie in kontinuierlichen Modellen die Bewertungsfunktion mit den Reproduktionseigenschaften bestimmter Merkmalskombinationen verbunden wird. In dem folgenden Ansatz einer allgemeinen Evolutionsdynamik [27] [19] [28]: ∂t x(q, t) =
x(q, t) w (q; {x}) {z } |
Reproduktion bzw. Selektion
+
M x(q, t) | {z }
(1)
Suche bzw. M utation
fungiert die Gr¨ oße w(q; {x}) als verallgemeinerte Fitnessfunktion. Sie beschreibt den Selektionsaspekt der evolution¨aren Suchdynamik. H¨angt w nur von den Merkmalen q ab, so handelt es sich um eine station¨are Landschaft. Im Fall eines Fitnessfunktionals h¨ angt die Bewertung eines Ortes q auch von der Besiedlung x(q, t) im gesamten Merkmalsraum ab. Eine Ver¨anderung dieser Besiedlung f¨ uhrt auch zu einer Ver¨anderung der Bewertung, und eine Ko-Evolution zwischen Fitnessfunktion und Populationsdichte liegt vor. Ein Beispiel f¨ ur eine solche Kopplung stellt der folgende Lotka-Volterra-Ansatz dar: Z (2) w (q; x(q, t)) = a(q) + b (q, q 0 ) x (q 0 , t) dq 0 . In diesem Fall setzt sich die Bewertung einer Merkmalskombination aus zwei Anteilen zusammen. Der erste Term in 2, a(q), stellt eine Bewertung der reproduktiven Aspekte der Merkmale dar. Der zweite Term beschreibt die Wechselwirkungen der Merkmale, d.h. den — u ¨ber das ganze Raumgebiet integrierten und durch die Koeffizienten b(q, q 0 ) gewichteten — Einfluß anderer besiedelter Orte. In diesem Fall spricht man von einer adaptiven Landschaft [14] [15]. Die evolution¨ are Dynamik wird dann als ein Suchprozeß in einer sich st¨andig ver¨ andernden adaptiven Fitnesslandschaft verstanden. Diese Art der Modellbeschreibung scheint von spezifischer Relevanz f¨ ur sozio-technologische Systeme zu sein. In diesen bestimmen nichtlineare R¨ uckkopplungen zwischen dem Handeln der Akteure auf der individuellen Ebene und Koordinations- und Bewertungsprozessen auf makroskopischer Ebene wesentlich die Systemdynamik. Im Fall der deterministischen, diskreten Beschreibung definieren die Differentialgleichungen, d.h. die Funktionen fi zusammen mit der Konfiguration der Parameter und den Anfangsbedingungen die Verhaltensm¨oglichkeiten des Systems. Innovationen k¨ onnen nur u ¨ber das Setzen neuer Anfangsbedingungen in das System
Evolution als Suche in komplexen Landschaften
459
Abb. 3. Zusammenhang von diskreter und kontinuierlicher Beschreibung
eingef¨ uhrt werden. Das kann leicht in Simulationen realisiert werden und auf diese Weise sind dann Innovationen auch in ihrer Konkurrenz- und Durchsetzungsphase beschreibbar. Hat das System einmal einen station¨aren Zustand erreicht, so entspricht jede weitere Innovation einer Destabilisierung des Systems in Form einer St¨ orung (einer neuen Anfangsbedingung). Das ist mit dem Auftreten eines neuen Typs, einer neuen Sorte und damit auch einer neuen Population verbunden. Damit ¨ andert sich aber auch die Taxonomie des Systems [3]. Dieses mathematische Problem kann im Formalismus der unterbesetzten Systeme (underoccupied systems) beschrieben werden.8 Eine andere M¨oglichkeit sind die bereits erw¨ ahnten Simulationsans¨atze.9 In der kontinuierlichen Beschreibung definiert die Systemdynamik (1) eine zeitliche Variation der global definierten Besetzungsfunktion x(q, t). Die Fitnessfunktion ist eine in der Regel unbekannte Landschaft die modellm¨ assig als zuf¨allige Funktion mit bestimmten statistischen Eigenschaften beschrieben werden kann [22]. Die sich herausbildenden Zentren der Verteilungsfunktion x(q, t) folgen teilweise den Maxima der Bewertungsfunktion. Die Dynamik h¨ angt sehr stark [28] von den Annahmen u ¨ber die Struktur der Fitnessfunktion ab. Einmal gebildet, kann man die (Lokalisations-)Zentren der Populationswolken als Analogon zu den diskreten Typen behandeln (Abb. 3). Dar¨ uber hinaus aber bedarf die Beschreibung des Verschmelzens von Populationen, der Differenzierung in verschiedene Populationen und von Konzentrationsoder Expansionsprozessen keiner taxonomischen Erweiterung. Vielmehr sind alle diese Prozesse gleichermaßen Aspekte der Systemdynamik. Lokale Maxima entsprechen Zwischenschritten der Entwicklung. Die Vorteile dieser Beschreibung sind mit einer wachsenden mathematischen Komplexit¨at verbunden. Welche Beschreibung man w¨ ahlt, h¨ angt vom Fokus der Analyse des konkreten Systems und der mathematischen Behandelbarkeit ab. Im folgenden Abschnitt wollen wir die 8
9
Dabei wird angenommen, daß das System neben den jeweils aktuell vertretenen Populationen noch aus einer Vielzahl potentieller aber noch nicht realisierter Varianten besteht [20]. Dabei werden zu stochastisch verteilten Zeiten neue Populationen mit neuen zuf¨ allig ausgew¨ ahlten Eigenschaften in das System eingef¨ uhrt. Das Resultat solcher Innovationsfolgen besteht aus einer Abl¨ osung von Strukturen in Konkurrenz- und Selektionsprozessen (Ebeling und Feistel, 1982, S. 273).
460
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
Aussagekraft der hier diskutierten Modellbeschreibungen am Beispiel von Prozessen des technologischen Wandels demonstrieren.
3
Innovationsdynamik von Technologien – diskrete und kontinuierliche Beschreibung
3.1
Technologischer Wandel – innovative Suche in adaptiven Landschaften
In verschiedenen Theorien des technologischen Wandels wird konzeptionell und z.T. auch schon modelltheoretisch auf abstrakte r¨aumliche Vorstellungen zur¨ uckgegriffen. Beispiele daf¨ ur stellen die folgenden Begriffsbildungen dar: natural trajectories of technological change [58], dominant design and technological life cycles [86] [2], technological trajectories [17], und technological guideposts and innovation avenues [68] [69].10 Das von Metcalfe und Saviotti entwickelte Konzept einer Charakterisierung von Produkt-Technologien durch ein System von Outputindikatoren erm¨ oglicht eine empirisch verifizierbare Darstellung eines solchen Raumes.11 Die quantifizierbaren technischen X1 , X2 , X3 , . . . ,Xl und nutzerorientierten Y1 , Y2 , Y3 , . . . ,Ym (service) Parameter einer (Produkt-)Technologie bilden die Achsen eines d-dimensionalen technologischen Merkmalsraums (d = l+m). Ein Punkt in diesem Raum entspricht einer bestimmten Realisierung von technologischen Merkmalen in einem Produkt und wird durch den Vektor q = (q1 , q2 , . . . , qd ) = (X1 , X2 , . . . , Xl , Y1 , Y2 , . . . , Ym ) beschrieben. Im Raum benachbarte Punkte bzw. Punktwolken bilden dann die technologischen Populationen. Diese werden als eingegrenzte besiedelte (realisierte) Merkmalsbereiche verstanden. Sofern sich f¨ ur diesen technologischen Raum eine Metrik definieren l¨ aßt, ist auch Ausdehnung und Distanz von Populationen definiert. In einem solchen technologischen Merkmalsraum lassen sich dann Prozesse der Drift von Populationen oder der Spezialisierung abbilden12 (s. Abb. 4). Technologische Merkmalsvariablen (bzw. die entsprechenden Indikatoren) k¨onnen sowohl diskrete als auch kontinuierliche Werte annehmen. Wir konzentrieren uns hier auf 10
11 12
Als Beispiel f¨ ur entsprechende Modellierungsans¨ atze sei auf die fr¨ uhen Arbeiten von Nelson und Winter verwiesen, die den technologischen Wandel als random walk von Firmen“ zwischen verschiedenen Techniken in einem Raum der Inputkoeffizienten ” (al , ak ) darstellen [59]. Ein weiterer fr¨ uher Ansatz in dieser Richtung wurde von [57] entwickelt. Diese Autoren schlagen vor, technologische Prozesse durch N dimensionslose Konstanten zu beschreiben. Technologische Evolution wird dann als random walk von industriellen Forschungslaboratorien in diesem Raum analog zum random walk auf einem Gitter modelliert. Siehe f¨ ur den theoretischen Ansatz [74], f¨ ur empirische Untersuchungen [73] [71] und f¨ ur die Verkn¨ upfung des Raumkonzeptes mit einem diskreten Modellansatz [76]. In der Arbeit von Saviotti [71] wurden Daten des britischen Automarktes analysiert. Dabei wurden verschiedene technische und service Parameter ausgew¨ ahlt. In der Abb. 4 ist die zeitliche Entwicklung von Automobilen in Abh¨ angigkeit von zwei Merkmalsgruppen technischer Parameter dargestellt, die sich aus Korrelations- und ¨ principal component-Analysen ergaben. Ahnliche Driftbewegungen lassen sich auch in service-Dimensionen des Merkmalsraums abbilden.
Evolution als Suche in komplexen Landschaften
461
Abb. 4. Merkmalsver¨ anderung von Automobilen – Wanderung der Population (nach [71])
kontinuierliche Merkmalsr¨ aume. Entsprechend dem im vorherigen Abschnitt vorgestellten Formalismus wird in der kontinuierlichen Modellbeschreibung technologischer Wandel durch die zeitliche Ver¨anderung der Besetzungsdichte x(q, t) beschrieben. Je nachdem, welche Gr¨oße als Repr¨asentant der technologischen Population gew¨ ahlt wird, ver¨andert sich auch der Fokus der beschriebenen Selektionsprozesse. Betrachtet man zum Beispiel die Menge verkaufter Produkte, dann bezieht sich der Selektionsprozeß folglich auf den Markt. Die Anzahl von Produkten ist dann durch x(q, t)dq gegeben. An einem bestimmten Punkt q des technologischen Merkmalsraums kann diese anwachsen oder abnehmen. Diese Dynamik wird durch die Evolutionsgleichung (siehe (1)) beschrieben [24]. Die Gr¨ oße w beschreibt, mit welcher Rate (oder Geschwindigkeit) die H¨aufigkeit von Produkten mit einer bestimmten Merkmalskonfiguration in dem betrachteten System zu — oder abnimmt. Strukturiert sich die Besetzungsdichte derart, daß von einzelnen Populationen — konzentriert um relative Maxima der Bewertungsfunktion w — gesprochen werden kann, so bilden die Bewegungen der Zentren dieser Populationen technologische Trajektorien. Im Fall eines Bewertungsfunktionals (vgl. (2)) beschreibt w den Einfluß der bereits existierenden Produkte und ihrer Marktanteile im gesamten Merkmalsraum auf aktuelle Prozesse der Erh¨ ohung oder Verminderung des Verkaufs eines bestimmten Produktes am Merkmalsort q. Der Ansatz einer solchen adaptiven Landschaft kann einmal dazu dienen, die Beeinflussung zwischen Produktvarianten innerhalb einer Populationswolke im Sinne innertechnologischer Wechselwirkungen zu beschreiben. Er kann aber auch dazu verwendet werden, Wechselwirkungen zwischen Produkten verschiedener Produktarten zu erfassen (intratechnologische Wechselwirkungen). Dies h¨ angt im wesentlichen von der Definition des Koeffizienten b(q, q 0 ) ab. Im Fall innertechnologischer Wechselwirkungen wird er mit wach-
462
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
sendem Abstand zwischen q und q 0 stark abfallen (lokale Kopplung). Die Gr¨oße M in (2) steht allgemein f¨ ur einen Mutationsoperator. Der Elementarprozeß der Innovation auf der Mikroebene liegt in der Schaffung von Produkten mit technologischen Merkmalen, die bisher nicht realisiert wurden. Dieser Prozeß der Besiedlung (bzw. Besetzung) bisher unbesiedelter Bereiche im Merkmalsraum l¨ aßt sich als innovativer Suchprozeß (Forschung und Entwicklung) auf der Mikroebene verstehen. Ob diese elementaren Innovationsakte auch zu einer glouhren, l¨aßt sich nicht von vornherein entscheiden. balen Systemver¨ anderung13 f¨ Jede Ver¨ anderung von technologischen Merkmalen von Produkten f¨ uhrt zu einer Ver¨ anderung des besetzten Merkmalsraumes und kann infolge von Wachstumsund Selektionsprozessen auch zu einer Ver¨anderung der Gestalt der Besetzungsfunktion f¨ uhren. Beschreibt man die elementaren Suchprozesse innerhalb und am Rande der um bestimmte Zentren konzentrierten Populationen in einer ersten N¨ aherung als diffusionsartig: M x(q, t) = D∆x(q, t) ,
(3)
so werden zwei Eigenschaften deutlich. Zum einen erzeugt jede Ausdehnung des besiedelten Raumes zun¨ achst ein Anwachsen der Produktvielfalt (Diversifizierung) innerhalb der technologischen Population, zum anderen bildet dieser Prozeß die Grundlage f¨ ur Re-Konzentrationsprozesse in neuen Bereichen technologischer Parameter. Dabei geht die Erkundung neuer, konkurrenzf¨ahiger Produktfelder von den R¨ andern der bestehenden Populationen mittels eines undifferenzierten Suchprozesses aus. Technologischer Wandel wird in der quantitativen Ver¨anderung einzelner technologischer Parameter, in kombinierten Ver¨anderungen bestehender Merkmale und durch das Auftreten neuer Merkmale sichtbar. In der Literatur wird innerhalb des Merkmalsraumkonzepts das Auftreten solcher neuer Merkmale (Dimensionen) als radikale Innovation (radical innovations) bezeichnet, w¨ahrend Ver¨ anderungen in bestehenden Parametern den graduellen Wandlungsprozessen (incremental innovations) zugeordnet werden. Der hier vorgeschlagene Modellrahmen legt noch eine andere Unterscheidung zwischen radical und incremental innovations nahe. Diese ergibt sich aus der Sprungweite der jeweiligen Ver¨anderungen. Der Konzentrationsprozeß einer technologischen Population um ein bestimmtes Lokalisationszentrum, das einem relativen Maximum in der Fitnessoder Bewertungslandschaft entspricht, kann als incremental change verstanden werden. Der Wechsel zwischen verschiedenen Lokalisationszentren steht f¨ ur einen Neuerungsprozeß der gesamten Population. Diesen Wechsel zwischen Lokalisationszentren kann man dann als radical change bezeichnen. F¨ ur Fitnesslandschaften mit bestimmten Eigenschaften l¨aßt sich zeigen, daß die Spr¨ unge zwischen den Maxima der Bewertungslandschaft trotz der kontinuierlichen Variierbarkeit der Merkmale nur mit bestimmten Schrittweiten auftreten. Es gibt ein Optimum der ¨ Ubergangszeit f¨ ur eine bestimmte diskrete Schrittweite. Mit anderen Worten: be¨ stimmte Merkmalsver¨ anderungen erfordern eine minimale Ubergangszeit. Bei zu 13
etwa im Sinne des Wechsels von Lokalisationszentren zwischen Maxima der Bewertungsfunktion
Evolution als Suche in komplexen Landschaften
463
radical change q2
δq
δq ≈
τ
[lnτ ]1/2
incremental improvements
q1
Abb. 5. Technologische Trajektorie als Folge gradueller und radikaler Ver¨ anderungen
kleinen Ver¨ anderungen w¨ achst die Dauer des Selektionsprozesses zwischen den sich nur wenig unterscheidenden Produktgruppen innerhalb der technologischen Population. Merkmalsver¨ anderungen mit einer großen Spannbreite erscheinen dagegen eher auf Grund der lokalen Eigenschaft des Suchprozesses selbst als seltene Ereignisse (Abb. 5). Die mittlere Geschwindigkeit des Vorr¨ uckens von Maxima in der Bewertungslandschaft kann zu einer Evolutionsrate in Verbindung gesetzt werden [22] [24]. Das Auftreten eines neuen technologischen Merkmals entspricht einer Erweiterung der Dimensionalit¨ at der besiedelten Bereiche im technologischen Merkmalsraum. Andererseits haben empirische Untersuchungen belegt, daß zwischen technologischen Parametern Abh¨angigkeiten bestehen. Oft k¨onnen technologische Wandlungsprozesse durch wenige, relevante Merkmale oder Merkmalskombinationen abgebildet werden, d.h. die Bewegung entlang einer technologischen Trajektorie erfolgt auf einer Hyperfl¨ache in dem multidimensionalen Merkmalsraum. Das Auftreten neuer Merkmale muß dann nicht zwangsl¨aufig zu einer ¨ zahlenm¨ aßigen Erweiterung der Merkmalsbeschreibung f¨ uhren. Der Ubergang ¨ in eine neue Dimension kann als Anderung der lokalen Einbettung der Hyperfl¨ ache in den gesamten Raum gedacht werden. Dann werden andere Merkmale f¨ ur den Entwicklungsprozeß relevant. Auf einer solchen Hyperfl¨ache lassen sich Ver¨ anderungen unter einem gemeinsamen Bezugspunkt verstehen. Dies schließt auch Abfolgen qualitativer Ver¨anderungen ein, sofern die Hyperfl¨ache sich in immer neue Richtungen ausdehnt. Die Abfolge von Innovationen und eine damit m¨ oglicherweise verbundene, mehr oder weniger stete Verbesserung einzelner Merkmale soll im folgenden Abschnitt im Rahmen von Modellen mit Individualentwicklung betrachtet werden. 3.2
Innovationsfolgen und Individualentwicklung
Der Wechsel von Phasen relativer Kontinuit¨at mit sprunghaftem Verhalten ist ein allgemeines Charakteristikum von Neuerungsprozessen — nicht nur im Bereich des technologischen Wandels. Im oben dargestellten Modell ergibt sich Evo-
464
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
lution als Einh¨ ullende einer Folge von sprunghaften Prozessen, die dem H¨ upfen der Dichtemaxima von Bewertungsmaximum zu Bewertungsmaximum entspre¨ chen. Durch die Uberlagerung vieler Spr¨ unge kommt es zu einer relativen Kontinuit¨ at der Wanderung im Merkmalsraum. Diskrete und kontinuierliche Aspekte stehen in dialektischem Verh¨altnis, sie erg¨anzen sich und schließen sich nicht aus. Dieses Wechselverh¨ altnis l¨aßt sich in vielen sozialen Systemen beobachten. Auch die in der Kuhnschen Theorie aus wissenschaftshistorischer Sicht eingef¨ uhrte Unterscheidung zwischen Phasen normaler Wissenschaft und wissenschaftlichen Revolutionen nimmt darauf Bezug [48]. Ein weiteres Beispiel stellen die Untersuchungen von Marchetti [52] zu Wellen oder Zyklen in der Abfolge wich¨ tiger Erfindungen, der daraus resultierenden Basisinnovationen in der Okonomie und ihrer Durchsetzung dar. Diese scheinen sich jeweils aus ann¨ahernd logistischen Verl¨ aufen zusammenzusetzen (vgl. auch [90]). F¨ ur den technologischen Wandel stellen die zwei verschiedenen Muster von Innovation (incremental und radical) Extremtypen dar. Auf der einen Seite steht ein starres effizientes System zur Erzeugung eines standardisierten Produkts. Auf der anderen Seite ist die radikale Innovation mit stark ver¨anderlichen und sich im Fluß befindlichen Produktcharakteristika verbunden. Die von diskontinuierlichen Wechseln oder Spr¨ ungen unterbrochene technologische Evolution l¨aß sich als eine Folge von Selbstorganisationsschritten verstehen [80] [85]. Im vorangegangenen Abschnitt haben wir diskutiert, wie sich diese verschiedenen Phasen aus den dynamischen Eigenschaften eines Suchprozesses in einem kontinuierlichen Merkmalsraum ergeben. Im weiteren werden wir gewissermaßen dem Verlauf einer einzelnen spezifischen Trajektorie in diesem Raum folgen. Wir suchen dabei nach einer Richtung im Merkmalsraum auf die sich verschiedene einzelne Substitutionsprozesse beziehen lassen. Dieses ausgezeichnete Merkmal (bzw. Merkmalskombination) wird isoliert betrachtet.14 Betrachtet wird nur die Ver¨anderung des Merkmals in der Zeit. L¨ aßt sich ein solcher gemeinsamer Bezugsparameter (im Sinne eines allgemeinen Qualit¨ ats- und Effektivit¨atsmaßstabes) finden, so k¨onnen die Entwicklungsphasen auch empirisch sichtbar gemacht werden und f¨ uhren zu einer bekannten Art der Darstellung technischen Wandels (Abb. 6). Ankn¨ upfend an das Landschaftsbild kann man die Einh¨ ullende unterschiedlicher Entwicklungsstufen als Kammlinie eines Weges beschreiben, der von verschiedenen Populationen15 in einer topologisch komplizierten Landschaft u ¨ber verschiedene Zwischenmaxima zur immer st¨arkeren Auspr¨agung eines Merkmals f¨ uhrt. Ausgehend von einer vereinfachenden Beschreibung l¨aßt sich eine solche Einh¨ ullende als Resultat eines Prozesses mit folgenden Eigenschaften beschreiben:16 1. Individualentwicklung Das Durchlaufen eines Lebenszyklus“ kann durch sogenannte altersab” h¨ angige Populationsdynamiken beschrieben werden. In diesem Fall h¨angen 14 15 16
Das heißt, im kontinuierlichen Bild wird von der begleitenden Ver¨ anderung anderer ¨ Merkmale und im diskreten Bild von den Uberg¨ angen zu anderen Typen abstrahiert. die teilweise gleichzeitig existieren und teilweise einander abl¨ osen F¨ ur eine detaillierte Darstellung des entsprechenden Modells und des mathematischen Formalismus sei auf [23] verwiesen.
465
Energie des Beschleunigers in Mev
Evolution als Suche in komplexen Landschaften
Abb. 6. Das Anwachsen der Energie in Teilchenbeschleunigern (nach [8])
die Systemparameter ui von dem Alter“ τ der Individuen ab [22], d.h. ” Selbstreproduktion, Sterben, aber auch Innovations- und Imitationsverhalten ver¨ andern sich mit dem Alter. Das Auftreten altersabh¨angiger Effekte spielt f¨ ur die technologische und ¨okonomische Entwicklung nachgewiesenermaßen eine wichtige Rolle: The product life-cycle model is ” the dominant model through which the dependency relationships between industries, technologies, and economic growth are explained [87]“ [32]. Der Lebenszyklus eines bestimmten Produkts ist danach durch drei Phasen charakterisiert: die Innovations- und Entwicklungsphase, die Reifungs- oder Wachstumsphase und der ausgereifte Produktzustand. 2. Qualit¨ atsver¨ anderung w¨ahrend eines Lebenszyklus W¨ ahrend eines individuellen17 Lebenszyklus ver¨andert sich ein populations¨ ubergreifendes Qualit¨ats- bzw. Bewertungsmerkmal. Dieses Merkmal Q soll nicht ausschließlich im Sinne eines verbesserten oder neuen technischen Leistungsparameters gesehen werden. Graduelle Innovationen k¨onnen neue Wettbewerbsbedingungen schaffen und zu einer Umkehrung industrieller Reifungsprozesse f¨ uhren. Die durch die Innovation ausgel¨osten Umgestaltungen der Umgebung k¨ onnen dabei wesentlicher sein als der produktbezogene Neuerungsgrad [1]. Wir beschr¨anken uns im folgenden auf ein Anwachsen des Merkmals. Die Gr¨ oße Q zum Zeitpunkt t = 0 soll den state of the art beschreiben, den eine neu ins System kommende Population erf¨ahrt und von dem aus sie ihre eigene individuelle Entwicklung startet. In den verschiedenen Phasen dieser Entwicklung wird sich das Qualit¨atsmerkmal unter17
Der Begriff individuell bezieht sich nunmehr auf die Population als Ganzes.
466
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
schiedlich stark ver¨ andern, st¨arker in den fr¨ uhen Lebensphasen und weniger im Alter. Dies kann durch eine einfache S¨attigungsdynamik f¨ ur den individuell erworbenen, f¨ ur das System dazugewonnenen Anteil q(τ ) beschrieben werden [23]: ∂ q(τ ) = a + bq − cq 2 . (4) ∂τ Die L¨ osung liefert eine S-Kurve. Die Ver¨anderung der Gesamtgr¨oße Q(τ ) in einem individuellen Zyklus erh¨alt man dann als Summe eines festen u ¨bernommenen Anteils Q(0) und des dynamischen Zuwachses q(τ ). 3. Qualit¨ atsver¨ anderung in Generationen Die Gr¨ oße Q wird an nachfolgende Populationen weitergegeben. Zufallsverteilt treten immer neue Populationen in den Konkurrenzkampf ein. Diese nehmen den state of the art auf, unterliegen selbst einem Alterungsprozeß und stehen dabei in st¨andigem Wettbwerb mit bereits vorhandenen Populationen. In ihrer individuellen Entwicklung ver¨andern sich nicht nur ihre dynamischen Eigenschaften, sondern die Populationen tragen auch zu einer Ver¨ anderung des state of the art bei. In einem ersten Schritt kann man das Auftreten neuer Populationen durch eine Poisson-Verteilung der Eintrittsereignisse beschreiben. In den Intervallen zwischen diesen Ereignissen l¨aßt sich die Konkurrenz zwischen den Populationen etwa durch eine Fisher-EigenDynamik modellieren. Im Resultat der obigen drei Prozesse entsteht die folgende Merkmalsdynamik: Jeder der Wachstums- und Wettbewerbsprozesse in den Intervallen zwischen den Eintritten neuer Populationen ist mit einem eher geringen Anwachsen des ausgezeichneten Merkmals Q verbunden. Dagegen beginnt jeder Mutationsakt, der zu einer Innovation im Sinne einer erfolgreichen Durchsetzung f¨ uhrt, eine neue Phase des Wachstums dieses Merkmals zu einem noch h¨oheren Wert. Auch wenn die unter Punkt 1. – 3. skizzierten Modellannahmen sehr einfach sind, liefern sie doch ein theoretisches Erkl¨ arungmodell f¨ ur das Auftreten von charakteristischen Einh¨ ullenden.
4
Zusammenfassung und Ausblick
Wir verstehen Evolution als Folge von Selbstorganisationsprozessen, wobei Innovationen eine zentrale Rolle spielen. Die Universalit¨atseigenschaften nichtlinearer Ph¨ anomene hat dazu gef¨ uhrt, den sie beschreibenden wissenschaftlichen Theorien eine Br¨ uckenschlagsfunktion zwischen Natur- und Gesellschaftsverst¨andnis zuzuschreiben [51]. Es ist daher legitim zu pr¨ ufen, inwieweit das in modernen naturwissenschaftlichen Theorien entwickelte Instrumentarium zur Beschreibung von Entwicklungsprozessen auch in anderen Wissensbereichen angewandt werden kann. Seit der Herausbildung der klassischen Theorien der Selbstorganisation18 gibt es einen Transfer von Konzepten und Methoden aus den Naturwis18
Sowohl in der physikalischen Forschungstradition (vgl. [25] [36] [39] [61] [62] [18]) als auch in der kybernetischen Forschungstradition (vgl. [41] [53] [29] [30])
Evolution als Suche in komplexen Landschaften
467
senschaften in sozialwissenschaftliche Anwendungsfelder (vgl. [92] [35] [49] und fr¨ uhe Arbeiten in [36] [38] [64]). Dieser hat neben der Erweiterung des methodischen Instrumentariums auch zur Herausbildung neuer Problemfelder in den jeweiligen Disziplinen beigetragen. Als Beispiel sei hier nur auf das Gebiet der ¨ evolutorischen Okonomik (evolutionary economics) (vgl. [94] [79]) und die Forschungsrichtung artificial societies [16] [26] [42] [33] verwiesen. Die vorliegende Arbeit ordnet sich in diesen Kontext des Transfers von Konzepten und Modellen ein. Aus der Vielfalt mathematischer Modelle werden besonders solche behandelt, die mit dem Konzept von Landschaften in hochdimensionalen R¨ aumen verkn¨ upft sind. Evolution wird als kollektive Suche wechselwirkender Populationen nach lokal besseren L¨osungen in einer unbekannten Landschaft beschrieben. Evolutionsdynamiken in diesem Landschaftsbild werden unter dem Blickpunkt verschiedener populationsorientierter Konzept- und Modellans¨ atze untersucht. Wir haben dabei zwei Modellbeschreibungen gegen¨ ubergestellt, die den Merkmalskontext von Populationen auf unterschiedliche Weise behandeln. Diskrete und kontinuierliche Modelle sind in gewisser Weise ¨aquivalent, sie erm¨ oglichen unterschiedliche Perspektiven der Systembeschreibung, wir haben hier aber insbesondere die Vorz¨ uge der neueren kontinuierlichen Beschreibung herausgearbeitet. Faßt man Innovationen, d.h. die Entstehung von Neuem als Erh¨ ohung der Variabilit¨at im System auf, so unterscheiden sich beide Ans¨atze wesentlich in der Art der Beschreibung. Im diskreten Fall erscheint Variabilit¨at als Sprung. Im kontinuierlichen Ansatz wird dagegen die Variabilit¨at als kontinuierliche Deformation gesehen. Die letztendliche Auswahl des Modells h¨angt dann von dem gew¨ unschten Fokus auf ein konkretes Problem ab, wir haben hier die relativen Vorz¨ uge der kontinuierlichen Modellierung besonders hervorgehoben. Im zweiten Teil der Arbeit wird die Anwendbarkeit verschiedener Modellzug¨ ange auf Prozesse des technologischen Wandels untersucht. Diskrete Modelle sind schon fr¨ uher erfolgreich zur Beschreibung von Wettbewerbs- und Substitutionsprozessen angewendet worden (siehe z.B. [11] [45]). Entsprechend dem damit verbundenen typologischen Vorgehen, bilden Technologien, die sich in Produkttypen oder verschiedenen Herstellungsprozessen spiegeln, die (technologischen) Populationen. Die technischen, nutzerorientierten und ¨okonomischen Aspekte der einzelnen Technologie werden dagegen meist nicht explizit behandelt. Sie gehen mehr oder weniger integriert in verschiedene Systemparameter, wie Wachstumsraten, Diffusionskoeffizienten bzw. Imitationsraten ein. Mit einem solchen Zugang l¨ aßt sich die Wechselwirkung zwischen konkurrierenden Technologien beschreiben. Andererseits aber entzieht sich die Entwicklung innerhalb einer technologischen Population weitgehend der Betrachtung. Demgegen¨ uber wurde in dieser Arbeit auch ein merkmalsorientierter kontinuierlicher Zugang zur Beschreibung technologischen Wandels eingef¨ uhrt und analysiert. Der damit verbundene Fokus auf die Variabilit¨at innerhalb der technologischen Populationen wurde ausf¨ uhrlich diskutiert. Insbesondere f¨ ur Prozesse der Spezialisierung (Ausdifferenzierung) und Verschmelzung von Technologien scheint die Darstellung der Merkmalsentwicklung in einem entsprechenden Landschaftsmodell eine geeignete Beschreibung zu sein. Damit lassen sich auch Entwicklungen innerhalb der Definitionsbreite einer technologischen Population, wie etwa die Ver¨ande-
Produkte, Prozesse
Wissenschaftler
Zahl der Wissenschaftler wissenschaftl. Gebiete, Disziplinen Ausbildungs raten, Feldmobilität
Ebeling et al. 1998 Ebeling und Scharnhorst 1986, Bruckner et al. 1990, Wagner-Döbler und Berg 1993
wissenschaftliche Artikel Häufigkeit von Artikeln Problemgebiete
Zitationsraten, Wachstumsraten
Bruckner et al. 1990, Mainzer 1997
Elemente
Systemvariable (Besetzung) Einheiten der Evolution (Populationen) Systemparameter (Auswahl)
Beispiele für Modellbildungen
Technologien
Zahl der Produktionseinheiten
Firmen bzw. Produktionseinheiten
diskret
Profitabilität, Wachstumsraten, entry/exit - Raten
Firmenspektrum
Häufigkeit von Firmen
Firmen
Kapitalbestand, F&E Ausgaben
kontinuierlich
Ebeling et al. 1990
Profitabilität, Wachstumsraten, entry/exit - Raten
Firmenklassen
Zahl von Firmen
Firmen
diskret
Ökonomische Entwicklung
Jiménez Montaño Ebeling et al. 1998 und Ebeling 1980, Bruckner et al. 1996, Bruckner et al. 1998
Wachstums-, Wachstums-, Diffusionsraten, Preis Imitations-, und Innovationsraten (F&E)
Technologien
Häufigkeit von Produktion, Verkauf, Nutzung
technologische Parameter
Problem- bzw. Referenzkontext von Publikationen
kontinuierlich
Merkmale
diskret
kontinuierlich
Technologieentwicklung
Modelltyp
Wissenschaftsentwicklung
468 W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
Abb. 7. Beispiele verschiedener Anwendungsm¨ oglichkeiten kontinuierlicher und diskreter Modelle
Evolution als Suche in komplexen Landschaften
469
rung der Ausdehnung der Population oder die Bewegung ihres Zentrums durch den Merkmalsraum beschreiben. Verbindungslinien zwischen diskreten und kontinuierlichen Beschreibungen technologischen Wandels wurden anhand diskreter Modelle mit Alterung diskutiert. Diese beschreiben den Reife- oder Lebenszyklus von Produkten bzw. Technologien. Individualentwicklung in diskreten Modellen stellt eine spezielle Art kontinuierlicher Merkmalsvariation — wenn jetzt auch auf der Ebene der makroskopisch definierten Systemparameter — dar. Die Konkurrenz zwischen verschiedenen alternden technologischen Populationen und ihre Abl¨ osung stellt ein Erkl¨ arungsmodell f¨ ur empirisch beobachtete einh¨ ullende Kurven des technologischen Fortschritts“ (envelope of progress) dar. ” Die im ersten Teil der Arbeit vorgestellten mathematischen Modelle waren relativ allgemeiner Natur. Am Beispiel von Teilprozessen des technologischen Wandels wurde gezeigt, daß ein Transfer solcher Konzepte und Modelle auf gesellschaftliche Prozesse prinzipiell m¨oglich ist. Andere Anwendungen sind von den Autoren auch f¨ ur weitere soziale Ph¨anomene vorgenommen worden. Abb. 7 verweist auf weitere Anwendungsfelder in der Beschreibung sozialer Systeme sowohl mittels diskreter als auch kontinuierlicher Modelle.
Literatur 1. Abernathy, W. J., Clark, K. B. (1985) Innovation: mapping the winds of creative destruction. Research Policy 14, 3–22 2. Abernathy, W. J., Utterback, J. M. (1978) Patterns of industrial innovation. Technological Review 50(7), 41–47 3. Allen, P. M. (1994) Coherence, chaos and evolution in the social context. Futures 26(6), 583–597 4. Allen, P. M. (1995) Intelligent, self-organizing models in economics and in finance. In: Goonatilake, S., Treleaven, P. (Eds.) Intelligent systems for finance and business. John Wiley & Sons, Chichester, 289–311 5. Andersen, E. S. (1996) Evolutionary Economics. Pinter, London New York 6. Anderson, P. W. (1983) Suggested model for prebiotic evolution – the use of chaos: Proceedings of the National Academy of Sciences of the United States of America – Biological Sciences 80(11), 3386–3390 7. Asselmeyer, T., Ebeling, W., Rose, H. (1996) Smoothing representation of fitness landscapes – the genotype-phenotype map of evolution. BioSystems 39(1), 63–76 8. Ayres, R. U. (1969) Technological forecasting and long–range planning. McGrawHill, New York 9. Bruckner, E., Ebeling, W., Scharnhorst, A. (1989) Stochastic dynamics of instabilities in evolutionary systems. System Dynamics Review 5(2), 176–191 10. Bruckner, E., Ebeling, W., Scharnhorst, A. (1990) The application of evolution models in scientometrics. Scientometrics 18(1-2), 21–41 11. Bruckner, E., Ebeling, W., Jim´enez Monta˜ no, M. A., Scharnhorst, A. (1996) Nonlinear stochastic effects of substitution - an evolutionary approach. Journal of Evolutionary Economics 6, 1–30 12. Bruckner, E., Ebeling, W., Scharnhorst, A. (1998) Technologischer Wandel und ¨ Innovation - Stochastische Modelle f¨ ur innovative Ver¨ anderungen in der Okonomie. In: v. Schweitzer, F., Silverberg, G. (Hrsg.) Evolution und Selbstorganisation in ¨ der Okonomie. Dunker & Humblot, Berlin (im Druck)
470
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
13. Callon, M., Law, J., Rip, A. (Eds.) (1986) Mapping the dynamics of science and technology. Macmillan Press, London 14. Conrad, M. (1978) Evolution of the adaptive landscape. In: Heim, R., Palm, G. (Eds.) Theoretical approaches to complex systems. Springer, Berlin Heidelberg, pp. 147–169 15. Conrad, M., Ebeling, W. (1992) M.V. Volkenstein, evolutionary thinking and the structure of fitness landscapes. BioSystems 27, 125–128 16. Conte, R., Gilbert, G. N. (Eds.) (1994) Artificial societies: the computer simulation of social life. Oxford University Press, Oxford 17. Dosi, G. (1982) Technological paradigms and technological trajectories. Research Policy 11, 147–162 18. Ebeling, W. und Feistel, R. (1982) Physik der Selbstorganisation und Evolution. Akademie-Verlag, Berlin 19. Ebeling, W., Engel, A., Esser, B., Feistel, R. (1984) Diffusion and reaction in random media and models of evolution processes. Journal of Statistical Physics 37(3-4), 369–384 20. Ebeling, W., Sonntag, I. (1986) A stochastic description of evolutionary processes in underoccupied systems. Biosystems 19(2), 91–100 21. Ebeling, W., Scharnhorst, A. (1986) Selforganization models for field mobility of physicists. Czech J Phys B 36, 43–46 22. Ebeling, W., Engel, A., Feistel, R. (1990) Physik der Evolutionsprozesse. Akademie-Verlag, Berlin 23. Ebeling, W., Jim´enez Monta˜ no, M. A., Karmeshu (1997) Dynamics of innovations in technology and science based on individual development. In: Schweitzer, F. (Ed.) Self-organization of complex structures. Gordon and Breach, Amsterdam, pp. 407– 414 24. Ebeling, W., Karmeshu, Scharnhorst, A. (1998) Economic and technological search processes in a complex adaptive landscape. In: Kertesz, J., Kondor, I. (Eds.) Econophysics. Kluwer, Dordrecht (in press) 25. Eigen, M. (1971) The self-organization of matter and the evolution of biological macromolecules. Naturwiss. 58, 465ff. 26. Epstein, J. M., Axtell, R. (1996) Growing artificial societies: social science from bottom up. MIT Press, Cambridge, London 27. Feistel, R., Ebeling, W. (1982) Models of darwin processes and evolution principles. BioSystems 15, 291–299 28. Feistel, R., Ebeling, W. (1989) Evolution of Complex Systems. Kluwer, Dordrecht 29. Foerster, H. von (1985) Sicht und Einsicht. Vieweg, Braunschweig 30. Fogel, D. (1992) A brief history of simulated evolution, in: Proceedings of the first annual conference on evolutionary programming, pp. 1-16, Evolutionary Programming Society, San Diego 31. Fontana, W., Stadler, P. F., Bornberg-Bauer, E. G., Griesmacher, T., Hofacher, M., Tacker, P., Tarazona, P., Weinberger, E. D., Schuster, P. (1993) RNA-folding and combinatory landscapes. Phys. Rev. E. 47(3), 2083–2099 32. Frenkel, A. und Shefer, D. (1997) Technological innovation and diffusion models: a review, In: Bertuglia, C. S., Lombardo, S., Nijkamp, P. (Eds.) Innovative Behaviour in Space and Time. Springer, Berlin, pp. 41–63 33. Gilbert, G. N. (1997) A simulation of the structure of academic science. Sociological Research Online 2(2), 34. Gould, S. J. (1987) Der Daumen des Panda. Birkh¨ auser, Basel Boston
Evolution als Suche in komplexen Landschaften
471
35. Haag, G., Mueller, U., Troitzsch, K. G. (Eds.) (1992) Economic evolution and demographic change. Springer, Berlin Heidelberg 36. Haken, H. (1973) Synergetics. An Introduction. Springer, Berlin Heidelberg 37. Haken, H. (1975) Cooperative phenomena in systems far from equilibrium and in nonphysical systems. Rev. Mod. Phys. 47, 67–121 38. Haken, H. (Ed.) (1977) Synergetics. A Workshop. Springer, Berlin Heidelberg 39. Haken, H. (1995) Principles of Brain Functioning. Springer, Berlin Heidelberg 40. Hannan, M. T., Freeman, J. (1989) Organizational Ecology. Harvard University Press, Cambridge London 41. Hawkins, J. K. (1961) Self-organizing systems. A rewiev and commentary. Proceedings of the IRE 49(1), 31–48 42. Hegselmann, R. (1996) Cellular automata in the social sciences, In: Hegselmann, R., Mueller, U., Troitzsch, K. G. (Eds.) Modelling and simulation in the social sciences from the philosophy of science point of view. Springer, Berlin, pp. 209– 233 43. Hofbauer, J., Sigmund, K. (1984) Evolutionstheorie und dynamische Systeme. Parey, Berlin Hamburg 44. Jim´enez Monta˜ no, M. A., Ebeling, W. (1980) A stochastic evolutionary model of technological change. Collective Phenomena 3, 107–114 45. Karmeshu, Jain, V. P. (1997) Modelling innovation diffusion. In: Bertuglia, C. S., Lombardo, S., Nijkamp, P. (Eds.) Innovative behaviour in space and time. Springer, Berlin, pp. 64–74 ¨ 46. Kauffman, S. (1995) Der Oltropfen im Wasser. Piper, M¨ unchen Z¨ urich 47. Krugman, P. (1996) The self-organizing economy. Blackwell, Cambridge Oxford 48. Kuhn, T. S. (1962) The structure of scientific revolutions. University of Chicago Press, Chicago London 49. Laszlo, E. (1992) Evolution¨ ares Management. Paidia, Fulda 50. Mahajan, V., Peterson, P. A. (1985) Models for innovation diffusion. Sage, Beverly Hills 51. Mainzer, K. (1997) Thinking in complexity. 3rd ed. Springer, Berlin Heidelberg 52. Marchetti, C. (1982) Die magische Entwicklungskurve. Bild der Wissenschaft 19(10), 115–128 53. Maturana, H. R., Varela, F. J. (1980) Autopoiesis and cognition: the realization of the living. Reidel, Dordrecht 54. Mayr, E. (1982) The growth of biological thought. Belknap, Cambridge London 55. Metcalfe, J. (1989) Evolution and economic change. In: Silberston, A. (Ed.) Technology and economic progress, London, pp. 54–85 56. Metcalfe, J., Gibbons, M. (1989) Technology, variety and organization, In: Rosenbloom, R. S., Burgelmann, R. A. (Eds.) Research on technological innovation, management and policy 4. JAI Press, Greenwich, Connecticut, pp. 153–193 57. Montroll, E. W., Shuler, K. E. (1978) Dynamics of technological evolution: random walk model for the research enterprise. Proceedings of the National Academy of Sciences USA 76(12), 6030–6034 58. Nelson, R. R., Winter, S. G. (1977) In search of useful theory of innovation. Research Policy 5, 36–76 59. Nelson, R. R., Winter, S. G. (1982) An evolutionary theory of economic change. Belknap, Cambridge 60. Nicolis, G. (1995) Introduction to nonlinear science. Cambridge University Press, Cambridge 61. Nicolis, G., Prigogine, I. (1977) Self-organization in non-equilibrium systems. Whiley, New York
472
W. Ebeling, A. Scharnhorst, M. A. Jim´enez Monta˜ no und Karmeshu
62. Nicolis, G., Prigogine, I. (1987) Die Erforschung des Komplexen. Piper, M¨ unchen Z¨ urich 63. Peschel, M., Mende, W. (1986) The predator-prey model: do we live in a Volterra world. Akademie-Verlag, Berlin 64. Prigogine, I., Sanglier, M. (Eds.) (1985) Laws of Nature and Human Conduct. G.O.R.D.E.S., Brussels 65. Rechenberg, I. (1994) Evolutionsstrategie 94. Fromman-Holzboog, Stuttgart Bad Cannstadt 66. Ros´e, H. (1998) Evolution¨ are Strategien und Multitome Optimierung. Dissertation, Humboldt-Universit¨ at, Berlin 67. Roughgarden, J. (1979) Theory of population genetics and evolutionary ecology. Macmillan, New York 68. Sahal, D. (1981) Patterns of technological innovations. Addison-Wesley, Reading 69. Sahal, D. (1985) Technological Guideposts and Innovation Avenues. Research Policy 14, 61–82. 70. Sandia National Laboratories (1998) 71. Saviotti, P. P. (1985) An approach to the measurement of technology based on the hedonic price method and related methods. Technological Forecasting and Social Change 27, 309–334 72. Saviotti, P. P. (1996) Technological evolution, variety and the economy. Elgar, Cheltenham Brookfield 73. Saviotti, P. P., Bowman, A. (1984) Indicators of output of technology. In: Gibbons, M., Gummett, P., Udgaonkar, B. (Eds.) Science and technology policy in the 1980s and beyond. Longman, London, pp. 117–147 74. Saviotti, P. P., Metcalfe, J. S. (1984) A theoretical approach to the construction of technological output indicators. Research Policy 13, 141–151 75. Saviotti, P. P., Metcalfe, J. S. (1991) Present development and trends in evolutionary economicses. In: Saviotti, P. P., Metcalfe, J. S. (Eds.) Evolutionary theories of economic and technological change. Harwood Academic Publishers, Chur, pp. 1–30 76. Saviotti, P. P., Mani, G. S. (1995) Competition, variety and technological evolution: a replicator dynamics model. Journal of Evolutionary Economics 5, pp. 369–392 77. Schuster, P., Stadler, P. F. (1994) Landscapes: complex optimization problems and biopolymer structures. Computers Chem. 18, 295–314 78. Schwefel, H.-P. (1995) Evolution and optimum seeking. Wiley, New York ¨ 79. Schweitzer, F., Silverberg, G. (Eds.) (1998) Selbstorganisation und Okonomie. Duncker & Humblot, Berlin (im Druck) 80. Silverberg, G. (1988) Modelling economic dynamics and technical change: mathematical approaches to self–organisation and evolution. In: Dosi, G., Freeman, C., Nelson, R., Silverberg, G., Soete, L. (Eds.) Technical change and economic theory. Pinter, London New York, pp. 531–559 81. Sober, E. (1985) The nature of selection. MIT Press, Cambridge London 82. Small, H., Griffith, B. C. (1974) The structure of scientific literature I: identifying and graphing specialties. Science Studies 4, 17 83. Thom, R. (1972) Stabilit´e structurelle et morphogen´ese. W. A. Benjamin, New York 84. Troitzsch, K. G. (1996) Simulation and structuralism. In: Hegselmann, R., Mueller, U., Troitzsch, K. G. (Eds.) Modelling and simulation in the social sciences from the philosophy of science point of view. Springer, Berlin, pp. 183–208
Evolution als Suche in komplexen Landschaften
473
85. Tushman, M., Anderson, P. (1986) Technological discontinuities and organizational environments. Administrative Science Quarterly 31, 439–465 86. Utterback, J. M., Abernathy, W. J. (1975) A dynamic model of process and product innovation. Omega 3(6), 639–656 87. Vernon, R. (1966) International investment and institutional trade in the product cycle. Quarterly Journal of Economics 8, 190–207 88. Voigt, H. M., Ebeling, W., Rechenberg, I., Schwefel, H.-P. (Eds.) (1996) Parallel problem solving from nature - PPSN IV, Int’l conf. evolutionary computation, the fourth conf. parallel problem solving from nature, Berlin, September 1996, Proceedings. Springer, Berlin 89. Wagner-D¨ obler, R., Berg, J. (1993) Mathematische Logik von 1847 bis zur Gegenwart. De Gruyter, Berlin New York 90. Wagner-D¨ obler, R. (1997) Wachstumszyklen technisch-wissenschaftlicher Kreativit¨ at. Campus, Frankfurt New York 91. Weidlich, W. (1991) Physics and social science - the approach of synergetics. Physics Reports 204(1), 1–163 92. Weidlich, W., Haag, G. (1983) Concepts and models in quantitative sociology. Springer, Berlin 93. Westhoff, F. H., Yarbrough, B. V., Yarbrough, R. M. (1996) Complexity, organization, and Stuart Kauffman’s The Origin of Order. Journal of Economic Behaviour and Organization 29, 1–25 94. Witt, U. (Ed.) (1993) Evolutionary Economics. Elgar, Aldershot 95. Wright, S. (1932) The roles of mutation, inbreeding, crossbreeding and selection in evolution. Proceedings of the Sixth International Congress on Genetics 1(6), 356–366
Index
Λ-Chaotizit¨ at 309, 311, 313 λ-Chaotizit¨ at 309, 311–313 σ-Chaotizit¨ at 309–312 ABC-Anregung 56 ABC-Forcing 57–59 ABC-Str¨ omung 57 Adaptation, evolution¨ are 123, 124, 137 Aggleton, J. P. 271 Aktivator-Inhibitor-System 148 Algorithmen der nichtlinearen Signalanalyse 228 Allen, P. M. 23 Alpha-Rhythmus 241 an der Heiden, U. 22, 247 An¨ amie, autoimmun-h¨ amolytische (AIHA) 252–256 Anlage – Fl¨ ugel- und Bein 157 antizipative Verhaltensausrichtung 215–217 Arnold, V. I. 4, 57 arrhythmogene rechtsventrikul¨ are Dysplasie (ARVC) 233–235, 243 Arthur, W. B. 397 Attneave, F. 189 Attraktor, chaotischer 261 Attraktor, dissipativer 77, 79 Attraktor, dynamischer 54, 224, 239, 240, 242, 243, 252, 254, 255, 261 Attraktor, Fixpunkt- 377 Attraktor, selbstreanimierter 242 Attraktor, seltsamer 225, 228, 387, 388, 390, 391, 394 Aufmerksamkeit, selektive 269 Aufmerksamkeitsdynamik – in objekterkennenden, selbstorganisierenden neuronalen Systemen 177 Autoregulation 152
Axtell, R.
397
B´enard-Experiment 7, 8 B´enard, H. 38 Bachelier, L. 402, 405, 409 Bachelier-Modell 408, 411 Balthazard, C. 199 Barndorff-Nielsen, O. 413 Bartlett, F. C. 201 Bartlett-Szenario 201, 203 Beckmann, M. J. 386 Bedeutungszuweisungen 193 Beinanlage 157 Belousov, B. P. 39 Belousov-Zhabotinski-Reaktion 10 Benhabib, J. 382 Bernoulli, J. 4 Berzelius, J. 109 Bewegungen, chaotische 242 Bewegungen, periodische 242 Bewegungen, quasi-periodische 242 Bewegungs-Lehre, sportwissenschaftliche 207 Bewegungsverhalten 209 Bezugssystem – psychisches 196 Bifurkation 54, 55, 57, 58, 254, 255, 260, 261 Bifurkation, Hopf- 58 Bifurkation, periodenverdoppelnde 259 Bifurkationsanalyse 54, 57, 59 Bifurkationsdiagramm 56, 58 Bindungsdynamik – in objekterkennenden, selbstorganisierenden neuronalen Systemen 171–176, 181 Bindungsmatrix – f¨ ur objekterkennende, selbstorganisierende neuronale Systeme 171, 172, 174, 182
476
Index
biologische Systeme 146 Biotechnologie, evolution¨ are 124, 126 Bischof, N. 189 Black, F. 408, 410, 411 Black-Scholes-Formel 408, 414 Black-Scholes-Modell 415 Black-Scholes-Preis 413–415 Black-Scholes-Welt 415 Blutbildung, mathematische Modelle der 255 Blutbildung, zirkul¨ are Organisation der 250 Blutgef¨ aße 159 Boltzmann-Maschine 20 Bouncing-ball-Modell 241, 242 Bowers, K. S. 199 Bradley, D. 105 Brock, W. A. 391 Brownsche Bewegung 402, 409–411, 414 Bruce, V. 273 Brunner, E. J. 298 Bryan, W. L. 203 Cannabinoide, endogene 274 Cannabinoide, exogene 274 Chang, W. W. 381 Chaos – in ¨ okonomischen Modellen 384 Chaos, deterministisches 4, 5, 8, 10, 11, 17, 26, 49–51, 55, 56, 74–76, 123, 228, 260, 298, 312, 384, 388, 392 Chaos, selbstreanimiertes 242 Chaos-Steuerung 78 Chaosforschung, ¨ okonomische 384 Chaosforschung 5, 223, 228, 240, 391, 393, 396 – Gegenwart und Zukunft 49 Chaostheorie 25, 40, 41, 49 Chase, W. G. 203 Christensen, K. 69 Chunking 204 Ciompi, L. 285, 294 Coleman, J. S. 331 Coleman, J. S. 331 Comparator-System, hippocampales 269, 270, 277 Computersimulation – der neutralen Evolution 135 – der Populationstr¨ agerdynamik 135 – in den Sozialwissenschaften 321 Computersimulationen 147
Cox, J. C. 411 Crammer, L. 247 Darwin, C. R. 122, 123, 137 Darwinismus 452 Darwinismus, neuronaler 268 Day, R. H. 385 Debreu, G. 383 Determinismus 75, 76, 79, 85–87 Determinismus, starker 227 Devane, W. A. 274 Dimension, fraktale 225, 228, 230, 239, 243 Ditzinger, T. 200 Donsker, M. 411 Downs, A. 322, 323 Drei-Komponenten-Hypothese der Wahrnehmung 271, 275, 277 Dynamik, deterministisch chaotische 227 Dynamik, dissipative 224, 225 Dynamik, nichtlineare 75, 223, 225, 228, 240, 243, 244 Dynamik, symbolische 62, 228, 230 dynamische Nutzenfunktionen 341, 343 Dynamo-Effekt 56–59 Dynamo-Theorie 57–59 Ebeling, W. 25, 446 Eberlein, E. 413 Eigen, M. 39, 118, 123, 178 Elektroenzephalogramm (EEG) 225, 226, 229, 234, 236, 241, 312, 313 Elektrokardiogramm (EKG) 233, 234 Embryonalentwicklung 146 Emergenz 112 Emotions-Kognitionskopplung 272 Emrich, H. M. 23, 267 Entropie, Kolmogorov- 228 Entropien, dynamische 228, 239 Entscheidung – als Musterbildungsprozeß 284 Entscheidung, affektive Pr¨ agung der 285 Epilepsie 229, 230, 234, 235, 237, 238 Epilepsie, fokale 241 Epilepsie, neuronaler Ursprung der 255 Epilepsie, Temporallappen- 235, 268 Epilepsiediagnostik 237 Epstein, J. M. 397
Index Erdbebendaten, nichtlineare Analyse von 68 Erkennungsdynamik – in objekterkennenden, selbstorganisierenden neuronalen Systemen 178 Erkrankungen, h¨ amatologische 255 Erkrankungen, h¨ amopoietische 256 Erkrankungen, psychische 248 Esscher-Transformation 412–415 Evertsz, C. J. G. 25, 400 Evolution – als Folge von Selbstorganisationsschritten 449, 464, 466 – und Optimierung 449 – von RNA-Molek¨ ulen 123 Evolution, angewandte molekulare 124 Evolution, biologische 118, 123, 140, 446 Evolution, Darwinsche 117 Evolution, molekulare 117, 119, 120, 123–125, 134, 135, 137, 139, 449, 453, 456 Evolution, neutrale 135, 137, 139 evolution¨ are Populationsdynamik – allgemeiner mathematisierter Modellrahmen der 456 Evolutions- und Innovationsdynamik sozialer Systeme 447 Evolutionsdynamik 449, 455, 458, 467 Evolutionsexperimente 123, 124, 137 Evolutionsprinzip 449 Expertise 203 Farben 195 Feder, H. S. 69 Fehlerfr¨ uherkennung f¨ ur Elektromotoren 81 Fehlerkorrektur 147 Feichtinger, G. 377 Feinberg, M. 118 Feynman, R. P. 103, 104 Figur-Grund Trennung 199 Fisher, R. A. 122 Fisher-Eigen-Modell 449, 466 Fitness – einer Population 122 Fitness, Darwinsche 118 Fitness-Landschaft 117, 122 Fitness-Landschaft, adaptive Wanderung auf der 135, 138
477
Fitness-Landschaft, Kletterprozeß auf der 117, 123 Fitnessfunktion 449, 456, 458, 459 Fitnesslandschaft 446–449, 455, 456, 458, 462 Fourieranalyse 225 fraktale Geometrie 400–402, 409 – von Aktienkursen 402 – von B¨ orsenzeitreihen 400 Gabisch, G. 378 Galerkin-Verfahren, nichtlineares 57 Gandolfo, G. 388, 389 GARCH-Modellierung 415 Gehirn 225, 229, 231, 232, 235, 237, 243, 244 Gen-Aktivierung – ortsabh¨ angige 151 – und Bef¨ orderung 153 Gene 147 genetische Algorithmen 16 Genotyp-Ph¨ anotyp-Abbildung 118, 119, 122, 123, 125, 140 Gerber, H. U. 412, 413 Gesichtserkennung – in selbstorganisierenden neuronalen Systemen 182, 184 Gestaltgesetze 192 ¨ – Gesetz der Ahnlichkeit 193 – Gesetz der durchgehenden Geschlossenheit 194 – Gesetz der durchgehenden Linie 193 – Gesetz der durchgehenden Symmetrie 194 – Gesetz der N¨ ahe 193 Gestaltpsychologie 282, 283 Gestaltqualit¨ at 198 Gestaltraum – von Biopolymerstrukturen 118, 120, 125 ¨ Gestaltraum, Uberdeckungsradius des 130 Gestaltraum¨ uberdeckung 125, 129, 137, 139 Gesundheit, dynamische 261 Girsanov-Theorie 413 Glass, L. 247 Glatzmaier, G. A. 61 Goldreich, P. 64 Gradientendynamik 122 Graham, R. 31
478
Index
Grassberger, P. 391 Grawe, K. 283, 297 Gray, J. A. 269, 272, 277 Gregory, R. L. 272 Grenzen als Organisatorregionen 157 Grenzzyklus 10, 11, 13, 247, 253–255, 259, 381 Großhirnrinde (Kortex) 225 Großmann, S. 5, 49 Gutenberg-Richter-Gesetz 68–70 H¨ amatopoiese 250, 253 H´enonsche Formeln 4 Haag, G. 326 Haken, H. 8, 9, 30, 267, 284 Hamming-Abstand 120, 121, 134–136, 138, 139 Harrison, R.G. 157, 159 Harter, N. 203 Haynes, J.-D. 21, 189 Hebb, D. 18 Hebbsche Regel 19, 20 Hegselmann, R. 334 Helmholtz, H. von 272 Hendrych, R. 25, 400 Herzel, H.-P. 231 Herzrhythmus 232 Hess, B. 22 Hicks, J. R. 378, 380 Hill, H. 273 Holland, J. 397 Hopf-Bifurkationstheorem 382 Hopfield, J. 19 Hopfield-System 19, 20 Hume, D. 103, 115 Hurst, S. 414 Hurst-Exponent 400, 405–409, 411, 414 Hyper-Immunoglobulin E Syndrom 255 Illusionsforschung, wahrnehmungspsychologische 268, 272 Information 189 Informationsgesellschaft 425 Inhibition – langreichweitige 148 Innovationsdynamik – von Technologien 460 Innovationsnetzwerke 358, 361–363, 370 Instabilit¨ at 150 intercalare Regeneration 155
Invertwahrnehmungsillusion 276 Jim´enez Monta˜ no, M. A.
272, 274,
25, 446
K¨ ogerler, P. 9, 103 K¨ uppers, G. 24, 348 Kaldor, N. 380, 381 Kaldor-Modell 381 Kalecki, M. 381 KAM-Theorem 4 Kanizsa, G. 197 Kantz, H. 9, 74 Karmeshu 25, 446 Kategorisierung 196 Kauffman, S. A. 104, 117, 120, 397 Kausalit¨ at, bottom up- 249 Kausalit¨ at, globale 249 Kausalit¨ at, lokale 249 Kausalit¨ at, top down- 249 Kausalit¨ at, zirkul¨ are 33, 249, 352, 354, 355, 361, 370 Kelso, J. A. S. 37 Kierkegaard, S. 291 Kirk, J. 331 Kirk/Coleman-Modell 331–333 Kleinhirn 225 Kognitions-Emotionskopplung 270 ¨ Kognitions-Emotionskopplung, Anderungen der 272 Koh¨ arenzdetektion 199 Kolmogorov, A. N. 4 Kommunikationssysteme – in der biologischen Entwicklung 147 komplexe Systeme 89–91 – in der Biologie 11 – in der Chemie 9 – in der Informatik 13 – in der Physik 6 – in Gehirnforschung und Neuroinformatik 18 – in Medizin und Psychologie 21 ¨ – in Soziologie und Okonomie 23 komplexe Systeme der ersten Art 91–93 komplexe Systeme der zweiten Art 91–93, 99 Komplexit¨ at 89 Komplexit¨ at, dynamische 80 Komplexit¨ at, molekulare 104, 110 Konjunkturtheorie 377, 378, 382, 395 Konjunkturzyklen
Index – als periodische Ablaufmuster dynamischer Systeme 378 Konnektivit¨ at – neuronaler Netze 172, 173, 179, 185 Konnektivit¨ atsmatrix – f¨ ur objekterkennende, selbstorganisierende neuronale Systeme 184 Kontrollparameter (control parameter) 7, 8, 10, 13, 21, 33, 281, 283, 286, 288, 294, 295, 297, 299 Konzentrationsraum – der biochemischen Reaktionskinetik 118, 122 Kooperation, Entstehung von 328 Kopel, M. 377 Korrelationsanalyse 226 Kowalik, Z. J. 18, 22, 223 Krankheit, dynamische 247–250, 261 Krankheit, periodische 247 Krause, F. 62 Kreativit¨ at 435 Kruse, P. 285 Kuhn, T. S. 464 Kurths, J. 9, 52 K¨ ohler, W. 39 Landau, L. D. 7 Landschaft, adaptive 450, 451, 458, 461 Langevin-Gleichung 324, 325 Langton, C. G. 16 Langzeitvariabilit¨ at der Sonne 59 Laplace, P.-S. de 3 Laplacescher Geist bzw. D¨ amon 3, 4, 26 LeBaron, B. 391 Lefever, R. 39 Lehr-Lernforschung, sportwissenschaftliche 212 Lehr-Lernprozesse, sportwissenschaftliche 215 Leiber, T. 18, 22, 223 Leibniz, G. W. 13, 14 Leist, K.-H. 21, 207 Lernkurven 203 Lernmechanismen, lernende 434 Leuk¨ amie, periodische myelogene 255 Levy-Esscher-Ansatz 414 Leweke, F. M. 23, 267 Li, T. Y. 384 Lichtempfindung 195 Lichtenberg-Figur 401
479
Ligeti, G. 191, 192 logistische Gleichung 5, 21, 23, 384, 385 Lorenz, E. N. 8, 13 Lorenz, H.-W. 25, 375 Lotka-Volterra-Modell 382, 449, 452, 458 Luhmann, N. 350, 351, 356 Lurija, A. R. 271 Lyapunov-Exponent (LE) 5, 11, 59, 60, 62, 76, 78, 80, 86, 90, 225, 228, 239, 243, 311 Lyapunov-Exponent, globaler 231 Lyapunov-Exponent, gr¨ oßter (LLE) 228, 233, 235, 244, 311, 391, 392 Lyapunov-Exponent, lokaler (lLE) 228, 231, 236–239, 244 Lyapunov-Funktion 122 M¨ uller, A. 9, 103 Mach, E. 272 Mackey, M. C. 247 Magnetismus, astrophysikalischer 53 Magnetismus, Erd- 59, 61 Magnetismus, solarer 53 Magnetoenzephalogramm (MEG) 225, 226, 229, 230, 232, 234, 236, 238, 241 Magnetohydrodynamik (MHD) 53, 54, 56–59 Magnetokardiogramm (MKG) 233, 234, 243 Mainzer, K. 3, 42 Mandelbrot, B. B. 400, 404, 409, 416 Marchetti, C. 464 Markovprozeß 92, 93 Markus, M. 22 Marshall’sches ProduzentenTˆ atonnement 388, 393 Marshall, A. 25, 383, 386 Mas-Colell, A. 386 Master-Genotyp 135 Master-Ph¨ anotyp 135 Master-Sequenz 134, 136 Mastergleichung 341, 344 mathematische Modelle – in den Sozialwissenschaften 321 Maturana, H. R. 249 Maturana, U. 189 Mehrebenenmodellierung, dynamische 327 Mehrk¨ orperproblem
480
Index
– der Himmelsmechanik 4, 5 Meinhardt, H. 13, 146 Merkmalsdetektoren 199 Merton, R. C. 410 Metcalfe, J. S. 460 Metzger, W. 280, 282 Metzler, L. A. 388 Metzler-Szenarium 390 Migrationsdynamik 343 Mishkin, M. 271 Miyao, T. 382 Modelle sozialer Prozesse, stochastische 322 molekularer Schalter 110 molekulares Wachstum 110 Moonlets 64, 66, 67 Moore-Nachbarschaft – in zellul¨ aren Automaten 336 Mori, T. 9, 89 Morphogenetische Gradienten 150 Morsekode 203 Moser, J. K. 4 Multifunktionalit¨ at, chemische 110, 112 Mumford, D. 272, 273 Musterbildung 148, 189 Mustererkennung 33 Mutation, evolution¨ are 118–120, 122 Mutation, k¨ unstliche 124 Myositis, eosinophile zyklische 255 Nakamura, E. R. 89 Nakamura, E. R. 9, 18 Navier-Stokes-Gleichung 54–57 Nelson, R. R. 460 Netzartige Strukturen 159 Netzwerke, neutrale 130 Netzwerkkausalit¨ at 249 Neumann, J. von 15 Neuropsychologie – der Angst 269 – von Wahrnehmungsprozessen 270 Neutropenie, zyklische 255 Newton, I. 3, 4 nichtlineare Rauschunterdr¨ uckung auf Sprache 84 Nichtlinearisierung 192 Nicolis, G. 39 Nierentubuli 159 Nishimura, K. 382 non-statement view 281 Nyquist-Kriterium 225
Objekterkennung – in selbstorganisierenden neuronalen Systemen 169 Objekterkennung, invariante visuelle 169 Olami, Z. 69 Onsager, L. 9 Optimierung – auf kombinatorischen Landschaften 134 Optionen, Bewertung von 410 Optionsbewertung, fraktale 413 Ordner bzw. Ordnungsparameter 32 Ordner bzw. Ordnungsparameter 32–34, 37, 38, 40–42 Ordner, synergetischer 453 Ordnung – Sensibilit¨ at 191 ¨ Ordnungs-Ordnungs-Uberg¨ ange psychosozialer Prozesse – empirische Befunde 298 Ordnungsbildung – in der Psychologie 282 Ordnungsparameter (order parameter) 6–8, 12, 13, 18, 20–22, 24, 90, 281, 286–288, 339 Ordnungswandel – in der Psychologie 280, 283 Ordnungswandel, selbstorganisierter – in der Psychologie 288, 290 Organisation – von Unternehmen, explizite 424 – von Unternehmen, fraktale 424 – von Wissen und Systemen 428 Organisation, hierarchische 437 Organisation, verteilte 437 Organismus – als selbsterzeugendes und selbsterhaltendes dynamisches System 248, 249 Oszillationen 164 Paarbildung in Dreier-Gruppen 331 Pauling, L. 109 Peitgen, H.-O. 25, 400 Phasen¨ ubergang 90, 203 Phasenraum 224, 225, 228, 239, 242 physiologische Rhythmen 226 Pigmentmuster auf Schneckenschalen 161
Index planetare Ringe – Dynamik und Kinetik 63 – Kinetik 64 Platen, E. 414 Poincar´e, H. 4, 5, 25 Poincar´e-Bendixson-Theorem 381, 382 Poincar´e-Ebene 4, 10, 11, 14, 21 Polarit¨ atswechsel des Erdmagnetfeldes 61 Populationen – als Einheiten der Evolution 452 Populationen, merkmalsorientierte Beschreibung von 452, 454 Populationen, typologische Beschreibung von 452, 453 Populationsbiologie 452 Populationsdenken 452 Populationsdynamik 118, 119, 122, 123, 135 Populationsgenetik 452 Populationstr¨ agerdynamik 118, 119, 134, 135 Post, R. M. 271 pr¨ aattentive Prozesse 199 Pr¨ agnanz 192 Preis, fraktaler 414 Prigogine, I. 8, 9, 39 Procaccia, I. 391 Psychotherapie 283, 288–293, 295, 297, 302 Quasi-Spezies, molekulare
134, 136
R¨ uckkopplungskausalit¨ at 249 Rachev, S. 414 Radermacher, F. J. 423 Radermacher, F. J. 25 Ramachandran, V. S. 273 Rauschen 78, 80, 84–87, 197, 241–243 Rauschen, stochastisches 84 Rawlins, J. N. P. 269, 272, 277 Regehr, G. 199 Regeneration 149, 151 Regeneration, intercalare 155 Regulation – imaginativer mentaler Leistungen 274 Reimann, H. A. 247 Replikation, evolution¨ are 118–120, 123, 124, 139 Replikation, k¨ unstliche 124
481
Reynoldszahl 54, 55, 57, 59 Rhythmus, hormonaler 226 Rhythmus, Schlaf- 226 Rhythmus, zirkadianer 226, 227 RNA-Ph¨ anotypen 125 Roberts, P. H. 61 Roberts-Anregung 59 Rosenblatt, F. 170, 171 Ross, S. A. 411 Rubinstein, M. 411 Ryder, H. E. 386 Salo, H. 65 Samuelson, P. A. 378, 402 Saviotti, P. P. 460 Saviotti, P. P. 460 Scharnhorst, A. 25, 446 Scheinkman, J. A. 391 Schichtendynamik – in objekterkennenden, selbstorganisierenden neuronalen Systemen 174 Schiepek, G. 23, 280 Schmetterlingseffekt 4, 25 Schmidt, H.-J. 62 Schneider, U. 23, 267 Scholes, M. 408, 410, 411 Schuster, P. 12, 117 Seehafer, N. 9, 52 Segmentierung 154 Selbst¨ ahnlichkeit 4, 400–402, 404, 405 Selbst¨ ahnlichkeit, Modelle f¨ ur statistische 409 Selbstaffinit¨ at 401, 409 – der DAX-Aktien 406 Selbstaggregation, chemische 103, 104 Selbstorganisation 6, 7, 9, 20, 30, 32, 33, 38–40, 89, 92, 285, 348, 351–353, 402, 410, 450, 466 – des Sozialen 24 ¨ – in der Okonomie 24 – in psychischen Prozessen 288, 295 – in psychischen und sozialen Prozessen 23, 280, 283, 295 – in Unternehmen 423, 427, 428, 438, 439, 444 – neuronaler Systeme 19 – und gestaltbildende Eigendynamik 209 Selbstorganisation, biologische 11 Selbstorganisation, dissipative 8, 20
482
Index
Selbstorganisation, konservative 7, 20, 24 Selbstorganisation, molekulare 9 Selbstorganisation, soziale 351, 354, 361, 366, 370 Selbstorganisation, thermodynamische 11 Selbstorganisation, zellul¨ are 11 selbstorganisierte Kritizit¨ at (SOC) 68, 70, 71 Selektion, differentielle 118, 119, 122, 124, 126, 137 Selektion, k¨ unstliche 124, 126 Selektions-Mutations-Gleichung 118 Sequenzraum – der Polynukleotidsequenzen 118, 120–122, 128–137 Shahshahani, S. 122 Shannon, C. E. 189 Shannonsches Abtasttheorem 225 Shiu, E. S. 412, 413 Shoham-Salomon, V. 302 Sierpinski-Dreieck 400, 401 Signal, biomedizinisches 223, 225, 226, 231, 232, 234, 240, 243 Signal-Rausch-Verh¨ altnis 224 Simon, H. A. 203 Simulation von Innovationsnetzwerken 362 Singer, P. 25, 400 situative Wahrnehmung 210 Skaleninvarianz, Preis- 402, 403 Skaleninvarianz, Zeit- 403 Skinner, J. E. 232, 233 Slack, J.M.W. 159 Smith, A. 24 Smyth, D. J. 381 Sonnenfleckenzyklus 53 Sonnenschein, H. 383 Soziodynamik 339 Spahn, F. 9, 52 Spektralanalyse 226 Spiegelman, S. 123, 124 Stadler, M. A. 189 Stadler, M. A. 21 Sternbilder 193 Stimme, menschliche 231 stochastische Resonanz 199 stochastische Simulation
– einer nichtlinearen Langevin-Gleichung 325 Struktur 189 – -erzeugung 193 – -verst¨ arkung 192 Superorganismen 423, 429, 432–435, 442 Superpositionsprinzip 226, 227 suprachiasmatischer Nukleus (SCN) 226, 227 supramolekulare Verbindungen 113 supramolekulares System 114 survival of the fittest 122, 137 synaptische Gewichte 171–173, 175, 176, 181 synaptische Plastizit¨ at 169, 171, 172, 183 Synergetik 8, 9, 18, 24, 30–34, 37, 39–42, 280–283, 286, 297, 321, 322, 337, 339, 452, 453 – in der Psychologie 280 – und Handlungstheorie 212, 215, 216 synergetischer Computer 20, 33, 36 System 189 – kognitives 189 Systemtheorie, soziologische 350, 370 Takens, F. 224, 225 technologischer Wandel – als innovative Suche in adaptiven Landschaften 460 Temporallappen 236, 237 Thrombozytopenie, zyklische 255 Tiefeninversion 275–277 Tiefeninversion, binokul¨ are 272 Tiefenwahrnehmung 272, 276, 277 Tiefenwahrnehmung, binokul¨ are 273 Tiefenwahrnehmung, monokulare 273 Tinnitus 234–236, 244 Tracheen 159 Tremaine, S. 64 Trialog – zwischen Thalamus, Hippocampus und Cortex 273 Troitzsch, K. G. 321 Troitzsch, K. G. 24 Tropfenausrichtung – bei der neuronalen Bindungsdynamik 179 Tropfenbildung – bei der neuronalen Bindungsdynamik 172
Index Tropfenmobilisierung – bei der neuronalen Bindungsdynamik 172, 173 Tschacher, W. 297 Turbulenz 53, 54 Turbulenz, Lagrangesche 55 Turbulenz, magnetohydrodynamische 59 Turing, A. M. 39 ¨ Ubergangsraten, soziodynamische 339, 340, 343 ¨ Uberwindung der Geschlechtertrennung in Lehrerkollegien – als nichtlinearer stochastischer Prozeß 326 Uhlsche Krankheit 233 Unerwartetes – in der Psychiatrie 267, 268 – in der Psychose 270 Unternehmen, lernende 423 Unternehmung, lernende 423, 427, 428 Unternehmung, virtuelle 426 Varela, F. 189 Varela, F. J. 249 Variablen, materielle 339 Variablen, personelle 340, 342 ventrikul¨ are Fibrillation (VF) 233 ventrikul¨ are Tachykardie (VT) 232 Verhulst, P. F. 5 Verhulst-Dynamik 5 Versklavungsprinzip der Synergetik 33, 34, 40 Verteilung, Levy-stabile 409, 414 Vierschichten-Perzeptron 170 Virtuelle Linien 193 Volatilit¨ at 407, 408, 411, 413, 415 von der Malsburg, C. 19, 169 von Neumann-Nachbarschaft – in zellul¨ aren Automaten 335 W¨ ahlereinstellungen – als nichtlinearer stochastischer Prozeß 322 Wahrnehmungs-Emotionskopplung 271, 272 Wahrnehmungsver¨ anderungen, visuelle 272 Waldrop, M. M. 397
483
Walrassches Konsumenten-Tˆ atonnement 385, 386, 393 Walras, L. 383, 385, 386 Wanderwellen 162, 163 Wavelets, Gabor-basierte 170, 172, 184 Weaver, W. 189 Wehinger, R. 192 Weiber, R. 377 Weidlich, W. 24, 39, 326, 339 Weizenfeld, A. 186 Weltmodell, mitlaufendes 269 Wetterprognosen 146 Winter, S. G. 460 Wirbelstr¨ omungen, extern getriebene 54 Wirtschaftstheorie, dynamische 375– 377, 382–385, 388, 391, 395, 396 Wiskott, L. 19, 169 Wissen, Klassifikation von 428 Wissen, Repr¨ asentation von 428 Wissensbewertung/-bilanzierung von Unternehmen 442 Wissenschaftslandschaft 447 Wissensgesellschaft 425 Wissensmanagement – von Unternehmen 438 Wissensmanagement, Technikkomponenten f¨ ur 441 Wissensverarbeitung, Vier-EbenenArchitektur der 429, 433 Wissensverwaltung 425 Wright, S. 117, 446, 455 Yellott, J. I. Jr. 272 Yorke, J. A. 384 Zeitreihe 3, 5, 10, 11, 18, 21, 22, 224, 225, 228, 239, 240, 282, 298, 302, 378, 385, 391, 401 – in der Psychotherapie 308–312 Zeitreihe, ¨ okonomische 377, 390–393, 396 Zeitreihe, Aktien- 402, 403 Zeitreihe, biomedizinische 223–226, 228, 231, 232, 239, 243 Zeitreihe, chaotische 391 Zeitreihe, EKG- 235 Zeitreihe, lLE- 237 Zeitreihe, makro¨ okonomische 392 Zeitreihe, MEG- 234, 238 Zeitreihe, mikro¨ okonomische 392
484
Index
Zeitreihe, MKG- 235 Zeitreihe, Preis- 402–404, 416 Zeitreihe, Rendite- 404 Zeitreihenanalyse 9, 21, 22 Zeitreihenanalyse, ¨ okonomische 400 Zeitreihenanalyse, Einbettungstheoreme der 77, 225 Zeitreihenanalyse, nichtlineare 74–80
– Anwendungen der 80, 81, 84 Zelldifferenzierung 151 zellul¨ are Automaten 14–17, 24, 94, 96, 99, 334 zellul¨ are Automaten, regel-ver¨ andernde 93, 95, 98 Zhabotinsky, A. M. 39