HOME

ZUR F√úNFTEN SENDUNG,
DIE EIGENTLICH DIE ERSTE WAR.
Unstrukturiert, mangelndes Vertrauen, Langeweile,
Aufgeregtheit, Chaos im Kopf.

Von CHAOS, CHAOSTHEORIE
und CHAOTISCHEN SYSTEMEN

Urspr√ľnglich stammt das Wort CHAOS aus dem Griechischen und bedeutet: G√§hnender Schlund, Abgrund, klaffende Leere

Bereits in der Antike erfuhr der Begriff jedoch eine (philosophische) Umdeutung, etwa unter Anaxagoras und Plato: Urstoff, gestaltlos, ungeformt.

Im heutigen Alltag bedeutet Chaos in etwa: Durcheinander, Wirrwarr, Unordung; oft ist der Begriff negativ besetzt. "Chaot" ist wohl meist als Schimpfwort gemeint.

Verwandte Worte: "Gas" geht auf J.v.Helmont zur√ľck (ca. 1600). Tats√§chlich f√ľhrte er dieses Wort als √úberbegriff f√ľr luftartige Stoffe ein, in direkter und berechtigter Anlehnung an Chaos. Vom griechischen chaskein leitet sich unser Wort G√§hnen ab, ein Verweis auf die urspr√ľngliche Bedeutung des Wortes.

Chaos als wissenschaftlicher Begriff

Eher zuf√§llig und nicht ganz ernst gemeint wurde das Wort zuerst in der Mathematik eingef√ľhrt. J. Yorke ver√∂ffentlichte 1975 einen Artikel: "Periode Three implies Chaos". Dort untersuchte er Eigenschaften von Abbildungen eines Intervalls auf sich selbst, wobei nichtperiodisches Verhalten entstand (bei ganz bestimmten Anfangswerten). Eben diese starke Abh√§ngigkeit mathematischer (und sp√§ter auch physikalischer) Systeme von ihren Anfangswerten wurde ab dieser Zeit als "chaotisch" bezeichnet.

Abhängigkeit von Randbedingungen

Ein Charakteristikum chaotischer Systeme ist also ihre Empfindlichkeit gegen Ver√§nderung der Anfangs- oder Randbedingungen; oft schl√§gt regelm√§√üiges Verhalten pl√∂tzlich in unregelm√§√üiges um. Bereits 1963 hatte E. Lorenz dieses Verhalten am Beispiel mathematischer Klimamodelle gefunden: Der Fl√ľgelschlag eines Schmetterlings im Golf von Mexiko k√∂nnte das Wetter in Europa beeinflussen, meinte er, um diese Abh√§ngigkeit einpr√§gsam darzustellen ("Schmetterlings-Effekt"). Wir fragen uns heute: K√∂nnte ein griffiger Jodler in Gmunden dann nicht auch ein Sturmtief vor Amerika verursachen? Hat dies noch etwas mit dem Ur-Chaos als Abgrund, Leere zu tun? Ja, dieses entstand und entseht in den K√∂pfen der Wissenschaftler, denn lange als sicher geltende Ph√§nomene wurden pl√∂tzlich unsicher, nicht mehr vorhersagbar!

H. Poincare hatte 1889 die langfristige Stabilit√§t der Planetenbahnen untersucht. Er fand heraus, dass sich winzige gegenseitige Bahnst√∂rungen aufschaukeln und zu drastischen Ver√§nderungen f√ľhren k√∂nnten. Obwohl er diese Angelegenheit dann nicht weiterverfolgte, da er vor den Konsequenzen zur√ľckschreckte, spricht man heute von Poincare-Szenarien: Die Entwicklung eines Systems vom geordneten zum chaotischen Verhalten.

Noch einfacher als unser Sonnensystem ist das Doppelpendel: Am Ende eines Pendels hängt ein zweites. Wird es nur leicht gestoßen, schwingt es regelmäßig. Mit stärkerer Anregung werden die Schwingungen unregelmäßiger, es beginnt wild herumzuschwingen. Trotz einfacher Gesetze, die ja nach wie vor gelten, ist dieses Verhalten nicht mehr berechenbar. Man spricht vom "deterministischen" Chaos: Die Naturgesetze gelten, trotzdem ist die Entwicklung des Systems nicht mehr vorhersagbar. Minimalste Unterschiede in den Startbedingungen schaukeln sich nach wenigen Schwingungen auf.

Vorhersagbarkeit

Gerade diese Eigenschaft zeichnet die Naturwissenschaften aus, insbesondere die Physik. Ein Flugzeug fliegt, ein Auto fährt, eine gestoßene Billardkugel trifft ihr Ziel (meistens). Wiederholt man einen Vorgang unter gleichen Bedingungen, so erhält man ein gleiches Ergebnis.

Kausalitätsprinzip: Aus gleichen Ursachen entstehen gleiche Wirkungen.

Genaugenommen kann man niemals exakt die gleichen Bedingungen wiederherstellen, aber √§hnliche. Doch auch hier soll gelten: √Ąhnliche Ursachen ergeben √§hnliche Wirkungen. Dies wird als "starke" Kausalit√§t bezeichnet, von der die "schwache" (gleich √† gleich, siehe oben) einen idealen Spezialfall darstellt.

Zum Beispiel schwingt ein normales Pendel, etwas stärker oder schwächer angestoßen, im Prinzip ähnlich; die Bahn ist berechenbar. Ein Flugzeug wird zwar nicht immer ganz gleich landen, aber runter kommt es immer. Poincare und Lorenz aber fanden Prozesse, die bei ähnlichen Ursachen völlig verschiedene Wirkungen haben können! Lange Zeit wurden diese als Kuriositäten angesehen, ignoriert oder verdrängt, passten sie doch gar nicht in das Konzept der Naturwissenschaften. Die Chaostheorie erkannte jedoch: Solche Fälle stellen den Normalfall dar, nur: oft tritt erst nach sehr langer Zeit das chaotische Verhalten zutage!

Zum Beispiel: Billard-St√∂√üe werden oft mit bewundernswerter Exaktheit ausgef√ľhrt; auch nach mehreren Kollisionen trifft die Kugel ihr Ziel. Nehmen wir an, ein Zuschauer steht einen Meter vom Tisch entfernt. Dann bewirkt jedoch seine minimale Gravitationskraft auf die Kugeln, dass deren Sto√üverhalten mit der 9. Karambolage v√∂llig unberechenbar wird! Die Kausalit√§t gilt also nur f√ľr die ersten St√∂√üe.

Ein Gas - wir erinnern uns, das Wort stammt ja von Chaos ab - kann man sich als ungeheure Menge von sehr kleinen Kugeln vorstellen, die dauernd St√∂√üe ausf√ľhren (jedes Teilchen Milliarden pro Sekunde!). H√§tte man auch einen bekannten Ausgangszustand, nach k√ľrzester Zeit kann man f√ľr ein einzelnes Teilchen √ľberhaupt keine Aussage mehr treffen. Allerdings arbeitet man hier mit statistischen Methoden, wodurch Vorhersagen im Gro√üen wieder m√∂glich werden.

Auch f√ľr unser Planetensystem gilt: Die n√§chsten Millionen, vielleicht Milliarden von Jahren bleibt es stabil - aber dann? Diese Frage ist √ľbrigens bis heute nicht gekl√§rt - Poincare zeigte nur, dass Chaos eintreten kann, nicht muss. Die Chaostheorie untersucht also Systeme, deren Verhalten (zumindest langzeitlich) nicht vorhersagbar ist wegen seiner Empfindlichkeit gegen√ľber der Anfangsbedingungen. Insbesondere erforscht sie die Wege, die zum Chaos f√ľhren. Ein typischer Ablauf w√§re:

Ordnung (einfache Gesetze) à (deterministisches) Chaos à (völlige) Unordnung

"Deterministisch" chaotisch hei√üen Zust√§nde, die zwar den Naturgesetzen gehorchen, aber trotzdem nicht vorhersagbar sind. Sie m√ľssen von solchen mit "wirklichem" Chaos (im alltagssprachlichen Sinn) unterschieden werden. Diese werden √ľblicherweise als Unordnung (disorder) bezeichnet, um sie vom wissenschaftlichen Chaosbegriff zu trennen. Der wirkliche Chaot, ein "Unordner"?

Beispiel: Das gesunde menschliche Herz befindet sich in einer Art deterministisch chaotischem Zustand. Die Rhythmen schwanken st√§ndig etwas - ein krankes oder gef√§hrdetes Herz hingegen erkennt man oft an einem zu regelm√§√üigen EKG! Das gef√ľrchtete Kammerflimmern wiederum stellt Unordnung dar, vielleicht kann die Chaostheorie einmal helfen, die Ank√ľndigung dieses Zustandes aus dem EKG diagnostizierbar zu machen.

Einfachheit und Komplexität

Wir erleben eine unglaubliche Vielfalt um uns (und in uns) - l√§√üt sich diese Komplexit√§t auf einfache Prinzipien, Ideen oder Regeln zur√ľckf√ľhren? Die modernen Naturwissenschaften bejahen diese Frage und konkretisieren die Antwort: Komplexe Ph√§nomene oder Objekte werden aus einfacheren erkl√§rt, die man auf tieferen Ebenen sucht (Reduktionismus). Wenn die Leber ein Bier verarbeitet, dann sind ihre Zellen aktiv. Deren T√§tigkeit und Funktion wird wiederum von der DNS gesteuert, einem Riesenmolek√ľl, das aus einer gro√üen Anzahl von Atomen besteht. Auch diese haben eine innere Struktur, welche ihre Bindungseigenschaften erkl√§rbar macht usw. usw. Letztlich sucht die Naturwissenschaft nach einer Ur-Formel, nach einer Theorie f√ľr Alles (TOE - theory of everything).

Dieses Wechselverhältnis von einfachen Gesetzen zu komplexen Erscheinungen war zweifellos erfolgreich, insbesondere auf dem Gebiet der Technik. Bereits erwähnte chaotische Phänomene, vor allem aus dem Bereich des Lebendigen, ließen sich aber bisher nicht allzu gut damit bewältigen. Oft scheint die Komplexität noch zuzunehmen, wenn man in die Tiefe geht. Ist die DNS "einfacher" als ein Organ, eine Leber zum Beispiel?

Chaotische Systeme produzieren Komplexität, aus einfachen, klaren Regeln entstehen vielfältige Erscheinungen. Man könnte Chaostheorie auch als die Theorie komplexer Systeme bezeichnen - sehr oft findet man Chaos in Systemen vieler sich gegenseitig beeinflussender Teile. Etwa im menschlichen Gehirn: Nicht nur unser Herz braucht offenbar ein bestimmtes Chaos als Grundzustand, um flexibel und schnell reagieren zu können - in den letzten Jahren fand man Chaos auch im Gehirn.

Der Grundzustand dieses Organs (sichtbar etwa im EEG) scheint nicht wie vorher vermutet ein ungeordnetes "Rauschen" zu sein, er l√§√üt sich treffender als eine Art wartendes, kreatives Chaos verstehen. Es wurde kein kausaler Zusammenhang zwischen bestimmten EEG-Mustern und Gedanken oder Sinneseindr√ľcken gefunden, sondern spontan und st√§ndig entstehende Ordnungsmuster, sich abl√∂send, mit jeweils tausenden von aktivierten Gehirnzellen.

Wenn wir an die schöne Stadt Gmunden denken, ist dieses innere Bild komplexer als eine Erklärung dieses Gedankens aus Operationen tausender Ganglien?

Antichaos

Ein deteriministisches Chaos kann in Unordnung st√ľrzen, aber im eben erw√§hnten Beispiel erzeugt es Ordnung! Wenn Chaos ein "Urstoff" sein soll, wie ihn sich die Antike dachte, dann ist er jedenfalls nicht so gestaltlos und leer wie damals angenommen. Insbesondere in der Biologie fand man, dass die Chaostheorie mit gleichem Recht "Ordnungstheorie" hei√üen k√∂nnte. Wesentlich interessanter als die m√∂glichen √úberg√§nge in die Unordnung zeigten sich die Ordnungszust√§nde, die (oft spontan) aus dem deterministischen Chaos entstehen k√∂nnen.

Dabei entsteht aus Komplexit√§t wieder Einfachheit, das vibrierende Chaos erzeugt Strukturen - solche √úberg√§nge werden als "Antichaos" bezeichnet. Das Leben selbst entstand durch unz√§hlige solcher Schritte zu h√∂herer Ordnung, aus der chaotischen "Ursuppe" bildeten sich immer komplexere Lebewesen, die dann aber als "einfache" (geordnete) Ganzheiten operieren. Obwohl ich aus Milliarden von Zellen bestehe, arbeiten diese konzentriert zusammen, um den geordneten Griff zum Bierglas zu erm√∂glichen. Solche √úberg√§nge von Chaos zu Ordnung gibt es aber auch in ganz einfachen, "toten" Systemen. Fr√ľhmorgendlich kann jeder - ob Chaot oder nicht - beobachten, wie sich in einer Kaffeetasse Antichaos ereignet: In hei√üen Kaffe gie√üt man etwas Milch. Pl√∂tzlich bilden sich (sechseckige) Wirbelkan√§le, die l√§ngere Zeit stabil bleiben k√∂nnen.  Besser gelingt dieses Experiment jedoch mit Fl√ľssigkeiten, die von unten her erw√§rmt werden.

Ein weiteres Beispiel stellen die Heckwellen eines fahrenden Bootes dar: Abhängig von der Geschwindigkeit entstehen stabile Wirbelmuster. Diese Art von geordneten Strukturen bei ständigem Durchfluß von Materie und Energie nennt man "dissipative Strukturen", die Entstehung von Ordnungsmustern "Selbstorganisation".

Entropie

Dies scheint nun dem ber√ľhmten 2. Hauptsatz der Thermodynamik vollkommen zu widersprechen. Danach laufen Vorg√§nge in der Natur von selbst nur von Zust√§nden niedriger zu solchen h√∂herer Wahrscheinlichkeit ab. Ohne Zutun nimmt die Ordnung ab. Die Physik pr√§gte sogar eine physikalische Gr√∂√üe, die Entropie, die man als Ma√ü f√ľr die Unordnung verstehen kann.

Bremst etwa ein Auto, so wird geordnete Bewegung (alle Teilchen des Gef√§hrts bewegen sich in eine Richtung) in ungeordnete W√§rmebewegung der Bremsen, Reifen und letztlich der Umgebung umgewandelt. Nie aber wurde beobachtet, dass sich die Luft ein wenig abk√ľhlt und ein Auto pl√∂tzlich zu fahren beginnt. In abgeschlossenen Systemen bleibt die Entropie gleich, bei der Kombination mehrerer solcher nimmt sie zu. Lebewesen sind jedoch Beispiele extremer Entropieverminderung - bereits einzelne Zellen kann man als chemische Fabriken beschreiben, in denen hunderte Prozesse parallel ablaufen.

Der Widerspruch ist aber nur ein scheinbarer und läßt sich auf mehrere Arten entkräften:

1. Gerade Lebewesen sind Paradebeispiele f√ľr offene Systeme - sie existieren nur mit einem st√§ndigen Durchflu√ü von Materie und Energie. Thermodynamisch gesehen vermindern sie zwar ihre innere Entropie, erzeugen aber nach au√üen hin trotzdem Unordnung - nur im dynamischen Flu√ü von wenig zu mehr Chaos k√∂nnen wir Ordnung erzeugen! So entsteht aus Nahrungsmitteln einerseits komplexes K√∂rpermaterial und andererseits Abfall: Exkremente, Abw√§rme. Auch einfache dissipative Systeme wie die oben erw√§hnten zeigen dieses Verhalten - sie brauchen einen st√§ndigen Energieflu√ü, um sich ausbilden zu k√∂nnen. In der Kaffeetasse mag zwar Ordnung entstehen, insgesamt nimmt die Entropie trotzdem zu - der Kaffee k√ľhlt sich ab, die Umgebung wird etwas w√§rmer. Letztlich wird er gar getrunken und darf nochmals Ordnung erzeugen im m√ľden Fr√ľhaufsteher.

2. Die Entropie ist eine physikalische Gr√∂√üe, die zur Beschreibung einfacher Systeme bis hin zu W√§rmekraftmaschinen erdacht wurde. Dort hat sie mit W√§rmeprozessen zu tun und h√§ngt mit der Wahrscheinlichkeit von Zust√§nden zusammen. Sie mit Unordnung zu verbinden ist h√∂chstens in solchen physikalisch einfachen Systemen sinnvoll und zul√§ssig, die k√ľhnen √úbertragungen auf komplexe Systeme wie Lebewesen, Schreibtische oder gar das ganze Universum sind (obwohl oft gemacht) sinnlos, dort hat die Entropie nichts verloren. Wie erw√§hnt bezieht sich die Entropiezunahme auf die Vereinigung vorher getrennter (abgeschlossener) Systeme, etwa der warmen und der kalten Seite einer Dampfmaschine. Die Entwicklung unserer Welt zeichnet sich aber umgekehrt durch st√§ndige Entstehung neuer Systeme aus - Galaxien, Sterne, Planeten, Zellen - das Universum ist kein gleichf√∂rmiger Brei, und mein Schreibtisch auch nicht!

Attraktoren

Schon einfache Systeme werden zu bestimmten Zuständen "hingezogen". Ein Pendel etwa schwingt genau in einer Frequenz, letztlich landet es gar am tiefsten Punkt. Jeden Morgen starrst Du in die wirbelnde Kaffeetasse und bemerkst, dass immer wieder ähnliche Zustände entstehen, bestimmte Muster werden "angestrebt", andere treten selten oder niemals auf.

Betrachten wir das System J√§ger - Beute (am Beispiel Fuchs - Hase). Ist die Zahl der F√ľchse hoch, sinkt jene der Hasen; daraufhin sinkt jene der F√ľchse, die wenig Nahrung finden, die Zahl der Hasen kann wieder steigen. Tats√§chlich beobachtet man st√§ndige Schwankungen der Populationen, eine Art von dynamischem Gleichgewicht. Um solche dynamischen Systeme besser beschreiben zu k√∂nnen, f√ľhrte H. Poincare eine bestimmte Art von Diagrammen ein. Die sogenannten "Phasenr√§ume" kann man als (abstrakte) Darstellung aller m√∂glichen Zust√§nde verstehen, als R√§ume der M√∂glichkeiten. Auf der x-Achse eines Koordinatensystems tragen wir die Zahl der Hasen auf, auf der y-Achse jene der F√ľchse. Jeder m√∂gliche Zustand wird dann durch einen Punkt repr√§sentiert.

Der Phasenraum zeigt uns also alle m√∂glichen Zust√§nde, auch solche, die in der Praxis gar nie eingenommen werden. Nun ist das System aber dynamisch, ein Zustand bleibt nie lange erhalten. Punkt A stellt ein starkes √úbergewicht an J√§gern dar. Die Nahrung ist knapp, die Zahl der F√ľchse sinkt, worauf jene der Hasen zunimmt. Das System k√∂nnte sich von A nach B entwickeln.

Nun h√§tten wir aber einen √úberschu√ü an Beute, die Zahl der F√ľchse kann wieder steigen, das System tendiert wieder in Richtung Punkt A. In der Praxis ergibt sich aber kein Hin- und Herpendeln zwischen diesen Extremen, das System nimmt vielmehr ein dynamisches Gleichgewicht mit nicht zu gro√üen Extremen ein. Im Phasenraum zeigt sich eine geschlossene Kurve, etwa ein Kreis oder eine Ellipse. Damit wird ein sanftes stetiges Pendeln zwischen Mehrheiten der F√ľchse bzw. der Hasen dargestellt. Diese Kurve stellt den Attraktor des Systems dar. Startet das Ganze an irgendeinem Punkt, zum Beispiel B, pendelt es sich doch fr√ľher oder sp√§ter in den Attraktor ein, dessen genaue Form nat√ľrlich von verschiedenen √§u√üeren Umst√§nden abh√§ngt.

Chaotische Systeme zeigen wesentlich kompliziertere Attraktoren, was auch bedeutet, dass man ihr Verhalten nicht vorhersagen kann. Der abgebildete "Lorenz-Attraktor" repr√§sentiert m√∂gliche Zust√§nde unseres Wetters, trotzdem ist dieses nur kurzfristig vorhersagbar. W√ľrde man das Bild vergr√∂√üern, um die Umgebung eines Zustandes besser zu sehen, spalten sich die Linien immer mehr auf, wie genau wir auch hinsehen, st√§ndig finden wir neue Strukturen. Solche Attraktoren nennt man auch "seltsame" Attraktoren. In diesem Fall ist die Kurve (wie oft bei chaotischen Systemen) ein Fraktal.

Fraktale

Dabei handelt es sich um geometrische Objekte, die nicht in die klassische (Euklidsche) Geometrie passen, in der es um Objekte wie Punkte, Geraden, Ebenen, usw. geht. Beispiel: K√ľstenlinien. B. Mandelbrot stellte die Frage: Wie lang ist die K√ľste Englands? Seine Antwort: Es kommt darauf an, mit welchem Ma√üstab man mi√üt! Denn: Je genauer man hinschaut, desto l√§nger wird die K√ľste. Immer wieder treten √§hnliche Formen auf.

Mathematisch wurde solchen Linien Dimensionen zwischen 1 (Gerade) und 2 (Ebene) zugeschrieben, also "gebrochene" (fraktale) Dimensionen, z.B. 1,26 (entspricht etwa der K√ľste Englands). B. Mandelbrot war der Sch√∂pfer dieses Begriffs und fand selbst das ber√ľhmteste aller Fraktale: Die nach ihm benannte Menge (auch: "Apfel-M√§nnchen"). Es entsteht aus einer einfachen Formel, wobei das Ergebnis jeder Rechnung wieder in die Formel eingesetzt wird. Dies macht man so oft, bis eine gewisse Grenze √ľberschritten wird und z√§hlt die Anzahl der Schritte. Dieser Anzahl wird dann ein Farbwert zugewiesen.

Das Fraktal ist ein "unendliches" Universum, man kann beliebig oft vergrößern, hinein-zoomen, immer wieder findet man ähnliche Formen.

Desweiteren interessant: Viele Formen in der Natur ähneln Fraktalen bzw. sind damit beschreibbar: Blätter, Bäume, Blutgefäße, Wolken, Schneeflocken, ... Wie bereits erwähnt versucht man auch in verschiedenen medizinischen Meßkurven fraktale Eigenschaften zu finden (EEG, EKG).

Ein bißchen nach Baum sieht das nebenstehende Fraktal aus: Es nennt sich Feigenbaum-Szenario (nach M. Feigenbaum) und zeigt eine oft vorkommende Art des Übergangs von Ordnung zu Unordnung, wie er etwa bei der Verbreitung einer ansteckenden Krankheit auftritt. Links beginnt das System mit einem eindeutigen Zustand, der sich dann bei leichter Veränderung einer Randbedingung in zwei, vier, acht usw. aufspaltet. Bei geringster weiterer Veränderung tritt völliges Chaos ein.

Zusammenfassung

Die Chaostheorie untersucht komplexe nichtlineare dynamische Systeme. Dabei treten grundsätzlich zwei Arten von Prozessen auf:

Aus Ordnung entsteht Chaos: Wie gehen Prozesse, die (oft) einfachen Gesetzen gehorchen, von geordnetem zu (v√∂llig) ungeordnetem Verhalten √ľber?

Vom Chaos zur Ordnung: Wie entstehen in diesen Übergängen wieder neue Ordnungsstrukturen (Antichaos)?

Angemerkt werden muss, dass bisher kein einheitlicher Ablauf gefunden wurde, es gibt √Ąhnlichkeiten, aber jedes System entwickelt sich anders zwischen Chaos und Ordnung. Zusammen mit der gro√üen Anwendungsbreite der Chaostheorie bewirkt dies (zurecht?) Verst√§ndnisschwierigkeiten. Chaostheorie bewirkt Chaos - Durcheinander, Wirrwarr - aber hoffentlich kein G√§hnen!