Neue Ansätze versuchen, Extremereignisse wie Sturmfluten, Erdbeben, Wirbelstürme und Börsenkräche zumindest im Rahmen des Möglichen zu erfassen.
Wenn man eine drohende Katastrophe schon nicht vorausberechnen kann, dann kann man wenigstens Statistik betreiben. Die einzelne Wasserwelle, die an die Küste schwappt, ist weder vorhersagbar noch besonders interessant – es sei denn, sie wäre höher als der Deich, und das kommt glücklicherweise selten vor. Es müssten sich schon die Effekte, die die kleinen Wellen verursachen, alle mit dem gleichen Vorzeichen zur gleichen Zeit zusammentun, damit eine solche Katastrophe eintritt.
Einige dieser Effekte sind bekannt und ohne weiteres berechenbar: Das sind Ebbe und Flut. Von den anderen nehmen wir an, dass sie vom Zufall verursacht sind, und zwar alle von derselben Sorte Zufall. Über diesen Zufall stellt man Vermutungen an, gleicht diese mit der bisher beobachteten Realität ab und kommt so zu einer brauchbaren Prognose. Nicht wann die nächste Sturmflut kommt und wie hoch sie ausfällt, aber immerhin Aussagen der Art, dass eine Sturmflut von mehr als acht Metern Höhe im Durchschnitt nur alle hundert Jahre zu erwarten ist.
Das ist alles wohletablierte Mathematik. Carl Friedrich Gauß (1777–1855) hat, neben anderen mathematischen Großtaten, dafür die theoretische Grundlage gelegt, und wir durften immerhin fast zehn Jahre lang das wesentliche Ergebnis, nämlich die gaußsche Glockenkurve samt Formel, mit uns herumtragen – in Gestalt des letzten Zehnmarkscheins. Der Ärger ist nur: Die Realität hält sich nicht an die Theorie. Ein Ereignis, sagen wir ein Hochwasser, ist umso seltener, je höher es ist. Aber die Gauß-Kurve sagt darüber hinaus, die ganz großen Hochwässer müssten geradezu absurd selten sein. Was nicht der Fall ist, denn sie kommen ja vor.
Darauf stellen sich die nahe liegenden Fragen: Was ist falsch an der Theorie? Und wie kann man es besser machen? Die erste Frage ist schnell beantwortet: Unter den Annahmen, die der Gauß-Verteilung zu Grunde liegen, ist auch die Linearität. Zwei verschiedene Effekte addieren sich einfach auf. Das ist zwar für Wasserwellen der Fall – in der Experimentierwanne des Physikers. Im Ozean mit seinem zuweilen gebirgigen Meeresboden und der großen Ausdehnung stimmt das offensichtlich nicht mehr. Seit man auf Satellitenbildern sogar die Höhe einzelner Wellenkämme bestimmen und auszählen kann, ist erwiesen, dass die Monsterwellen, die ganze Schiffe zerbrechen können, kein Seemannsgarn sind. Bei Erdbeben scheint es sogar einleuchtend, dass die doppelte Gesteinsverschiebung zwar die doppelte Spannung im Gestein aufbaut, aber die Entladung dieser Spannung, das heißt das Erdbeben, vielleicht viel schlimmer als nur doppelt so stark ausfällt.
Die zweite Frage ist viel schwieriger. Wenn das Phänomen nichtlinear ist, kommen viel mehr theoretische Modelle in Frage, als man durch Abgleich mit den Daten aussortieren kann. Vielleicht bleibt eine große Wasseranhäufung lange genug bestehen, um eine über sie hinweglaufende Welle wie eine Sammellinse zu bündeln, mit dramatischen Wirkungen im Brennpunkt der Linse. Bei den Erdbeben kommt man immerhin zu Aussagen der Art, dass ein Erdstoß das Gestein in dieser Region so weit entlastet hat, dass der nächste eine Weile auf sich wird warten lassen. Aber eine Theorie mit überprüfbaren Vorhersagen ist das in beiden Fällen noch nicht.
Wie Frank Grotelüschen in der neuesten Ausgabe von “Spektrum der Wissenschaft” berichtet, verfallen die Wissenschaftler in dieser Situation auf mehrere Auswege. Erstens Statistiken, die kein theoretisches Modell voraussetzen, sondern nur Datenreihen aus der Vergangenheit intensiv analysieren. Man passt Kurven mit freien Parametern diesen vergangenen Daten an und hofft, dass die unbekannten Mechanismen hinter dem Phänomen sich nicht wesentlich geändert haben. Das lässt die Warnung vor einer Katastrophe angesagt erscheinen, wenn die aktuellen Daten genauso aussehen wie die Daten vor der letzten Katastrophe. In Zeiten des Klimawandels kann man sich allerdings nicht einmal auf die Konstanz der zu Grunde liegenden Mechanismen verlassen.
Zweitens “Spielzeugmodelle”. Da studiert man tatsächlich statt echter Erdbeben Lawinen an Sandhaufen, die von oben mit frischem Sand berieselt werden. Das ist auf den zweiten Blick gar nicht so albern: In beiden Fällen bauen sich Energien auf, die sich plötzlich wieder entladen. Die Größe der Sandlawinen verteilt sich nach einem Muster, für das man sogar, weil Sandhaufen vergleichsweise einfache physikalische Systeme sind, eine Theorie findet. Das ergibt wieder eine Schar von Kurven mit freien Parametern; und vielleicht gelingt es ja, auf diesem Wege sogar eine brauchbare Erdbebenprognose zu erstellen. Allerdings muss man dafür warten, bis ausreichend extreme Ereignisse eingetreten sind. Die sind zwar nicht so selten, wie die klassische Theorie vorhersagt, aber immerhin so selten, dass es sehr schwierig ist, daran die richtigen von den falschen Theorien zu unterscheiden. Seien wir froh darüber. (Quelle: Spektrum der Wissenschaft, Januar 2010 – Abb. Temari09 (flickr) cc-by-sa )