Wetterhäuschen wie dieses sind Hygrometer – also Messinstrumente zur Bestimmung der Luftfeuchtigkeit – in Form eines zweitürigen Miniaturhauses. Durch eine einfache Mechanik reagiert das Gerät auf die Luftfeuchtigkeit und kann mithilfe von beweglichen Figuren das Wetter anzeigen. Foto: dpa

Meteorologen können das Wetter mit immer größerer Genauigkeit vorhersagen. Warum sie dennoch immer wieder danebenliegen.

Stuttgart/Darmstadt - Die Situation kennt fast jeder: Der fest eingeplante Grillabend fällt ins Wasser, das Schneewandern wird zur Pfützenschlacht. Der Schuldige ist schnell ausgemacht: Die Meteorologen haben mal wieder daneben gelegen. Statt dem vorhergesagten Sonnenschein oder Neuschnee regnet es wie aus Eimern. Wir wollen es beim Ärger aber nicht belassen, sondern wollen wissen, wie eine Wettervorhersage überhaupt zustande kommt.

Die ersten Wetterfrösche

Seit Urzeiten beobachten die Menschen das Wetter. Schon bei den steinzeitlichen Jägern hing von der richtigen Deutung der Jagderfolg ab. Als der Mensch sesshaft wurde, war die Kenntnis der Wetterabläufe für die Aussaat und Ernte überlebenswichtig. Für die alten Sumerer, Ägypter, Babylonier und Perser waren die Götter Urheber von allem, was vom Himmel kam: Blitz und Donner, Stürme und Überschwemmungen, Trockenheit und Regen, Hitze und Kälte.

Der griechische Philosoph und Naturforscher Aristoteles (384-322 v. Chr.) war der erste, der den religiöses Mythen empirisch auf den Grund ging. Sein um 350 v. Chr. erschienenes Buch „Meterologica“ – die Lehre von den Himmelserscheinungen – blieb über viele Jahrhunderte ein Standardwerk der Wetterkundler.

Im Mittelalter und bis in die Neuzeit beruhte die Wettervorhersage vor allem aus Bauernregeln („Wie St. Martin führt sich ein, soll zumeist der Winter sein“), die aus der Beobachtung regionaler Wetterlagen mittelfristige Vorhersagen für sogenannte Lostage in Reimform trafen.

Erfindung des Thermometers

Mit der Erfindung des Thermometers 1592 durch den Physiker Galileo Galilei, des Barometers 1643 durch seinen Schüler Evangelista Torricelli und des Hygrometers, das die Luftfeuchtigkeit misst, hatte man die wichtigsten Messinstrumente in der Hand, um den Zustand der Atmosphäre an einem bestimmten Punkt der Erde zu erforschen.

Die ersten Wetterkarten

1826 veröffentlichte der Physiker und Astronom Heinrich Wilhelm Brandes (1777-1834) die ersten Wetterkarten. Damit begründete er die moderne Wetterkunde, die auch als synoptische Meteorologie bezeichnet wird. Sie befasst sich mit dem aktuellen Wettergeschehen, das sich hauptsächlich in der Troposphäre abspielt – der untersten bis zu 15 Kilometer dicken Schicht der Erdatmosphäre.

Die Messdaten werden an verschiedenen Orten gleichzeitig erhoben, verglichen und zu einer Synpose vereint. Aus dieser Zusammenschau lokaler Phänomene werden Aussagen über die Entwicklung des Wetters in den nächsten Tagen abgeleitet.

Moderne Meteorologie

Das Prinzip ist bis heute gleich geblieben, nur dass die Werte nicht mehr manuell abgelesen werden, sondern das ganze Verfahren automatisiert ist. Heute sammeln weltweit rund 11 000 Wetterstationen an Land, dazu Wetterschiffe, Wetterballone, Radiosonden, Satelliten, Flugzeuge und Bojen Daten von der Erdoberfläche bis in die höheren atmosphärischen Schichten.

Allein der Deutsche Wetterdienst (DWD), der nationale meteorologische Dienst in Deutschland, betreibt 180 hauptamtliche Wetterwarten und knapp 1800 eheramtlich betreute Messstationen.

Diese und andere über den ganzen Planeten verstreuten Messgeräte sind miteinander vernetzt, so dass die aktuellen Wetterinformationen überall von den Meteorologen abgerufen werden können. Das Großrechenzentrum des DWD in Offenbach am Main empfängt, verarbeitet und speichert die weltweiten Wettermeldungen und erstellt daraus mehrmals täglich die Vorhersagen.

Geburt der numerischen Meteorologie

Zwei Entdeckungen machten es erst möglich, die ungeheure Flut an Daten zu ordnen: 1904 beschrieb der norwegische Physiker und Mathematiker Vilhelm Bjerknes die dynamischen Vorgänge in der Atmosphäre mittels mathematisch-physikalischer Gleichungen. Damit war die Basis für die moderne numerische Wettervorhersage geschaffen. Auf der Grundlage aktueller Wetterdaten berechnet sie den thermodynamischen Zustand für einen späteren Zeitpunkt.

Das Problem war nur, dass ganze Legionen von Mathematikern monatelang damit beschäftigt gewesen wären, um das Wetter auch nur wenige Stunden im voraus zu berechnen. Erst mit der Erfindung des Computers konnten die komplexen und vielfach rätselhaften Abläufe in der Atmosphäre mit Hilfe aufwendiger mathematischer Modelle simuliert und die ungeheure Datenmenge verarbeitet werden.

Der erste rein elektronische Universalrechner Eniac erstellte im März 1950 die ersten rechnergestützten 24-Stunden-Wettervorhersagen. Dieses Ungetüm, das der US-Armee gehörte, bestand aus fast 17 500 Elektronenröhren, bedeckte eine Fläche von zehn mal 17 Metern und wog 27 Tonnen.

Wetter-Superrechner: 1,1 Billiarden Rechenschritte in einer Sekunde

Wie weit die Meteorologie in den vergangenen Jahrzehnten vorangeschritten ist, zeigt sich besonders am Stand der Technik. Das im vergangenen Dezember in Betrieb genommene neue Rechensystem des DWD besteht aus zwei Superrechnern, die kaum größer sind als ein paar Küchenschränke und bis zu 1,1 Billiarden Rechenschritte pro Sekunde ausführen können – soviel wie 30 000 vernetzte Heim PCs.

„Je höher die verfügbare Computerleistung, desto genauer sind die Lösungen, die das Wetter der nächsten Stunden und Tage beschreiben“, erklärt der Präsident des Deutschen Wetterdienstes, Gerhard Adrian. Die Treffequote der Vorhersagen für die nächsten 24 Stunden liege inzwischen deutlich über 90 Prozent. „Aussagekräftige Vorhersagen sind bis sieben Tage möglich“.

Um festzustellen, wie das Wetter wird, muss man umfassende Messwerte haben. Selbst der beste Superrechner kann nur dann Prognosen ausspucken, wenn ihm die meteorologische Ausgangssituation bekannt ist. Wie also funktioniert eine Wettervorhersage?

Mit Computer-Simulationsmodellen das Wetter vorhersagen

Die weltweiten, automatisch abgelesenen Wetterdaten von Strahlung, Temperatur, Wind, Feuchte und Luftdruck werden an das Offenbacher Rechenzentrum des Deutschen Wetterdienstes weitergeleitet, wo sie in die Wettervorhersage-Programme eingespeist werden. Der DWD arbeitet mit drei Computermodellen (daneben gibt es eine Vielzahl weiterer nationaler Simulationsmodelle): ein Globalmodell für die ganze Erde, ein Regionalmodell für Europa und ein hoch auflösendes Modell nur für Deutschland.

Um die anfallenden Daten zu berechnen, wird das entsprechende Gebiet gerastert. Der Computer überzieht es mit einem virtuellen Gitter, dessen Maschenbreite 2,8 Kilometer für Deutschland, sieben für Europa und 20 für den Globus beträgt. Gleichzeitig wird die Atmosphäre in Stockwerke unterteilt.

So entsteht ein dreidimensionales Bild vom aktuellen Wetter. Je kleiner die Maschenbreite ist, umso exakter sind die Vorhersagen – umso größer ist aber auch der Rechenaufwand. Irgendwann kommen selbst die stärksten Computer an ihre Grenzen, so dass die Prognosen immer ungenauer werden je weiter man in die Zukunft blickt.

Am Ende muss der Mensch die Daten, Karten und Prognosen bewerten

Nun kommen die Meteorologen ins Spiel: Alle paar Minuten laufen die aktuellen Beobachtungen der Satelliten und des Wetterradars auf ihren Monitoren ein. Diese Daten vergleichen sie mit den Wetterkarten, die aufgrund der Computerprognosen erstellt wurden. Es ist Aufgabe dieser Experten, die gesamten Informationen zu beurteilen und daraus Wetter-Vorhersagen zu erstellen, die mehrmals täglich veröffentlicht werden.

Hauptaufgabe der staatlichen und privaten Wetterdienste ist es, Vorhersagen für die Öffentlichkeit und spezielle Nutzer zu treffen – wie den Schiffs-und Flugverkehr, Landwirte, Autofahrer oder Allergiker. Vor allem aber warnen sie vor wetterbedingten Gefahren wie Unwettern, Stürmen oder Starkregen. Die Schäden, die hierdurch entstehen, sind gewaltig. So hinterließ der Jahrhundertsturm Lothar, der am 26. Dezember 1999 mit Windgeschwindigkeiten von bis zu 180 Kilometern pro Stunde über Mittel- und Westeuropa hinwegzog, einen Gesamtschaden von gut elf Milliarden Euro.

Chaostheorie und Schmetterlingseffekt

Auch wenn die Vorhersagen immer genauer werden, wird die Trefferquote „niemals hundertprozentig sein, weil schon kleinste Schwankungen in der Atmosphäre das Wetter stark beeinflussen können“, heißt es seitens des DWD. Die Atmosphäre ist ein chaotisches System, das von einer Vielzahl meteorologischer Kräfte bestimmt wird. Wie sich diese Vorgänge wechselseitig auswirken, ist nur annähernd zu bestimmen.

Mit jedem Tag verlieren Wettervorhersagen an Genauigkeit. Seriöse Prognosen sind bis zu sieben Tagen möglich, grobe bis zu zehn Tagen. Für den russischen Mathematiker Wladimir Igorewitsch Arnold (1937-2010) sind zwei Wochen die obere Grenze für seriöse Wettervorhersagen. Alles darüber hinaus ist Spekulation.

Der Grund hierfür liegt in einem Phänomen, das der US-Meteorologe und Begründer der Chaostheorie, Edward Lorenz, 1961 entdeckte: Der Schmetterlingseffekt, benannt nach einem Vortrag Lorenz’ mit dem Titel „Kann der Flügelschlag eines Schmetterlings in Brasilien eine Tornado in Texas auslösen?“ Der Satz ist als Metapher zu verstehen: Komplexe physikalische Systeme wie das Wetter reagieren sehr empfindlich auf kleinste Veränderungen der Ausgangsbedingungen, was zu völlig unterschiedlichen Entwicklungen führen kann.

Riesige Gebiete auf dem Globus sind Datenwüsten

Kleinste Fehler oder Ungenauigkeiten in den Daten und Simulationen können eine Vorhersage komplett verfälschen. Hinzu kommt: Riesige Gebiete in Afrika, der Arktis und Antarktis sowie die Ozeane sind Datenwüsten, die nur unzureichend beobachtet werden. Deshalb verwendet der DWD und andere Wetterdienste heute die sogenannte Ensemble-Vorhersage: Der Computer berechnet parallel mehrere leicht abgewandelte Szenarien. Die wahrscheinlichste Vorhersage bildet schließlich die Grundlage für den offiziellen Wetterbericht.