Meteorologen können heute das Wetter mit immer größerer Genauigkeit vorhersagen. Warum sie dennoch immer wieder mal danebenliegen und wieso Wetterforschung weit mehr ist als ein Blick in die Glaskugel, erklären wir hier.
Eine solche Situation kennt fast jeder: Der fest eingeplante Grillabend, auf den sich alle freuen, fällt buchstäblich ins Wasser und wird zur Pfützen-Schlacht. Der Schuldige ist schnell ausgemacht: Mal wieder haben die Meteorologen danebengelegen. Statt Sonnenschein regnet es wie aus Eimern.
Wenn Sie es nicht beim ersten Ärger nicht belassen, sondern wissen wollen, wie eine Wettervorhersage überhaupt zustande kommt, dann sollten Sie jetzt weiterlesen:
Die ersten Wetterfrösche
Seit Urzeiten beobachten die Menschen das Wetter. Schon bei den steinzeitlichen Jägern hing von der richtigen Deutung der Jagderfolg ab. Als der Mensch sesshaft wurde, war die Kenntnis der Wetterabläufe für die Aussaat und Ernte überlebenswichtig.
Für die antiken Hochkulturen der Sumerer, Ägypter, Babylonier und Perser waren die Götter Urheber von allem, was vom Himmel kam: Blitz und Donner, Stürme und Überschwemmungen, Trockenheit und Regen, Hitze und Kälte.
Wetterkunde bei den alten Griechen
Der griechische Philosoph und Naturforscher Aristoteles (384-322 v. Chr.) war der erste, der den religiösen Mythen empirisch – also mit Erfahrungswissen und Experimenten – auf den Grund ging. Sein um 350 v. Chr. erschienenes Buch „Meterologica“ – die Lehre von den Himmelserscheinungen“ blieb über viele Jahrhunderte ein Standardwerk der Wetterkundler.
Mittelalter und Neuzeit
Im Mittelalter und bis in die Neuzeit beruhte die Wettervorhersage vor allem aus Bauernregeln („Wie St. Martin führt sich ein, soll zumeist der Winter sein“), die aus der Beobachtung regionaler Wetterlagen mittelfristige Vorhersagen für sogenannte Lostage in Reimform trafen.
Erfindung des Thermometers
Mit der Erfindung des Thermometers 1592 durch den Physiker Galileo Galilei, des Barometers 1643 durch seinen Schüler Evangelista Torricelli und des Hygrometers, das die Luftfeuchtigkeit misst, hatte man die wichtigsten Messinstrumente in der Hand, um den Zustand der Atmosphäre an einem bestimmten Punkt der Erde zu erforschen.
Die ersten Wetterkarten
1826 veröffentlichte der Physiker und Astronom Heinrich Wilhelm Brandes (1777-1834) die ersten Wetterkarten. Damit begründete er die moderne Wetterkunde, die auch als synoptische Meteorologie bezeichnet wird. Sie befasst sich mit dem aktuellen Wettergeschehen, das sich hauptsächlich in der Troposphäre abspielt – der untersten bis zu 15 Kilometer dicken Schicht der Erdatmosphäre.
Die Messdaten werden an verschiedenen Orten gleichzeitig erhoben, verglichen und zu einer Synopse vereint. Aus dieser Zusammenschau lokaler Phänomene werden Aussagen über die Entwicklung des Wetters in den nächsten Tagen abgeleitet.
Moderne Wetterforschung
Das Prinzip ist bis heute gleich geblieben, nur dass die Werte nicht mehr manuell abgelesen werden, sondern das ganze Verfahren automatisiert ist. Heute sammeln weltweit rund 11 000 Wetterstationen an Land, dazu Wetterschiffe, Wetterballone, Radiosonden, Satelliten, Flugzeuge und Bojen Daten von der Erdoberfläche bis in die höheren atmosphärischen Schichten.
Allein der Deutsche Wetterdienst (DWD), der nationale meteorologische Dienst in Deutschland, betreibt 180 hauptamtliche Wetterwarten und knapp 1800 ehrenamtlich betreute Messstationen.
Diese und andere über den ganzen Planeten verstreuten Messgeräte sind miteinander vernetzt, so dass die aktuellen Wetterinformationen überall von den Meteorologen abgerufen werden können. Das Großrechenzentrum des DWD in Offenbach am Main empfängt, verarbeitet und speichert die weltweiten Wettermeldungen und erstellt daraus mehrmals täglich die Vorhersagen.
Numerische Meteorologie
Zwei Entdeckungen machten es überhaupt erst möglich, die ungeheure Flut an Daten zu ordnen: 1904 beschrieb der norwegische Physiker und Mathematiker Vilhelm Bjerknes die dynamischen Vorgänge in der Atmosphäre mittels mathematisch-physikalischer Gleichungen.
Damit war die Basis für die moderne numerische Wettervorhersage geschaffen. Auf der Grundlage aktueller Wetterdaten berechnet sie den thermodynamischen Zustand für einen späteren Zeitpunkt.
Das Problem war nur, dass ganze Legionen von Mathematikern monatelang damit beschäftigt gewesen wären, um das Wetter auch nur wenige Stunden im Voraus zu berechnen. Erst mit der Erfindung des Computers konnten die komplexen und vielfach rätselhaften Abläufe in der Atmosphäre mit Hilfe aufwendiger mathematischer Modelle simuliert und die ungeheure Datenmenge verarbeitet werden.
Der erste rein elektronische Universalrechner Eniac erstellte im März 1950 die ersten rechnergestützten 24-Stunden-Wettervorhersagen. Dieses Ungetüm, das der US-Armee gehörte, bestand aus fast 17 500 Elektronenröhren, bedeckte eine Fläche von zehn mal 17 Metern und wog 27 Tonnen.
Wetter-Superrechner
Wie weit die Meteorologie in den vergangenen Jahrzehnten vorangeschritten ist, zeigt sich besonders am Stand der Technik. Das moderne Rechensystem des Deutschen Wetterdienstes besteht aus zwei Superrechnern, die kaum größer sind als ein paar Küchenschränke und bis zu 1,1 Billiarden Rechenschritte pro Sekunde ausführen können – so viel wie 30 000 vernetzte Heim PCs.
„Je höher die verfügbare Computerleistung, desto genauer sind die Lösungen, die das Wetter der nächsten Stunden und Tage beschreiben“, erklärt DWD-Präsident Gerhard Adrian. Die Trefferquote der Vorhersagen für die nächsten 24 Stunden liege inzwischen deutlich über 90 Prozent. „Aussagekräftige Vorhersagen sind bis sieben Tage möglich“.
Um festzustellen, wie das Wetter wird, muss man umfassende Messwerte haben. Selbst der beste Superrechner kann nur dann Prognosen ausspucken, wenn ihm die meteorologische Ausgangssituation bekannt ist. Wie also funktioniert eine Wettervorhersage?
Computer-Simulationsmodelle
Die weltweiten, automatisch abgelesenen Wetterdaten von Strahlung, Temperatur, Wind, Feuchte und Luftdruck werden an das Offenbacher Rechenzentrum des Deutschen Wetterdienstes weitergeleitet, wo sie in die Wettervorhersage-Programme eingespeist werden.
Der DWD arbeitet mit drei Computermodellen (daneben gibt es eine Vielzahl weiterer nationaler Simulationsmodelle): ein Globalmodell für die ganze Erde, ein Regionalmodell für Europa und ein hochauflösendes Modell nur für Deutschland.
Um die anfallenden Daten zu berechnen, wird das entsprechende Gebiet gerastert. Der Computer überzieht es mit einem virtuellen Gitter, dessen Maschenbreite 2,8 Kilometer für Deutschland, sieben für Europa und 20 für den Globus beträgt.
Gleichzeitig wird die Atmosphäre in Stockwerke unterteilt. So entsteht ein dreidimensionales Bild vom aktuellen Wetter. Je kleiner die Maschenbreite ist, umso exakter sind die Vorhersagen – umso größer ist aber auch der Rechenaufwand. Irgendwann kommen selbst die stärksten Computer an ihre Grenzen, so dass die Prognosen immer ungenauer werden je weiter man in die Zukunft blickt.
Der menschliche Faktor
Am Ende muss der Mensch die Daten, Karten und Prognosen bewerten. Und da kommen die Meteorologen ins Spiel: Alle paar Minuten laufen die aktuellen Beobachtungen der Satelliten und des Wetterradars auf ihren Monitoren ein. Diese Daten vergleichen sie mit den Wetterkarten, die aufgrund der Computerprognosen erstellt wurden. Es ist Aufgabe dieser Experten, die gesamten Informationen zu beurteilen und daraus Wetter-Vorhersagen zu erstellen, die mehrmals täglich veröffentlicht werden.
Hauptaufgabe der staatlichen und privaten Wetterdienste ist es, Vorhersagen für die Öffentlichkeit und spezielle Nutzer zu treffen – wie den Schiffs- und Flugverkehr, Landwirte, Autofahrer oder Allergiker. Vor allem aber warnen sie vor wetterbedingten Gefahren wie Unwettern, Stürmen oder Starkregen.
Die Schäden, die hierdurch entstehen, können gewaltig sein. So hinterließ der Jahrhundertsturm Lothar, der am 26. Dezember 1999 mit Windgeschwindigkeiten von bis zu 180 Kilometern pro Stunde über Mittel- und Westeuropa hinwegfegte, einen Gesamtschaden von mehr als elf Milliarden Euro.
Chaostheorie und Schmetterlingseffekt
Auch wenn die Vorhersagen immer genauer werden, wird die Trefferquote „niemals hundertprozentig sein, weil schon kleinste Schwankungen in der Atmosphäre das Wetter stark beeinflussen können“, heißt es seitens des DWD. Die Atmosphäre ist ein chaotisches System, das von einer Vielzahl meteorologischer Kräfte bestimmt wird. Wie sich diese Vorgänge wechselseitig auswirken, ist nur annähernd zu bestimmen.
Mit jedem Tag verlieren Wettervorhersagen an Genauigkeit. Seriöse Prognosen sind bis zu sieben Tagen möglich, grobe bis zu zehn Tagen. Für den russischen Mathematiker Wladimir Igorewitsch Arnold (1937-2010) sind zwei Wochen die obere Grenze für seriöse Wettervorhersagen. Alles darüber hinaus ist Spekulation.
Der Grund hierfür liegt in einem Phänomen, das der US-Meteorologe und Begründer der Chaostheorie, Edward Lorenz, 1961 entdeckte: Der Schmetterlingseffekt, benannt nach einem Vortrag Lorenz’ mit dem Titel „Kann der Flügelschlag eines Schmetterlings in Brasilien ein Tornado in Texas auslösen?“ Der Satz ist als Metapher zu verstehen: Komplexe physikalische Systeme wie das Wetter reagieren sehr empfindlich auf kleinste Veränderungen der Ausgangsbedingungen, was zu völlig unterschiedlichen Entwicklungen führen kann.
Globale Datenwüsten
Kleinste Fehler oder Ungenauigkeiten in den Daten und Simulationen können eine Vorhersage komplett verfälschen. Hinzu kommt: Riesige Gebiete in Afrika, der Arktis und Antarktis sowie die Ozeane sind Datenwüsten, die nur unzureichend beobachtet werden.
Deshalb verwendet der DWD und andere Wetterdienste heute die sogenannte Ensemble-Vorhersage: Der Computer berechnet parallel mehrere leicht abgewandelte Szenarien. Die wahrscheinlichste Vorhersage bildet schließlich die Grundlage für den offiziellen Wetterbericht.