Unter numerischer Wettervorhersage versteht man die Berechnung der zukünftigen Wetterentwicklung mithilfe mathematischer Modelle. Auf Basis physikalischer Gesetze werden aktuelle Messdaten – etwa zu Luftdruck, Temperatur, Luftfeuchtigkeit und Wind – von leistungsstarken Computern verarbeitet. Das Ergebnis sind Wettermodelle, die mögliche Entwicklungen der Atmosphäre simulieren und Prognosen für die kommenden Tage liefern.
Doch wie genau entstehen diese Modelle, warum gibt es unterschiedliche Vorhersagen und weshalb spielen Wahrscheinlichkeiten dabei eine so grosse Rolle?
Im folgenden Beitrag gibt unser Wetterexperte Roland Schmidt einen fundierten Einblick in die Welt der Wettermodelle und erklärt verständlich, wie moderne Wettervorhersagen heute entstehen.
Von Erfahrung zur Prognose – frühe Formen der Wettervorhersage
Um zu einer guten Wettervorhersage zu gelangen, gibt es grundsätzlich zwei Möglichkeiten: Bei der ersten wird versucht, aus dem Wissen über die Vergangenheit eine Prognose für die Zukunft abzuleiten. So war es vor hundert Jahren vor allem die Erfahrung der Meteorologen, die für eine stimmige Vorhersage gebraucht wurde.
Wer das Verhalten von Hoch- und Tiefdruckgebieten richtig einschätzen konnte, wer wusste, wie sich vergleichbare Wetterlagen in der Vergangenheit weiter entwickelt hatten, der konnte gute Ergebnisse liefern. Wobei sich der Vorhersagezeitraum meist auf zwei bis drei Tage beschränkte und die Aussagen in der Regel sehr allgemein blieben.
Numerische Wettervorhersage: Wetter berechnen mit physikalischen Modellen
Bei der zweiten Möglichkeit wird versucht, dem Wetter mit physikalischen Berechnungen auf die Spur zu kommen. Nachdem die Meteorologie viele Wirkungszusammenhänge erkannt hatte und mit der Entwicklung der Computer die Verarbeitung großer Datenmengen möglich wurde, begann man, Vorhersagen zu berechnen.
Dazu musste zunächst die Ausgangslage möglichst genau erfasst werden; je mehr gemessene Daten aus aller Welt zur Verfügung standen, desto besser. Nichtlineare Gleichungen halfen dabei, aus diesem Material mit Hilfe von numerischen Modellrechnungen die zukünftige Wetterentwicklung darzustellen. Doch erst die Entwicklung immer leistungsfähigerer Supercomputer erlaubte es, aus den riesigen Datenmengen stimmige Vorhersagen abzuleiten. Jeder nationale Wetterdienst benutzte dazu sein eigenes Programm, das die gemessenen Daten wichtete und zu einem Wettertrend, einer Prognose verarbeitete.
Warum Wettermodelle unsicher sind – Grenzen der Ausgangsdaten
Sehr schnell zeigte sich dabei ein grundsätzliches Problem dieser Methode: Die Ausgangslage lässt sich nie hundertprozentig erfassen auch Millionen von Meßergebnissen beschreiben die Realität nur unvollkommen.
Doch auch dafür fand sich eine Lösung: Da die immer schnelleren Rechner es ermöglichten, wurden Modelle nicht nur nach den aktuell gemeldeten sondern auch nach leicht veränderten Ausgangsdaten berechnet. Das trug der Erkenntnis Rechnung, dass der Ist-Zustand der Atmosphäre niemals völlig exakt bestimmt werden kann.
Ensemble- und Cluster-Modelle: Wahrscheinlichkeiten statt Gewissheiten
Die Vielzahl der Ergebnisse war zunächst einmal erstaunlich – schon leicht veränderte Ausgangsdaten führten bei Vorhersagen über mehr als einer Woche zu weit auseinander liegenden Ergebnissen. Die Antwort der Meteorologen auf dieses verwirrend vielfältige Ergebnis bestand in der Bildung von Gruppen, sogenannten Clustern.
Die als „Kontrollläufe“ bezeichneten Modellläufe mit leicht variierten Ausgangsdaten wurden je nach Ähnlichkeit in Clustern zusammengefasst und gemeinsam bewertet. Dabei zeigt sich eine wahrscheinliche Wetterentwicklung häufig schon bis zu zehn Tage im Voraus; oft offerieren die Modelle jedoch einen ganzen Strauß möglicher Entwicklungen.
Deshalb dient der Mittelwert aller Kontrollläufe als Orientierung, er gibt meistens einen deutlichen Hinweis, ob der aktuell berechnete Hauptlauf die tatsächliche Wetterentwicklung gut repräsentiert, oder ob er ein Ausreißer nach oben oder unten darstellt.
Was die vielen Kontrollläufe an Möglichkeiten offerieren, wird gerne als „Modellgeflüster“ bezeichnet, manchmal zeichnen sich hier kommende Entwicklungen schon lange im Voraus ab. Letztendlich spielt auch hier die meteorologische Erfahrung eine große Rolle bei der Einschätzung der Wahrscheinlichkeiten.
KI und statistische Modelle – neue Wege der Wetterprognose
Zu neuem Ansehen ist mittlerweile auch die alte Methode des Vergleichs mit früheren Wetterentwicklungen gelangt. KI-Modelle vergleichen die Anfangsdaten mit den Datensätzen aus den vergangenen Jahrzehnten und liefern damit statistische Modelle, die den numerischen in ihrer Qualität inzwischen nicht mehr nachstehen. So hat die Welt der Modelle einen neuen wertvollen Mitspieler bekommen und bietet damit den Meteorologen eine weitere Informationsquelle für die mittelfristige Vorhersage. Die dadurch in bestimmten Situationen, wie etwa der Aussage über das Weihnachtswetter, noch etwas verzwickter als bislang werden konnte.
Messdaten verstehen – Wetter selbst beobachten
Auch im privaten Umfeld spielen zuverlässige Wetterdaten eine wichtige Rolle. Ob zur Einschätzung des Raumklimas, zur Wetterbeobachtung im Garten oder zur besseren Einordnung von Wetterprognosen – eigene Messungen liefern wertvolle Zusatzinformationen.
Mit Wetterstationen, Thermometern, Thermo-Hygrometern und weiteren Messgeräten von TFA Dostmann lassen sich Temperatur, Luftfeuchtigkeit, Luftdruck und weitere Wetterparameter präzise erfassen. So wird Wetter nicht nur vorhergesagt, sondern auch direkt erlebbar und nachvollziehbar.
Wer Wetterdaten selbst misst, entwickelt ein besseres Verständnis für:
- kurzfristige Wetteränderungen
- regionale Unterschiede
- die Grenzen und Wahrscheinlichkeiten von Prognosen
Damit schliesst sich der Kreis zwischen moderner numerischer Wettervorhersage und der täglichen Wetterbeobachtung vor Ort.