Meteomodelle besser verstehen

Wettermodelle werden immer besser. Wer freilich wissen will, ob und wann er den Ergebnissen vertrauen kann, sollte sich mit den Grenzen der Modelle auskennen. Eine Anleitung.

Wettermodelle berechnen die Veränderungen der Atmosphäre in einem
dreidimensionalen Raster. Das feinere Raster liefert dabei nicht immer
die besseren Ergebnisse.
Viele Wetterkarten und -grafiken, die im Fernsehen wie im Internet auf allen möglichen Kanälen zu sehen sind, sehen blendend aus – und sind es im Wortsinne auch. Denn sie gaukeln dem Zuschauer vor, die Modelle könnten das Geschehen in der Atmosphäre bis in feine Details hinein erfassen. Tatsächlich ist das noch lange nicht so und wird wahrscheinlich auch nie so sein. Denn das Wetter ist und bleibt ein Prozess, der vom Chaos regiert wird. Die Kunst der Modellierung besteht darin, so gut es geht die ordnenden Kräfte im Chaos mit Formeln zu erfassen und die prägenden Muster darin zu erkennen.

Welches Wettermodell ist dabei das Beste? Diese Frage stellen sich viele Piloten. Jeder hätte natürlich gerne die simpelste Lösung: Man schaut nur auf eine bestimmte Internetseite und ist immer ideal bedient. Doch so einfach ist das nicht. Je nachdem, was genau ich über das Wetter der Zukunft erfahren will, können ganz unterschiedliche Modelle für einen Ort und für einen bestimmten Zeitpunkt die jeweils beste, das heißt zutreffendste Antwort liefern.

Das hängt damit zusammen, wie diese Modelle funktionieren, woher sie ihre Grunddaten bekommen und wie genau sie die reale Umwelt abzubilden in der Lage sind. Eine kleine Überraschung sei schon vorweg verraten: Das rechnerisch betrachtet "genauere" Modell ist nicht in jedem Fall das bessere! Aber dazu später mehr. Schauen wir erst einmal, wie so ein Wettermodell grundsätzlich funktioniert.


Feiner ist nicht immer treffender

Wettermodelle erfassen nicht die ganze Atmosphäre
sondern nur punktuelle Stichproben in einem
dreidimensionalen Gitterraster.
// Quelle: Meteoblue.com
Um die Atmosphäre überhaupt modellhaft erfassen zu können, wird sie im Computer nur stichprobenartig abgebildet. Die Stichproben werden nach einem bestimmten Raster verteilt. Man muss sich das vorstellen wie ein Netz aus in der Regel rechteckigen Maschen, das den gesamten Globus ähnlich einem Gitter aus Längen- und Breitengraden überspannt. Weil sich das Wetter in drei Dimensionen abspielt, erstreckt sich das Netz vom Boden aus auch in vielen weiteren Schichten in die Höhe – bis an den äußeren Rand der Atmosphäre. Jeder Knoten- oder Gitterpunkt dieses 3D-Netzes stellt eine Stichprobe bzw. einen Modellrechenpunkt dar.

Wie dicht dieses Raster gesetzt ist – sowohl horizontal wie auch vertikal – ist eines der zentralen Unterscheidungsmerkmale von Wettermodellen. Ein kleineres Raster bedeutet mehr Punkte, die berechnet werden müssen. Die dafür erforderliche Rechenleistung steigt exponentiell mit der Punktedichte an. Globale Wettermodelle, die die gesamte Erde umfassen, rechnen typischerweise mit einer geringeren Auflösung als solche, die nur einzelne Regionen oder Kontinente abbilden.

Erdumspannende Wettermodelle wie GFS, ECMWF oder Icon (siehe unten: Die wichtigsten Wettermodelle) besitzen heute typische Rasterweiten zwischen 13 und 40 Kilometer. Bei den eingegrenzten, lokaleren Modellen sind Raster von zwei bis zwölf Kilometer üblich. Einzelne Wetterdienste arbeiten sogar mit Modellen mit nur noch einem Kilometer Maschenweite. Aber wie schon oben gesagt: feiner ist nicht grundsätzlich besser.


Schnappschüsse der Atmosphäre
Je feiner das Modellraster, desto genauer wird im Wettermodell
auch die Topografie des Geländes erfasst. Der Vergleich zeigt
die Sichtweise des GFS-Modells mit 40 und mit 13 km Raster.
// Quelle: ilmeteo.it
Vor dem Start eines Modelllaufes werden die Computer mit aktuellen Wetterdaten gefüttert. Jede Masche des Modellgitters bekommt Werte für Temperatur, Luftdruck, Wassergehalt etc. zugewiesen. Diese sogenannte Datenassimilation ist nicht einfach. Nur in den seltensten Fällen befindet sich genau an einem Rasterpunkt auch eine passende Wetterstation. Also müssen die Werte von Stationen in der Umgebung übernommen, möglicherweise interpoliert und auch korrigiert werden (z.B. Umrechnung auf Meereshöhe). Die Daten für die höheren Luftschichten stammen wiederum von Messungen mit Wetterballons, von Verkehrsflugzeugen und vor allem aus Satellitenmessungen. Viele der erforderlichen Parameter lassen sich per Fernerkundung aus dem All freilich nur näherungsweise bestimmen. Entsprechend groß können die Ungenauigkeiten sein.

In jedem Modell gibt es unzählige komplizierte Gleichungen, welche die Abhängigkeiten einzelner Variablen wie Temperatur, Feuchte, Sonneneinstrahlung etc. für jeden einzelnen Gitterpunkt beschreiben. Der Computer löst diese Gleichungen in Zeitschritten von typischerweise zwei Minuten oder weniger. So fertigt er pro Vorhersagetag 720 dreidimensionale „Schnappschüsse“ des Zustandes unserer Atmosphäre an. Die klassischen Wetter-, Wind-, Druck-, Temperatur- oder Feuchtekarten, die wir dann am Ende im Internet zu sehen bekommen, stellen jeweils einen Ausschnitt dieser Ergebnisse zu einem bestimmten Zeitpunkt dar.

Wie genau die Wettermodelle die reale Wetterentwicklung vorhersagen können, hängt von vielen verschiedenen Faktoren ab. Das fängt schon damit an, was man unter „genau“ versteht – das heißt welchen Maßstab man an das Wettermodell überhaupt anlegt. Muss die Prognose von Temperatur, Sonnenscheindauer oder Windstärke punktgenau für einen spezifischen Ort zutreffen, oder soll sie nur den ungefähren regionalen Charakter des Wetters erfassen, um die Qualität eines Flugtages abschätzen zu können? Die gröberen, globalen Modelle können zwangsläufig nur letzteres liefern. Die feineren Modelle sind für differenziertere Punktprognosen geeignet.


Wenn das Chaos regiert

Ein Meteogramme für den Patscherkofel
auf Basis des Super-HD-Modells (1 km)
von kachelmannwetter.de. Den Werten sollte man
nur für die ersten 12 Stunden vertrauen und
sie danach mit zunehmender Vorsicht genießen.
// Quelle: kachelmannwetter.de
Wichtig ist hierbei zu verstehen, warum die Modelle mit einem feineren Raster dennoch mit Blick auf Flugwetterprognosen nicht zwangsläufig die besseren Ergebnisse liefern. Das hat zum einen mit der Datenassimilation und zum anderen mit den Regeln des Chaos zu tun.

Zur Erinnerung: Datenassimilation ist der Prozess, mit dem alle Rasterpunkte eines Modells mit den nötigen Ausgangsdaten versorgt werden. Wollte man ein Modell mit einem 2-km-Raster perfekt mit Daten ausstatten, bräuchte man gewissermaßen alle zwei Kilometer eine Wetterstation. Das ist in der Praxis aber nirgendwo zu finden. Also müssen viele der Daten zwangsläufig als gemittelte, interpolierte oder indirekt abgeleitete Schätzwerte eingespeist werden. Dabei kann es zu vielen kleinen Fehlern kommen.

Bei der eigentlichen Modellberechnung kommen dann die Charakterzüge des Chaos zum Vorschein. Anfangs kleine Fehler können sich mit der Zeit potenzieren. Und da ein feines Modell von Anfang an in der Summe viel mehr kleine Fehler enthält als ein grobes, können sich diese Abweichungen gegenseitig regelrecht aufschaukeln. Anders gesagt: Lokalmodelle mit einem engen Raster laufen deutlich schneller aus dem Ruder als die gröberen Globalmodelle.

In der Praxis hat sich folgende Daumenregel bewährt: Auf die Ergebnisse von Lokalmodellen mit einem Raster unter fünf Kilometer kann man typischerweise für die nächsten zwölf, maximal 24 Stunden vertrauen. Bis 48 Stunden sind auch noch Modelle mit zehn Kilometer Raster halbwegs zutreffend. Spätestens ab dem dritten Tag und darüber hinaus liefern die Globalmodelle mit mehr als zehn Kilometer Maschenweite in der Regel die vertrauenswürdigeren Resultate – natürlich mit der Einschränkung, dass auch bei diesen die Vorhersagequalität mit jedem weiteren Tag in die Zukunft stetig abnimmt.

Bei Flugwetterprognosen für Gleitschirmflieger bringen die feineren Modelle übrigens auch für den jeweils aktuellen Tag nur einen geringen Mehrwert. Die thermische Qualität eines Tages oder die überregionalen Windströmungen, deren Richtung und Stärke man für die eigene Flugplanung kennen sollte, lassen sich heute auch aus Globalmodellen hinreichend genau ablesen.


Lokale Winde im Modell
Detaillierte Lokalwindprognose des RASP-Modells von Meteovolo.it.
Trotz starkem Nordwind stellt das Modell das Seewindsystem
im Windschatten der Sierra Nevada bei Almeria korrekt dar.
// Quelle: meteovolo.it
Vorteile zeigen die Feinmodelle im Grunde nur in zwei Bereichen: Zum einen gilt, dass sie die Geländestrukturen wie Täler und Höhenzüge viel genauer abbilden. Deshalb können sie deren Einfluss auf die bodennahen Winde viel besser erfassen. Talwinde in den Alpen werden davon zwar immer noch nicht voll zufriedenstellend abgebildet. Doch bei Windprognosen im Flachland und den Mittelgebirgen erweisen sie sich als gute Helfer, um typische lokale Abweichungen und Besonderheiten zu erfassen. Dies gilt allerdings nur für die nächsten 24 Stunden.

Der zweite Fall, bei dem die Feinmodelle deutlich besser abschneiden, ist in den Grenzbereichen sehr unterschiedlicher Landschaftselemente. Ein Beispiel sind Küstengebiete, wo zwischen Wasser und Landmassen Seewindsysteme herrschen. Globalmodelle sind zu grob, um solche lokalen Phänomene halbwegs realistisch zu erfassen. Die Feinmodelle können hingegen Anhaltspunkte liefern, wo an Küsten geflogen werden kann, auch wenn der überregionale Wind eigentlich "von hinten" weht.

Ein Problem in der Praxis ist: Wie kommt man überhaupt an diese fein gerechneten Daten heran? Auf klassischen Meteokarten im Internet, die beispielsweise ganz Deutschland darstellen, werden die Windpfeile typischerweise in einem räumlichen Abstand von 0.5° oder 0.25° angezeigt. Das entspricht 50 bzw. 25 Kilometer – ist also viel zu grob, um lokale Windsysteme darauf erkennen zu können. Es gibt aber löbliche Ausnahmen.

Meteo-Parapente.com zeigt die sehr fein aufgelösten Windprognosen
des französischen Modells Arome. Auch Feinheiten wie die
lokale Windstille im engen Rheintal werden erfasst.
// Quelle: meteo-parapente.com
Ein Beispiel ist die Flugwetterseite www.Meteo-Parapente.com. Dort lässt sich das französische Wettermodell Arome anwählen, das mit einem 2-km-Raster rechnet und mit einer sehr guten Datenassimilation arbeitet. In die Wetterkarten mit der Winddarstellung lässt sich regional sehr weit hineinzoomen. So werden auch lokale Windablenkungen etwa rund um das Rheintal sehr gut erfasst. Für die deutschen Mittelgebirge gehören die Arome-Windprognosen derzeit zum Besten, was man im Netz finden kann. Ähnlich gute zoombare Winddarstellungen gibt es auch bei www.Meteovolo.it (ist für die feineren Zoomstufen allerdings kostenpflichtig).

Ein anderer Tipp ist Kachelmannwetter.de. Die Seite liefert seit wenigen Monaten sogar Windwerte eines Super-HD-Wettermodells mit nur 1-km-Maschenweite. Klassische oder zoombare Windkarten gibt es für das Super-HD-Modell zwar nicht, man kann aber nach Orten oder auch bekannten Berggipfeln (z.B. Hohe Salve, Patscherkofel o.ä.) suchen und sich dafür ein Meteogramm anzeigen lassen (ein Beispiel dazu ist weiter oben dargestellt). Darin sind stündliche Windfähnchen enthalten, die häufig erstaunlich gut die lokalen Geländeeinflüsse berücksichtigen. Da das Modell noch relativ neu ist, fehlen allerdings ausreichende Erfahrungswerte, um es eindeutig empfehlen zu können. Eins ist aber jetzt schon klar: Auch wenn diese Super-HD-Meteogramme von Kachelmann 2,5 Tage umfassen, sollte man sie am besten nur für die ersten zwölf angezeigten Stunden ernsthaft zu Rate ziehen, z.B. bei der letzten morgendlichen Meteo-Analyse, bevor man ins Gelände fährt.


Die wichtigsten Wettermodelle

GFS: Das Global Forecasting System der US-Wetterbehörde NOAA rechnet als Globalmodell bis zu 384 Stunden voraus. Alle Daten sind frei verfügbar, weshalb man von diesem Modell die umfangreichsten Wetterinfos im Netz findet. Seiten wie z.B. www.windytv.com basieren auf GFS.

ECMWF: Das europäische Pendant zu GFS gilt in der Mittelfristprognose (3-10 Tage) aktuell als das beste Globalmodell. Allerdings sind nur eingeschränkte Datensätze frei im Internet verfügbar. Eine mögliche Quelle: www.wetter24.de/profi/ecmwf

ICON: Das Globalmodell des Deutschen Wetterdienstes. Darin eingebettet gibt es nach dem gleichen Rechenmuster ein Regionalmodell mit 7-km-Raster (intern auch Cosmo-EU genannt), das ganz Deutschland und den Alpenraum abdeckt. Karten hierzu z.B. auf www1.wetter3.de/icon025.html

NEMS: Hauptmodell der Regionalvorhersagen und Meteogramme, die auf der beliebten Wetterseite www.meteoblue.ch zu finden sind. Es wird in unterschiedlichen Rastern gerechnet (Europa mit 3 bzw. 12 km). Die NEMS-Daten für Europa werden auch auf www.windytv.com visualisiert.

RASP: Thermikprognosemodelle vom Typ RASP greifen alle auf Eingangsdaten von GFS zurück und rechnen diese dann fein. Die Auflösungen reichen hinab bis zu 2,5 km. Besonders differenzierte Lokalwinddarstellungen gibt es bei www.meteo-parapente.com und www.meteovolo.it

Arome: Das Lokalmodell des französischen Wetterdienstes mit nur 2-km-Raster besticht durch eine sehr gute Datenassimilation (viele Wetterstationen). Das ermöglicht besonders genaue Bodenwindprognosen (bis 24h). Zoombare Meteokarten hierzu auf www.meteo-parapente.com

Kachelmann-Super-HD: Das feine Modell von www.Kachelmannwetter.de rechnet mit 1x1 km Raster. Interessant sind dabei vor allem die punktgenauen Meteogramme, die man nicht nur für Ortschaften, sondern beispielsweise auch für markante Berge in den Alpen abrufen kann.


Hinweis: Wem dieser Beitrag bekannt vorkam, muss sich nicht wundern. Der Text ist in ähnlicher Fassung bereits im DHV-Info 199 erschienen. Wem die Lektüre so oder so etwas gebracht hat, kann Lu-Glidz gerne als Förderer unterstützen.
Share on Google Plus

3 Kommentare:

Anonym hat gesagt…

Als Zusatz:
Das "aus dem Ruder laufen" der fein aufgelösten Modelle ist durchaus richtig. Die Natur macht das auch. Nur merken wir das nicht, da es unsere Welt nur einmal gibt und wir so keinen Vergleich haben. Wenn man ein Ensemble aus vielen Modelläufen mit hoher Auflösung macht bekommt man eine Wahrscheinlichkeitsaussage. In diesem Sinne sollten hochaufgelöste Modelle immer besser sein.
Die Modelle mit niedriger Auflösung unterschätzen wie "chaotisch" die Realität ist und wie stark sich kleine Unterschiede auswirken können.
Allerdings wird ein einzelnes grobes Modelle nach einiger Zeit evtl den warscheinlichsten Zustand besser repräsentieren, während einzelne feine Modelle besser die Randbereiche des Möglichen abbilden.
Der Mittelwert über viele feine Modelle sollte aber dennoch überlegen sein.
Des Weiteren ist mit dem Ensemble ein Mass für den erwartbaren Fehler gegeben.
Siehe z.B. : http://www.dwd.de/DE/forschung/wettervorhersage/num_modellierung/04_ensemble_methoden/ensemble_vorhersage/ensemble_vorhersage_node.html
Und: http://www.dwd.de/DE/forschung/wettervorhersage/num_modellierung/05_verifikation/verifikation_node.html

Tobias

Lucian Haas hat gesagt…

Lieber Tobias, vielen Dank für den Hinweis auf die Ensemble-Prognosen. Diese werden ja zunehmend in der "großen" Meteorologie zum Maß der Dinge. Sie sind auch sehr hilfreich, um die Tendenzen der Wetterentwicklung genauer erfassen zu können. Allerdings stehen Ottonormalflieger diese Ensembledaten kaum öffentlich zur Verfügung. Wir müssen mit dem arbeiten, was wir kriegen können. Und das sind in der Regel die Ergebnisse jeweils eines Modelllaufes. Alternativ kann man noch verschiedene Modelle miteinander vergleichen. Das ist dann zwar kein klassisches Ensemble, liefert aber auch einen Eindruck darüber, wie konsistent oder chaotisch sich die aktuelle Wetterlage darstellt.

Anonym hat gesagt…

Danke für den tollen Artikel mit Aha-Effekt!

Gruß
Andreas