Bessere Wettervorhersage mit maschinellem Lernen?
bessere Wettervorhersage durch Kombination von physikalischem Modell und maschinellem Lernen (ML)
bisher Limitationen bei ML-Methoden, Vorhersagen mit physikalischen Modellen sind zeitaufwendig und rechenintensiv
Forschende loben Studie trotz gewisser Limitationen, betonen künftigen Stellenwert von ML-Methoden bei Wettervorhersage
Ein Ansatz, der maschinelles Lernen mit einem physikalischen Modell verbindet, soll die Wettervorhersage verbessern. Das dazugehörige Modell stellte eine Gruppe von Autoren unter anderem von Google, DeepMind und dem Europäischen Zentrum für mittelfristige Wettervorhersage im Fachjournal „Nature“ vor (siehe Primärquelle).
Leiter des Future Labs Künstliche Intelligenz im Anthropozän, Forschungsabteilung Komplexitätsforschung, Potsdam-Institut für Klimafolgenforschung (PIK), Potsdam, und Professor für Erdsystemmodellierung, Technische Universität München
Methodik
„Die Dynamik der Atmosphäre wird mit sogenannten General Circulation Models (GCMs) modelliert und vorhergesagt. Diese prozessbasierten Modelle implementieren die zugrunde liegenden physikalischen Grundgleichungen in numerischen Algorithmen, die von (Hochleistungs-)Computern simuliert werden können. In der Studie wird das erste hybride Atmosphärenmodell vorgestellt, das prozessbasierte Komponenten mit Machine Learning kombiniert. Die dazu entwickelte Methode ist technisch sehr anspruchsvoll und innovativ. Die Ergebnisse der Studie sind beeindruckend, insbesondere unter Berücksichtigung der Unsicherheiten. Das vorgestellte hybride Modell NeuralGCM ist in der Wettervorhersage bis zwei Wochen mindestens so gut wie die besten prozessbasierten und die besten rein datengetriebenen Deep-Learning-Modelle. Auch die Darstellung tropischer Stürme im Modell stimmt gut mit der Realität überein. Insofern sind die Schlüsse der Autoren durchaus gerechtfertigt.“
Stand der Forschung und Nutzen von ML-Verfahren zur Wettervorhersage
„In den letzten Jahren wurden mehrere rein datengetriebene Deep-Learning-Modelle vorgestellt, die für die Wettervorhersage bis zu zehn Tagen mindestens genauso gut sind wie die seit Jahrzehnten entwickelten, prozessbasierten numerischen Wettermodelle. Diese reinen Deep-Learning-Modelle sind allerdings nur für die Wettervorhersage bis zu zwei Wochen geeignet und können die Dynamik der Atmosphäre nicht für längere Zeiten modellieren. Damit sind sie für die Klimamodellierung nicht verwendbar. Im Gegensatz dazu kann NeuralGCM dank seiner prozessbasierten Komponenten die Dynamik der Atmosphäre im Grundsatz für mehrere Jahrzehnte modellieren, auch wenn für Anwendungen insbesondere in der Klimamodellierung noch erhebliche Probleme verbleiben, siehe der Absatz zu den Limitationen.“
„Simulationen mit NeuralGCM sind sehr viel schneller und deutlich weniger rechenintensiv als mit den besten rein prozessbasierten Modellen. Allerdings muss man auch die Rechenressourcen berücksichtigen, die zum Trainieren des Modells benötigt werden. Grob geschätzt entspricht der Rechenaufwand zum Trainieren des finalen hochaufgelösten Modells (circa 70 Kilometer horizontale Auflösung) der Simulation von ungefähr 100.000 Jahren mit NeuralGCM. Diese ‚Hypothek‘ des Trainings muss gegenüber rein prozessbasierten Modellen bei den Simulationen zunächst aufgeholt werden. Hierbei sind die Rechenkosten zur Bestimmung des finalen Modells noch nicht berücksichtigt. Zudem müssen Versionen von NeuralGCM auf verschiedenen räumlichen Auflösungen jeweils neu trainiert werden.“
Limitationen solcher ML-Ansätze
„Auch wenn NeuralGCM eine Revolution in der Atmosphärenmodellierung darstellt, hat das Modell derzeit noch zwei große Probleme insbesondere für Anwendungen in der Klimamodellierung. Erstens: NeuralGCM ist im Vergleich zu rein physikalischen GCMs noch sehr instabil, das heißt viele der Simulationen auf Zeitskalen von Jahrzehnten brechen auf Grund numerischer Probleme frühzeitig ab; in diesem Kontext bedarf es noch einiger technischer Weiterentwicklungen, bevor das Modell verlässlich für Klimasimulationen verwendet werden kann. Zweitens: Noch schwerer zu lösen dürfte das Problem sein, dass NeuralGCM aufgrund seiner aus Daten erlernten Komponenten nicht geeignet ist, die Atmosphäre unter klimatischen Bedingungen zu modellieren, die deutlich von den zum Training verwendeten Daten abweichen. Zum Trainieren des Modells wurden beobachtungsbasierte Daten aus den letzten Jahrzehnten verwendet. Für die kommenden Jahrzehnte bis Jahrhunderte erwarten wir aufgrund der deutlich höheren Treibhausgas-Konzentrationen sehr andere klimatische Bedingungen, die das Modell nicht darstellen kann. Dies ist ein allgemeines Problem mit Machine-Learning-Ansätzen in der Klimamodellierung, und auch im Fall von NeuralGCM ist nicht klar, wie dieses Problem behoben werden kann. Rein prozessbasierte Modelle haben dieses Problem nicht, da sie nur auf physikalischen Gleichungen basieren.“
Mehrwert der aktuellen Studie
„Das neue Modell kombiniert ein physikalisches Modell der Atmosphärendynamik mit Machine-Learning-Komponenten und ist das erste seiner Art. Bisher veröffentlichte Deep-Learning-Modelle zur Wettervorhersage sind deterministisch, während mit NeuralGCM probabilistische Vorhersagen möglich sind, um die involvierten Unsicherheiten abzubilden. In seinen probabilistischen Vorhersagen bis zwei Wochen ist das Modell genauso gut wie die besten rein prozessbasierten Modelle, obwohl die Simulationen viel weniger rechenintensiv sind. Auch für Anwendungen im Klimabereich macht das Modell vielversprechende Fortschritte, wenn auch noch wichtige Probleme zu lösen sind, siehe der Absatz zu den Limitationen.“
Professor für Meteorologie, Leitung AG „Atmosphärische Dynamik“, Karlsruher Institut für Technologie (KIT)
Methodik
„Interessant und neu an dieser Studie ist der Versuch, physikalische und datengetriebene Ansätze optimal und effizient zu vereinen, also eine Art hybrides Vorhersagesystem zu erschaffen. Damit können Nachteile der rein datengetriebenen (keine explizite Berücksichtigung von Physik, Black-Box-Charakter, zu glatte Felder, Instabilität) und der rein numerischen Modelle (rechenaufwendig, systematische Fehler) zumindest teilweise vermieden werden. Bemerkenswert ist dabei auch, dass die KI-Komponenten lokal im Zusammenklang mit den dynamischen Gleichungen und nicht offline trainiert werden. Der Vergleich mit anderen Vorhersageansätzen erscheint mir solide und ausgewogen. Bis auf Schwächen in manchen Parametern an Tag eins der Vorhersage zeigt NeuralGCM eine beeindruckende Performanz und Vielseitigkeit.“
Stand der Forschung und Nutzen von ML-Verfahren zur Wettervorhersage
„Im Moment bewegt sich die Forschung so schnell wie nie zuvor, und es ist nicht leicht, den Überblick über alle Entwicklungen zu behalten. Wir haben in den letzten zwei Jahren gesehen, dass KI-Ansätze vielversprechender sind als viele noch vor wenigen Jahren gedacht hatten. Es findet also im Moment eine Art Kulturwandel statt, in der viele Beteiligte, die traditionell aus dem Bereich der Physik kommen, erkennen (müssen), dass man auch mit cleverer Statistik weit kommen kann, solange es ausreichend qualitativ hochwertige Daten als Grundlage gibt. Ich erwarte in den nächsten Jahren für die Klimamodellierung eine Entwicklung in Richtung optimierter hybrider Ansätze – so wie beispielhaft im Paper vorgeschlagen. Bei der Wettervorhersage wird es voraussichtlich auch end to end KI-Ansätze geben, die direkt auf Beobachtungen abzielen und weniger oder sogar keine physikalischen Komponenten brauchen. Beide haben großes Potenzial, netto Rechenressourcen zu sparen.“
Limitationen solcher ML-Ansätze
„Es gibt immer noch offene Fragen zum Thema physikalische Konsistenz, Extremereignisse, kleinskalige Variabilität, Unsicherheitsabschätzung, Extrapolierbarkeit (zum Beispiel zu anderen Klimazuständen), Langzeitdrift der Simulationen, Instabilität und so weiter. Aber das vorliegende Paper macht zu all diesen Punkten bereits vielsprechende Tests und Aussagen, sodass ich hier einen wichtigen Schritt in Richtung von mehr ‚Vertrauensbildung‘ sehe. Gerade die Mischung aus Physik und Statistik, die hier vorgeschlagen wird, wird auch in Zukunft dazu beitragen, die genannten Probleme weiter zu reduzieren – dann aber sicher mit weiter erhöhter räumlicher Auflösung und mit noch komplexeren numerischen Methoden und KI-Architekturen. Der hier gewählte Ansatz ist auf jeden Fall flexibel genug für weitere Verfeinerung oder auch Spezifizierung.“
Mehrwert der aktuellen Studie
„Die aktuelle Studie demonstriert, dass mit einer konsequenten Kombination aus Physik und Statistik ein verlässliches und effizientes Vorhersagewerkzeug geschaffen werden kann. Damit kann zum ersten Mal eine zuverlässige Wettervorhersage mit und ohne Unsicherheitsschätzung sowie eine stabile Langzeit-Klimasimulation mit demselben System erzeugt werden. Das können andere datengetriebene Systeme nicht, da sie entweder für den einen oder anderen Zweck trainiert und optimiert wurden. Zudem werden systematische Probleme von bestehenden GCMs, zum Beispiel mit der Feuchteverteilung in den Tropen, verbessert. Des Weiteren finde ich den Schulterschluss aus Industrie, staatlichem Wetterdienst und Universitäten bemerkenswert. Solche Allianzen hat es in der Vergangenheit wenig gegeben, sie werden aber meines Erachtens in der Zukunft an Wichtigkeit gewinnen.“
Privatdozent und Leiter der Forschungsgruppe für dynamische Meteorologie, Institut für Physik der Atmosphäre, Johannes Gutenberg-Universität Mainz
Methodik
„Die Studie ist methodisch sehr gut und die Schlussfolgerungen der Autoren fast vollständig gerechtfertigt. Einzig im Bereich der Generierung des NeuralGCM-ENS-Ensembles erschließt es sich mir nicht, wie dieser Ansatz konsistent ist mit unserem physikalischen Verständnis der Entwicklung von Vorhersageunsicherheit. Auch ist die Interpretation der Autoren zu optimistisch, dass die einzelnen Ensemble-Mitglieder eine realistische Version möglicher Wetterszenarien zeichnen. Meiner Ansicht nach zeigen die Ensemble-Mitglieder qualitative Unterschiede zu denen des ECMWF-Ensembles, die über den Effekt der geringeren Auflösung hinausgehen, der von den Autoren angesprochen wird.“
Stand der Forschung und Nutzen von ML-Verfahren zur Wettervorhersage
„KI und ML sind für alle Teilbereiche der Wettervorhersage relevant und finden schon weitreichend Anwendung. Das Feld entwickelt sich rasant. Die Methoden und Modelle sind gekommen, um zu bleiben. Das Potenzial für Einsparungen in der operativen Anwendung ist immens. Allerdings ist das Training der Modelle sehr ressourcenintensiv. Das sollte nicht vergessen werden.“
Limitationen solcher ML-Ansätze
„Die Modelle sind natürlich nur so gut wie die Daten, von denen sie lernen können. Außerdem ist es sehr riskant, diese Modelle zu extrapolieren – also außerhalb der Bereiche anzuwenden, für die sie trainiert wurden. Das ist insbesondere für Klimaprojektionen ein Problem, wie von den Autoren der Studie auch kurz, aber explizit angesprochen. Zudem ist es vorrangig wichtig, dass die einzelnen Mitglieder einer Ensemblevorhersage tatsächlich einer realistischen Wettersituation entsprechen. Das ist ein Schlüsselthema, um das große Potenzial der Modelle in diesem Bereich verlässlicher nutzbar zu machen. An Verbesserungen in allen drei Bereichen wird aktiv gearbeitet, und in den nächsten Jahren wird es sicherlich weitere Fortschritte geben.“
Mehrwert der aktuellen Studie
„Der Ansatz der Autoren, alle subskaligen Prozesse in ihrer Gesamtheit durch maschinelles Lernen darzustellen, ist meiner Ansicht nach konzeptionell ein Meilenstein. Diese Prozesse wechselwirken alle miteinander und die traditionelle Aufteilung in verschiedene Prozesse, die im Modell einzeln repräsentiert werden, ist streng genommen ein Artefakt. Der Ansatz der Autoren verbindet das Beste aus zwei Welten.“
Leiter der Forschungsgruppe Earth System Data Exploration, Forschungszentrum Jülich GmbH (FZJ), und Universitätsprofessor für Computational Earth System Science, Universität zu Köln
Methodik
„Dies ist eine sehr sorgfältig ausgearbeitete Studie, welche sowohl in Hinsicht auf maschinelles Lernen als auch im Bereich der meteorologischen Analysen voll dem Stand der Technik entspricht. Mit NeuralGCM haben die Autoren das erste Mal bewiesen, dass ein hybrider Modellierungsansatz mit einem klassischen dynamischen Kern, der auf der Lösung physikalischer Gleichungen basiert und einem Maschinenlernmodell für abgeleitete Größen und kleinskalige Prozesse, nicht nur funktioniert, sondern sehr gute Ergebnisse zeigt und auch über lange Zeiträume stabil bleibt. Außerdem sind die Autoren in dieser Studie einen entscheidenden Schritt weiter gegangen als bisherige ML-Vorhersagemodelle, indem sie es erlauben, mit Ensemblevorhersagen auch die Unsicherheiten einer Vorhersage zu bestimmen. Dies war bislang nur dadurch möglich, dass man Ensembles aus einzelnen Modellläufen aufsetzte.“
Stand der Forschung und Nutzen von ML-Verfahren zur Wettervorhersage
„Diese Veröffentlichung bestärkt die jüngsten Erkenntnisse, dass Wettervorhersagen mit maschinellen Lernverfahren besser sind als klassische Modelle – und dies zu einem Bruchteil der erforderlichen Rechenzeit. Zwar erfordert das Training dieser Modelle durchaus noch beachtliche Rechenleistung, aber anschließend können auch längere Vorhersagen oder große Modellensembles sehr schnell und effizient gerechnet werden. Es wird nicht mehr lange dauern, bis KI-Modelle zum Standardwerkzeug der Wetterdienste werden, auch wenn man sicher für einige Zeit die klassischen Modelle weiterbetreiben wird, um zu überprüfen, dass die KI-Modelle auch unter Extrembedingungen noch gut funktionieren. Derzeit gibt es zwei große offene Fragen. Erstens: Wie lassen sich die vielfältigen Wetterdaten aus Satelliten- und Bodenmessungen direkt in die KI-Modelle integrieren? Und zweitens: Wie kann man den Modellen die vielschichtigen und komplexen Wechselwirkungen im Klimasystem beibringen?“
Limitationen solcher ML-Ansätze
„Aktuell sind KI-Modelle immer noch schwächer als hochaufgelöste herkömmliche Modelle, wenn es um die Voraussage von Extremereignissen geht. Sie können zwar zum Beispiel Hurricanes früher erkennen als die klassischen Modelle, unterschätzen aber oft die maximalen Windgeschwindigkeiten, die in einem solchen Sturm auftreten. Es besteht allerdings Hoffnung, dass dieses Problem bald gelöst wird. Eine weitere Schwäche der KI-Modelle besteht in der Extrapolation auf zukünftige klimatische Bedingungen. In der Studie wird ja auch gezeigt, dass NeuralGCM bei einer Erwärmung von vier Grad keine verlässlichen Ergebnisse mehr liefert. Hier ist derzeit noch offen, wie dieses Problem gelöst werden kann. In der räumlichen Auflösung hinken die ML-Modelle den klassischen Modellen noch hinterher, aber hier deuten sich auch schon Änderungen an.“
Mehrwert der aktuellen Studie
„Man kann NeuralGCM durchaus als einen weiteren Meilenstein auf der Erfolgsgeschichte von KI für Wetter- und Klimavorhersagen ansehen. Es ist wirklich faszinierend zu sehen, dass es innerhalb von lediglich vier bis fünf Jahren gelungen ist, maschinelle Lernverfahren für die Wettervorhersage zu entwickeln, die nicht nur demonstrieren, dass das funktioniert, sondern die in fast allen Belangen besser sind als herkömmliche Modelle. NeuralGCM bringt die Forschung in zweierlei Hinsicht weiter. Zum einen ist das die Möglichkeit der Ensemblevorhersage und zum anderen die Langzeitstabilität des Modells, wodurch auch Klimarechnungen möglich werden.“
Leiterin der unabhängigen Forschungsgruppe „Maschinelles Lernen in Nachhaltigen Energiesystemen (MLSES)“ am Exzellenzcluster „Maschinelles Lernen“, Eberhard Karls Universität Tübingen
Stand der Forschung und Nutzen von ML-Verfahren zur Wettervorhersage
„Maschinelles Lernen in der Wettervorhersage entwickelt sich zurzeit sehr schnell weiter und wird für den operationalen Einsatz erprobt [1]. Die aktuelle Generation von ML-basierten Wettermodellen erzielt sehr vielversprechende Ergebnisse für unterschiedliche Wettervariablen mit einer mit operationalen Wettermodellen vergleichbaren Genauigkeit sowohl für globale Metriken als auch für Extremereignisse. Diese Entwicklungen sind vor allem angesichts des vergleichsweise geringeren Verbrauchs von (Rechen-)Ressourcen sehr relevant und nützlich. Eine Herausforderung bleibt dabei die physikalische Konsistenz der Modelle; das im Paper vorgestellte Modell sagt zum Beispiel manchmal leicht negative Werte für Variablen vorher, die physikalisch nicht negativ werden können.“
Limitationen solcher ML-Ansätze
„ML-Wettermodelle haben zurzeit noch zu gleichmäßige Vorhersagen (das heißt, feinskalige Prozesse werden nicht ausreichend dargestellt) und eine schlechte Leistung zum Beispiel bei der Vorhersage der Intensität tropischer Wirbelstürme (ein relevantes Extremwetterereignis [2]). ML-Wettermodelle berücksichtigen außerdem die Unsicherheit wenig, beziehungsweise werden sie nicht verglichen mit Ensemble-Vorhersagen, welche in operationalen Wettermodellen die Bandbreite zukünftiger Wetterszenarien darstellen.“
„Die ML-Wettermodelle werden zudem derzeit auf einem bestimmen Datensatz (ERA5) trainiert und scheinen die Vor- und Nachteile dieser Daten zu übernehmen. Um die Brücke zum operationalen Einsatz zu schlagen, könnten die Modelle auf den operationalen Daten – zum Beispiel des Integrated Forecasting Systems (IFS) – trainiert werden, womit weitere Verbesserungen zu erwarten sind.“
Mehrwert der aktuellen Studie
„Die aktuelle Studie zeigt einen vielversprechenden Ansatz, der physikalische Informationen (über den Dynamical Core des Modells) integriert. Im Vergleich zu anderen ML-Ansätzen ist das Modell besser darin, die feinskaligen Prozesse darzustellen. Bei wichtigen Evaluationsgrößen – wie zum Beispiel dem geostrophischen Windgleichgewicht – erzielt das Modell bessere Ergebnisse als bisherige ML-Wettermodelle. Die Qualität des aktuellen Vorhersagesystems wird dabei jedoch noch nicht erreicht.“
„Das Modell zeigt außerdem vielversprechende probabilistische Fähigkeiten und wird im Gegensatz zu vielen vorherigen Ansätzen mit den (unkorrigierten) Ensemble-Vorhersagen verglichen, deren Genauigkeit es auf spezifischen Metriken auch erreicht oder verbessert.“
„Hinsichtlich der Rechenintensität ist das Modell zwar sparsamer als die bisherigen numerischen Wettermodelle, neuere Ansätze zeigen jedoch, dass weitere Reduktionen der Rechenressourcen möglich sind [3].“
SNF-Förderungsprofessorin am Departement Umweltsystemwissenschaften, Eidgenössische Technische Hochschule Zürich (ETHZ), Zürich, und außerordentliche Professorin und Leiterin der Gruppe für atmosphärische Prozesse, Université de Lausanne, Schweiz
„Es war wohl nur eine Frage der Zeit, bis KI-Modelle bessere Vorhersagen liefern als physikalische Modelle. Die Entwicklung in diesem Bereich geht extrem schnell. Es wurde aber schnell klar, dass solche Modelle nicht nur rein auf maschinellem Lernen beruhen können, sondern auch von den bestehenden physikalischen Zusammenhängen lernen müssen, um zum Beispiel Sprünge in der Vorhersage zu vermeiden. Ein solches Modell muss daher eine Kombination sein aus physikalischem Verständnis und maschinellem Lernen, welches sehr schnell weiterentwickelt werden kann und wesentlich kostengünstiger ist als ein bestehendes physikalisches Modell. Lange waren auch langfristige Vorhersagen (mehr als ein paar Tage in die Zukunft) sowie Ensemble-Vorhersagen (mit leicht unterschiedlichen Anfangsbedingungen, um die Unsicherheit im Modell abzudecken) schwierig mit KI-Modellen zu erreichen. Das ändert sich nun, und das im Paper präsentierte Modell ist ein erster erfolgreicher Schritt in diese Richtung.“
„Ich habe keine Interessenkonflikte.“
„Es gibt keine Interessenkonflikte.“
„Ich habe keine Interessenkonflikte.“
„Mit einem der Koautoren, Peter Düben, arbeite ich zusammen (jedoch an anderen Themen als in diesem Paper diskutiert). Wir haben eine gemeinsame Veröffentlichung und einen gemeinsamen EU-Projektantrag.“
„Es bestehen keine Interessenkonflikte.“
„Keine.“
Primärquelle
Kochkov D et al. (2024): Neural general circulation models for weather and climate. Nature. DOI: 10.1038/s41586-024-07744-y.
Literaturstellen, die von den Expert:innen zitiert wurden
[1] ECMWF: Charts catalogue. Abgerufen am 22.07.2024.
Liste von ECMWF-Charts und Systemen, die maschinelles Lernen verwenden.
[2] Bouallègue ZB et al. (2024): The Rise of Data-Driven Weather Forecasting: A First Statistical Assessment of Machine Learning–Based Weather Forecasts in an Operational-Like Context. Bulletin of the American Meteorological Society. DOI: 10.1175/BAMS-D-23-0162.1.
[3] Couairon G et al. (2024): ArchesWeather: An efficient AI weather forecasting model at 1.5º resolution. Arxiv.
Hinweis der Redaktion: Es handelt sich hierbei um eine Vorabpublikation, die noch keinem Peer-Review-Verfahren unterzogen und damit noch nicht von unabhängigen Expertinnen und Experten begutachtet wurde.
Literaturstellen, die vom SMC zitiert wurden
[I] Kochkov D et al. (2023): Neural General Circulation Models for Weather and Climate. Arxiv.
Hinweis der Redaktion: Es handelt sich hierbei um eine Vorabpublikation, die noch keinem Peer-Review-Verfahren unterzogen und damit noch nicht von unabhängigen Expertinnen und Experten begutachtet wurde.
Prof. Dr. Niklas Boers
Leiter des Future Labs Künstliche Intelligenz im Anthropozän, Forschungsabteilung Komplexitätsforschung, Potsdam-Institut für Klimafolgenforschung (PIK), Potsdam, und Professor für Erdsystemmodellierung, Technische Universität München
Prof. Dr. Peter Knippertz
Professor für Meteorologie, Leitung AG „Atmosphärische Dynamik“, Karlsruher Institut für Technologie (KIT)
PD Dr. Michael Riemer
Privatdozent und Leiter der Forschungsgruppe für dynamische Meteorologie, Institut für Physik der Atmosphäre, Johannes Gutenberg-Universität Mainz
Prof. Dr. Martin Schultz
Leiter der Forschungsgruppe Earth System Data Exploration, Forschungszentrum Jülich GmbH (FZJ), und Universitätsprofessor für Computational Earth System Science, Universität zu Köln
Dr. Nicole Ludwig
Leiterin der unabhängigen Forschungsgruppe „Maschinelles Lernen in Nachhaltigen Energiesystemen (MLSES)“ am Exzellenzcluster „Maschinelles Lernen“, Eberhard Karls Universität Tübingen
Prof. Dr. Daniela Domeisen
SNF-Förderungsprofessorin am Departement Umweltsystemwissenschaften, Eidgenössische Technische Hochschule Zürich (ETHZ), Zürich, und außerordentliche Professorin und Leiterin der Gruppe für atmosphärische Prozesse, Université de Lausanne, Schweiz