Zum Hauptinhalt springen
17.11.2025

"Wir wollten zeigen, dass Wettervorhersagen auch mit deutlich geringerem Energieverbrauch möglich sind."

Extremwetter wie Starkregen oder Dürre nehmen zu. Wettermodelle zur Vorhersage sind jedoch sehr energiehungrig. Zum Abschluss des KI-Leuchtturms EKAPEx berichtet Dr. Haojin Yang wie es gelang, eine klimafreundliche KI zu entwickeln.

Welche Motivation steckt hinter Ihrem Projekt?

Extremwetterereignisse wie Starkregen und Dürren nehmen durch den Klimawandel drastisch zu und verursachen enorme volkswirtschaftliche Schäden. Gleichzeitig verbraucht es immense Mengen an Energie, aktuelle Wettermodelle zu erstellen. Diese paradoxe Situation – dass wir zur Bekämpfung der Folgen des Klimawandel Technologien einsetzen, die selbst klimaschädlich sind – war unsere Hauptmotivation. Wir wollten beweisen, dass präzise Wettervorhersagen auch mit deutlich geringerem Energieverbrauch möglich sind.

Was war das Ziel des Projektes?

Unser Ziel war es, ein KI-basiertes Wettervorhersagemodell zu entwickeln, das bei 95 Prozent der Genauigkeit herkömmlicher Modelle mit 32-Bit Datenwortbreite  wesentlich weniger Energie verbraucht. Durch innovative Low-Bit-Technologie  sowie die Nutzung einzigartiger Wetterdaten wollten wir sowohl die Vorhersagequalität für Extremwetter in Europa verbessern als auch den CO2-Ausstoß drastisch reduzieren. Ein offener, kostenfreier Zugang sollte die breite Nutzung ermöglichen.

Welche Ergebnisse konnten Sie erreichen?

Erstens haben wir ein hochauflösendes Wettervorhersagemodell für Europa auf Basis der Daten von CERRA (Copernicus Regional Reanalysis for Europe) entwickelt und eine öffentlich zugängliche Webplattform bereitgestellt. Zweitens entstand das Open-Source-Projekt „Bitorch Engine“ zur Low-Bit-Kompression von KI-Modellen, um durch reduzierte Datenwortbreite Computerressourcen zu sparen. Und drittens entwickelten die Kollegen der TU München (TUM) das DOFA-Foundation-Modell (Dynamic One-For-All – DOFA), ein innovatives, vereinheitlichtes KI-Basismodell für Erdbeobachtungsdaten, sowie ExtremeEarthBench. Das ist eine Benchmark für sechs Typen von Extremwetterereignissen.
Parallel verarbeitete das GFZ (Helmholtz-Zentrum für Geoforschung) erfolgreich Satelliten-Daten des GNSS (Global Navigation Satellite System) von über 700 europäischen Stationen, identifizierte kritische Schwächen in den ERA5-Daten des Europäischen Zentrums für mittelfristige Wettervorhersage (EZMW) und reduzierte die Modellfehler um 63 Prozent. 
Insgesamt resultierten daraus mehr als 25 wissenschaftliche Publikationen, darunter mehrere in internationalen Fachzeitschriften, fünf Datensätze, mehrere Open-Source-Projekte sowie ein kostenloser openHPI-Online-Kurs zur Wissensvermittlung.

Welche Herausforderungen gab es? Und konnten Sie dafür Lösungen finden?

Die größte Herausforderung waren die GNSS-Wasserdampf-Daten: Es gab zu wenige Beobachtungsstationen und es fehlte die Kompatibilität mit öffentlichen Datensätzen. Allein mit GNSS-Daten konnten wir nie mit den KI-Modellen von Google oder Microsoft konkurrieren. Der Durchbruch kam durch die Entdeckung  des CERRA-Datensatzes gemeinsam mit GFZ-Kollegen – ein europäischer Datensatz mit 5,5 Kilometer statt 31 Kilometer Auflösung, der bereits Wasserdampf-Daten integriert hatte. Die TUM erweiterte unseren Ansatz sogar auf Klimawandel-Vorhersagen. 
Eine weitere Hürde waren die enormen Rechenressourcen für das Modelltraining. Hier half das HPI KI-Rechenzentrum Berlin-Brandenburg mit kostenloser Rechenzeit. Dank effizienter Algorithmen brauchten wir nur acht Grafikprozessoren (GPU) statt dutzende oder sogar Hunderte GPUs wie die Konkurrenz von Google, Microsoft oder anderen – und übertrafen trotzdem Googles GraphCast-Wettervorhersagemodell in Europa.

Welchen Impact haben die Projektergebnisse für den Klimaschutz? 

Unser größter Beitrag liegt in der drastischen Reduktion von CO₂-Emissionen: Eine einzelne KI-Vorhersage verbraucht lediglich 0,02-0,05 Kilowattstunde (kWh), also umgerechnet etwa zwischen 8 und 17 Gramm CO₂. Im Vergleich dazu benötigt der ICON-Supercomputer des Deutschen Wetterdienstes (DWD) für eine 7-Tage-Vorhersage 1.929 kWh – und somit circa 700 Kilogramm CO₂. Das ist 40.000- bis 90.000-mal mehr. Dank unserer Kompression der Datenwortbreite von 16-Bit auf 4-Bit reduzieren wir den Energiebedarf zusätzlich um zwischen 18 und 47 Prozent. Nach weiteren Optimierungen könnte unser Modell sogar auf MacBooks betrieben werden.

Und können die Ergebnisse in anderen Bereichen eingesetzt werden?

Unsere Open-Plattform mit integrierter Visualisierung und API-Schnittstelle eröffnet vielfältige Einsatzmöglichkeiten, etwa für den Deutschen Wetterdienst, die Agrarforschung oder Katastrophenschutzbehörden. Darüber hinaus ist unsere Low-Bit-Technologie direkt übertragbar auf weitere KI-Anwendungsfelder wie Große Sprachmodelle (LLMs), autonome Fahrzeuge oder Umweltmonitoring-Drohnen und viele andere.

Kurz erklärt: Low-Bit-Technologie und Datenwortbreite

Die Datenwortbreite ist die Anzahl der Bits, mit denen ein Wert im Binärsystem des Computers mehr oder minder genau dargestellt wird: Je mehr Datenwortbreite, desto mehr Speicherplatz und Rechenaufwand wird benötigt, um eine Aufgabe zu berechnen.

Low-Bit-Technologie arbeiten mit einer reduzierten Anzahl an Bits, um Daten zu kodieren oder zu verarbeiten. Diese Technologien sind besonders in den Bereichen der Datenkompression, Audio- und Videoübertragung sowie in der Speicherung von Informationen relevant. Die Hauptvorteile liegen in der Verringerung des benötigten Speicherplatzes und der Bandbreite. Das ist besonders wichtig in ressourcenbeschränkten Umgebungen, wie zum Beispiel bei mobilen Geräten oder IoT-Anwendungen.

KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen

Illustration mit Leuchttürmen, Windrad und Menschen

Meldungen