Aktuelles

Kachelmann hat ein Problem: Google will KI-generierte Wettervorhersagen in Echtzeit veröffentlichen

Google will KI-generierte Wettervorhersagen in Echtzeit veröffentlichenAuch wenn die Computertechnik bei den Meteorologen schon längst Einzug gehalten hat - die Wettervorhersage ist ein alteingesessenes Gewerk und wird auch mal als leicht angestaubt wahrgenommen. Zudem dauert es einfach immer etwas, bis plausible Wetterprognosen getroffen und veröffentlicht werden können - im schlimmsten Fall ist das Gewitter schon vorbei, wenn es angekündigt wird. Google will nun künstliche Intelligenz einsetzen, um Wettervorgänge zu erforschen, zu bewerten und Vorhersagen in Echtzeit zu ermöglichen.

Das Wetter kann sowohl Unternehmensprozesse als auch den Tagesablauf von Personen nachhaltig beeinflussen. Daher ist die Präzision und die Genauigkeit von Wettervorhersagen so wichtig für das wirtschaftliche und soziale Gefüge einer modernen Industriegesellschaft - gerade auch in Zeiten des Klimawandels. Eine genaue Wettervorhersage kann jedoch besonders schwierig sein, wenn es sich um Ereignisse handelt, die sich unvorhersehbar oder sehr kurzfristig entwickeln, wie z.B. Stürme, Extremniederschläge oder Gewitter.

Mit "Machine Learning for Precipitation Nowcasting from Radar Images" stellt Google derzeit neue Forschungsarbeiten zur Entwicklung von Modellen für die Niederschlagsvorhersage vor, die sich dieser Herausforderung stellen und per KI erzeugte und hochgradig lokalisierte Vorhersagen für die unmittelbare Zukunft ermöglichen sollen.

Ein bedeutender Vorteil des maschinellen Lernens ist in diesem Segment ist, dass die verwendeten Algorithmen auf bereits antrainierte Wettermodelle zurückgreifen können, was Vorhersagen ermöglicht, die in Echtzeit die meist in einer hohen Auflösung vorliegenden Wetterdaten verarbeiten. Dieses "Niederschlags-Nowcasting", das sich auf Vorhersagen von 0-6 Stunden konzentriert, kann Vorhersagen mit einer Auflösung von 1 km und einer Gesamtlatenzzeit von nur 5-10 Minuten erzeugen, die selbst in dieser frühen Entwicklungsphase der Algorithmen traditionelle Modelle weit übertreffen.

Wetterdienste auf der ganzen Welt verfügen derzeit über umfangreiche Überwachungseinrichtungen. Zum Beispiel misst das Doppler-Radar den Niederschlag in Echtzeit, Wettersatelliten liefern multispektrale Bilder und Bodenstationen messen Wind und Niederschlag direkt. Für die moderne Wetterberechnung besteht ein immenser Bedarf an Wetterinformationen aus vielen Quellen. Doch gerade bei Niederschlägen ist es sehr schwierig, Prognosen allein aus Satellitenbildern abzuleiten.

Hinzu kommt, dass nicht alle Messdaten auf der ganzen Welt gleichwerig sind. Beispielsweise stammen die Radardaten zum großen Teil von Bodenstationen und sind über den Ozeanen meist gar nicht verfügbar. Zudem gibt es signifikante geografische Unterschiede bei der Radarabdeckung an den verschiedenen Standorten auf unserem Planeten.

Dennoch fallen derart viele Beobachtungsdaten an, dass es für die Vorhersagesysteme schwierig ist, alle Daten zu berücksichtigen und auf einmal zu verarbeiten. Alleine in den USA erreichen die von der National Oceanic and Atmospheric Administration (NOAA) gesammelten Fernerkundungsdaten inzwischen 100 Terabyte - und das pro Tag! Diese Daten werden in Supercomputer eingespeist, die globale Vorhersagen für eine Zeitspanne von bis zu etwa 10 Tagen berechnen, simulieren und herausgeben.

Diese Methode, also die numerische Berechnung von Wetterereignissen, führt jedoch in mehrerer Hinsicht zu ungenauen und zu verspäteten Ergebnissen. Zum einen ist die Verfügbarkeit von Berechnungsressourcen begrenzt, nicht jedes Institut hat einen Supercomputer im Keller. Zum anderen begrenzt die Rechenleistung selbst von Supercomputern die räumliche Auflösung auf etwa 5 Kilometer, was für die präzise Auflösung von Wettermustern innerhalb städtischer Gebiete und landwirtschaftlicher Flächen kaum ausreicht. Zudem benötigen numerische Methoden auch in Hochleistungscomputern mehrere Stunden für die Berechnung. Wenn es 6 Stunden dauert, um eine Vorhersage zu berechnen, dann erlaubt das nur 3-4 Durchläufe pro Tag - was wiederum zu Vorhersagen führt, die womöglich auf über 6 Stunden alten Daten basieren. Im Gegensatz dazu kann das von Google entwickelte "Machine Learning for Precipitation Nowcasting from Radar Images" unmittelbare Berechnungsergebnisse liefern und Entscheidungen treffen, von der Industrie, Verkehr, Logistik aber auch Hilfsorganisationen z.B. bei der Evakuierungsplanung enorm profitieren können.

Googles "Nowcasting" verwendet einen datengetriebenen, physikfreien Ansatz, was bedeutet, dass das neuronale Netz allein aus den Trainingsbeispielen lernt, die Atmosphärenphysik in Echtzeit einzuschätzen und nicht, indem Wissen vorausgesetzt und einbezogen wird, wie die Atmosphäre tatsächlich funktioniert.

Die von Google entwickelte Methode könnte die Wettervorhersage revolutionieren und insbesondere bei lokal begrenzten Räumen die Präzision und Aktualität der Prognosen deutlich verbessern.

Weitere Informationen zu den technischen Details gibt es im Google AI Blog.

Foto: Adrianna Calvo

15.01.2020

RSS Newsfeed
Alle News vom TAGWORX.NET Neue Medien können Sie auch als RSS Newsfeed abonnieren, klicken Sie einfach auf das XML-Symbol und tragen Sie die Adresse in Ihren Newsreader ein!