Klimat się zmienia. Pogoda staje się coraz bardziej nieprzewidywalna, przy tym coraz częściej występują zjawiska gwałtowne oraz ekstremalne.

Dotychczasowe narzędzia przewidywania nie nadążają za tymi zmianami, a przecież precyzyjna wiedza o tym, co nasz czeka, oznacza lepsze planowanie i ocenianie ryzyka – sprawa dotyczy zarówno rzeczy tak błahej jak nasze urlopy, jak i np. zbierania plonów czy tworzenia połączeń lotniczych i morskich. Przyjrzyjmy się najnowszemu trendowi zastosowania sztucznej inteligencji w przewidywaniu pogody.

Modelowanie pogody jest ogromnym wyzwaniem. Jest ona zjawiskiem chaotycznym: drobne zmiany potrafią drastycznie zmienić drogę jej rozwoju. W przeszłości fizycy starali się opisać interakcje cząsteczek i przepływ energii w modelach takich jak GCM – w tym celu rozwijali deterministyczne układy równań różniczkowych cząstkowych. Ale obliczenia są czasochłonne, a im więcej szczegółowych danych, tym więcej czasu potrzeba na ich przetworzenie. Są one także wrażliwe na założone warunki początkowe i explicite spisane formuły (co może też być ich zaletą w przypadku prawidłowych formuł). Nowym podejściem do problemu jest wykorzystanie narzędzi stochastycznych, nauczenie się poprzez narzędzia sztucznej inteligencji wzorców pogody.

Lucy Harris, Andrew McRae, Tim Palmer (Uniwersytet Oksfordzki) i Matthew Chantry, Peter Deuben (Europejskie Centrum Średnioterminowych Przewidywań Pogody) postanowili zająć się problemem ograniczonej szczegółowości, czyli granulacji prognoz. Gdyby spojrzeć na mapy stworzone z przewidywań dotychczasowych modeli, miałyby one niską rozdzielczość. Ze względu na moc koniecznych obliczeń tradycyjne modele mogą korzystać jedynie z uśrednionych wartości parametrów na większych obszarach – mankamentem tego rozwiązania jest to, że wynik również będzie uśredniony. By zniwelować tę niedogodność, otrzymane z tradycyjnego modelu dane badacze potraktowali technikami generatywnych sieci neuronowych (VAE/GAN). Podobne techniki stosowano dotychczas do poprawy rozdzielczości niewyraźnych zdjęć. Dzięki takiemu zabiegowi badacze otrzymywali przewidywania dla coraz to mniejszych obszarów geograficznych. Tym samym udało im się także poprawić przewidywania pogody o kilka procent.

Zespół badaczy firmy Microsoft – Tung Nguyen, Johannes Brandstetter, Ashish Kapoor, Jayesh Gupta i Aditya Grover – zajął się całym procesem przewidywania pogody z wykorzystaniem sieci neuronowych. Ich metoda o nazwie ClimaX pozwala łączyć dane pochodzące z różnych źródeł. Są to m.in. informacje o sezonach, dane regionalne, globalne, krótko-, średnio- i długoterminowe. Model wymaga mniej mocy obliczeniowej, prognozy mają większą szczegółowość i dają dzięki temu lepsze wyniki przewidywań od obecnych modeli.

Naukowcy z zespołu Szakira Muhameda (DeepMind, Uniwersytet Exeter, Uniwersytet w Reading) skupili się na przewidywaniu opadów deszczu w ciągu najbliższych 5–90 min. Badacze postanowili pominąć modele fizyczne, a miejsce i intensywność opadów wskazać dzięki danym pozyskanym wprost z radarów. W 89 proc. przypadków ich model najlepiej przewidywał fenomen pogodowy w porównaniu z dotychczasowymi metodami. Znów na usługach naukowców były sieci neuronowe.

Ze współpracy firm DeepMind z Google’em powstał model GraphCast. Wykorzystuje on przedstawienie atmosfery w 3D jako matematycznego grafu, a następnie dane są przetwarzane przez sieć neuronową. Badacze skupili się na przewidywaniach pogody w średnim terminie (ok. 10 dni). Ich metoda pokonała poprzednie sposoby oparte na uczeniu maszynowym w 99 proc. przypadków oraz w 90 proc. jeden z tradycyjnych systemów. Przede wszystkim GraphCast pozwala przetworzyć 35 GB danych w mniej niż minutę (na mocnym komputerze). Aby święcić triumf modelu, należy jednak porównać go z większą liczbą tradycyjnych systemów oraz wziąć pod uwagę więcej różnorodnych cech pogody, niż zostało to zrobione, co zresztą autorzy sami zauważają.

Podsumowując, najnowsze techniki uczenia maszynowego, z sieciami neuronowymi na czele, dają nam nowe możliwości przewidywania pogody. Proponowane modele zaczynają pokonywać tradycyjne w wybranych zadaniach. Są bardziej automatyczne, potrzebują zdecydowanie mniej mocy obliczeniowej – a tym samym są szybsze, pozwalają łączyć różne źródła danych, polepszają szczegółowość prognoz. A to dopiero początek. ©℗

Najnowsze techniki uczenia maszynowego, w tym sieci neuronowe, dają nam kolejne możliwości przewidywania pogody. Nowe modele są szybsze, pozwalają łączyć różne źródła danych, polepszają szczegółowość prognoz. A to dopiero początek