Weersvoorspellingen zullen nooit 100% nauwkeurig zijn voor deze wetenschappelijke reden

$config[ads_kvadrat] not found

lezing-bernard-terlingen-philips-f8x82a-deel1

lezing-bernard-terlingen-philips-f8x82a-deel1

Inhoudsopgave:

Anonim

De wetenschap van weersvoorspellingen valt elke dag onder de aandacht van het publiek. Wanneer de voorspelling juist is, geven we zelden commentaar, maar we klagen vaak snel wanneer de prognose verkeerd is. Wordt er ooit een perfecte voorspelling bereikt die tot op het uur nauwkeurig is?

Er zijn veel stappen nodig om een ​​weersvoorspelling voor te bereiden. Het begint zijn leven als een wereldwijde 'momentopname' van de atmosfeer op een bepaald moment, in kaart gebracht op een driedimensionaal raster van punten dat de hele aardbol overspant en zich uitstrekt van het oppervlak naar de stratosfeer (en soms hoger).

Met behulp van een supercomputer en een geavanceerd model dat het gedrag van de atmosfeer beschrijft met natuurkundevergelijkingen, wordt deze momentopname vervolgens in de tijd naar voren geschoven, waardoor er veel terabytes onbewerkte prognosegegevens worden geproduceerd. Het valt vervolgens aan menselijke voorspellers om de gegevens te interpreteren en deze in een zinvolle voorspelling te veranderen die voor het publiek wordt uitgezonden.

Of het nu in het weer is

Het voorspellen van het weer is een enorme uitdaging. Om te beginnen proberen we iets te voorspellen dat inherent onvoorspelbaar is. De atmosfeer is een chaotisch systeem - een kleine verandering in de toestand van de atmosfeer op één locatie kan opmerkelijke gevolgen hebben in de tijd elders, die door een wetenschapper werd beschreven als het zogenaamde vlindereffect.

Elke fout die zich in een prognose ontwikkelt, zal snel toenemen en op grotere schaal verdere fouten veroorzaken. En aangezien we veel aannames moeten doen bij het modelleren van de atmosfeer, wordt duidelijk hoe gemakkelijk voorspellingsfouten kunnen ontstaan. Voor een perfecte voorspelling zouden we elke fout moeten verwijderen.

Prognose vaardigheid is verbeterd. Moderne voorspellingen zijn zeker veel betrouwbaarder dan ze waren vóór het tijdperk van de supercomputer. De vroegst gepubliceerde prognoses van het VK dateren uit 1861, toen Royal Navy-officier en scherpe meteoroloog Robert Fitzroy begonnen met het publiceren van voorspellingen in The Times.

Zijn methoden waren het tekenen van weerkaarten met behulp van observaties van een klein aantal locaties en het maken van voorspellingen op basis van hoe het weer in het verleden evolueerde toen de kaarten vergelijkbaar waren. Maar zijn voorspellingen waren vaak verkeerd, en de pers was gewoonlijk snel om te bekritiseren.

Een grote stap voorwaarts werd gemaakt toen supercomputers in de jaren vijftig kennismaakten met de prognosegemeenschap. Het eerste computermodel was veel eenvoudiger dan die van vandaag en voorspelde slechts één variabele op een grid met een tussenafstand van meer dan 750 km.

Dit werk maakte de weg vrij voor moderne prognoses, waarvan de principes nog steeds gebaseerd zijn op dezelfde aanpak en dezelfde wiskunde, hoewel de modellen van vandaag veel complexer zijn en veel meer variabelen voorspellen.

Tegenwoordig bestaat een weersvoorspelling meestal uit meerdere runs van een weermodel. Operationele weercentra voeren meestal een globaal model uit met een rastervormige afstand van ongeveer 10 km, waarvan de output wordt doorgegeven aan een model met hogere resolutie dat over een lokaal gebied loopt.

Om een ​​idee te krijgen van de onzekerheid in de prognose, voeren veel weercentra ook een aantal parallelle prognoses uit, elk met kleine wijzigingen in de initiële snapshot. Deze kleine veranderingen groeien tijdens de voorspelling en geven voorspellers een schatting van de kans dat iets gebeurt, bijvoorbeeld de kans dat het regent.

De toekomst van voorspellen

De leeftijd van de supercomputer is cruciaal geweest om de wetenschap van weersvoorspelling (en zelfs klimaatvoorspelling) te laten ontwikkelen. Moderne supercomputers kunnen duizenden triljoenen berekeningen per seconde uitvoeren en kunnen petabytes aan gegevens opslaan en verwerken. De Cray-supercomputer in het Britse Met Office heeft de verwerkingskracht en gegevensopslag van ongeveer een miljoen Samsung Galaxy S9-smartphones.

Dit betekent dat we de verwerkingscapaciteit hebben om onze modellen op hoge resoluties uit te voeren en meerdere variabelen in onze prognoses opnemen. Het betekent ook dat we meer invoergegevens kunnen verwerken bij het genereren van onze eerste "snapshot", waardoor we een beter beeld krijgen van de atmosfeer waarmee we de prognose kunnen starten.

Deze vooruitgang heeft geleid tot een toename van de voorspellingsvaardigheid. Een nette kwantificering hiervan werd gepresenteerd in a Natuur studie uit 2015 door Peter Bauer, Alan Thorpe en Gilbert Brunet, die de vooruitgang in weersvoorspelling beschrijven als een "stille revolutie".

Ze laten zien dat de nauwkeurigheid van een vijfdaagse voorspelling tegenwoordig vergelijkbaar is met die van een driedaagse voorspelling van ongeveer 20 jaar geleden, en dat we elk decennium ongeveer een dag aan vaardigheden verdienen. In essentie zijn de driedaagse voorspellingen van vandaag even precies als de tweedaagse voorspelling van tien jaar geleden.

Maar is het waarschijnlijk dat deze vaardigheidstoename in de toekomst zal voortduren? Dit hangt deels af van de voortgang die we kunnen maken met supercomputertechnologie. Snellere supercomputers betekenen dat we onze modellen met een hogere resolutie kunnen uitvoeren en zelfs nog meer atmosferische processen vertegenwoordigen, in theorie leidt dit tot een verdere verbetering van de voorspellingsvaardigheid.

Volgens de wet van Moore verdubbelt onze rekenkracht sinds de jaren '70 elke twee jaar. Dit is echter de laatste tijd vertraagd, dus andere benaderingen kunnen nodig zijn om toekomstige vooruitgang te boeken, zoals het vergroten van de rekenefficiëntie van onze modellen.

Dus zullen we ooit het weer met 100 procent nauwkeurigheid kunnen voorspellen? Kortom, nee. Er zijn 2 × 10⁴⁴ (200.000.000.000.000.000.000.000.000.000.000.000) moleculen in de atmosfeer in willekeurige beweging - proberen om ze allemaal te representeren zou onpeilbaar zijn. De chaotische aard van het weer betekent dat zolang we aannames moeten doen over processen in de atmosfeer, er altijd een kans bestaat dat een model fouten ontwikkelt.

Voortgang in weermodellering kan deze statistische representaties verbeteren en ons in staat stellen om meer realistische aannames te maken, en snellere supercomputers kunnen ons toestaan ​​om meer detail of resolutie aan onze weermodellen toe te voegen, maar in het hart van de prognose is een model dat altijd enige veronderstellingen.

Zolang er echter onderzoek is gedaan om deze aannames te verbeteren, ziet de toekomst van weersvoorspelling er rooskleurig uit. Hoe dicht we bij de perfecte voorspelling kunnen komen, valt echter nog te bezien.

Dit artikel is oorspronkelijk gepubliceerd op The Conversation door Jon Shonk. Lees hier het originele artikel.

$config[ads_kvadrat] not found