Blogginlägg -

Data bakom klimatförändringarna

I slutet av 2015 samlades fler än 150 av världens ledare i Paris för att diskutera vad som utan tvekan är en av de viktigaste frågorna för mänskligheten - klimatförändringar. I två veckor diskuterade och debatterade presidenterna Obama, Putin och Xi, premiärminister David Cameron och Tysklands förbundskansler Angela Merkel, liksom många andra världsledare, allvaret av de klimatförändringar vi nu ser. Frågan var hur vi som art kan samarbeta för att bromsa, eller till och med vända utvecklingen av de klimatförändringar vi har orsakat.

På detta möte slöts ett nytt avtal: 195 nationer över hela världen kommer att försöka minska sina utsläpp av växthusgaser så att den globala medeltemperaturen slutar stiga och att ökningen med god marginal hamnar under två grader Celsius. Avtalet visar på ett åtagande av varje nation i FN. Hade en enda nation invänt skulle avtalet inte gått igenom. En del av vad som skapat denna enighet är vetenskapen bakom klimatförändringarna - vetenskap som stöds av data.

Det kommer nog inte som en överraskning att det finns vissa som inte tror på klimatförändringar, som säger att det är en bluff, ett bedrägeri uttänkt av "miljöextremister" eller politiska tänkare som vill ha en större statlig inblandning i samhället. Men det går inte att förneka klimatförändringarna, och det är i dessa data som bevisen uppenbarar sig.

Över hela världen finns det forskare som ägnar sig åt att samla in och analysera data för att studera både väder och klimat. Det är genom deras arbete som det vetenskapliga samfundet kan påvisa vilka effekter koldioxidutsläpp och vår förbrukning av fossila bränslen har på den globala temperaturen och vår planet. Det finns en oändlig mängd datakällor, som till exempel:

  • Marina observationsstationer såsom förtöjda bojar i nordöstra Atlanten, automatiska väderstationer i fyrar eller olika system på öar för datainsamling av lufttryck, temperatur, luftfuktighet, vindhastighet, vindriktning, våghöjd och våglängd.
  • Iskärnor som samlats in från Antarktis, Arktis och glaciärer runt om i världen som innehåller bevis på temperatur- och kemiförändringar som har skett under de senaste hundratusentals åren.
  • Satellitobservationer som mäter en mängd punkter såsom havets höjdnivå, temperatur, vindförhållanden, nederbördsmönster, vegetationsförändringar över tid och mycket mer.

Att samla in all denna information så att den kan analyseras tillsammans kan vara en utmaning för klimatorganisationer. I synnerhet då en stor mängd väderdata samlas in av frivilliga väderobservatörer. Enligt NASA är över 8700 ur allmänheten medlemmar i National Weather Service’s Cooperative Observer Program, som dagligen samlar in enorma mängder väderdata. Det bidrag som volontärer gör för klimatforskningen är ovärderlig, men det gör det också svårt att konsolidera och analysera all information.

Att konsolidera stora mängder klimatdata för analys kräver teknisk infrastruktur som kan göra tre saker: hantera överföring av stora datamängder, möjliggöra enklare hantering och kontroll av dessa datamängder samt att hålla hög säkerhet för att garantera informationens livslängd.

Inom dessa bredare tekniska krav måste de kunna upptäcka och hantera variationer i de data som samlats in för att hitta och motverka avvikelser. Dessa avvikelser kan komma från något så enkelt som den mänskliga faktorn, ny mätutrustning, eller på grund av andra kontextuella förändringar. Urbanisering kan till exempel ge missvisade mätningar av temperaturförändringar på grund av stadskärnors högre densitet av byggnader och den värme de genererar. Tekniken måste kunna känna igen detta baserat på var mätningen sker och detta kräver ett enormt kraftfulla datasystem.

Superdatorteknik (HPC) är perfekt för denna typ av data- och beräkningsintensiva processer. Utan superdatorer skulle de värdefulla insikter som forskare förlitar sig på för att dra korrekta slutsatser om mänsklighetens påverkan på klimatet inte vara möjliga att få fram. Superdatorer har funnits sedan 1960-talet, men det är under de senaste decennierna, tack vare utveckling och tekniska framsteg, som tekniken har blivit tillgänglig för allt fler. Tekniken går nu att köpa från leverantörer, antingen genom hårdvara för att bygga din egen superdator, eller genom HPC i molnet där en "virtuell" superdator kan startas på några minuter.

Vare sig om superdatorsystemet finns lokalt eller i molnet kommer forskarnas datastrategi och dess effektivitet vara det som avgör framgången för HPC inom klimatforskningen. Den stora mängd data som samlas in kommer inte att bearbetas hela tiden utan kommer istället att lagras i kostnadseffektiva datalagringssystem som uppfyller forskarnas krav. Denna lagring kan vara både hårddiskar, flashminne, eller till och med band. Data kan vara kvalitativ eller kvantitativ, den kan vara färsk eller decennier gammal och den kan finnas lokalt eller i molnet.

Vad forskarna behöver är möjligheten att enkelt kunna samla in relevant information från skilda lagringssystem och sedan föra över detta till ett HPC-system för analys. Ett sätt att göra detta är genom ett operativsystem för avancerad datalagring såsom NetApps ONTAP 9. Operativsystemet sammankopplar alla olika lagringsplatser för att får dem att fungera som en. Det är som om operativsystemet binder en väv mellan olika IT-miljöer samt gör hantering och transport av data lättare för att i slutändan kunna analysera och dra slutsatser snabbare.

Klimatförändringarna sker här och nu och vi har inte tid att vänta på fler analyser. Om vi ska kunna rädda vår planet och begränsa de skador vi redan orsakat måste forskare komma med svar och råd snabbare. Det är bara genom tekniska framsteg, som superdatorer eller lagringssystem som lagrar data, vi kan komma ikapp klimatförändringarna.

Ämnen

  • Datasäkerhet

Kategorier

  • data fabric
  • dataanalys
  • klimatdata
  • hpc
  • superdatorer
  • superdatorteknik
  • klimatförändringar
  • molnteknik
  • datacenter
  • datalagring
  • big data