High Performance Computing, czyli zdolność systemów IT do wykonywania obliczeń o ogromnej wydajności, kojarzona z tzw. superkomputerami zaczyna przenikać do biznesowego mainstreamu. Według wyliczeń ResearchAndMarkets globalny rynek HPC już do 2025 roku ma sięgnąć niemal 50 miliardów $.

Jednakże to tylko jedno z doniesień zwiastujących coraz powszechniejszą adaptację rozwiązań HPC, również w branżach dotąd po nie niesięgających. Kolejne informuje, że już do końca tego roku opracowany zostanie pierwszy na świecie eksaskalowy superkomputer – Aurora.

Miliard miliardów w sekundę

Takiego tempa i zakresu obliczeń jak dotąd nie udało się jeszcze nigdy osiągnąć. Wiele wskazuje, że mamy przed sobą wejście w kolejną erę computingu. To naturalne następstwo tak znacznego przyrostu danych, które przedsiębiorstwa i instytucje gromadzą i coraz częściej „wyławiają” z nich to co istotne, strukturyzując i doceniając swoje cyfrowe biblioteki. Oczywiście, dzisiaj wybrane branże realnie potrzebują aż takiej mocy obliczeniowej, jednak sytuacja będzie się zmieniać bardzo dynamicznie. Już dziś, zgodnie z informacjami od IDC, danych przyrasta 33 razy szybciej niż zdolność i gotowość firm do ich przetworzenia i analizy. – Myślę, że za wzrostem zapotrzebowania na bardzo wysoką wydajność computingu podążą także usługi chmurowe, zdolne do jej dostarczania drogą sieciową, gdyż nikt w dobie dzisiejszych czasów nie będzie już raczej myślał o tworzeniu własnej, zwłaszcza tak kosztowej i tak wydajnej, infrastruktury. – tłumaczy Marcin Zmaczyński, Head of Marketing CEE w Aruba Cloud.

Do czego zdolny jest exascale computing? Obecnie, najmocniejsze superkomputery są w stanie wykonywać ponad 1015 (milion miliardów) operacji na sekundę. Oznacza to zatem wydajność w petaskali. Kilka najbardziej wydajnych systemów jest dzisiaj w stanie przekroczyć 1017 (minimum sto milionów miliardów) operacji w ciągu sekundy. Początek nowej dekady będzie jednak przełomowy pod kątem przekroczenia nieosiągalnej dotąd wydajności – mianowicie eksaskali. Ta generacja superkomputerów będzie w stanie wykonywać 1018 (miliard miliardów) operacji na sekundę. W pewnym przybliżeniu jest to moc obliczeniowa równowarta wszystkim smartfonom użytkowanym przez całą populację krajów członkowskich Unii Europejskiej.

Potrzeba matką wynalazków

Potrzebę sięgania po znaczenie wydajniejsze narzędzia analizy i operowania na danych stymuluje przede wszystkim ich galopujący przyrost i dynamicznie rozrastające się ekosystemy informatyczne – w tym Internetu Rzeczy – w firmach, administracji publicznej, zakładach produkcyjnych czy placówkach medycznych. Tylko w 2020r liczba globalnie wygenerowanych danych sięgnęła, zgodnie z analizą IDC, 64,2 ZB (zettabajta).

W 2024 roku wartość ta ma być już niemal trzykrotnie większa. Coraz bardziej rozbudowane systemy czujników i sensorów w produkcji, rozrastające się firmowe bazy danych od działów R&D po marketing, potrzeba szybszego opracowywania aplikacji przez stale powiększające się grono software house’ów to tylko wybrane czynniki napędzające popyt na ogromną moc obliczeniową. Rynek musi więc na niego odpowiadać, co wyrażać się będzie także w przyroście zdolności do dostarczania computingu o wysokiej wydajności przez centra danych – uzupełnia Zmaczyński.

UE napędza analitykę

Działania w zakresie podnoszenia mocy obliczeniowej na nowy poziom są także jednym z kluczowych założeń Europejskiego Programu Cyfrowego (Digital Europe Programme). Ogólna wartość lokowanego w nim finansowania, gdzie obszarem supercomputingu wyróżnić możemy także sztuczną inteligencję czy cyberbezpieczeństwo, wynosi 7,6 miliarda euro.

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments