HPE wprowadza nowe możliwości do rozwiązania HPE GreenLake for File Storage, zaprojektowane z myślą o wdrażaniu sztucznej inteligencji w przedsiębiorstwach. Najnowsza wersja stanowi wiodące rozwiązanie w zakresie pamięci masowych dla zastosowań AI. Została ona zaprojektowana pod kątem obsługi dużych obciążeń, takich jak zadania AI czy jeziora danych, i oferuje wersje bazujące w 100% na pamięci flash o wysokiej gęstości.

W porównaniu z obecnie dostępną wersją HPE GreenLake for File Storage nowe warianty oferują czterokrotnie większą pojemność i nawet dwukrotnie większą wydajność systemu w przeliczeniu na jednostkę w szafie serwerowej. Ulepszenia te dwukrotnie zwiększają przepustowość w przypadku zadań AI i zmniejszają zużycie energii nawet o 50 proc.1 Dzięki nowemu kontrolerowi o dwukrotnie większej mocy obliczeniowej oraz półkom dyskowym wypełnionym dyskami SSD NVMe (JBOF) o wysokości 1 RU i pojemności 1.3560 PB, użytkownicy mogą teraz szybciej wykonywać zadania obliczeniowe i znacznie zredukować swoje koszty, poziom zużycia energii i przestrzeń zajmowaną przez sprzęt w centrach danych.

Te ulepszenia to kolejny krok umożliwiający wykonywanie zadań związanych z AI czy jeziorami danych w sposób prostszy, bardziej wydajny i efektywny kosztowo. HPE pomaga lepiej zrozumieć potęgę sztucznej inteligencji i wydobyć większą wartość z danych, a właściciele aplikacji biznesowych, data scientists czy personel IT mogą zwiększyć swoją produktywność.

Dzięki nowym półkom przeznaczonym dla pamięci masowej o dużej gęstości, rozwiązanie HPE GreenLake for File Storage osiąga obecnie siedmiokrotnie większą gęstość pamięci masowej w porównaniu do wyników z połowy 2023 roku. Ponadto, HPE GreenLake for File Storage oferuje teraz nawet 2,3 razy większą gęstość niż konkurencja.

HPE GreenLake for File Storage przyspiesza działanie aplikacji wymagających dużej ilości danych poprzez wydajność AI klasy korporacyjnej. Ten poziom wydajności jest dostępny na wszystkich etapach wprowadzania sztucznej inteligencji: od agregacji danych, przez ich przygotowanie, trenowanie i dostrajanie AI, aż po etap wnioskowania. Nie są to jedynie chwilowe szczyty wydajności w przypadku małych zestawów danych. To konsekwentnie wysoki poziom wydajności przy wszystkich zastosowaniach, również w przypadku najbardziej wymagających, przetwarzających duże ilości danych zastosowaniach AI, takich jak generatywna sztuczna inteligencja czy duże modele językowe (LLM). Wydajność AI klasy korporacyjnej pomaga uzyskać większą wartość z posiadanych danych zagregowanych, co przyspiesza wyciąganie wniosków i pomaga w uzyskaniu realnej przewagi konkurencyjnej.

Dzięki wsparciu dla zoptymalizowanego wykorzystania procesorów GPU za pośrednictwem InfiniBand NVIDIA GPUDirect® i RDMA HPE GreenLake for File Storage pozwala przyspieszyć zadania dotyczące sztucznej inteligencji poprzez podniesienie wydajności trenowania i dostrajania modeli oraz stosowanie szybszych punktów kontrolnych. Elastyczność zapewniana jest przez łączność w standardzie InfiniBand między hostem front-endowym a sieciami (m.in. za pośrednictwem platformy NVIDIA Quantum-2 InfiniBand). Możliwe jest skalowanie pojemności efektywnej nawet do 720 PB (przy redukcji danych 3:1) w przypadku wielkich zbiorów danych do zastosowań AI.

HPE GreenLake for File Storage to coś więcej niż tylko rozwiązanie z zakresu pamięci masowej, to katalizator transformacji. Dostarczając wydajność klasy korporacyjnej, prostotę i zwiększoną efektywność w zastosowaniach AI, HPE umożliwia organizacjom realizację ambitnych planów w zakresie wykorzystania sztucznej inteligencji.

Subscribe
Powiadom o
guest
0 komentarzy
Inline Feedbacks
View all comments