Amazon Web Services (AWS) i OpenAI ogłosiły wieloletnią współpracę strategiczną, w ramach której OpenAI otrzyma dostęp do światowej klasy infrastruktury AWS do obsługi i skalowania podstawowych zadań sztucznej inteligencji (AI). Na mocy tej nowej umowy o wartości 38 miliardów dolarów, która będzie systematycznie rozwijana przez najbliższe siedem lat, OpenAI uzyska dostęp do mocy obliczeniowej AWS obejmującej setki tysięcy najnowocześniejszych procesorów graficznych NVIDIA, z możliwością rozszerzenia do dziesiątek milionów procesorów CPU.

AWS posiada unikalne doświadczenie w bezpiecznym i niezawodnym zarządzaniu infrastrukturą AI na dużą skalę, z klastrami przekraczającymi 500 tysięcy chipów. Wiodąca pozycja AWS w infrastrukturze chmurowej w połączeniu z pionierskimi osiągnięciami OpenAI w dziedzinie generatywnej AI pomoże milionom użytkowników w dalszym korzystaniu z ChatGPT.

Infrastruktura, którą AWS buduje dla OpenAI, opiera się na zaawansowanej architekturze zoptymalizowanej pod kątem maksymalnej wydajności przetwarzania AI. Dzięki połączeniu procesorów graficznych NVIDIA (zarówno GB200, jak i GB300) w klastry, za pomocą serwerów Amazon EC2 Ultra w ramach jednej sieci, udało się uzyskać minimalne opóźnienia w komunikacji między połączonymi systemami. Pozwala to OpenAI na efektywne zarządzanie zadaniami obliczeniowymi przy zachowaniu optymalnej wydajności. Stworzone klastry zostały zaprojektowane tak, by obsługiwać różnorodne zadania – od obsługi zapytań ChatGPT po trenowanie modeli następnej generacji – z możliwością elastycznego dostosowywania się do zmieniających się potrzeb OpenAI.

Skalowanie zaawansowanej AI wymaga ogromnej, niezawodnej mocy obliczeniowej. Nasza współpraca z AWS wzmacnia szeroki ekosystem obliczeniowy, który napędzi tę nową erę i udostępni zaawansowaną AI wszystkim – powiedział Sam Altman, współzałożyciel i CEO OpenAI.

Podczas gdy OpenAI nadal przesuwa granice możliwości, infrastruktura AWS najwyższej klasy będzie stanowić fundament dla ich ambicji w zakresie AI. Skala i natychmiastowa dostępność zoptymalizowanych zasobów obliczeniowych potwierdzają unikalną pozycję AWS w obsłudze zaawansowanych systemów AI OpenAI – dodał Matt Garman, CEO AWS.

Wcześniej w tym roku modele OpenAI stały się dostępne w Amazon Bedrock, dając milionom klientów AWS dostęp do tych zaawansowanych rozwiązań. OpenAI szybko stało się jednym z najpopularniejszych dostawców modeli w Amazon Bedrock, z tysiącami klientów – takich jak Bystreet, Comscore, Peloton, Thomson Reuters, Triomics oraz Verana Health – wykorzystujących ich modele do automatyzacji procesów, kodowania, analiz naukowych i rozwiązywania problemów matematycznych.

epoint
Subskrybuj
Powiadom o
guest
0 komentarzy
Najstarsze
Najnowsze Najwięcej głosów
Opinie w linii
Zobacz wszystkie komentarze