Amazon Web Services (AWS) i OpenAI ogłosiły wieloletnią współpracę strategiczną, w ramach której OpenAI otrzyma dostęp do światowej klasy infrastruktury AWS do obsługi i skalowania podstawowych zadań sztucznej inteligencji (AI). Na mocy tej nowej umowy o wartości 38 miliardów dolarów, która będzie systematycznie rozwijana przez najbliższe siedem lat, OpenAI uzyska dostęp do mocy obliczeniowej AWS obejmującej setki tysięcy najnowocześniejszych procesorów graficznych NVIDIA, z możliwością rozszerzenia do dziesiątek milionów procesorów CPU.
AWS posiada unikalne doświadczenie w bezpiecznym i niezawodnym zarządzaniu infrastrukturą AI na dużą skalę, z klastrami przekraczającymi 500 tysięcy chipów. Wiodąca pozycja AWS w infrastrukturze chmurowej w połączeniu z pionierskimi osiągnięciami OpenAI w dziedzinie generatywnej AI pomoże milionom użytkowników w dalszym korzystaniu z ChatGPT.
Infrastruktura, którą AWS buduje dla OpenAI, opiera się na zaawansowanej architekturze zoptymalizowanej pod kątem maksymalnej wydajności przetwarzania AI. Dzięki połączeniu procesorów graficznych NVIDIA (zarówno GB200, jak i GB300) w klastry, za pomocą serwerów Amazon EC2 Ultra w ramach jednej sieci, udało się uzyskać minimalne opóźnienia w komunikacji między połączonymi systemami. Pozwala to OpenAI na efektywne zarządzanie zadaniami obliczeniowymi przy zachowaniu optymalnej wydajności. Stworzone klastry zostały zaprojektowane tak, by obsługiwać różnorodne zadania – od obsługi zapytań ChatGPT po trenowanie modeli następnej generacji – z możliwością elastycznego dostosowywania się do zmieniających się potrzeb OpenAI.
Skalowanie zaawansowanej AI wymaga ogromnej, niezawodnej mocy obliczeniowej. Nasza współpraca z AWS wzmacnia szeroki ekosystem obliczeniowy, który napędzi tę nową erę i udostępni zaawansowaną AI wszystkim – powiedział Sam Altman, współzałożyciel i CEO OpenAI.
Podczas gdy OpenAI nadal przesuwa granice możliwości, infrastruktura AWS najwyższej klasy będzie stanowić fundament dla ich ambicji w zakresie AI. Skala i natychmiastowa dostępność zoptymalizowanych zasobów obliczeniowych potwierdzają unikalną pozycję AWS w obsłudze zaawansowanych systemów AI OpenAI – dodał Matt Garman, CEO AWS.
Wcześniej w tym roku modele OpenAI stały się dostępne w Amazon Bedrock, dając milionom klientów AWS dostęp do tych zaawansowanych rozwiązań. OpenAI szybko stało się jednym z najpopularniejszych dostawców modeli w Amazon Bedrock, z tysiącami klientów – takich jak Bystreet, Comscore, Peloton, Thomson Reuters, Triomics oraz Verana Health – wykorzystujących ich modele do automatyzacji procesów, kodowania, analiz naukowych i rozwiązywania problemów matematycznych.
































































![Marcin Tuszkiewicz (Squaber): hossa wciąż trwa, w 2026 roku wzrośnie znaczenie surowców i spółek przemysłowych [Analiza]](https://www.isbtech.pl/wp-content/uploads/2025/11/maxresdefault-2-150x150.jpg)