Najpotężniejsze modele, jak Anthropic Mythos, nie trafiają do wszystkich, tylko do wybranych. To początek podziału AI na public AI (ChatGPT, Gemini itd.) i restricted AI (cyber, military, infra).

Sztuczna inteligencja przestaje być wyłącznie technologią wspierającą produktywność czy automatyzację biznesu. Coraz wyraźniej widać, że wchodzi w nową fazę – staje się narzędziem geopolityki i bezpieczeństwa systemowego. Najnowsze decyzje firm technologicznych oraz działania administracji USA pokazują, że najbardziej zaawansowane modele AI zaczynają być traktowane podobnie jak technologie strategiczne: kryptografia, energia jądrowa czy systemy militarne.

Punktem zwrotnym jest rosnąca świadomość tzw. dual-use, czyli podwójnego zastosowania AI. Modele zdolne do analizy kodu, wykrywania podatności i automatyzacji procesów bezpieczeństwa mogą równie skutecznie służyć do ochrony infrastruktury, jak i do prowadzenia zaawansowanych cyberataków. Problem polega na tym, że w praktyce AI skaluje ofensywę szybciej niż obronę. Narzędzie dostępne publicznie mogłoby w krótkim czasie zwiększyć możliwości tysięcy, a nawet milionów potencjalnych atakujących.

To właśnie dlatego, jak podawał Reuter, Anthropic zdecydował się ograniczyć dostęp do swojego nowego modelu, określanego jako wyjątkowo zaawansowany w obszarze cyberbezpieczeństwa. Zamiast szerokiej dystrybucji firma uruchomiła program kontrolowanego wdrożenia, udostępniając model wyłącznie wybranej grupie największych graczy technologicznych i firm bezpieczeństwa. Taki ruch wpisuje się w strategię „safety-first”, promowaną przez CEO Dario Amodei, zakładającą najpierw zabezpieczenie systemów, a dopiero później ewentualne rozszerzanie dostępu.

Decyzja ta nie zapadła w próżni. W Stanach Zjednoczonych odbyły się w ostatnich dniach spotkania na najwyższym szczeblu, w których uczestniczyli m.in. JD Vance oraz Scott Bessent, a także liderzy największych firm technologicznych, takich jak Microsoft, Google czy Apple. Dyskusje koncentrowały się na ryzykach związanych z wykorzystaniem AI do cyberataków oraz potencjalnym wpływie takich modeli na stabilność systemu finansowego i infrastruktury krytycznej.

Szczególne obawy dotyczą właśnie asymetrii ryzyka. W scenariuszu niekontrolowanego dostępu jeden zaawansowany model mógłby umożliwić automatyczne wyszukiwanie i wykorzystywanie podatności w systemach bankowych, energetycznych czy telekomunikacyjnych na niespotykaną dotąd skalę. W efekcie nawet mniej zaawansowani technicznie użytkownicy mogliby uzyskać możliwości zbliżone do tych, którymi dotąd dysponowały wyspecjalizowane zespoły państwowe.

W tym kontekście modele AI zaczynają być postrzegane jako element infrastruktury bezpieczeństwa, a nie tylko narzędzie software’owe. Stąd rosnące znaczenie podejść takich jak Zero Trust, zarządzanie tożsamością czy ochrona infrastruktury brzegowej – to właśnie tam potencjalnie koncentrują się nowe wektory ataku.

Warto zwrócić uwagę także na aspekt biznesowy. Ograniczenie dostępu do najbardziej zaawansowanych modeli tworzy nową kategorię produktów: premium warstwę cyberobrony, dostępną tylko dla największych podmiotów. W praktyce oznacza to, że część rynku AI może podzielić się na dwa segmenty: otwarty, dostępny powszechnie, oraz zamknięty – kontrolowany i powiązany z bezpieczeństwem państw i największych korporacji.

Wszystko wskazuje na to, że jesteśmy świadkami początku nowej ery, w której AI przestaje być wyłącznie innowacją technologiczną, a staje się strategicznym zasobem o znaczeniu geopolitycznym. Kluczowe pytanie na najbliższe lata nie brzmi już, kto szybciej wdroży AI, lecz kto będzie w stanie ją kontrolować – i zabezpieczyć przed wykorzystaniem w sposób, który może zagrozić całym systemom gospodarczym.

epoint
Subskrybuj
Powiadom o
guest
0 komentarzy
Najstarsze
Najnowsze Najwięcej głosów
Opinie w linii
Zobacz wszystkie komentarze