Centra danych w erze AI: kapitał już puka, ale kluczem są megawaty, mapy i decyzje, wyłania się z dyskusji na Property Forum 2025.

Na wykresach wygląda to jak najgorętsza klasa aktywów dekady. W praktyce – jak maraton przez energetykę, planowanie przestrzenne i normy środowiskowe. Polska branża data center stoi dziś w rozkroku: popyt rośnie skokowo dzięki AI i chmurze, ale wąskie gardła – od działek z aktywną mocą przyłączeniową po pozwolenia – nadal spowalniają tempo.

Skala i punkt wyjścia

W ostatnich latach moc centrów danych w Polsce się podwoiła i – przy napływie kapitału oraz dostępie do terenów z mocą – może podwoić się ponownie w kolejnych pięciu latach. Dziś w użyciu jest ok. 217 MW, rozproszonych po blisko 200 ośrodkach (średnio ~1 MW na obiekt), co pokazuje, jak wczesny to etap. Ambicja rynku sięga ~500 MW do 2030 r., podczas gdy pojedynczy kampus nowej generacji potrafi mieć moc rzędu 250 MW. Nic dziwnego, że „działki z mocą” stały się nową walutą.

Skąd bierze się popyt. Zapytania napływają zarówno z zagranicy, jak i od dużych polskich firm migrujących z własnych serwerowni do kolokacji. Położenie Polski na skrzyżowaniu tras telekomunikacyjnych sprzyja budowie nowych węzłów – bez nich stajemy się „wyspą” w ruchu danych.

AI wywraca tabelkę techniczną

Klasyczny storage konsumował ~10 kW na szafę, serwery GPU do trenowania AI dochodzą do 100 kW. Ten skok radykalnie podnosi wymagania energetyczne i chłodnicze, a więc wymusza większe przyłącza, trasy kablowe, generatory i logistykę paliwa.

Po globalnym „zawieszeniu” technologicznym rynek ma już sprawdzone rozwiązania chłodzenia; w polskich projektach dominują systemy powietrzne, obiegi wodne są zamknięte, a zużycie wody – znikome. Niezmienna pozostaje konieczność redundancji: centrum danych to urządzenie, którego nie da się zatrzymać – zasilanie, chłód i łączność muszą być zdublowane, a parametry typu PUE, hałas czy emisje podlegają rygorom.

Geografia mocy

Rdzeniem pozostanie Warszawa i jej pierścień metropolitalny – tu koncentrują się klienci i szkielet sieci. Coraz atrakcyjniejsza jest północ kraju, gdzie spodziewana podaż energii (w tym z projektów jądrowych) może stworzyć warunki dla dużych kampusów. Problemem „tu i teraz” są brak gotowych lokalizacji i ograniczenia przesyłowe.

Kluczowe jest nie tyle posiadanie warunków przyłączenia „na papierze”, ile realne, terminowe uruchomienie mocy w konkretnym miejscu. Dla obiektów „compute-heavy” opóźnienia sieciowe są mniej krytyczne niż dla aplikacji produkcyjnych, więc część infrastruktury można lokować poza aglomeracjami – pod warunkiem gwarancji mocy i światłowodu. Rośnie też znaczenie redevelopmentów terenów poprzemysłowych, gdzie o grunty rywalizują magazyny i data center.

Rynek klienta

Jeden hyperscaler nie wystarczy, by zbudować masę krytyczną. Dotychczasowa rola pojedynczego „market makera” była ważna, ale wejście kolejnych graczy byłoby sygnałem zaufania dla globalnego kapitału i mogłoby przełamać inercję. W Europie naturalnym benchmarkiem pozostają rynki nordyckie – niska cena energii, chłodny klimat, dojrzała sieć i przewidywalne zasady.

Co faktycznie blokuje projekty. Nie tylko megawaty. Najtrudniejszy etap to pre-development: decyzje środowiskowe, warunki zabudowy, pozwolenia, uzgodnienia dotyczące paliw i hałasu oraz terminowe uaktywnienie mocy. To procesy, których nie da się wtłoczyć w sztywne harmonogramy. Odpowiedzią rynku jest standaryzacja i modułowość – proste, powtarzalne moduły zasilania i chłodu skracają budowę i obniżają koszty.

Atrakcyjność inwestycyjna

Z perspektywy funduszy nieruchomości data center wyglądają dziś korzystniej niż magazyny: marża deweloperska potrafi być około dwukrotnie wyższa. Warunkiem jest jednak „instytucjonalna” jakość produktu: długie umowy, właściwy miks klientów (w tym hyperscalerzy), pewne adresy IP oraz zgodność z taksonomią i ESG (raportowanie zużycia energii, miksu, efektywności, odzysku ciepła). Bez „zielonej tezy” koszt kapitału rośnie, a płynność wyjścia spada – to wciąż młody segment w CEE.

Co trzeba poprawić
– Energetyka i przesył: program priorytetowych przyłączy dla DC z jasnymi SLA, inwestycje w linie północ–południe i stacje 400/110 kV pod nowe klastry.
– Planowanie przestrzenne: wyznaczanie stref data center w planach miejscowych (hałas, paliwa, dojazdy), „fast track” dla projektów strategicznych.
– Telekomunikacja: wzmocnienie krajowego backbone’u i zachęty dla nowych połączeń międzynarodowych (w tym podmorskich).
– Popyt: przyciągnięcie 2–3 nowych hyperscalerów – także poprzez lokalne zachęty.
– Ciepło odpadowe: ułatwienia dla podłączeń do sieci ciepłowniczych i rozliczeń, by przełożyć PUE i ESG na lokalne korzyści.
– Administracja cyfrowa: konsekwentne przenoszenie usług publicznych do chmury/DC – stabilny popyt i jasny sygnał dla rynku.

Wnioski dla inwestorów

Teza strukturalna – AI + chmura + cyfryzacja państwa – jest mocna. Ryzyko ma charakter wykonawczy i systemowy: moc, pozwolenia, lokalizacja decydują o tym, czy projekt trafi na rynek w czasie. Źródłem ponadprzeciętnej stopy zwrotu jest originacja działek z aktywowaną mocą, modułowy, powtarzalny produkt i portfel klientów z udziałem hyperscalerów. Wyceny i marże są dziś atrakcyjne względem logistyki, ale udany exit wymaga klasy instytucjonalnej i zgodności z taksonomią.

Jesteśmy dopiero na starcie” – padało kilkukrotnie podczas dyskusji. Jeśli energia, administracja i łącza dołączą do sprintu, Polska ma szansę szybko zamieniać deklaracje w megawaty. Jeśli nie – kapitał płynie tam, gdzie prąd, plany i pozwolenia mieszczą się w jednym folderze.

epoint
Subskrybuj
Powiadom o
guest
0 komentarzy
Najstarsze
Najnowsze Najwięcej głosów
Opinie w linii
Zobacz wszystkie komentarze