
Czy tylko duże serwerownie (hiperscalowe data center) mają sens?
Nowe trendy i rozwiązania w DC
Z prognoz przedstawionych przez Stocklytics.com wynika, że globalny rynek centrów przetwarzania danych (ang. data center) do 2028 roku wzrośnie o 30 proc. i osiągnie rekordową wartość ponad 430 mld dolarów. Natomiast z corocznego raportu Międzynarodowej Agencji Energetycznej (IEA) na temat zużycia energii elektrycznej wynika, że w 2022 r. centra danych zużyły 460 TWh, a w najgorszym przypadku do 2026 r. liczba ta może wzrosnąć do ponad 1000 TWh. Infrastruktura sieciowa pozostanie największym i najszybciej rozwijającym się segmentem rynkowym w tym obszarze. Wskaźnik wolnej przestrzeni serwerowej w pięciu głównych ośrodkach data center Europy (FLADP) osiągnął obecnie poziom poniżej 10%. Do końca 2024 roku, według prognoz, powinien osiągnąć wartość poniżej 8%. To jeden z wielu sygnałów stabilnego wzrostu tego rynku w Europie.
Polski rynek DC
Polski rynek rozwija się równie dynamicznie, a prognozy szacują jego rozwój w latach 2023-2029 wskaźnikiem CAGR (skumulowany roczny wskaźnik wzrostu) na poziomie 15,1%. Uważni obserwatorzy zapewne już zauważyli, że od ponad 2 lat mamy do czynienia z „eksplozją” inwestycji w duże, tzw. hiperscalowe obiekty (betonowe kolosy), lokalizowane w Warszawie i jej najbliższych okolicach. Na 40 największych komercyjnych obiektów data center, aż 25 znajduje się na Mazowszu, stanowiąc 68% całkowitej powierzchni serwerowej polskiego rynku. Duża ilość informacji marketingowych reklamujących te inwestycje sprawia wrażenie, że tylko one są realizowane i tylko one mają sens istnienia na rynku komercyjnym.
Nic bardziej mylnego. Biorąc pod uwagę szereg czynników technologicznych (nowe technologie) i funkcjonalnych (możliwość szybkiej realizacji i konieczność zapewnienia coraz większej wydajności), a także konieczność wdrażania przez przedsiębiorstwa transformacji cyfrowej, uważam, że rynek rozwinie się również w zakresie mniejszych obiektów data center, których budowa będzie realizowana szybciej, będą lokalizowane bliżej klienta, a ich odporność na globalne awarie informatyczne, ze względu na ich inny charakter i stosowane rozwiązania w obszarze ICT, będzie znacząco mniejsza. Obiekty te nie będą tak rozreklamowane w mediach, przez co staną się w większym stopniu anonimowe i tym samym mniej „widoczne” np. dla systemów wojskowych.
Co oznacza green IT w kontekście data center?
Zrównoważony rozwój technologiczny, eko-systemy informatyczne, green IT – to tylko niektóre z haseł i wyzwań, jakie obecnie mają wpływ na sposób projektowania, budowę i eksploatację obiektów data center. Najnowsze badania firmy Morgan Stanley wskazują, że do końca obecnej dekady sektor data center wygeneruje aż 2,5 miliarda ton metrycznych ekwiwalentu dwutlenku węgla (CO2e). Troska o naturalne środowisko naszej planety, ograniczanie negatywnego wpływu na nie infrastruktury technicznej projektowanych i eksploatowanych obiektów, z roku na rok przybierają na znaczeniu. Od pożądanych i oczekiwanych działań przechodzimy obecnie do etapu, w którym te wyzwania są wdrażane, również w obszarze formalno-prawnym np. poprzez stosowanie Dyrektywy Parlamentu Europejskiego i Rady EU 2023/1791 z dnia 13 września 2023 r. w sprawie efektywności energetycznej, w której artykuł 12 odnosi się bezpośrednio do centrów przetwarzania danych.
Stosowanie w infrastrukturze technicznej, w coraz szerszym zakresie, nowych technologii informatycznych, takich jak: sztuczna inteligencja, uczenie maszynowe, czy brzegowe przetwarzanie danych – decentralizacja mocy obliczeniowej, IoT, Smart City, 5G & 6G, zwiększają popyt na przetwarzanie danych, tym samym również zwiększają wymagania stawiane infrastrukturze centrów, zwłaszcza w zakresie zasilania energetycznego i chłodzenia urządzeń ICT. Coraz większa energochłonność tych urządzeń oraz potrzeba ich efektywnego chłodzenia sprawiają, że dla uzyskania wskaźnika oceny efektywności energetycznej (PUE) centrum przetwarzania danych, na poziomie znacznie poniżej 1,2 konieczne jest zastosowanie nowych rozwiązań technologicznych.
Nowe technologie ITC są wymagające
Efektem „ubocznym” zwiększonego zapotrzebowania energetycznego urządzeń jest, obserwowany w centrach przetwarzania danych, wzrost gęstości energetycznej w szafach rack. W latach 2019 – 2021, według Uptime Institute, procentowy udział szaf o gęstości <10kW na szafę rack zmniejszył się z 57% do 16%, a największą dynamikę wzrostu odnotowały szafy o gęstości zawierającej się w przedziale od 20 do 29 kW, wzrost z poziomu 12% do 27%. Zwiększenie gęstości energetycznej w szafach rack wynika bezpośrednio z postępu technologicznego w budowie układów scalonych. W 2011 procesor INTEL Xeon 2011 został zbudowany z 2,6 miliarda tranzystorów, a w 2022 procesor graficzny Nvidia A100 posiadał tych tranzystorów już 54 miliardy!1). Po przełożeniu tych danych na skalę czasu (1 tranzystor = 1 sekunda) i po wykonaniu prostych obliczeń otrzymamy bardziej wymierny obraz zachodzącego postępu technologicznego (82 lata vs. 1712 lat!!!). Projektowane nowe układy i procesory to nie tylko większa ilość tranzystorów i tym samym większe zapotrzebowanie na energię elektryczną (obecnie są to wartości dochodzące do 1850W na pojedynczy procesor), lecz także wyższa w przyszłości temperatura pracy tych układów dochodząca, według deklaracji Intela, nawet do 80oC!
Powyżej wymienione fakty i przedstawione trendy w rozwoju urządzeń ICT powodują, że do spełnienia wymagań stawianych przez nowe technologie, a z drugiej strony również spełnienie warunków stawianych przez zrównoważony rozwój infrastruktury w kontekście minimalizowania negatywnego wpływu na środowisko, konieczne i nieuchronne jest wdrożenie na powszechną skalę systemów chłodzenia cieczą (ang. liquid cooling). Systemy te stosowane są z powodzeniem od kilku dziesięcioleci w dużych klastrach serwerowych HPC (ang. High Performance Computing) wykonujących obliczenia wysokiej wydajności. Obecnie, coraz szerzej chłodzenie cieczą stosowane jest do chłodzenia pojedynczych serwerów (w „kopalniach” bitcoinów jest to praktycznie 100%!), a warto przy okazji również wspomnieć, że każdy liczący się obecnie na rynku producent serwerów posiada produkty przygotowane do chłodzenia cieczą.
Systemy chłodzenia cieczą, czyli wakat dla informatyka-hydraulika
Warto również zauważyć, że dla dedykowanych systemów chłodzenia cieczą można uzyskać parametry, w których woda posiada 1000 razy większą od powietrza wydajność chłodzenia, 25 razy lepiej odprowadza ciepło i potrzebuje 10 razy mniej energii do odprowadzenia tej samej ilości ciepła niż powietrze1).
Systemy chłodzenia cieczą znakomicie poprawiają efektywność energetyczną w centrach przetwarzania danych, a uzyskanie wskaźnika efektywności energetycznej PUE na poziomie znacznie poniżej wartości 1,2 jest ich główną zaletą. Ich stosowanie pozwala również na znaczne rozszerzenie zakresu czasu chłodzenia wykorzystującego do tego celu temperaturę powietrza na zewnątrz obiektu (w ciągu roku nawet do 80%, w naszych szerokościach geograficznych!). Ta technologia w najbliższym czasie odciśnie największe piętno w stale zmieniającym się krajobrazie infrastruktury technicznej obiektów data center. Powstanie nowy zawód „informatyk-hydraulik” i nie jest to żart. Tak będzie wyglądała ewolucja techniczna w tym obszarze.
W tak zarysowanym, zmieniającym się środowisku technicznym, prawnym i funkcjonalnym, tradycyjne metody budowy centrów danych, charakteryzujące się długim czasem realizacji, mało ekologiczną technologią budowy i wysokimi kosztami, jak wcześniej wspomniałem, nie są już jedyną opcją dla firm chcących zaspokoić swoje rosnące potrzeby w zakresie przetwarzania danych.
Konstrukcje modułowe, czyli budowanie z klocków
W tym miejscu warto bliżej przyjrzeć się konstrukcjom modułowym (prefabrykowanym), które obecnie zdobywają rynek zachodni i często mylone są z rozwiązaniami kontenerowymi. Konstrukcje te oferują elastyczne i skalowalne rozwiązania wychodząc naprzeciw współczesnym wyzwaniom technicznym i biznesowym. Rozwiązania te stanowią swoistą innowację łączącą wysoką jakość, estetykę i trwałość budownictwa tradycyjnego z szybkością i mobilnością systemów kontenerowych. Jest to uzupełnienie oferty rynkowej, gdyż tego typu obiekty wykonywane były do tej pory w technologii tradycyjnej lub kontenerowej, co zawsze wiązało się z trudnym wyborem pomiędzy jakością, a krótkim terminem realizacji inwestycji. Technologia modułowa wykorzystuje indywidualnie zaprojektowaną strukturę i powtarzalne elementy – moduły (pojedynczy moduł o stalowej konstrukcji może mieć do 110m2 powierzchni), za pomocą których powstaje większa całość o parametrach dopasowanych do zdefiniowanych potrzeb projektu oraz indywidualnych oczekiwań Klienta.
Konstrukcja budynku wykonanego w tej technologii nie stwarza ograniczeń projektowych ani wykonawczych. Infrastruktura techniczna obiektu może być wykonana zgodnie ze zdefiniowanymi oczekiwaniami Klienta, wymaganiami opisanymi w normach EN50600, TIA-942 czy zaleceniami opracowanymi przez Uptime Institute.
Wysoki stopień prefabrykacji, skalowalność oraz niezależność realizacji inwestycji od warunków atmosferycznych – to cechy, które znacząco wpływają na skrócenie czasu inwestycji. W przypadku realizacji Inwestycji w formule: „Zaprojektuj i wybuduj”, prefabrykacja budynku rozpoczyna się już w trakcie uzyskiwania pozwolenia na budowę. Takie rozwiązanie pozwala skrócić czas trwania inwestycji realizowanej w sposób tradycyjny do 50%. W związku z tym, że projekt, produkcja, montaż i wyposażenie realizowane są przez jednego Wykonawcę, nie pojawiają się koszty związane z dodatkowymi pracami i błędami projektowymi. Przekłada się to na znaczne oszczędności kosztów i skrócony czas wprowadzania usług na rynek, umożliwiając przedsiębiorstwom szybkie reagowanie na zmieniające się wymagania bez uszczerbku dla jakości i niezawodności.
W przypadku wzrostu zapotrzebowania na infrastrukturę ICT i wymagań dotyczących szybkości przetwarzania danych, dodatkowe moduły można łatwo zintegrować z istniejącą infrastrukturą, co pozwala na stopniowy rozwój obiektu bez zakłócania prowadzonych w nim operacji. Ta skalowalność nie tylko zabezpiecza przyszłe inwestycje w centra danych, lecz także zapewnia optymalne wykorzystanie zasobów, ostatecznie zwiększając elastyczność biznesową i konkurencyjność.
Rozwiązania modułowe oferują wiele korzyści w zakresie zrównoważonego rozwoju. Dzięki wykorzystaniu standardowych komponentów i zaawansowanych technik produkcyjnych, projekty te minimalizują straty materiałów i zużycie energii podczas budowy. Dodatkowo ich modułowy charakter umożliwia wdrażanie wydajnych systemów chłodzenia i dystrybucji mocy energetycznej, co dodatkowo zmniejsza koszty operacyjne i wpływ na środowisko. Rozwiązania modułowe charakteryzują się również szeroką gamą pozytywnych oddziaływań na środowisko naturalne poprzez ograniczenie śladu węglowego, wysoki udział materiałów z recyklingu, ograniczenie emisji pyłów, ograniczenie zużycia wody oraz gospodarkę materiałową w obiegu zamkniętym (znacznie mniejsza ilość odpadów w porównaniu z rozwiązaniami klasycznymi).
Podsumowując, projekty modułowe oraz stosowanie systemów chłodzenia cieczą, w obu wersjach (zanurzeniowej i bezpośredniej) wprowadzą, a moim zdaniem już wprowadzają, zmianę paradygmatu w architekturze centrów danych, oferując niezrównaną elastyczność, skalowalność, bezpieczeństwo i wydajność. Już dziś można zauważyć stosowanie tych rozwiązań w projektach hiperscalowych np. poprzez budowę modułowych systemów energetycznych, dostawianych według potrzeb do wykonanych z konstrukcji żelbetowych pomieszczeń serwerowych. Wykorzystując te innowacyjne rozwiązania, firmy mogą odblokować nowe możliwości wzrostu, elastyczności i zrównoważonego rozwoju w świecie, który w coraz większym stopniu oparty jest na szybkim, niezawodnym i bezpiecznym przetwarzaniu coraz większej ilości danych.
EKO-DC w pigułce
Na zakończenie krótki przepis na ekologiczne data center przyszłości. Po pierwsze – co jest dla mnie oczywiste – stosujemy liquid cooling. Obiekt budujemy z wykorzystaniem ekologicznej, prefabrykowanej technologii modułowej. Prefabrykowana konstrukcja budynku daje nam możliwość skalowania rozwiązań według potrzeb. Stosujemy technologie wirtualizacyjne i energooszczędny sprzęt IT – procesory, macierze oraz strojone przez AI bazy danych. Wykorzystujemy tylko „zieloną” energię, której konsumpcją zarządza AI. Dodatkowo wykorzystujemy ciepło odpadowe. Po zastosowaniu tych wytycznych projektowych mamy gwarantowany sukces naszej inwestycji!
1) źródło: Prof. Lee Lee Poh Seng, CoolestDC, October 2023.