Deska kreślarska
Opublikowano:
12.04.2024

Data driven design a optymalizacja energetyczna

Jakie możliwości dają dziś projektantom technologie cyfrowe?

W dobie rosnącej świadomości ekologicznej projektowanie parametryczne, generatywne, algorytmiczne staje się nie tylko metodyką ambitnych projektantów, lecz także narzędziem pozwalającym uzyskać odpowiedzi w obszarach, gdzie jedynie skomplikowana analiza wielokryterialna pozwoli na uzyskanie miarodajnych, kompleksowych wyników.

Architekt i specjalista BIM z doświadczeniem, absolwentka Wydziału Architektury Politechniki Warszawskiej. Od 2019 roku obejmuje stanowisko Głównego BIM Managera w biurze APA Wojciechowski Architekci, gdzie opracowuje strategię BIM firmy,  tworzy i wdraża standardy BIM, testuje i implementuje innowacje związane z metodyką BIM, opracowuje rozwiązania optymalizujące i automatyzujące manualną pracę, koordynuje kwestie formalno-prawne umów w zakresie BIM.

Rozwija kompetencje BIM firmy i portfolio usług w tym zakresie. W 2022 i 2023 roku wdrożyła standard wykorzystania modeli BIM na cele szacowania śladu węglowego i przygotowania analiz LCA. Regularnie prowadzi szkolenia, mające na celu rozwijanie gotowości całego zespołu do realizacji wymagań klienta do świadczenia profesjonalnych usług BIM.

Jako członkini buildingSMART Polska, uczestniczy w działaniach pokoju Product Domain w obszarze wykorzystania klasyfikacji CCI w IFC na potrzeby obliczania śladu węglowego budynku. Propaguje ideę wartości BIM jako niezależnego produktu – bazy danych o inwestycji budowlanej, której użyteczność może być tak długa jak życie samego budynku.  Kocha nowe technologie – zgłębiać, aplikować na cele biznesu i podniesienia jakości usług firmy i efektywności pracy, a następnie je skalować i rozprzestrzeniać po firmie, przede wszystkim ucząc i rozwijając kompetencje LUDZI – członków Zespołu.

Filozofia stojąca za projektowaniem parametrycznym. Kluczowi pionierzy i ich wkład w rozwój koncepcji

Projektowanie parametryczne jako proces jednoczesnej analizy wielu parametrów i ich wpływu na efekt końcowy odbywało się w głowach projektantów od zawsze. Wystarczy przywołać eksperymenty Antonio Gaudiego, który często uważany jest za pioniera projektowania parametrycznego, mimo że termin ten nie był używany w jego czasach. Gaudi stosował techniki, które współcześnie klasyfikowalibyśmy jako parametryczne do tworzenia złożonych, organicznie wyglądających struktur. Jego metody projektowania opierały się na obserwacji natury i matematycznych zasad w niej zawartych i mogą być uważane za wczesną formę myślenia parametrycznego.

Podobne podejście (bazujące na eksploracji matematycznych zasad do odnajdywania nowych, optymalnych form konstrukcyjnych) prezentował Buckminster Fuller czy też Frei Otto.

Buckminster Fuller i jego koncepcja „Doing more with less” zainspirowała pokolenia projektantów do poszukiwania takich rozwiązań konstrukcyjnych i materiałowych, które umożliwią uzyskanie wysokiej optymalizacji parametru zużycia materiałów w relacji do zachowanych możliwości konstrukcyjnych. Fuller pokazał, że dzięki zastosowaniu zasad geometrii można osiągnąć struktury o wysokiej wytrzymałości, przy jednoczesnym znacznym obniżeniu zużycia materiałów.

Z kolei Frei Otto zasłynął z przeprowadzenia badań nad formami i strukturami znalezionymi w naturze, takimi jak: pajęcze sieci, bańki mydlane, struktury kostne i naśladowania zasad, na jakich działają w projektach lekkich konstrukcji i dachów w formie membran. Prace Ottona pokazały, w jaki sposób projektowanie może skorzystać z matematycznych i fizycznych prawidłowości w celu stworzenia bardziej efektywnych i zrównoważonych rozwiązań architektonicznych.

Projektowanie parametryczne w służbie zrównoważonego rozwoju

Te filozoficzne założenia stały się fundamentem dla współczesnego projektowania parametrycznego, które – poprzez wykorzystanie zaawansowanych narzędzi komputerowych – umożliwia eksplorowanie nieskończonej liczby wariantów projektowych, najlepiej odpowiadających określonym kryteriom wydajności.

Coraz nowsze technologie cyfrowe pozwoliły zmaterializować te zależności w postaci algorytmów, które odbywają się niejako „w tle podświadomości” doświadczonych projektantów. Wpłynęły również na dalszy rozwój badań skoncentrowanych na wpływie konkretnych analizowanych parametrów wejściowych na efekt końcowy. Należy zaznaczyć, że dzięki możliwości przeprowadzenia większej liczby wirtualnych testów, jesteśmy w stanie szybciej wyeliminować rozwiązania szczególnie niekorzystne.

Początkowo tzw. architekturę parametryczną charakteryzowała złożoność geometrii, która nie obowiązywała jako standard w przypadku klasycznego warsztatu projektanta. Stanowiło to pewien rodzaj manifestu możliwości wykorzystania nowych technologii. Widać to zwłaszcza w pierwszych projektach Zahy Hadid, gdzie dominowały falujące, dynamiczne formy, zaś procesom tworzenia wnętrza budynków towarzyszyły nowe technologie oraz narzędzia projektowania parametrycznego.

Natomiast zauważalne korzyści eksploracji idei projektowania parametrycznego i tzw. data driven design przynoszą w procesie poszukiwania najlepsze i zarazem j optymalne rozwiązania w danym kontekście.

Jednym z kluczowych aspektów, na których skupia się współczesne projektowanie, jest analiza wpływu ukształtowania bryły budynku, tektoniki fasady i jej orientacji względem stron świata na efektywność energetyczną. Poprzez algorytmiczne modelowanie różnych wariantów projektowych, architekci mogą już na wczesnym etapie identyfikować optymalne rozwiązania, które będą miały bezpośredni wpływ na zmniejszenie zapotrzebowania energii do ogrzewania, chłodzenia czy oświetlenia budynku.

Szczególnie sugestywnym wizualnie przykładem wykorzystania projektowania opartego na danych w praktyce jest projektowanie fasad budynków. Mogą być one kształtowane w procesie projektowym tak, aby maksymalizować naturalne oświetlenie wnętrz, jednocześnie minimalizując nadmierną ekspozycję na słońce i związane z tym zapotrzebowanie na chłodzenie. Algorytmy pomagają wizualizować wpływ projektowanych form na ogólny bilans energetyczny budynku.

Integracja komponentów modelu BIM (z odpowiednio przygotowanym algorytmem) stwarza niesamowite możliwości analizy orientacji fasady względem stron świata, a także wpływu na kształt i usytuowanie, np. elementów zacieniających czy paneli fotowoltaicznych na parametry wewnętrzne budynku. W poniżej prezentowanym przykładzie poddano analizie wpływ ukształtowania elementów fasadowych (w tym także zacieniających) na redukcję zużycia energii w ogólnym bilansie energetycznym budynku.

 

Rysunek 1: Fragment analizy wpływu ukształtowania tektoniki fasady na zużycie energii w budynku. Opracowanie analiz: arch. Wojciech Rekosz. Materiały udostępnione przez APA Wojciechowski sp. z o.o.

Parametryczny model energetyczny – w zależności od zmian elementów zacieniających – umożliwia obliczenie rocznego zużycia energii, szczytowego obciążenia chłodniczego i grzewczego, wartości UDI oraz energii pozyskanej z ogniw fotowoltaicznych. Badane są pokoje (o szerokości 8,4 m) zarówno pod kątem najbardziej, jak i najmniej korzystnego fragmentu każdej z fasad. Model ten uwzględnia wszystkie istotne dane pogodowe, właściwości materiałów, wydajność ogniw i systemów PV oraz wewnętrzne zyski (zachowanie użytkowników czy użycie światła dziennego w zależności od dostępności światła naturalnego). Wszystkie analizy zostały przeprowadzone dla typowego roku (na podstawie danych pogodowych IMGW), godzina po godzinie.

Analizowanymi zmiennymi były typy elementów oraz ich wysunięcie względem lica ściany. W celu ograniczenia liczby typów elementów użyto pięciu profili: 10, 20, 30, 40 lub 50 cm. Dodatkowo elementy zmieniają się w zależności od tego, czy elewacja zawiera ogniwa fotowoltaiczne.

Opracowanie analiz: arch. Wojciech Rekosz. Materiały udostępnione przez APA Wojciechowski pz.o.o.

Współczesne możliwości: BIM i projektowane oparte na danych  optymalizacji energetycznej w nowoczesnym budownictwie

Współcześnie optymalizacja zużycia surowców, energii i śladu węglowego staje się priorytetem odzwierciedlającym globalne dążenie do zrównoważonego rozwoju i minimalizacji negatywnego wpływu człowieka na planetę.

Rozwój technologii i metodyki BIM (Building Information Modeling) umożliwił dalsze rozszerzenie warsztatu kompleksowej analizy i kontroli nawet bardzo złożonych kryteriów projektowych i tym samym jeszcze dokładniejszą weryfikację i modelowanie wpływu budynków na środowisko jeszcze na etapie projektowym. Dzięki temu architekci oraz inżynierowie mogą w jeszcze bardziej precyzyjny sposób przewidywać i optymalizować zużycie energii, wpływając tym samym na redukcję śladu węglowego oraz kosztów eksploatacyjnych budynków.

Technologia BIM (Building Information Modeling) zrewolucjonizowała sposób, w jaki architekci i inżynierowie podchodzą do projektowania i zarządzania projektami budowlanymi. BIM to nie tylko oprogramowanie, lecz także proces umożliwiający tworzenie cyfrowych reprezentacji fizycznych oraz funkcjonalnych cech obiektu budowlanego.

Metodyka BIM skupia się również na modelowaniu i wykorzystaniu informacji o budowli przez wszystkich użytkowników (zarówno procesu projektowego, jak i inwestycyjnego, z uwzględnieniem całego cyklu jego życia). Można zatem łatwo sobie wyobrazić, że integracja idei projektowania parametrycznego z metodyką i narzędziami BIM stanowi podejście, które pozwoli w sposób iteracyjny przeprowadzać cykle analiz z wykorzystaniem algorytmów.

Włączając analizy wspomagane algorytmami i sterując kluczowymi parametrami np. bryły budynku, usytuowania względem stron świata, ukształtowaniem elementów fasadowych projektanci mogą – na etapie projektowym – dokonywać symulacji ukazującej, w jaki sposób zmiana analizowanych parametrów rzutuje np. na efektywność energetyczną, optymalizację wykorzystania światła dziennego czy zużycie surowców i tym samym ślad węglowy budynku.

Projektanci oraz inwestorzy, dysponując wynikami kompleksowych analiz, wchodzą na zupełnie inny poziom możliwości predykcji różnych aspektów inwestycji i tym samym są w stanie podejmować bardziej świadome decyzje.

Digital Twin i analizy danych o budynku w czasie rzeczywistym

Obecnie dużą nadzieję pokłada się w analizach danych w czasie rzeczywistym. Tego typu idee wdrażane są wraz z koncepcją tzw. Digital Twin, czyli cyfrowego odpowiednika budynku stosowanego do zarządzania obiektem.

„Cyfrowy bliźniak” – wraz z ideą zarządzania cyklem życia budynku – stanowi końcową, najbardziej zaawansowaną fazę wykorzystania modeli i metodyki BIM w procesie inwestycyjnym i w cyklu życia budynku. Odpowiednio przygotowany, cyfrowy odpowiednik rzeczywistej budowli, spięty z systemem BMS, pozwala na sprawne zarządzanie utrzymaniem budynku.

Informacje uzyskane z modeli BIM, jak i systemu BMS stanowią źródło danych do analiz w czasie rzeczywistym, wyciągania wniosków faktycznym funkcjonowaniu budynku i przeprowadzaniu dodatkowych symulacji i predykcji pozwalających na optymalniejsze wykorzystanie zasobów budynku.

Mogą one być używane np. do bardziej efektywnego zarządzania zużyciem energii w budynku i tym samym stanowić źródło wiedzy wykorzystywanej do tworzenia corocznych raportów ESG. Tego typu model „żyje” razem z budynkiem. W przypadku konieczności remontu czy też przebudowy mamy dostęp do wszystkich niezbędnych informacji, pozwalających sprawnie przeprowadzić proces projektowy, a następnie przeanalizować wpływ projektowanej zmiany na cały system.

Jednym z przykładów budynku tego typu jest The Edge w Amsterdamie, zaprojektowany przez pracownię PLP Architecture, często uznawany za jeden z najbardziej zrównoważonych i inteligentnych budynków biurowych na świecie. Dzięki zastosowaniu technologii BIM i zaawansowanym rozwiązaniom projektowania parametrycznego budynek ten osiąga niezwykle niskie zużycie energii.

Zastosowanie optymalizacji energetycznej dotyczy zarówno zewnętrznych, jak i wewnętrznych aspektów budynku. Fasada budynku wykorzystuje specjalnie zaprojektowane panele słoneczne, które maksymalizują produkcję energii, jednocześnie umożliwiając naturalne oświetlenie wnętrz. System zarządzania budynkiem (BMS) integruje wszystkie instalacje, optymalizując zużycie energii w czasie rzeczywistym.

The Edge w Amsterdamie, zaprojektowany przez pracownię PLP Architecture

Garbage in – garbage out. Znaczenie wiarygodnych baz danych w procesie projektowania wspomaganego algorytmami

Projektantom aktywnie zaangażowanym w projektowanie wspomagane analizą danych i algorytmami bardzo dobrze znane jest hasło „garbage in — garbage out”. Doskonale obrazuje ono wagę jakości i wiarygodności danych wykorzystywanych do analiz.

Wyobraźmy sobie tak wieloskładnikowe analizy np. komfortu użytkowników czy jakości mikroklimatu w przestrzeni budynków. W skład takich opracowań wchodzą m.in. analizy wiatrowe, poziomu hałasu, temperatury powietrza, intensywności ruchu, wilgotności powietrza itd.

O ile jesteśmy w stanie dość dokładnie przebadać nasłonecznienie i zacienianie, o tyle na tzw. mikroklimat składają się w zasadzie wszystkie parametry fizyczne „powietrza” – zarówno w makroskali, uwzględniającej: klimat w danym regionie, kierunki i siła wiatru, rozkład temperatur, jak i w mikroskali, gdzie konkretny człowiek w danym miejscu i czasie doświadcza danej przestrzeni i rejestruje to jako odczucie komfortu lub dyskomfortu.

Dla potencjalnego klienta na pierwszy plan wysuwa się ukształtowanie budynku, przestrzeni ulicy czy też rodzaje zastosowanych materiałów, ilości i rozkładu zieleni w przestrzeni, rzeczywistego poziomu hałasu, ruchu powietrza odczuwanego jako powiew chłodu. Brak szczegółowych, lokalnych danych klimatycznych lub środowiskowych utrudnia dokładne modelowanie i analizę zwłaszcza w tej mikroskali. To z kolei może wpłynąć na zdolność do przewidywania zachowania budynku w rzeczywistych warunkach i prowadzić do przyjęcia błędnych założeń i nieoptymalnych decyzji projektowych.

Mapa rozkładu odczuwalnej temperatury w przestrzeni między budynkami w najbardziej gorący tydzień w roku. Opracowanie analiz: arch. Wojciech Rekosz. Materiały udostępnione przez APA Wojciechowski sp. z.o.o.

Analiza  prędkości oraz kierunku  wiatru w projektowanych przestrzeniach publicznych. Opracowanie analiz: arch. Wojciech Rekosz. Materiały udostępnione przez APA Wojciechowski Sp.z.o.o.

Podsumowanie i wnioski

Choć przywoływane przykłady dotyczą zaawansowanych technologicznie budynków, to mając do dyspozycji współczesne narzędzia projektowania parametrycznego, możemy z powodzeniem wdrożyć je do optymalizacji pasywnych strategii energetycznych, nawet bez wykorzystania tradycyjnych systemów HVAC (ogrzewanie, wentylacja, klimatyzacja).

Wdrażając na wczesnym etapie analizy parametrycznych modeli energetycznych i przeprowadzając optymalizację kształtu budynku oraz jego orientacji względem stron świata, możemy realnie maksymalizować wykorzystanie naturalnego oświetlenia pomieszczeń i pasywnego ogrzewania słonecznego. Włączając na dalszym etapie eksplorowanie różnych konfiguracji fasad, badając np. rozmieszczenie i wielkość okien, rodzaje przeszkleń, a także zastosowanie systemów zacieniających na elewacji, możemy w większym stopniu ograniczać straty ciepła zimą, a także przegrzewanie wnętrz latem. Dzięki temu znacząco zmniejszamy stosowanie sztucznych systemów ogrzewania i chłodzenia.

Projektowanie parametryczne oferuje potężne narzędzia do optymalizacji i innowacji w architekturze. Niemniej, aby sprostać realizacji ambitnych wyzwań strategii unijnej Net Zero, kluczowa będzie dostępność i wiarygodność danych, na jakich projektanci mogą przeprowadzać analizy z wykorzystaniem parametrycznych modeli analitycznych.

Inne artykuły z tego wydania

Moc technologii Digital Twin

Czytaj całość
Usługi i technologie

Technologie audiowizualne w Allegro

Czytaj całość
Human Centric

Paragrafy o BMS

Czytaj całość
Zarządzanie

Inwestycyjnym okiem inżyniera

Czytaj całość
Okiem redakcji