Sztuczna inteligencja (AI) w budownictwie– szanse i zagrożenia

Wprowadzenie – era algorytmów w projektowaniu i na placu budowy
Sztuczna inteligencja (AI) przestaje być futurystyczną wizją, a staje się rzeczywistością polskiego budownictwa. Podczas gdy BIM systematycznie, ale ewolucyjnie i dość wolno digitalizuje sektor, AI wprowadza do niego prawdziwą rewolucję, automatyzując kluczowe procesy – od koncepcji, przez realizację, po zarządzanie obiektem. Tempo tych zmian zdecydowanie wyprzedza obecny stan regulacji prawnych w Polsce. Brak jasnych ram prawnych stwarza poważne ryzyko: niepewność kontraktową, spowolnienie wdrażania innowacji i ostatecznie pogłębia technologiczny dystans Polski do liderów globalnych. Konieczne jest więc pilne dostosowanie kluczowych aktów prawnych – Prawa zamówień publicznych oraz Prawa budowlanego. O pilnej konieczności zmian i propozycjach uwzględnienia AI w prawie budowlanym autor pisze w wydawnictwie Mazowieckiej Okręgowej Izby Inżynierów 4(116) s. 4–5. W niniejszym tekście przedstawiono konkretne zastosowania AI w inżynierii, propozycje niezbędnych zmian legislacyjnych oraz niektóre znane już zagrożenia wynikające z nieumiejętnego stosowania AI.
Przykłady rewolucyjnych zastosowań AI w budownictwie:
Generatywne projektowanie i optymalizacja – przykłady. Oprogramowanie takie jak TestFit[1] wspomagający zagospodarowania terenu pod kątem maksymalizacji liczby mieszkań, wydajności energetycznej i opłacalności inwestycji. Inne narzędzia, jak nTopology[2] lub Autodesk Fusion 360[3], generują zoptymalizowane kształtowo elementy konstrukcyjne, redukując masę nawet o 40–70% przy zachowaniu parametrów wytrzymałościowych. Problem prawny – kto jest autorem projektu i ponosi za niego odpowiedzialność? Czy AI może być współtwórcą dokumentacji technicznej?
Przewidywanie zagrożeń i analiza obrazów – przykłady. Systemy wizyjne np. Everguard.ai, Doxel AI analizują w czasie rzeczywistym nagrania z kamer CCTV i dronów, identyfikując niebezpieczne zachowania pracowników (np. brak Wiadomości Projektanta Budownictwa nr 9–10 (416–417) wrzesień–18 październik 2025 r. Warsztat projektanta kamizelki, wejście w strefę zagrożenia), przewidując potencjalne zawalenie się ściany lub wykopu na podstawie mikroprzemieszczeń oraz monitorując stan zużycia sprzętu. Problem prawny – kto ponosi odpowiedzialność cywilną i karną za fałszywie negatywną ocenę systemu (brak alarmu), która doprowadziła do wypadku? Jak traktować dowód wideo przeanalizowany i opisany przez algorytm?
Automatyczna kontrola jakości i zgodności – przykłady. Drony wyposażone w lidar i AI skanują elewacje i konstrukcje, tworząc chmury punktów i automatycznie wykrywając nawet niewielkie odchyłki od projektu, pęknięcia czy braki w izolacji itp. Inne systemy np. BIMvision IDS weryfikują modele BIM pod kątem zgodności z wymaganiami prawnymi i normami, zapisanymi w języku naturalnym. Problem prawny – czy protokół kontroli technicznej lub odbioru robót wygenerowany automatycznie przez system AI ma moc prawną? Kto go podpisuje i zatwierdza?
Potrzeba regulacji – prawo musi nadążyć za technologią
Argumenty za pilnym uregulowaniem AI w budownictwie są wielowymiarowe. Fakt powszechnego stosowania AI nie jest już abstrakcją. Rynek budowlany już ją wykorzystuje do: optymalizacji ofert przetargowych, zarządzania łańcuchem dostaw materiałów, monitorowania postępu prac dzięki analizie zdjęć dziennych (np. Buildots) oraz wspomagania decyzji inwestycyjnych. Brak jasnych przepisów paraliżuje jednak firmy i zamawiających publicznych, którzy nie wiedzą, jak legalnie wdrożyć te narzędzia.
W kontekście zastosowania AI rodzą się istotne pytania bezpieczeństwa i odpowiedzialności, które obecnie pozostają bez odpowiedzi:
- Kto odpowiada za błąd w projekcie wygenerowanym przez AI – projektant, producent oprogramowania, a może właściciel danych treningowych?
- Jak zapewnić „sprawiedliwość algorytmu” w ocenie ofert przetargowych, by nie dyskryminował on niektórych wykonawców?
- Czy „zatwierdzenie” projektu przez człowieka jest wystarczającą furtką do uznania go za zgodny z prawem?
Kraje takie jak Wielka Brytania (inicjatywa CDBB), Singapur (BCA’s Construction Digitalisation Hub) czy Zjednoczone Emiraty Arabskie już wdrażają narodowe strategie „AI in Construction”. Polskie firmy, pozbawione przejrzystych regulacji, nie będą mogły skutecznie konkurować na arenie międzynarodowej ani realizować complex projects z użyciem najnowszych technologii.
Propozycje zmian legislacyjnych
Aby sprostać tym wyzwaniom, konieczne są zmiany w kilku głównych obszarach – Prawa zamówień publicznych, Prawa budowlanego oraz w obszarze cyber-bezpieczeństwa (audyty algorytmów) i certyfikacji (jak niemiecka norma DIN SPEC 92005). Omówiono to nieco szerzej we wspomnianym artykule wydawnictwa MOIIB.
Dlaczego należy działać szybko?
Nadchodzący AI Act UE wyznaczy ogólne ramy dla zastosowań sztucznej inteligencji, ale Polska potrzebuje własnych, szczegółowych i branżowych regulacji, które uwzględnią specyfikę procesu inwestycyjno-budowlanego. Chodzi o uniknięcie paraliżu innowacji, gdy firmy boją się inwestować w technologie, których legalność i dopuszczalność są niejasne. Ponadto chodzi także o ochronę interesu publicznego, bo jasne zasady odpowiedzialności prawnej są niezbędne do zapewnienia bezpieczeństwa użytkowników obiektów budowlanych i ochrony finansów publicznych.
Wyzwania AI i BIM – porównanie
Poniżej zestawiono porównanie wyzwań dla budownictwa w przypadku BIM i AI
aspekt BIM AI
Aspekt | BIM | AI |
---|---|---|
Tempo zmian | Ewolucyjne (standardyzacja) | Rewolucyjne (nowe modele co kilka miesięcy) |
Odpowiedzialność | Jasna (projektant, wykonawca) | Rozmyta (projektant, developer algorytmu, operator, właściciel danych) |
Wpływ na decyzje | Wspomaganie | System decyzyjny/automatyzacja |
Potrzeba regulacji | Głównie standardy danych | Odpowiedzialność, etyka, bezpieczeństwo, jawność |
Zagrożenia powodowane przez AI
Powyższe problemy opisują różna aspekty zastosowania AI w inżynierii, nie wspominając o zagrożeniach, które mogą być istotne. Poniżej opisano niektóre z nich.
Konfabulacja (Halucynacje)
Halucynacja to najgorsze z zagrożeń. Jest to tendencja modeli AI (szczególnie dużych modeli językowych – LLM) do generowania informacji, które brzmią przekonująco i autorytatywnie, ale są kompletnie zmyślone, nieprawdziwe lub oderwane od kontekstu. Chyba każdy kto korzystał z różnych modeli językowych zetknął się z tym zjawiskiem.
Dlaczego jest to tak niebezpieczne w inżynierii?
- Przekonująca forma. AI podaje zmyślone dane, wzory, kody lub procedury w sposób, który wygląda na niezwykle kompetentny i poprawny. Inżynier, polegając na swoim doświadczeniu, może nie zweryfikować każdego elementu, ufając spójności całej odpowiedzi.
- Błędy w krytycznych systemach. Wprowadzenie zmyślonego wzoru matematycznego, nieprawidłowego kodu sterującego lub błędnej specyfikacji materiałowej może prowadzić do katastrofalnych skutków: awarii konstrukcji, wypadków, ogromnych kosztów finansowych. Wiadomości Projektanta Budownictwa nr 9–10 (416–417) wrzesień–październik 2025 r. 19 Warsztat projektanta
- Utajony charakter błędu. Błąd wynikający z konfabulacji może być bardzo subtelny i ujawnić się dopiero w specyficznych warunkach, np. przy ekstremalnym obciążeniu lub awarii innego podsystemu.
- Kradzież własności intelektualnej – wycieki projektów przez systemy AI
Nadmierna pewność siebie i urojenie wszechwiedzy
AI „nie wie”, że czegoś nie wie. Zawsze stara się udzielić odpowiedzi, nawet na pytania wykraczające poza jej zakres wiedzy (który jest zamrożony na czasie treningu). Może to prowadzić do udzielania porad w dziedzinach, w których AI nie jest ekspertem (np. model ogólnego przeznaczenia doradzający w wysoko specjalistycznej inżynierii jądrowej) oraz Ignorowania najnowszych norm, standardów i badań, które pojawiły się po jej ostatnim treningu.
Brak zrozumienia kontekstu i zdroworozsądkowego rozumowania
AI nie „rozumie” świata fizycznego w taki sposób jak człowiek. W konsekwencji może zaproponować rozwiązanie, które jest matematycznie poprawne, ale fizycznie niemożliwe do wykonania (np. ze względu na tolerancje produkcyjne) lub ekonomicznie nieuzasadnione. AI nie bierze pod uwagę czynników ludzkich, środowiskowych, prawnych czy logistycznych, które są kluczowe w realnych projektach.
Błędy w Kodzie i Skryptach
Generowanie kodu (np. w Pythonie do obliczeń numerycznych) jest jedną z głównych zalet AI, ale też źródłem ryzyka:
- Kod, który się kompiluje, ale jest logicznie błędny.
- Korzystanie z przestarzałych lub niezalecanych bibliotek.
- Kod podatny na błędy (np. brak obsługi wyjątków, błędne warunki brzegowe).
- Nieużywanie sprawdzonych standardów inżynierii oprogramowania.
Problem czarnej skrzynki, brak możliwości weryfikacji
Określenie „czarna skrzynka” oznacza system, którego wewnętrzne działanie jest nieprzejrzyste lub trudne do zrozumienia, mimo że znamy jego wejścia i wyjścia. Dotyczy to zaawansowanych modeli, szczególnie tzw. głębokich sieci neuronowych (sieci wielowarstwowe), które są nieprzejrzyste. Ciężko jest prześledzić, dlaczego AI podała taką, a nie inną rekomendację. W inżynierii, gdzie wymagane jest udokumentowanie procesu decyzyjnego i analizy ryzyka, jest to poważna wada.
Biasy[4] i nierzetelne dane treningowe
Jakość wyjściowa AI zależy od jakości danych, na których została wytrenowana. Jeśli w danych treningowych były błędne artykuły, przestarzałe standardy czy nierzetelne fora internetowe, AI utrwali te błędy i przedstawi je jako fakty.
Zanik krytycznego myślenia i „atrofia umiejętności”
Nadmierne poleganie na AI może prowadzić do ślepego zaufania do odpowiedzi modelu, stopniowej utraty umiejętności samodzielnego rozwiązywania złożonych problemów i weryfikacji wyników przez inżynierów.
Zalecenia dla praktyki inżynierskiej – jak unikać zagrożeń
Sztuczna inteligencja to narzędzie do wspomagania, a nie zastępowania inżyniera. Należy traktować AI raczej jako młodego stażystę, a nie eksperta, a jej pracę zawsze należy weryfikować. Zasady jakimi powinniśmy się kierować obejmują:
- Sprawdzanie kluczowych informacji – wzory, normy, wartości materiałowe itp. w oficjalnych, uznanych źródłach (podręczniki, normy, dokumentacje techniczne).
- Dobrze jest podzielić duży problem na części. Zamiast oczekiwać kompleksowego rozwiązania, możemy zadawać pytania o mniejsze, konkretne elementy. Łatwiej jest wtedy wyłapać ewentualne błędy.
- Każdy kod wygenerowany przez AI należy bezwzględnie testować na znanych przypadkach i przeprowadzać jego ocenę pod kątem zgodności z przyjętymi założeniami.
- Dobrze jest określić, w jakich obszarach używamy AI np. generowanie wstępnych konceptów, pisanie rutynowych raportów, a w jakich jest to wykluczone – np. finalne zatwierdzanie projektu bez ludzkiej weryfikacji.
- Zamiast ogólnych modeli językowych (jak ChatGPT), lepiej użyć narzędzi AI stworzonych specjalnie dla inżynierii, które są trenowane na wiarygodnych danych technicznych i mogą podawać źródła swoich informacji.
Podsumowanie
AI to potężne narzędzie, które może zrewolucjonizować pracę inżyniera, ale nie usuwa odpowiedzialności z człowieka. Inżynier ponosi ostateczną odpowiedzialność za projekt. Kluczowe jest zachowanie krytycyzmu, zasady ograniczonego zaufania i rygorystycznej weryfikacji wszystkiego, co wygeneruje system AI. Konfabulacja jest jej najniebezpieczniejszą cechą, ponieważ atakuje właśnie zaufanie użytkownika. Autor będzie wdzięczny za uwagi i doświadczenia PT Czytelników z korzystania AI w inżynierii (a.tomana.datacomp.com.pl).
Przypisy
[1] Na podstawie danych działki i parametrów użytkownika TestFit tworzy propozycje zabudowy w kilka minut, w postaci brył budynków w 2D i 3D, z możliwością edycji układu dróg, przestrzeni publicznych i zieleni itp.; Generate a Feasibility Study Using TestFit | BIM Pure Blog.
[2] Zaawansowane narzędzia do generowania lekkich, wytrzymałych struktur zoptymalizowanych pod kątem druku 3D, wbudowane narzędzia FEA i CFD umożliwiają symulację naprężeń, przemieszczeń i przepływów już na etapie projektowania; nTop | Computational Design Software | formerly nTopology.
[3] Zintegrowana platforma CAD/CAM/CAE Fusion 360 3D CAD Software | Complete Guide – 3DISM.
[4] Słowo „bias” czyli „stronniczość” lub „uprzedzenie” w kontekście sztucznej inteligencji i uczenia maszynowego oznacza systematyczne odchylenie w danych lub decyzjach modelu, które prowadzi do nieprecyzyjnych lub nieproporcjonalnych wyników.