Sztuczna inteligencja (AI) w budownictwie– szanse i zagrożenia

Wprowadzenie – era algorytmów w projektowaniu i na placu budowy

Sztuczna inteligencja (AI) przestaje być futurystyczną wizją, a staje się rzeczywistością polskiego budownictwa. Podczas gdy BIM systematycznie, ale ewolucyjnie i dość wolno digitalizuje sektor, AI wprowadza do niego prawdziwą rewolucję, automatyzując kluczowe procesy – od koncepcji, przez realizację, po zarządzanie obiektem. Tempo tych zmian zdecydowanie wyprzedza obecny stan regulacji prawnych w Polsce. Brak jasnych ram prawnych stwarza poważne ryzyko: niepewność kontraktową, spowolnienie wdrażania innowacji i ostatecznie pogłębia technologiczny dystans Polski do liderów globalnych. Konieczne jest więc pilne dostosowanie kluczowych aktów prawnych – Prawa zamówień publicznych oraz Prawa budowlanego. O pilnej konieczności zmian i propozycjach uwzględnienia AI w prawie budowlanym autor pisze w wydawnictwie Mazowieckiej Okręgowej Izby Inżynierów 4(116) s. 4–5. W niniejszym tekście przedstawiono konkretne zastosowania AI w inżynierii, propozycje niezbędnych zmian legislacyjnych oraz niektóre znane już zagrożenia wynikające z nieumiejętnego stosowania AI.

Przykłady rewolucyjnych zastosowań AI w budownictwie:

Generatywne projektowanie i optymalizacja – przykłady. Oprogramowanie takie jak TestFit[1] wspomagający zagospodarowania terenu pod kątem maksymalizacji liczby mieszkań, wydajności energetycznej i opłacalności inwestycji. Inne narzędzia, jak nTopology[2] lub Autodesk Fusion 360[3], generują zoptymalizowane kształtowo elementy konstrukcyjne, redukując masę nawet o 40–70% przy zachowaniu parametrów wytrzymałościowych. Problem prawny – kto jest autorem projektu i ponosi za niego odpowiedzialność? Czy AI może być współtwórcą dokumentacji technicznej?

Przewidywanie zagrożeń i analiza obrazów – przykłady. Systemy wizyjne np. Everguard.ai, Doxel AI analizują w czasie rzeczywistym nagrania z kamer CCTV i dronów, identyfikując niebezpieczne zachowania pracowników (np. brak Wiadomości Projektanta Budownictwa nr 9–10 (416–417)  wrzesień–18 październik 2025 r.  Warsztat projektanta kamizelki, wejście w strefę zagrożenia), przewidując potencjalne zawalenie się ściany lub wykopu na podstawie mikroprzemieszczeń oraz monitorując stan zużycia sprzętu. Problem prawny – kto ponosi odpowiedzialność cywilną i karną za fałszywie negatywną ocenę systemu (brak alarmu), która doprowadziła do wypadku? Jak traktować dowód wideo przeanalizowany i opisany przez algorytm?

Automatyczna kontrola jakości i zgodności – przykłady. Drony wyposażone w lidar i AI skanują elewacje i konstrukcje, tworząc chmury punktów i automatycznie wykrywając nawet niewielkie odchyłki od projektu, pęknięcia czy braki w izolacji itp. Inne systemy np. BIMvision IDS weryfikują modele BIM pod kątem zgodności z wymaganiami prawnymi i normami, zapisanymi w języku naturalnym. Problem prawny – czy protokół kontroli technicznej lub odbioru robót wygenerowany automatycznie przez system AI ma moc prawną? Kto go podpisuje i zatwierdza?

Potrzeba regulacji – prawo musi nadążyć za technologią

Argumenty za pilnym uregulowaniem AI w budownictwie są wielowymiarowe. Fakt powszechnego stosowania AI nie jest już abstrakcją. Rynek budowlany już ją wykorzystuje do: optymalizacji ofert przetargowych, zarządzania łańcuchem dostaw materiałów, monitorowania postępu prac dzięki analizie zdjęć dziennych (np. Buildots) oraz wspomagania decyzji inwestycyjnych. Brak jasnych przepisów paraliżuje jednak firmy i zamawiających publicznych, którzy nie wiedzą, jak legalnie wdrożyć te narzędzia.

W kontekście zastosowania AI rodzą się istotne pytania bezpieczeństwa i odpowiedzialności, które obecnie pozostają bez odpowiedzi:

  • Kto odpowiada za błąd w projekcie wygenerowanym przez AI – projektant, producent oprogramowania, a może właściciel danych treningowych?
  • Jak zapewnić „sprawiedliwość algorytmu” w ocenie ofert przetargowych, by nie dyskryminował on niektórych wykonawców?
  • Czy „zatwierdzenie” projektu przez człowieka jest wystarczającą furtką do uznania go za zgodny z prawem?

Kraje takie jak Wielka Brytania (inicjatywa CDBB), Singapur (BCA’s Construction Digitalisation Hub) czy Zjednoczone Emiraty Arabskie już wdrażają narodowe strategie „AI in Construction”. Polskie firmy, pozbawione przejrzystych regulacji, nie będą mogły skutecznie konkurować na arenie międzynarodowej ani realizować complex projects z użyciem najnowszych technologii.

Propozycje zmian legislacyjnych

Aby sprostać tym wyzwaniom, konieczne są zmiany w kilku głównych obszarach – Prawa zamówień publicznych, Prawa budowlanego oraz w obszarze cyber-bezpieczeństwa (audyty algorytmów) i certyfikacji (jak niemiecka norma DIN SPEC 92005). Omówiono to nieco szerzej we wspomnianym artykule wydawnictwa MOIIB.

Dlaczego należy działać szybko?

Nadchodzący AI Act UE wyznaczy ogólne ramy dla zastosowań sztucznej inteligencji, ale Polska potrzebuje własnych, szczegółowych i branżowych regulacji, które uwzględnią specyfikę procesu inwestycyjno-budowlanego. Chodzi o uniknięcie paraliżu innowacji, gdy firmy boją się inwestować w technologie, których legalność i dopuszczalność są niejasne. Ponadto chodzi także o ochronę interesu publicznego, bo jasne zasady odpowiedzialności prawnej są niezbędne do zapewnienia bezpieczeństwa użytkowników obiektów budowlanych i ochrony finansów publicznych.

Wyzwania AI i BIM – porównanie

Poniżej zestawiono porównanie wyzwań dla budownictwa w przypadku BIM i AI
aspekt BIM AI

AspektBIMAI
Tempo zmianEwolucyjne (standardyzacja)Rewolucyjne (nowe modele co kilka miesięcy)
OdpowiedzialnośćJasna (projektant, wykonawca)Rozmyta (projektant, developer algorytmu, operator, właściciel danych)
Wpływ na decyzjeWspomaganieSystem decyzyjny/automatyzacja
Potrzeba regulacjiGłównie standardy danychOdpowiedzialność, etyka, bezpieczeństwo, jawność

Zagrożenia powodowane przez AI

Powyższe problemy opisują różna aspekty zastosowania AI w inżynierii, nie wspominając o zagrożeniach, które mogą być istotne. Poniżej opisano niektóre z nich.

Konfabulacja (Halucynacje)

Halucynacja to najgorsze z zagrożeń. Jest to tendencja modeli AI (szczególnie dużych modeli językowych – LLM) do generowania informacji, które brzmią przekonująco i autorytatywnie, ale są kompletnie zmyślone, nieprawdziwe lub oderwane od kontekstu. Chyba każdy kto korzystał z różnych modeli językowych zetknął się z tym zjawiskiem.

Dlaczego jest to tak niebezpieczne w inżynierii?

  • Przekonująca forma. AI podaje zmyślone dane, wzory, kody lub procedury w sposób, który wygląda na niezwykle kompetentny i poprawny. Inżynier, polegając na swoim doświadczeniu, może nie zweryfikować każdego elementu, ufając spójności całej odpowiedzi.
  • Błędy w krytycznych systemach. Wprowadzenie zmyślonego wzoru matematycznego, nieprawidłowego kodu sterującego lub błędnej specyfikacji materiałowej może prowadzić do katastrofalnych skutków: awarii konstrukcji, wypadków, ogromnych kosztów finansowych. Wiadomości Projektanta Budownictwa nr 9–10 (416–417)  wrzesień–październik 2025 r. 19 Warsztat projektanta 
  • Utajony charakter błędu. Błąd wynikający z konfabulacji może być bardzo subtelny i ujawnić się dopiero w specyficznych warunkach, np. przy ekstremalnym obciążeniu lub awarii innego podsystemu.
  • Kradzież własności intelektualnej – wycieki projektów przez systemy AI

Nadmierna pewność siebie i urojenie wszechwiedzy

AI „nie wie”, że czegoś nie wie. Zawsze stara się udzielić odpowiedzi, nawet na pytania wykraczające poza jej zakres wiedzy (który jest zamrożony na czasie treningu). Może to prowadzić do udzielania porad w dziedzinach, w których AI nie jest ekspertem (np. model ogólnego przeznaczenia doradzający w wysoko specjalistycznej inżynierii jądrowej) oraz Ignorowania najnowszych norm, standardów i badań, które pojawiły się po jej ostatnim treningu.

Brak zrozumienia kontekstu i zdroworozsądkowego rozumowania

AI nie „rozumie” świata fizycznego w taki sposób jak człowiek. W konsekwencji może zaproponować rozwiązanie, które jest matematycznie poprawne, ale fizycznie niemożliwe do wykonania (np. ze względu na tolerancje produkcyjne) lub ekonomicznie nieuzasadnione. AI nie bierze pod uwagę czynników ludzkich, środowiskowych, prawnych czy logistycznych, które są kluczowe w realnych projektach.

Błędy w Kodzie i Skryptach

Generowanie kodu (np. w Pythonie do obliczeń numerycznych) jest jedną z głównych zalet AI, ale też źródłem ryzyka:

  • Kod, który się kompiluje, ale jest logicznie błędny.
  • Korzystanie z przestarzałych lub niezalecanych bibliotek.
  • Kod podatny na błędy (np. brak obsługi wyjątków, błędne warunki brzegowe).
  • Nieużywanie sprawdzonych standardów inżynierii oprogramowania.

Problem czarnej skrzynki, brak możliwości weryfikacji

Określenie „czarna skrzynka” oznacza system, którego wewnętrzne działanie jest nieprzejrzyste lub trudne do zrozumienia, mimo że znamy jego wejścia i wyjścia. Dotyczy to zaawansowanych modeli, szczególnie tzw. głębokich sieci neuronowych (sieci wielowarstwowe), które są nieprzejrzyste. Ciężko jest prześledzić, dlaczego AI podała taką, a nie inną rekomendację. W inżynierii, gdzie wymagane jest udokumentowanie procesu decyzyjnego i analizy ryzyka, jest to poważna wada.

Biasy[4] i nierzetelne dane treningowe

Jakość wyjściowa AI zależy od jakości danych, na których została wytrenowana. Jeśli w danych treningowych były błędne artykuły, przestarzałe standardy czy nierzetelne fora internetowe, AI utrwali te błędy i przedstawi je jako fakty.

Zanik krytycznego myślenia i „atrofia umiejętności”

Nadmierne poleganie na AI może prowadzić do ślepego zaufania do odpowiedzi modelu, stopniowej utraty umiejętności samodzielnego rozwiązywania złożonych problemów i weryfikacji wyników przez inżynierów.

Zalecenia dla praktyki inżynierskiej – jak unikać zagrożeń

Sztuczna inteligencja to narzędzie do wspomagania, a nie zastępowania inżyniera. Należy traktować AI raczej jako młodego stażystę, a nie eksperta, a jej pracę zawsze należy weryfikować. Zasady jakimi powinniśmy się kierować obejmują:

  • Sprawdzanie kluczowych informacji – wzory, normy, wartości materiałowe itp. w oficjalnych, uznanych źródłach (podręczniki, normy, dokumentacje techniczne).
  • Dobrze jest podzielić duży problem na części. Zamiast oczekiwać kompleksowego rozwiązania, możemy zadawać pytania o mniejsze, konkretne elementy. Łatwiej jest wtedy wyłapać ewentualne błędy.
  • Każdy kod wygenerowany przez AI należy bezwzględnie testować na znanych przypadkach i przeprowadzać jego ocenę pod kątem zgodności z przyjętymi założeniami.
  • Dobrze jest określić, w jakich obszarach używamy AI np. generowanie wstępnych konceptów, pisanie rutynowych raportów, a w jakich jest to wykluczone – np. finalne zatwierdzanie projektu bez ludzkiej weryfikacji.
  • Zamiast ogólnych modeli językowych (jak ChatGPT), lepiej użyć narzędzi AI stworzonych specjalnie dla inżynierii, które są trenowane na wiarygodnych danych technicznych i mogą podawać źródła swoich informacji.

Podsumowanie

AI to potężne narzędzie, które może zrewolucjonizować pracę inżyniera, ale nie usuwa odpowiedzialności z człowieka. Inżynier ponosi ostateczną odpowiedzialność za projekt. Kluczowe jest zachowanie krytycyzmu, zasady ograniczonego zaufania i rygorystycznej weryfikacji wszystkiego, co wygeneruje system AI. Konfabulacja jest jej najniebezpieczniejszą cechą, ponieważ atakuje właśnie zaufanie użytkownika. Autor będzie wdzięczny za uwagi i doświadczenia PT Czytelników z korzystania AI w inżynierii (a.tomana.datacomp.com.pl).

Przypisy
[1] Na podstawie danych działki i parametrów użytkownika TestFit tworzy propozycje zabudowy w kilka minut, w postaci brył budynków w 2D i 3D, z możliwością edycji układu dróg, przestrzeni publicznych i zieleni itp.; Generate a Feasibility Study Using TestFit | BIM Pure Blog.
[2] Zaawansowane narzędzia do generowania lekkich, wytrzymałych struktur zoptymalizowanych pod kątem druku 3D, wbudowane narzędzia FEA i CFD umożliwiają symulację naprężeń, przemieszczeń i przepływów już na etapie projektowania; nTop | Computational Design Software | formerly nTopology.
[3] Zintegrowana platforma CAD/CAM/CAE Fusion 360 3D CAD Software | Complete Guide – 3DISM.
[4] Słowo „bias” czyli „stronniczość” lub „uprzedzenie” w kontekście sztucznej inteligencji i uczenia maszynowego oznacza systematyczne odchylenie w danych lub decyzjach modelu, które prowadzi do nieprecyzyjnych lub nieproporcjonalnych wyników.

dr inż. Andrzej Tomana
dr inż. Andrzej Tomana

Urodzony w 1948 roku w Krakowie, jest absolwentem pierwszego kursu Teorii Konstrukcji na Wydziale Lądowym w Politechnice Krakowskiej, gdzie podjął pracę po ukończeniu studiów w 1972 roku. W roku 1981 obronił pracę doktorską na temat „Zastosowanie ścisłych elementów skończonych do optymalnego kształtowania prętowych układów drgających”. W czasie pracy w Politechnice Krakowskiej do 1994 roku uczestniczył w realizacji kilku projektów naukowo-badawczych, wśród nich można wyróżnić prace z zakresu analizy mechanicznych skutków zwarć w rozdzielniach najwyższych napięć (praca nagrodzona przez MNiSZW) oraz opracował ponad 20 publikacji naukowych z zakresu zastosowania Metody Elementów Skończonych w budownictwie oraz zastosowania Sztucznych Sieci Neuronowych do szacowania wartości nieruchomości. Wśród prac inżynierskich można wymienić m.in. analizę wpływów sejsmicznych na obudowę metra w Algerze, analizę hal wystawowych w Lipsku i kilkanaście projektów korpusów wanien elektrolitycznych z żywico-betonu (obciążenia statyczne, dynamiczne, efekty cieplne).
W 1987 roku założył firmę Datacomp, którą kieruje do dzisiaj. W firmie kieruje projektami informatycznymi związanymi z oprogramowaniem inżynierskim do analizy i wymiarowania oraz kosztorysowania. Obecnie prowadzi projekty związane z technologią BIM – BIMVision i BIMestiMate, które są oferowane na rynku globalnym. Jest autorem kilkunastu publikacji z tego zakresu, a przede wzystkim pierwszej polskiej monografii „BIM – innowacyjna technologia w budownictwie”. Jest członkiem Rady Koordynacyjnej Biur Projektów Izby Projektowania Budowlanego, PZITB, Akademii Inżynierskiej, Stowarzyszenia Klaster BIM, członkiem Biulding Smart Polska. Był kierownikiem projektu finansowanego ze środków UE „Opracowanie prototypu platformy systemowej do zarzadzania inwestycjami budowlanymi z wykorzystaniem technologii BIM” i uczestniczył w kilku projektach finansowanych z UE m.in. UrbanBIM, BIMhealthy. Obecnie w firmie jest kierownikiem zespołu badawczo-rozwojowego. Z publikacjami można zapoznać się na stronie www.bim4u.eu

Artykuły: 52