Sztuczna inteligencja (AI) w programowaniu to dziś tak powszechne narzędzie, jak klawiatura czy myszka. Programiści na całym świecie korzystają z AI, aby pisać kod szybciej i z mniejszym wysiłkiem. Jednak nawet to błyskawiczne tempo ma swoją ciemną stronę – eksperci biją na alarm, że kod generowany przez AI jest pełen błędów i luk bezpieczeństwa, które wymagają nieustannego nadzoru i korekt ludzkich.
Szybkość kontra jakość – raport Veracode wstrząsa
Firma Veracode badała ponad 100 narzędzi AI generujących kod i dowiodła, że choć AI potrafi tworzyć działający kod z oszałamiającą prędkością, aż 45 procent próbek zawiera poważne luki bezpieczeństwa. Te podatności zostały zidentyfikowane przez stronę trzecią – Open Worldwide Application Security Project (OWASP), która monitoruje standardy bezpieczeństwa aplikacji.
Wyniki Veracode zostały nazwane przez ekspertów „wezwaniem do przebudzenia”. Programiści, menedżerowie bezpieczeństwa i wszyscy polegający na AI, by przyspieszyć swoją pracę, muszą mieć na uwadze, że szybkość nie zwalnia z obowiązku dokładności.
„Kod jest jak dom z drzwiami, których nie da się zamknąć”
Tak analogię tworzenia kodu AI opisuje Harshvardhan Chunawala – ekspert cyberbezpieczeństwa i były operator misji łazika księżycowego Iris. AI tworzy szkic, ale to człowiek musi sprawdzić strukturę, fundamenty i bezpieczeństwo.
Kirk Sigmon, prawnik i programista, zauważa, że AI generuje kod pełen błędów logicznych, wynikających z braku prawdziwego kontekstu i głębokiej wiedzy nad projektem. A formą nieistniejących pomysłów lub logicznych dziur w kodzie są tak zwane „halucynacje” AI.
CYNICZNYM OKIEM: Technologie, które miały nam ułatwić życie, przypominają budowlę z klocków LEGO bez instrukcji. Pięknie wygląda, ale kiedy zaczniesz z niej korzystać, okazuje się, że podłoże jest dziurawe, a drzwi nie zamykają się na klucz.
Halucynacje AI – kiedy kod mija się z prawdą
Halucynacje to błędne lub fikcyjne elementy, które AI może wprowadzać do generowanego kodu, często nieświadomie. James, doświadczony programista, podkreśla, jak frustrujące jest pracowanie z takimi błędami:
„Możesz dojść bardzo daleko, zanim odkryjesz, że AI po prostu wymyśla.”
Badania pokazują, że wskaźnik halucynacji w modelach językowych LLM wynosi od 17 do aż 88 procent w zależności od zastosowania i modelu. AI „broni” swoich błędów, co jeszcze bardziej utrudnia ich wykrywanie.
Vibe coding – kodowanie na czuja, czyli pułapka przyszłości
Termin „vibe coding” opisuje styl pracy, w którym programiści polegają na AI, skupiając się na efekcie, nie na procesie. Niestety, może to prowadzić do powstawania produkcyjnych aplikacji pełnych luk bezpieczeństwa, które trudniej wykryć, jeśli nie jest się ekspertem.
Nick Nikiforakis, specjalista od cyberbezpieczeństwa, ostrzega, że taka praktyka to przepis na katastrofę – szczególnie, gdy coraz więcej nieprofesjonalistów zaczyna pisać kod z pomocą AI, nie znając dobrych praktyk programowania.
CYNICZNYM OKIEM: „Zaufajmy maszynie, a wszelkie problemy znikną” – mówi programista, zanim włamujący się haker robi z jego dziełem totalny bigos. Szybko, tanio i bez refleksji – klucze do cyfrowej katastrofy.
Zatracenie miejsc pracy i gospodarka kultury szybkiego kodu
Wraz z rozwojem AI liczba ofert pracy dla programistów spada, a konkurencja rośnie. James żali się, że rynek jest zalany wykwalifikowanymi ludźmi, a firmy wybierają AI, by zrobić więcej za mniej.
Szybkość generowania kodu przez AI jest rewolucją, ale też sygnałem ostrzegawczym:
„W idealnym świecie potrzebny byłby zespół, który przegląda wygenerowany kod, ale rzadko takie decyzje podejmują osoby techniczne.”
Ważne jest, że AI powiela zarówno dobre, jak i złe praktyki zawarte w zbiorze danych treningowych, w tym kod publiczny, który często zawiera błędy i luki.
Badacz Chunawala podkreśla, że około 40–45% aplikacji generowanych przez AI zawiera podatności na włam, od niezabezpieczonych danych wejściowych po wykorzystywanie przestarzałych bibliotek.
Rozwój AI – ogromny potencjał i równocześnie olbrzymie wyzwania
AI jest znakomitym narzędziem do pisania powtarzalnego „szablonowego” kodu, ale czy przeciętny programista rzeczywiście zrobi to lepiej? Pytanie brzmi, kto ponosi odpowiedzialność za bezpieczeństwo i jakość kodu.
Chociaż narzędzia AI demokratyzują dostęp do technologii, to wymagają one stałego nadzoru i rzetelnej kontroli ludzkiej.
Sztuczna inteligencja zrewolucjonizowała programowanie, oferując bezprecedensową szybkość i dostępność narzędzi dla twórców oprogramowania. Jednak ta szybka produkcja kodu niesie ze sobą poważne niebezpieczeństwa, w tym liczne błędy logiczne i poważne luki bezpieczeństwa, które mogą kosztować przyszłych użytkowników bezpieczeństwo i stabilność systemów.
Bez współpracy człowieka i maszyny, bez rozwoju kompetencji i świadomości zagrożeń, szybkie generowanie kodu stanie się pułapką, prowadzącą do coraz bardziej chaotycznych i niebezpiecznych aplikacji.
Rozwój AI to nie tylko historia o przewadze technologii, ale także o konieczności rozsądku, wytrwałej kontroli i odpowiedzialności.
CYNICZNYM OKIEM: „AI robi za nas, szybciej, lepiej… no przynajmniej szybciej.” Szkoda tylko, że w tym wyścigu nie zawsze wygrywa jakość, a na końcu to my – ludzie – zostajemy z naprawianiem skutków.


