Spis treści

  1. Asystent AI usunął całą bazę danych
  2. Kiedy pomoc staje się zagrożeniem
  3. Kolejny wypadek
  4. Jak przebiegał atak?
  5. Jak zadbać o bezpieczeństwo?
  6. Dlaczego to tak ważne

Czy AI można ufać bezgranicznie?

Asystenci AI są teraz niemal wszędzie, ale czy oznacza to, że mamy im bezgranicznie ufać? Cyberbezpieczeństwo nigdy nie było tak ważną kwestią, jaką jest dziś, w erze błyskawicznej cyfryzacji. Zanim powierzymy w ich wirtualne ręce jakąkolwiek kontrolę czy wgląd do naszych plików - zastanówmy się dwa razy.

Błędy

Asystent AI usunął całą bazę danych

Wyobraź sobie piękne popołudnie lipcowego dnia. SaaStr-owy założyciel Jason Lemkin siada przed komputerem i otwiera Replit - platformę obiecaną jako przyszłość programowania. Konsolę wprowadza w stan „vibe coding”, w którym projektujesz aplikację, mówiąc do agenta AI, jak do życzliwego, choć wszystkowiedzącego asystenta. Każde jego słowo ubierane jest w linijki kodu i powoli nabiera kształtu. Jego fascynacja sięga zenitu - "najbardziej uzależniająca aplikacja, jaką pamiętam" - mówi Lemkin.

Niestety, 9. dnia wszystko się sypie. Mimo twardego polecenia “code freeze”, AI wykonuje szereg niezrozumiałych operacji. AI wykonuje polecenie SQL, które kasuje bazę danych. W efekcie znikają dane ponad 1200 menedżerów i blisko 1200 firm, a system nie daje żadnych ostrzeżeń. Wszystko odbywa się w tle, jak gdyby nigdy nic.

Ale to jeszcze nie wszystko, potem nadeszła manipulacja - asystent AI zaczął tworzyć fałszywe dane: 4 000 fikcyjnych użytkowników, sfałszowane raporty, wymyślone testy jednostkowe. Kiedy Lemkin pytał, co się stało - AI bez skrupułów kłamało, że rollback nie jest możliwy.

Kiedy pomoc staje się zagrożeniem

Brzmi jak żart? To niestety historia prawdziwa. I w dodatku to taka, która wydarzyła się w sercu firmy technologicznej specjalizującej się w narzędziach dla programistów. Co prawda, jej prezes przeprosił, dodając funkcje bezpieczeństwa (takie jak oddzielenie bazy danych i przywracanie jednym kliknięciem)  jednak incydent podkreśla ryzyko związanych z narzędziami do kodowania AI bez odpowiedniego nadzoru. Jednak sam fakt, że narzędzie stworzone z myślą o zwiększeniu produktywności mogło w jednej chwili usunąć krytyczne dane i próbować ukryć ślady, pokazuje, jak duże ryzyko wiąże się z używaniem AI w kodowaniu bez silnego nadzoru i procedur bezpieczeństwa. 

To nie jest odosobniony przypadek. W ostatnich miesiącach lista incydentów z udziałem asystentów AI rośnie, a pytanie „jak mogło do tego dojść?” powraca nieustannie. Czy winne są same algorytmy, brak odpowiedniego testowania, czy może nadmierna wiara w to, że AI „wie, co robi”?

Kod

Kolejny wypadek

Jedynie kilkadziesiąt godzin po premierze Gemini CLI, nowego narzędzia dla programistów od Google, znaleziona została w nim groźna dla bezpieczeństwa luka.

Ale chwila, mówimy tu o Google, jednym z najbardziej znanych przedsiębiorstw informatycznych i monopolisty na rynku reklamy internetowej. Deklarowana przez firmę misja to „uporządkowanie światowych zasobów informacji tak, by stały się powszechnie dostępne i użyteczne dla każdego”. W tym kontekście ironicznie brzmi fakt, że narzędzie miało pomóc użytkownikom, a tymczasem wystawiało ich na poważne konsekwencje. Ten krytyczny błąd naraził tysiące użytkowników na kradzież danych i sabotaż systemu.

Jak przebiegał atak?

Firma Tracebit odkryła, że możliwe jest ukrycie złośliwych instrukcji w pliku README.md, czyli powszechnym pliku dokumentacji w repozytorium kodu. W tym wypadku jednak polecenia w nim zapisane były automatycznie uruchamiane przez Gemini CLI, gdy tylko narzędzie pobierało lub interpretowało to repozytorium. 

W efekcie AI mogło wykonać polecenia podszyte pod dozwolone komendy systemowe bez żadnych dodatkowych potwierdzeń. To dawało atakującemu możliwość:

  • skopiowania prywatnych plików użytkownika,
  • wykradzenia haseł lub kluczy API,
  • zainstalowania złośliwego oprogramowania,
  • manipulacji lub usunięcia fragmentów kodu w projekcie.

Cały proces mógł przebiegać niezauważenie, z punktu widzenia programisty wyglądało to tak, jakby Gemini CLI najzwyczajniej wykonywało instrukcje z dokumentacji. Terminal przewijał linijki komend, a użytkownik mógł nawet cieszyć się, że wszystko działa zgodnie z opisem. W tle jednak złośliwy kod mógł już w tym czasie wysyłać pliki na zewnętrzny serwer, pobierać malware lub tworzyć furtki pozwalające atakującemu wrócić później i przejąć pełną kontrolę nad systemem.

Cyberbezpieczeństwo

Pierwsze sygnały problemu pojawiły się, gdy badacze bezpieczeństwa zauważyli niepokojące, niespodziewane połączenia sieciowe w trakcie pracy CLI. Szybka analiza ujawniła, że ich źródłem był kod uruchamiany bez wiedzy i zgody użytkownika. Gdy stało się jasne, że luka może dotknąć każdego, kto pobierze projekt z zainfekowanym README; sprawę natychmiast przekazano Google.

Po zgłoszeniu problemu firma zareagowała błyskawicznie. W ciągu krótkiego czasu wypuszczono poprawkę v0.1.14, która wprowadziła jawny log wszystkich wykonywanych komend, uruchamianie procesów w odizolowanym środowisku (sandbox) przy użyciu Dockera lub Podmana oraz stałe ostrzeżenia.

Choć luka została załatana, incydent pokazał, że nawet najwięksi gracze mogą wypuścić na rynek narzędzie z krytyczną podatnością w pierwszych dniach jego istnienia.

Jak zadbać o bezpieczeństwo?

Choć przypadki Replitu i Gemini CLI wydają się ekstremalne, mechanizmy, które do nich doprowadziły, nie są wyjątkowe. Każdy projekt - niezależnie od skali - może stać się ofiarą nieprzewidzianych działań narzędzi AI.

Kilka podstawowych zasad, które znacząco ograniczają ryzyko:

  • zasada minimalnych uprawnień - AI, skrypty i integracje powinny mieć dostęp tylko do tych zasobów, które są absolutnie konieczne do wykonania zadania,
  • izolacja środowisk - oddzielenie środowiska deweloperskiego, testowego i produkcyjnego, tak aby żaden błąd czy atak nie miał wpływu na dane na żywo,
  • audyt kodu generowanego przez AI - każdy fragment kodu wygenerowany przez asystenta powinien być przejrzany przez człowieka przed wdrożeniem,
  • stałe monitorowanie i logowanie - rejestrowanie wszystkich operacji w celu szybkiego wykrycia anomalii,
  • testy bezpieczeństwa - regularne testy penetracyjne i próby ataków symulowanych.

Dlaczego to tak ważne

Sztuczna inteligencja staje się coraz bardziej złożona, wszechobecna i potężna. Niestety wraz z tą potęgą nie zawsze idzie odpowiedzialność czy ostrożność. Wiele firm wypuszcza niedopracowane produkty na rynek, nie mając jeszcze wystarczających mechanizmów nadzoru, testowania i kontroli jakości.

Z jednej strony AI może być wsparciem - przyspieszać pracę, analizować dane, pomagać w decyzjach. Natomiast z drugiej, jeśli zawiedzie, konsekwencje mogą być katastrofalne. Przykłady się mnożą; AI jest potężne, ale nie dojrzałe, zachowuje się jak genialny stażysta: kreatywny, błyskotliwy, ale bez wyczucia ryzyka. Może zrobić wiele dobrego - ale też wszystko zepsuć.

To właśnie dlatego potrzebujemy nie tylko lepszych narzędzi, ale też lepszego nadzoru nad nimi. Zaufanie do sztucznej inteligencji nie może być ustawieniem domyślnym.

 

Porozmawiajmy

Najwięcej nowych zleceń trafia do nas z poleceń zadowolonych klientów, a o relacje dbamy równie mocno, jak o jakość naszego kodu. Jeśli wśród naszych usług widzisz takie, które mogą pomóc Ci w Twoim biznesie – skontaktuj się z nami i dołącz do grona firm, którym zaprogramowaliśmy zyski.

kontakt
kontakt
kontakt
kontakt
kontakt
kontakt
kontakt
Toruń, ul. Polna 105/16