Zdjęcie: Jake Walker / Unsplash

Google Threat Intelligence Group (GTIG) wykryła exploit zero-day — metodę ataku wykorzystującą nieznaną wcześniej podatność, który został stworzony przy pomocy sztucznej inteligencji.

Cel i charakter ataku

Według GTIG „znani cyberprzestępcy” przygotowywali „zakrojony na szeroką skalę atak” na system uwierzytelniania dwuskładnikowego w aplikacji open source służącej do administracji systemami. Nie ujawniono, która konkretnie usługa była celem ataku.

 

Ślady sztucznej inteligencji w kodzie

Badacze odkryli w kodzie „charakterystyczne ślady modelu AI” — m.in. fikcyjną ocenę w skali CVSS (standard oceny krytyczności luk w zabezpieczeniach) oraz formatowanie typowe dla danych treningowych modeli AI.

Również sama struktura kodu miała wskazywać na wykorzystanie sztucznej inteligencji — odzwierciedlała wzorce charakterystyczne dla danych wykorzystywanych do trenowania dużych modeli językowych.

 

Mechanizm luki bezpieczeństwa

Luka powstała w wyniku błędu logicznego w aplikacji. Programista skonfigurował kod w taki sposób, że jeden z komponentów systemu był automatycznie uznawany za zaufany i nie wymagał dodatkowej weryfikacji. To właśnie tę ścieżkę wykorzystali atakujący do obejścia uwierzytelniania dwuskładnikowego.

Nie ujawniono, jaki konkretnie model AI został użyty do stworzenia exploitu, choć badacze potwierdzili, że nie było to Gemini.

 

Szersze zagrożenia związane z AI

GTIG zwraca uwagę, że cyberprzestępcy nie tylko tworzą exploity przy pomocy AI, ale coraz częściej atakują także samą infrastrukturę systemów opartych na sztucznej inteligencji.

Wykorzystują m.in. techniki prompt injection, próbując przekonać modele, że działają jako eksperci ds. cyberbezpieczeństwa, aby ominąć wbudowane zabezpieczenia. Dodatkowo zasilają modele bazami danych o lukach bezpieczeństwa i korzystają z OpenClaw do debugowania złośliwego oprogramowania w kontrolowanych środowiskach.