Jesteś tutaj:-, Bezpieczeństwo, Inne, Newsy, Opinie ekspertów, Oprogramowanie, Raporty i prezentacje, Rynek-Sztuczna inteligencja po dwóch stronach barykady – jak pomaga hakerom i dostawcom systemów bezpieczeństwa IT

Sztuczna inteligencja po dwóch stronach barykady – jak pomaga hakerom i dostawcom systemów bezpieczeństwa IT

Sztuczna inteligencja (AI) odgrywa istotną rolę w branży cyberbezpieczeństwa. Niestety, wykorzystują ją nie tylko twórcy oprogramowania bezpieczeństwa IT, ale również hakerzy.

Sztuczna inteligencja jest zarówno błogosławieństwem, jak i przekleństwem dla firm oraz konsumentów. Technologia pomaga uczniom napisać wypracowanie w języku angielskim, porozmawiać z asystentem głosowym (Siri, Alexa), a gdy konwersacja stanie się nudna, poprosić, aby włączył nam ulubioną płytę. Jednak wszechobecność AI budzi pewnego rodzaju obawy, chociażby związane z utratą miejsc pracy czy przed użyciem jej przez różnej maści przestępców.

Sztuczna inteligencja zdążyła się na dobre zagościć w branży cyberbezpieczeństwa. Co ciekawe, jej walory starają się spożytkować nie tylko dostawcy systemów IT, ale także hakerzy. Ci pierwsi wykorzystują AI, aby być o krok przed napastnikami, zaś drudzy do opracowywania malware’u. W nieodległej przeszłości rozwiązania bezpieczeństwa IT działały przede wszystkim reaktywnie, czyli wyszukiwały próbki złośliwego oprogramowania, następnie poddawały analizie i umieszczały wirusy na czarnej liście. Branża nie zrezygnowała całkowicie z tego podejścia, aczkolwiek ostatnimi czasy zdecydowanie stawia na działania proaktywne, zwłaszcza w odniesieniu do zagrożeń socjotechnicznych. Uczenie maszynowe lub algorytmy sztucznej inteligencji odgrywają kluczową tutaj kluczową rolę. Algorytmy działają na zasadzie uczenia się na bazie rzeczywistych danych, takich jak istniejące, a także świeżo wykryte zagrożenia czy fałszywe alarmy.

Jeśli spojrzeć na liczbę zagrożeń, to statystyki wyglądają źle, bowiem mamy do czynienia z ciągłym wzrostem nowych zagrożeń. Niemniej ich wnikliwa analiza pokazuje, że w wielu wypadkach są to nieco zmodyfikowane wersje znanych już złośliwych kodów. Te ewoluujące zagrożenia są bardzo dobrze wykrywane przez mechanizmy sztucznej inteligencji. Proste poprawki czy rekombinacje to za mało, aby pokonać algorytmy – tłumaczy Robert Dziemianko, Marketing Manager w G DATA Software.

Dostawcy produktów bezpieczeństwa IT łączą najlepsze elementy istniejących rozwiązań z postępami w uczeniu maszynowym, dzięki czemu szybciej i skuteczniej wykrywają napastników. Przykładowo, G DATA od 2018 roku rozwija mechanizm DeepRay, wykorzystujący sztuczną inteligencję oraz uczenie maszynowe. Rozwiązania zabezpieczające G DATA wyposażono w złożoną sieć neuronową, która współpracuje z adaptacyjnym algorytmem na bieżąco udoskonalanym przez analityków. Jego działanie polega na kategoryzowaniu różnorodnych plików wykonywalnych. Algorytm bazuje na takich wskaźnikach jak rozbieżność między rozmiarem pliku a ilością kodu wykonywalnego, wersje stosowanych kompilatorów czy ilość importowanych funkcji systemowych. Jeśli DeepRay sklasyfikuje plik jako podejrzany, aplikacja G DATA dokonuje głębokiej analizy przynależnych procesów w pamięci.

 

AI na usługach cyberprzestępców

Sztuczna inteligencja jest mieczem obosiecznym. Oprócz tego, iż znacznie podnosi efektywność działania oprogramowania antywirusowego, czy systemów DLP, ułatwia działania cybergangom. Napastnicy wykorzystują AI zazwyczaj na trzy sposoby. Pierwsza i najprostsza – polega na budowaniu i modelowaniu własnego malware’u i praktyk ataków. Niedawno specjaliści ds. cyberbezpieczeństwa zwrócili uwagę na duże możliwości ChatGPT w zakresie tworzenia tak zwanych wirusów polimorficznych. Jest to rodzaj złośliwego oprogramowania, które wielokrotnie mutuje swój wygląd lub pliki sygnatur za pomocą nowych procedur deszyfrowania.

Poza tym cyberprzestępcy bardzo często zatruwają modele AI niedokładnymi danymi. Napastnicy też obserwują i uczą się działania modeli uczenia maszynowego, używanych przez dostawców aplikacji bezpieczeństwa, aby aktywnie zakłócać tego typu operacje.

 

– Wykorzystanie API ChatGPT w złośliwym oprogramowaniu może stanowić poważne wyzwanie dla specjalistów ds. bezpieczeństwa. Nie jest to wyłącznie hipotetyczny scenariusz, lecz realny problem. Warto mieć na uwadze, że jest to jeden z wielu przykładów. Niemniej firmy z branży cyberbezpieczeństwa zdają sobie sprawę z tego rodzaju zagrożeń i starają się być zawsze o krok przed przedstawicielami złych mocy – podsumowuje Robert Dziemianko.

 

Autor |2023-03-15T17:45:18+01:0015 marca 2023 17:40|Kategorie: Aplikacje, Bezpieczeństwo, Inne, Newsy, Opinie ekspertów, Oprogramowanie, Raporty i prezentacje, Rynek|0 komentarzy

Zostaw komentarz

Witryna wykorzystuje Akismet, aby ograniczyć spam. Dowiedz się więcej jak przetwarzane są dane komentarzy.

https://linebet-bangladesh.com/en/mobile