Czy sztuczna inteligencja zapewni nam bezpieczeństwo w cyberprzestrzeni, czy stanie się źródłem nowych zagrożeń? W ramach cyklu #cyberWAT przedstawiamy dobre i złe strony tej rewolucyjnej technologii, ukazując jej wpływ na nasze codzienne życie online.

Czy sztuczna inteligencja zapewni nam bezpieczeństwo w cyberprzestrzeni, czy stanie się źródłem nowych zagrożeń? W ramach cyklu #cyberWAT przedstawiamy dobre i złe strony tej rewolucyjnej technologii, ukazując jej wpływ na nasze codzienne życie online.

Sztuczna inteligencja (ang. artificial intelligence, AI) jest formą „inteligencji” programu komputerowego lub maszyny, naśladującą ludzkie zachowanie. Kluczowym jej elementem jest zdolność do uczenia się i przetwarzania informacji w sposób, który umożliwia programowi dostosowywanie się do nowych sytuacji. To oznacza, że jest zdolna do adaptacji i samokształcenia, co pozwala jej na rozwiązywanie problemów w sposób dynamiczny. Jej zdolności analityczne i predykcyjne pozwalają na tworzenie coraz bardziej zaawansowanych i inteligentnych systemów, które sprawnie reagują na zmienne warunki otoczenia.

„Rozwój AI stanowi kolejny wielki przełom w dziejach ludzkości. Należy jednak pamiętać, że to dopiero początek. Ogólnodostępne systemy bazujące na sztucznej inteligencji, posiadające bardzo dużą bazę wiedzy w obecnym kształcie często zawodzą, ponieważ nie potrafią w sposób logiczny łączyć faktów i korzystać z posiadanej wiedzy – po prostu nie rozumieją danych i nie potrafią ich interpretować. To jest dla nas niezwykle pozytywna informacja – człowiek w wielu sytuacjach dalej jest niezastąpiony” – mówi mgr inż. Michał Glet z Wydziału Cybernetyki WAT.

Zalety sztucznej inteligencji

Zastosowania AI są bardzo szerokie. Wykorzystuje się ją m.in. w medycynie, finansach oraz przemyśle. Bardzo duże znaczenie ma również w tłumaczeniach (tekst, mowa), rozpoznawaniu obrazów i tekstów, obsłudze klienta (boty na stronach, boty telefoniczne) czy też tworzeniu treści kreatywnych, takich jak muzyka, obrazy, zdjęcia i filmy. Jest w stanie przeanalizować ogromne ilości danych i podjąć na tej podstawie konkretne działania.

Nowa technologia wspiera innowacyjne rozwiązania i stała się motorem postępu. AI zaczyna powoli odgrywać istotną rolę również w dziedzinie cyberbezpieczeństwa. W niedalekiej przyszłości może stać się ważnym narzędziem obronnym, które będzie pełnić funkcję detektora i analityka, umożliwiając szybkie rozpoznawanie i neutralizowanie zagrożeń.

„Twórcy systemów muszą często wybierać, czy chcą działać szybko, czy na dużym zestawie danych. Żeby to połączyć wymagane są bardzo duże, dedykowane zasoby sprzętowe. Dodatkowo ciągła „nauka” mechanizmów AI zużywa kolejne zasoby dyskowe. Dlatego też wykorzystanie pełnych jej możliwości na pojedynczych stacjach roboczych jest obecnie mocno ograniczone” – wyjaśnia naukowiec.

Sztuczna inteligencja może zwiększyć skuteczność wykrywania, reagowania i zapobiegania różnym rodzajom ataków. Wśród jej zalet należy wymienić:

  • umożliwia skuteczne wykrywanie anomalii w ruchu sieciowym. Algorytmy uczenia maszynowego potrafią identyfikować nieprawidłowe wzorce w zachowaniu użytkowników lub nieoczekiwane zmiany w systemie, co może wskazywać na potencjalne zagrożenie,
  • stosuje analizę heurystyczną do identyfikowania nowych form ataków, które nie są znane w tradycyjnych bazach danych sygnatur. Działa to na zasadzie rozpoznawania podejrzanych wzorców, które mogą wskazywać na nieznane jeszcze techniki cyberprzestępców,
  • algorytmy predykcyjne sztucznej inteligencji potrafią analizować historyczne dane dotyczące ataków i przewidywać ewolucję zagrożeń. To umożliwia proaktywne przygotowanie się na nowe, rozwijające się techniki ataków,
  • może automatycznie reagować na wykryte incydenty, podejmując odpowiednie kroki naprawcze lub izolacyjne. Na przykład, po wykryciu nieprawidłowości w systemie, sztuczna inteligencja może zablokować dostęp lub zainicjować procedury bezpieczeństwa,
  • stosuje zaawansowane algorytmy analizy treści, które pomagają w identyfikowaniu prób ataków phishingowych. Sztuczna inteligencja potrafi wychwycić podejrzane elementy w wiadomościach e‑mail, chroniąc użytkowników przed ujawnieniem poufnych danych,
  • algorytmy uczenia maszynowego są wykorzystywane do identyfikacji nowych rodzajów oprogramowania malware poprzez analizę ich charakterystycznych cech. To umożliwia szybkie reagowanie na nowe zagrożenia bez konieczności oczekiwania na aktualizacje baz sygnatur,
  • analizuje zachowanie aplikacji, identyfikując potencjalne zagrożenia związane z nieautoryzowanym dostępem lub złośliwym oprogramowaniem. Działa to na zasadzie monitorowania działań aplikacji i reagowania na niezwykłe lub podejrzane aktywności.

Innym zastosowaniem, w którym AI dobrze sobie radzi jest wykrywanie spamu. Decyzje podejmuje na podstawie rzeczywistych danych, co ułatwia właściwą identyfikację przychodzących wiadomości. Jak bardzo istotna jest to sprawa wie każdy, kto przegapił ważnego e‑maila, który trafił z niewiadomych przyczyn do kosza ze spamem.

Zagrożenia dla cyberbezpieczeństwa

Rozwój AI jest dwukierunkowy – podnosi poziom obronności, lecz jednocześnie dostarcza narzędzi przestępcom do prowadzenia bardziej wyrafinowanych ataków. W świecie, w którym algorytmy uczenia maszynowego analizują ogromne ilości danych, cyberprzestępcy wykorzystują zaawansowane techniki, aby omijać systemy zabezpieczeń.

„Praktycznie każde oparte na sztucznej inteligencji narzędzie wykorzystane do ochrony naszego urządzenia może posłużyć do jego zaatakowania. Na przykład można użyć AI do takiej zmiany sygnatury oprogramowania malware, aby było trudne do wykrycia przez aktualne wersje programów antywirusowych” – tłumaczy Michał Glet.

Dynamiczne metody ataku, wsparte na systemach sztucznej inteligencji, stają się coraz bardziej powszechne. Może być użyta m.in. do:

  • tworzenia i testowania złośliwego oprogramowania,
  • generowania fałszywych danych treningowych dla systemów bezpieczeństwa, co może wprowadzić błędne modele uczenia maszynowego i w konsekwencji skutkować błędnymi decyzjami oraz fałszywymi alarmami,
  • wprowadzania sztucznych zakłóceń do danych treningowych, aby wprowadzić w błąd systemy detekcji ataków oparte na uczeniu maszynowym,
  • wykorzystania do generowania bardziej wiarygodnych i spersonalizowanych wiadomości phishingowych, co zwiększa skuteczność ataku,
  • zastosowania do ataków na systemy decyzyjne, takie jak te używane w samochodach autonomicznych czy systemach obronnych, może prowadzić do błędnych ocen sytuacji i podejmowania niebezpiecznych decyzji,
  • zastosowania do manipulacji systemami detekcji, tak aby unikać wykrycia podczas prób ataków,
  • wykorzystania do zautomatyzowanych ataków, co może prowadzić do szybszego i bardziej złożonego ataku, utrudniającego reakcję systemów obronnych.

AI oferuje już dziś bardzo dużo możliwości i ich zakres ciągle się zwiększa. Nie zawsze nadąża za tym wiedza i wyobraźnia użytkowników. Obawy wzbudza szczególnie możliwość projektowania złośliwego oprogramowania, tworzenia bardziej precyzyjnych deepfake’ów oraz wykorzystywanie sztucznej inteligencji do spear-phishingu, czyli podszywania się oszustów pod konkretne osoby lub instytucje.

Na co uważać

Warto pamiętać, że sztuczna inteligencja nie posiada wiedzy ostatecznej i może być podatna na manipulacje ze strony cyberprzestępców. Dlatego strategie bezpieczeństwa powinny być oparte zarówno na sztucznej inteligencji, jak i tradycyjnych metodach ochrony.

Zastosowanie AI dla ochrony naszych urządzeń nie powinno zmniejszać naszej czujności. Nadal powinniśmy dbać, aby na bieżąco aktualizować programy antywirusowe, regularnie zmieniać hasła do poczty elektronicznej i bezpiecznie łączyć się z Internetem.

Technologia oparta na sztucznej inteligencji może zwiększyć nasze bezpieczeństwo, ale daje również cyberprzestępcom potężne narzędzia do wprowadzania nas w błąd. Umożliwia tworzenie nie tylko dowolnych treści tekstowych, lecz także generowania spersonalizowanych zdjęć, dźwięków i filmów. Zwiększa to szanse na przeprowadzenie przez cyberprzestępców skutecznych indywidualnych ataków. Zobaczenie filmu na portalu społecznościowym, w którym znajoma osoba zachowuje się naturalnie i mówi w sposób dla niej charakterystyczny skutecznie może uśpić naszą czujność i skłonić nas do kliknięcia w link, który może być początkiem ataku ransomware.

W miarę jak AI staje się bardziej zaawansowana, istnieje potrzeba zwiększenia świadomości na wynikające z tego faktu zagrożenia. Ochrona prywatności, ostrożne podejście do weryfikacji informacji w sieci i świadome korzystanie z technologii są kluczowe w kontekście wykorzystywania przez cyberprzestępców szybko rozwijającej się sztucznej inteligencji.

„Najbliższe lata pokażą, czy wybrane kierunki rozwoju AI pozwolą pokonać stojące przed nią ograniczenia, czy też naukowcy będą musieli poszukać innych rozwiązań, a my jeszcze długo nie doczekamy się prawdziwie rozumnej sztucznej inteligencji” – mówi Michał Glet.

Śledź także cykl #cyberWAT, w którym w prosty i zrozumiały sposób tłumaczymy czytelnikom zagadnienia cyberbezpieczeństwa.

Marcin Wrzos

projekt graficzny: Katarzyna Puciłowska