Sztuczna inteligencja a cyberbezpieczeństwo
Aż 90% dyrektorów finansowych planuje w 2024 roku zwiększyć nakłady na technologie AI (Gartner). Jednocześnie, eksperci od cyber-obrony zastanawiają się jaki wpływ na bezpieczeństwo będą miały algorytmy w perspektywie kilku lat wprzód. Przeczytaj analizę Palo Alto Networks i dowiedz się, w jakim kierunku zmierzają wdrożenia sztucznej inteligencji w cyberbezpieczeństwie.

 REKLAMA 
 Wdrażasz KSeF w firmie 
 
Omawiając rolę sztucznej inteligencji w cyberbezpieczeństwie, warto w pierwszej kolejności wziąć pod uwagę krótkoterminowe skutki. Pod pewnymi względami, jest to nieco nieznany obszar, wymagający wnikliwej perspektywy wykraczającej poza codzienny szum informacyjny.

Według Kyle Wilhoita, dyrektora ds. badań nad zagrożeniami, Unit 42 (Palo Alto Networks), w tym roku narzędzia AI odegrają kluczową rolę w akcjach dezinformacyjnych w mediach społecznościowych.

Takie kampanie mogą mieć miejsce przed, w trakcie i po ważnych wydarzeniach, takich jak konflikty zbrojne, imprezy masowe czy wybory. Będą nakierowane na podważenie zaufania do faktów wymagających weryfikacji i szerzenie niepokojów społecznych – tłumaczy Kyle Wilhoit. - Chociaż trudno o niezbite dowody, informacje z otwartych źródeł jasno pokazują wzrost znaczenia AI w działaniach dezinformacyjnych – dodaje ekspert.


W związku ze zbliżającymi się wyborami prezydenckimi w Stanach Zjednoczonych eksperci spodziewają się zalewu dezinformacji tworzonej przez wiele różnych, czasem nawet przypadkowych osób. W codziennym szumie informacyjnym bardzo trudno odróżnić fałszywe lub spreparowane materiały audiowizualne od tych rzetelnych.

Chociaż nie jest to bezpośrednio związane z tradycyjnym bezpieczeństwem IT, to materiały typu deepfake zaczynają być łączone z atakami socjotechnicznymi. Skrzyżowanie inteligentnej technologii i technik manipulacyjnych zaczyna budzić niepokój specjalistów od cyberbezpieczeństwa. Zwłaszcza, że algorytmy stają się coraz bardziej dopracowane i umożliwiają ominięcie tradycyjnych mechanizmów obronnych, stosowanych powszechnie przez zespoły SOC (Security Operations Center)– dodaje Kyle Wilhoit.


Cyberprzestępcy odkrywają nowe możliwości AI

W perspektywie średnioterminowej możemy się spodziewać, że cyberprzestępcy udoskonalą swoje narzędzia za pomocą sztucznej inteligencji. Na przykład, atakujący mogą poinstruować modele AI, aby zidentyfikowały zasoby internetowe organizacji z uruchomionymi odpowiednimi usługami, a to żeby z kolei pomóc w znalezieniu luk w zabezpieczeniach

Spodziewam się dalszego wzrostu złożonych zagrożeń. Cyberprzestępcy będą doskonalić swoje umiejętności z pomocą generatywnej sztucznej inteligencji. Chociaż algorytmy AI, takie jak modele językowe, asystują w obecnych operacjach hackerskich, to nie zostały jeszcze w pełni wykorzystane do tworzenia złośliwego oprogramowania lub prowadzenia kampanii na większą skalę – tłumaczy ekspert.



Wśród działań przestępczych wspieranych przez AI, możemy zaobserwować doskonalenie tekstów wiadomości phishingowych. Takie maile stają się bardziej przekonujące dzięki zastosowaniu poprawnych odniesień geograficznych, slangu i gramatycznie poprawnego tekstu. Przez to odbiorca może odnosić wrażenie, że to rzeczywisty mail. Eksperci spodziewają się także stosowania sztucznej inteligencji do prowadzenia działań rozpoznawczych, takich jak badanie odporności systemu. Dotyczy to analizy zakresu blokad sieci, dostępności otwartych usług / portów, a nawet skanowania luk w zabezpieczeniach.

Pilotowanie bezpieczeństwa z wykorzystaniem AI

Patrząc dalej w przyszłość, kwestią czasu jest wdrożenie copilotów bezpieczeństwa opartych na sztucznej inteligencji. Takie narzędzia mogą pomagać zarówno obrońcom jak i atakującym w różnych fazach ataku, takich jak ruch boczny i eskalacja uprawnień w zagrożonych środowiskach. Chociaż ta koncepcja nie jest jeszcze w pełni wdrożona, na branżowych forach padają pytania, w jaki sposób atakujący mogą wykorzystać takie narzędzia korzystające z algorytmów AI.

W ciągu ostatnich sześciu miesięcy branża cyberbezpieczeństwa szeroko komunikowała wdrażanie pilotów systemów AI bezpieczeństwa, które mają nam pomagać w codziennych operacjach. Niestety, coraz więcej doniesień wskazuje, że nie tylko uznane firmy takie jak Palo Alto Networks, pracują nad takimi rozwiązaniami. Do dostawców narzędzi biznesowych oferujących copiloty takich systemów dołączają grupy cyberprzestępcze, które na własny użytek rozwijają wirtualnych asystentów. Mogą one posłużyć mniej wprawnym hackerom do prowadzenia szkodliwych działań, zwiększając w ten sposób skalę ataków – wyjaśnia Wojciech Gołębiewski, Wiceprezes i Dyrektor Zarządzający w Europie Wschodniej, Palo Alto Networks.



Z jednej strony, podręczny pilot bezpieczeństwa wspierający pracę SOC eliminuje czas potrzebny na manualną weryfikację fałszywie dodatniego lub fałszywie ujemnego wyniku, automatyzując ten proces. Z drugiej jednak strony, takie narzędzie przyspiesza pracę nie tylko cyber-obrońców, ale także cyberprzestępców. Dlatego w miarę ewolucji tej technologii, będzie ona prawdopodobnie kształtować sposób, w jaki praktycy bezpieczeństwa i personel SOC będą podchodzić do swoich ról i obowiązków.

Patrząc na wdrożenia algorytmów AI, w krótkim terminie powinniśmy szczegółowo obserwować kampanie dezinformacyjne i analizować ataki typu deepfake ito co się dzieje tu i teraz. W dalszej kolejności warto zwrócić uwagę na coraz bardziej wyrafinowane ataki phishingowe i próby rozpoznania elementów cyber-obrony oraz zaobserwować pojawienie się pilotów bezpieczeństwa opartych na sztucznej inteligencji, wykorzystywanych do ulepszania złośliwych działań. Ponieważ dziedzina cyberbezpieczeństwa nadal ewoluuje, jasne jest, że sztuczna inteligencja będzie siłą napędową zarówno w strategiach defensywnych, jak i ofensywnych. Organizacje i specjaliści ds. bezpieczeństwa muszą być na bieżąco informowani, dostosowywać swoje mechanizmy obronne i być przygotowani na skuteczne przeciwdziałanie zagrożeniom opartym na sztucznej inteligencji.

Źródło: Palo Alto Networks

PRZECZYTAJ RÓWNIEŻ:


Back to top