Firma Trend Micro wspólnie z Europolem i Międzyregionalnym Instytutem Badań nad Przestępczością i Sprawiedliwością ONZ (UNICRI) opracowała nowy raport dotyczący złośliwego wykorzystania i nadużycia sztucznej inteligencji. W opublikowanym materiale przeanalizowano obecny stan tego zjawiska, a także realne scenariusze, w których cyberprzestępcy mogą używać tych technologii do swoich nielegalnych celów. Artykuł badawczy dostarcza informacje na temat istniejących i potencjalnych ataków wykorzystujących sztuczną inteligencję i uczenie maszynowe oraz zalecenia dotyczące ograniczania tego ryzyka.

 REKLAMA 
 KLIKNIJ I POBIERZ RAPORT ERP 
 
Sztuczna inteligencja (ang. Artificial Intelligence, AI) w znaczący sposób wspiera rozwój świata, zapewniając potencjalnie lepszą wydajność oraz większą automatyzację i autonomię systemów. Jako technologia podwójnego zastosowania, stanowi główny filar czwartej rewolucji przemysłowej. Uczenie maszynowe (ang. Machine Learning, ML) — jeden z obszarów AI, który analizuje duże zbiory danych w celu wyodrębniania wzorców za pomocą algorytmów — pozwala przedsiębiorstwom, organizacjom i rządom na imponujące osiągnięcia, które zwiększają innowacyjność i usprawniają działalność.

Już dziś stosowanie zarówno AI, jak i ML w biznesie jest bardzo rozpowszechnione. Do 2020 roku 37% przedsiębiorstw i organizacji zintegrowało sztuczną inteligencję w pewnej formie ze swoimi systemami i procesami. Dzięki narzędziom opartym na tych technologiach przedsiębiorstwa mogą lepiej przewidywać zachowania zakupowe klientów, co przyczynia się do zwiększenia przychodów.

Mimo że AI i ML mogą wspierać działalność biznesową, newralgiczną infrastrukturę i poszczególne branże, a także pomagać w rozwiązywaniu niektórych z największych wyzwań społecznych (w tym pandemii Covid-19), technologie te mogą również skutkować powstaniem wielu nowych zagrożeń cyfrowych, fizycznych i politycznych. Aby zapewnić zarówno przedsiębiorstwom, jak i użytkownikom indywidualnym ochronę przed przestępcami, którzy planują wykorzystywać AI, konieczna jest zdolność do wykrywania i rozumienia zagrożeń oraz potencjalnych przypadków złośliwego wykorzystania systemów AI.

Obecne sposoby nadużywania sztucznej inteligencji i uczenia maszynowego

Cechy, które czynią systemy AI i ML integralną częścią przedsiębiorstw — takie jak dostarczanie automatycznych prognoz poprzez analizę dużych ilości danych i wykrywanie wzorców — są również cechami, które sprawiają, że cyberprzestępcy tak chętnie wykorzystują je do osiągania zysków.

Deepfake
Jednym z bardziej popularnych sposobów nadużywania AI są tzw. deepfake’i, które polegają na stosowaniu sztucznej inteligencji do tworzenia treści dźwiękowych i wizualnych lub manipulowania nimi w celu nadania im autentyczności. Metoda deepfake doskonale się nadaje do wykorzystania w kampaniach dezinformacyjnych, ponieważ na pierwszy rzut oka trudno je odróżnić od rzeczywistych treści — nawet przy użyciu rozwiązań technologicznych. Ze względu na szerokie wykorzystanie Internetu i mediów społecznościowych deepfake’i mogą docierać do milionów osób w różnych częściach świata z niespotykaną wcześniej szybkością.

Odgadywanie haseł przy pomocy AI
Cyberprzestępcy wykorzystują technologię ML, aby ulepszać algorytmy używane do odgadywania haseł użytkowników. Już dziś istnieją bardziej tradycyjne rozwiązania, takie jak HashCat (zaawansowane odzyskiwanie hasła) i John the Ripper (zaawansowany program do łamania haseł offline), które porównują różne warianty skrótu haseł, aby skutecznie odkrywać te, które im odpowiadają. Dzięki wykorzystaniu sieci neuronowych i generatywnych sieci przeciwników (ang. Generative Adversarial Network, GAN) cyberprzestępcy mogliby jednak analizować ogromne zbiory danych dotyczących haseł i generować różne wariacje haseł, pasujące do rozkładu statystycznego. W przyszłości będzie to prowadzić do bardziej precyzyjnego i ukierunkowanego odgadywania haseł, co zwiększy szansę cyberprzestępców na zysk.

Podszywanie się pod użytkowników mediów społecznościowych
Cyberprzestępcy wykorzystują AI również do naśladowania ludzkich zachowań. Są na przykład w stanie z powodzeniem oszukiwać systemy wykrywania botów w platformach społecznościowych, takich jak Spotify, naśladując wzorce użytkowania podobne do ludzkich. Podszywanie się pod innych za pomocą sztucznej inteligencji pozwala cyberprzestępcom zarabiać poprzez generowanie fałszywych odsłuchań i ruchu na stronie wybranego artysty.

Hakowanie przy wsparciu AI
Cyberprzestępcy wykorzystują struktury AI także do hakowania hostów podatnych na zagrożenia. Za przykład może tutaj posłużyć użytkownik platformy Torum, który wyraził zainteresowanie użyciem DeepExploit — narzędzia do przeprowadzania testów penetracyjnych z obsługą ML. Użytkownik ten chciał wiedzieć, w jaki sposób połączyć DeepExploit z Metasploit— platformą testów penetracyjnych do zadań związanych z gromadzeniem informacji, tworzeniem i testowaniem exploitów.

Złośliwe wykorzystywanie i nadużywanie AI i ML w przyszłości
Spodziewamy się, że w przyszłości cyberprzestępcy będą wykorzystywać AI na różne sposoby. Bardzo prawdopodobne, że będą kierować swój wzrok w stronę AI z zamiarem zwiększania zakresu i skali swoich ataków i unikania wykrycia.

Przewidujemy, że będą wykorzystywać sztuczną inteligencję do prowadzenia szkodliwych działań opartych na taktykach inżynierii społecznej, których potencjalnym celem będą przedsiębiorstwa i instytucje. Dzięki wykorzystaniu sztucznej inteligencji cyberprzestępcy mogą automatyzować pierwsze kroki ataku poprzez generowanie treści, usprawniać proces gromadzenia wiedzy o firmach oraz przyspieszać tempo wykrywania potencjalnych ofiar i najbardziej narażonych procesów biznesowych. Może to prowadzić do szybszego i lepiej ukierunkowanego oszukiwania firm za pomocą różnego typu ataków — w tym phishingu i BEC (ang. Business Email Compromise — ataków na pocztę elektroniczną firm).

Sztuczna inteligencja może być również używana do manipulowania obrotem kryptowalutami czy posłużyć do wyrządzania szkód lub nawet zadawania fizycznych obrażeń.

Technologie AI i ML mają wiele pozytywnych zastosowań — takich jak rozpoznawanie obiektów i mowy, tłumaczenie treści, wyodrębnianie wzorców i wspieranie procesów decyzyjnych w różnych branżach i dziedzinach zastosowań. Z drugiej strony technologie te są również nadużywane w celach szkodliwych i niezgodnych z prawem, dlatego bardzo ważne jest rozumienie możliwości, scenariuszy i wektorów ataku dostępnych za ich pomocą. Jeśli zyskamy taką świadomość, będziemy lepiej przygotowani do ochrony systemów, urządzeń i ogółu społeczeństwa przed zaawansowanymi atakami i nadużyciami.

Źródło: Trend Micro

PRZECZYTAJ RÓWNIEŻ:


Back to top