W ciągu ostatnich kilkunastu lat zaobserwowano znaczny rozwój technologii teleinformatycznych, zwłaszcza w obszarze sztucznej inteligencji. Wyjątkowe postępy miały miejsce w dziedzinie sztucznej inteligencji, co zaowocowało powstaniem programów takich jak Czat GPT, Dall-E czy Mid Journey. Te narzędzia umożliwiają mniej obeznanym ludziom na wykonywanie różnych prostych czynności, takich jak pisanie e-maili, generowanie obrazów, szybkie wyszukiwanie informacji czy nawet tworzenie podstawowych programów komputerowych.
Chociaż wspomniane programy mają pewne niedoskonałości, to są one dostępne dla ogółu społeczeństwa. Niestety, te technologie mogą być także wykorzystywane do celów niepożądanych. Przykłady to wykorzystanie sztucznej inteligencji w celach przestępczych, takich jak kradzież danych czy manipulacja treściami. Komercyjne programy oparte na sztucznej inteligencji potrafią generować treści praktycznie nie do odróżnienia od tych utworzonych przez człowieka. Co więcej, istnieją zaawansowane systemy wykorzystujące uczenie maszynowe, które są używane przez rządy, armię i korporacje, takie jak Google czy OpenAI. Te technologie są również wykorzystywane przez cyberprzestępców.
Przykłady zastosowań obejmują walkę z pandemią COVID-19, gdzie sztuczna inteligencja pomogła w analizie danych i opracowywaniu strategii zwalczania. Ponadto, znalazła ona również zastosowanie w dziedzinie motoryzacji, wspierając rozwój samochodów autonomicznych oraz systemów ostrzegania przed potencjalnymi zagrożeniami na drodze.
Niestety, wraz z postępem technologii pojawia się ryzyko ich wykorzystania w negatywny sposób. Istnieje możliwość wykorzystania sztucznej inteligencji do kradzieży danych osobowych, czy nawet do manipulacji ludzkimi postawami i zachowaniami. Dlatego ważne jest, aby rozwijając te technologie, równocześnie brać pod uwagę odpowiednie środki bezpieczeństwa i etyczne ramy regulujące ich zastosowanie.
Przykłady wykorzystania sztucznej inteligencji przez cyberprzestępców
Sztuczna inteligencja poprzez swoją ogromną moc obliczeniową oraz prędkość działania ma bardzo duży potencjał dla cyberprzestępców, którzy są wstanie wykorzystać SI do wszelkich celów. Jednak jak mogłoby się wydawać na obecny moment nie obserwujemy wiele ataków z wykorzystaniem sztucznej inteligencji. Jak podkreśla Prof. Agnieszka Gryszczyńska w wywiadzie udzielonym dla CyberDefence24, cyberprzestępcy nie używają sztucznej inteligencji na szeroką skalę ze względu na wciąż wysoką skuteczność ataków socjotechnicznych, które są zdecydowanie prostsze do zrobienia niż wykonywanie skomplikowanych działań z użyciem mechanizmów sztucznej inteligencji.
Ataki socjotechniczne są działaniami, które mają za zadanie nakłonić ofiarę takiego ataku do wykonania określonych działań, jest to forma manipulacji. Najczęściej ataki służą do wyłudzeń danych, tożsamości czy pieniędzy. Najczęściej wykorzystywanymi rodzajami ataków socjotechnicznych są: phishing, vishing, spoofing, czy wszelkiego rodzaju ataki związane z wykorzystaniem złośliwego oprogramowania czyli ransomware.
Jak tłumaczy prof. Gryszczyńska sztuczna inteligencja pomimo iż obecnie jest rzadko stosowana może znacznie ułatwić „pracę” cyberprzestępcom. Przykładem może być tutaj ogólnodostępny Chat GPT, który poproszony w kilka sekund jest w stanie napisać poprawy ortograficznie i gramatycznie tekst który może posłużyć cyberprzestępcom do phishingu.
Poniżej przedstawiony jest przykład maila phishingowego wygenerowanego przez Chat GPT 3.5
Od: Twoja Bankowa Instytucja
Temat: Weryfikacja Konta – Pilne
Szanowny Kliencie,
Z powodu ostatnich zmian w systemie bezpieczeństwa naszego banku, konieczne jest przeprowadzenie weryfikacji Twojego konta w celu uniknięcia zawieszenia dostępu. Prosimy o niezwłoczne zalogowanie się na swoje konto w celu weryfikacji.
Kliknij poniższy link, aby przejść do strony weryfikacyjnej:
[LINK DO FAŁSZYWEJ STRONY LOGOWANIA]
Jeśli nie weryfikujesz swojego konta w ciągu 48 godzin, możemy być zmuszeni do tymczasowego zawieszenia dostępu do Twojego konta.
Dziękujemy za współpracę.
Z poważaniem,
Twoja Bankowa Instytucja
Phishing to tylko jedna z wielu form cyberprzestępstw, które mogą wykorzystywać potencjał sztucznej inteligencji. Szczególnie niebezpiecznym zjawiskiem są różnego rodzaju oszustwa przy użyciu techniki deepfake. Deepfake jest narzędziem pozwalającym na przekonującą manipulację twarzą lub głosem osoby, zastępując je twarzą lub głosem innej osoby. Proces ten opiera się na zaawansowanej technologii sztucznej inteligencji, wykorzystującej mapowanie twarzy i techniki uczenia głębokiego, które gromadzą informacje, zdjęcia i nagrania, by stworzyć jak najbardziej autentyczny wizerunek danej osoby.
Przykładem, który wyraźnie ukazuje zdolności deepfake, jest edukacyjny film opracowany przez Buzzfeed w 2018 roku. W tym materiale wideo Barack Obama wypowiada kontrowersyjne stwierdzenia. Jednakże zarówno twarz, jak i głos Baracka Obamy zostały wygenerowane przez technologię sztucznej inteligencji. To nagranie doskonale ilustruje, jak zaawansowane narzędzia deepfake mogą wprowadzać w błąd, gdy znajdą się w nieodpowiednich rękach.
Nie trzeba było długo czekać, aż technologia deepfake zostanie wykorzystana jako narzędzie w popełnianiu przestępstw w cyberprzestrzeni. W sierpniu 2019 roku doszło do przypadku oszustwa, w którym pracownik brytyjskiej firmy specjalizującej się w usługach energetycznych został oszukany na sumę blisko 200 tysięcy funtów. Zdaniem magazynu Forbes, przestępcy wykorzystali technologię deepfake, aby perfekcyjnie oddać głos przełożonego pracownika, zachowując przy tym precyzyjny ton i akcent. Dodatkowo, cyberprzestępcy manipulowali pracownikiem poprzez wywołanie strachu, grożąc mu przeniesieniem. Ten przypadek doskonale ilustruje, jak niebezpieczne może być wykorzystanie sztucznej inteligencji w działaniach przestępczych w cyberprzestrzeni.
Kolejnym przypadkiem wykorzystania sztucznej inteligencji w nielegalnych działaniach w cyberprzestrzeni są ataki oparte na metodzie „brute-force”. Ta metoda polega na próbie złamania zabezpieczeń, takich jak hasła, poprzez przetestowanie wszystkich możliwych kombinacji. To zadanie wymaga znacznych zasobów obliczeniowych i czasu. Niemniej jednak, sztuczna inteligencja znacznie skraca ten proces, ponieważ przestępcy nie muszą tworzyć algorytmów od zera, lecz mogą korzystać z dostępnych publicznie programów, które wykorzystują sztuczną inteligencję do tego celu.
Walka z cyberprzestępczością
Regulacje prawne związane z pociąganiem do odpowiedzialności za popełniane przestępstwa w cyberprzestrzeni nie są tak rozwinięte, ze względu na ciągłe ewoluowanie tego rodzaju działalności przestępczej oraz stale ewoluującą kreatywność samych cyberprzestępców. Obecnie obserwujemy wiele inicjatyw mających na celu przeciwdziałanie cyberatakom. Przykładem takich działań jest utworzenie w lipcu 2021 roku Centralnego Biura Zwalczania Cyberprzestępczości (CBZC), które, zgodnie z oficjalnym stanowiskiem, ma za zadanie rozpoznawanie i przeciwdziałanie przestępstwom popełnianym przy wykorzystaniu systemów informatycznych, teleinformatycznych lub sieci teleinformatycznych, a także ściganie sprawców tych przestępstw na terenie całego kraju.
Jedną z najnowszych inicjatyw skierowanych przeciwko omawianemu zjawisku była międzynarodowa współpraca między Instytutem Wymiaru Sprawiedliwości (IWS) a Instytutem Prawa Porównawczego im. Ferenca Mádla w Budapeszcie. Zespół badaczy pod kierownictwem prof. Agnieszki Gryszczyńskiej skupił się na analizie wpływu sztucznej inteligencji na cyberprzestrzeń oraz cyberbezpieczeństwo. Badacze z Polski i Węgier zwrócili uwagę na istniejące problemy regulacyjne oraz legislacyjne w obszarze prawa UE związane z sztuczną inteligencją.
Podczas spotkania między Polską a Węgrami omówiono różnorodne wyzwania, jakie stwarza wprowadzenie sztucznej inteligencji, a także przedstawiono zaawansowane dokumenty regulacyjne. W trakcie konferencji poruszono temat potencjalnego wykorzystania sztucznej inteligencji przez przestępców cybernetycznych, którzy mogą zautomatyzować swoje ataki i dostosowywać je do indywidualnego profilu ofiar. Profesor Gryszczyńska wyraźnie podkreśliła wagę tego zagrożenia. Inicjatywa badawcza zyskała duże uznanie w środowisku naukowym i planuje kontynuację prac w bieżącym roku, z udziałem kolejnych państw europejskich.
Bibliografia:
Instytut wymiaru sprawiedliwości: Wpływ sztucznej inteligencji na cyberprzestępczość.
CyberDefence24: Sztuczna inteligencja. Co nam GROZI? | Prosto o cyber.
Kalarus. J. Danilewicz J. Ey: Bezpieczeństwo danych w czasach AI.
Parlament Europejski. Sztuczna inteligencja: co to jest i jakie ma zastosowania?.
DFP Digital fingerprints. Ataki socjotechniczne – czym są i na czym polegają?.
CyberDefence24. Deep fake i sextortion. Uwaga na nowy i bardzo złośliwy rodzaj przestępstw.
Fully-Verified. Deepfake czym jest i jak sobie z nim radzić?.
Hendrikse. R. Forbes. How Deepfakes Could Become A Threat To Your Identity.