Globalne badanie pokazuje, że organizacje są niewystarczająco przygotowane do nowych form nadużyć, podczas gdy zagrożenia napędzane przez AI eskalują w wielu branżach.

W miarę jak oszuści wykorzystują technologię do generowania coraz bardziej zaawansowanych form ataków, organizacje przyznają, że mają trudności z dotrzymaniem im kroku. Taki wniosek płynie z najnowszego badania dotyczącego nadużyć przygotowanego przez Association of Certified Fraud Examiners (ACFE) oraz lidera w obszarze danych i AI, firmę SAS. Zaledwie 7% specjalistów ds. przeciwdziałania nadużyciom twierdzi, że ich organizacje są więcej niż umiarkowanie przygotowane do wykrywania lub zapobiegania oszustwom wspieranym przez AI. Mimo że przestępcy wykorzystują tanie i powszechnie dostępne narzędzia do realizacji schematów socjotechnicznych, cyfrowych fałszerstw i oszustw konsumenckich na rekordową skalę.

Branże na rozdrożu – i na celowniku

Wnioski z badania pokazują, że oszustwa wykorzystujące sztuczną inteligencję wyraźnie rosną – w ciągu ostatnich dwóch lat zwiększył się każdy analizowany ich rodzaj. Respondenci najczęściej wskazywali zwiększenie się liczby socjotechnik z wykorzystaniem deepfake’ów (aż 77% wskazań). Wysoką dynamikę odnotowano także w przypadku oszustw konsumenckich oraz fałszowania dokumentów z użyciem generatywnej AI (po 75%) i ominięć zabezpieczeń za pomocą deepfake’ów (72%). Jednocześnie organizacje stopniowo zwiększają wykorzystanie AI i uczenia maszynowego w przeciwdziałaniu nadużyciom – dziś robi to 25% firm (wobec 18% w 2024 r.), a kolejne 28% planuje wdrożenia do 2028 r. Choć ponad połowa respondentów (55%) spodziewa się wzrostu budżetów na technologie antyfraudowe w najbliższych dwóch latach, główną barierą wdrożeń nadal pozostają ograniczenia finansowe, wskazywane przez 84% badanych.

Widzimy wyraźne przyspieszenie w rozwoju oszustw wykorzystujących sztuczną inteligencję, skala zjawiska rośnie praktycznie w każdym analizowanym obszarze. Szczególnie dynamicznie rozwijają się ataki oparte na socjotechnice i deepfake’ach (77%), które coraz trudniej odróżnić od rzeczywistości. Najczęściej mamy do czynienia z oszustwami konsumenckimi, np. podrabianiem dokumentów z użyciem GenAI (75%). Równolegle firmy zaczynają poważniej traktować wykorzystanie AI w obronie przed nadużyciami – to już nie eksperyment, ale kierunek strategiczny. Mimo rosnącej świadomości i planów inwestycyjnych, tempo wdrożeń wciąż hamują ograniczenia budżetowe, co pokazuje, że walka z nową generacją fraudów będzie wymagała nie tylko technologii, ale też realnych decyzji finansowych – mówi Marcin Nadolny, Head of Fraud & Compliance Solutions, SAS Europe.

Nawet najprostsze rozwiązania AI w nieodpowiednich rękach mogą prowadzić do poważnych konsekwencji. Walka pojedynczych naciągaczy z korporacjami wydaje się nierówna, jednak z jednej strony mamy szybko adaptujących się do nowego świata specjalistów, z drugiej zaś ogromne firmy, w których wdrożenie nowych rozwiązań musi przejść odpowiednie procedury i może trwać bardzo długo. Trzeba skrócić okres przygotowawczy do minimum, aby zaimplementować technologię zanim stanie się przestarzała. To wymaga przyszłościowego myślenia. Trzeba zmienić perspektywę z „co się stało wczoraj?” na „co może się stać jutro?”.

Nowe technologie: obietnice, postęp i koszt czekania

Biometria fizyczna i behawioralna, agentowa i generatywna AI, a nawet kwantowa AI to technologie zmieniające walkę z oszustwami, które szybko dojrzewają. Jednak gotowość przestępców do ich wykorzystywania rośnie równolegle, a osoby działające w złej wierze mają ogromną przewagę.

Wdrażanie innowacji w przeciwdziałaniu nadużyciom jest koniecznością. Choć obecnie tylko 16% organizacji wykorzystuje generatywną AI w walce z oszustwami, aż 58% planuje jej wdrożenie w przyszłości – głównie do wykrywania phishingu i oszustw (49%), oceny ryzyka nadużycia (46%) oraz tworzenia raportów (45%). Rosnące zainteresowanie budzi także agentowa AI, z której korzysta już 8% firm, a 31% zamierza wdrożyć ją do 2028 r. Najpowszechniej stosowaną nową technologią pozostaje biometria fizyczna, używana przez 45% organizacji, podczas gdy rozwiązania cloud-native do wykrywania nadużyć oraz automatyzacja są nadal stosunkowo rzadko wykorzystywane (odpowiednio 10% i 29%).

Departamenty bezpieczeństwa aktywnie patrzą w przyszłość. Ponad 62% respondentów spodziewa się, że do 2030 r. istotny wpływ na walkę z oszustwami będą miały komputery kwantowe i kwantowa AI. To pokazuje, że specjaliści w firmach wiedzą, czego się spodziewać. Teraz trzeba zadbać, aby organizacje przyspieszyły przygotowania wdrożeniowe i zaczęły budować odpowiednie strategie i kompetencje już dziś – dodaje Marcin Nadolny.

Raport 2026 Anti-Fraud Technology Benchmarking Report to czwarta odsłona serii badań zapoczątkowanej przez ACFE i SAS w 2019 roku. Opiera się na ankiecie przeprowadzonej wśród 713 specjalistów zajmujących się walką z nadużyciami z ośmiu regionów świata.

epoint
Subskrybuj
Powiadom o
guest
0 komentarzy
Najstarsze
Najnowsze Najwięcej głosów
Opinie w linii
Zobacz wszystkie komentarze