Oszust może wykorzystać sztuczną inteligencję udając głos bliskich! Jak rozpoznać oszustwo?
Oszuści klonują głos dowolnej osoby. Dotąd oszust mógł tylko kogoś udawać, a teraz może mówić czyimś głosem – dosłownie.
Fot. 123rf.com

Oszust może wykorzystać sztuczną inteligencję udając głos bliskich! Jak rozpoznać oszustwo?

O sztucznej inteligencji AI mówią dziś wszyscy. To narzędzie, które w wielu dziedzinach zastępuje człowieka. Może korzystać z niego każdy, także oszust. Co to jest AI i dlaczego może być groźna? Na czym polegają oszustwa z wykorzystaniem AI? Sprawdź, jak się chronić przed oszustwami z wykorzystaniem AI i jak rozpoznać wiadomość od sztucznej inteligencji?

Przestępcy sztuczną inteligencję już wykorzystują do swoich celów. W USA w zeszłym roku z jej pomocą wyłudzono od zwykłych ludzi ponad 11 miliardów dolarów! Takie przypadki zdarzają się coraz częściej także w Europie. Wkrótce czeka nas lawina oszustw z użyciem tego narzędzia. Na co się przygotować i przed czym się bronić?

Co to jest AI i dlaczego może być groźna?

Sztuczna inteligencja (ang. artificial intelligence, AI) to rozbudowany system informatyczny, na który składają się tzw. sieci neuronowe (algorytmy, modele matematyczne i językowe). Został stworzony przez człowieka, ale może już działać samodzielnie, rozwijać się i „uczyć” analogicznie jak ludzki mózg. Algorytmy AI przetwarzają codziennie gigantyczne ilości danych, zdobywają wiedzę, dostosowując się do sytuacji. Nie potrzebują sterowania przez człowieka. Wystarczy postawić im jakiś cel, a one samodzielnie będą go realizować. 

Jednym z pierwszych takich celów dla sztucznej inteligencji w latach 50. ub. wieku była wygrana w turnieju szachowym. Potem „myślące” komputery zaczęto wykorzystywać m.in. w autonomicznych samochodach, które poruszają się bez kierowców. Dziś sztuczna inteligencja rozwija się błyskawicznie dzięki tzw. głębokiemu uczeniu się. Jest to m.in. umiejętność rozumienia ludzkiej mowy, przewidywania zdarzeń i podejmowania decyzji.

Programy na niej bazujące (tzw. chatboty) potrafią rozmawiać, tworzyć filmy, muzykę, obrazy. Uwaga! Coraz trudniej odróżnić to, co robią chatboty, od efektów działania człowieka. Dlatego AI w rękach przestępców jest tak niebezpieczna.

Na czym polegają oszustwa z wykorzystaniem AI?

Klonują głos dowolnej osoby. Dotąd oszust mógł tylko kogoś udawać, a teraz może mówić czyimś głosem – dosłownie. W telefonie możemy usłyszeć realny głos kogoś bliskiego lub znajomego. Dzwoniący będzie mówić identycznie jak on, z reali styczną intonacją, emocjami, używając tego samego słownictwa. Powie np., że znalazł się w trudnej sytuacji, miał wypadek i prosi o szybki przelew pieniędzy albo podanie kodu BLIK. 

Klonowanie głosu umożliwiają proste w obsłudze aplikacje, dostępne w internecie za niewielką opłatą lub nawet za darmo. Aby sklonować czyjś głos, wystarczy minuta nagrania rzeczywistej wypowiedzi czy przechwyconej rozmowy. Oszust może też zadzwonić pod byle pretekstem i nagrać próbkę głosu.

Następnie dzwoni do ofiary, ale nic nie mówi – wpisuje w komputerze to, co sklonowanym głosem ma „powiedzieć” aplikacja. Piszą wiadomości, które nie wzbudzają żadnych podejrzeń. W przeszłości SMS-y czy e-maile rozsyłane przez oszustów poznawaliśmy po błędach językowych. Sztuczna inteligencja tworzy wiadomości bez błędów, czystą polszczyzną.

Oszuści wykorzystują też chatboty, które symulują pisaną rozmowę. Wysyłają SMS albo wiadomość w komunikatorze typu Messenger, WhatsApp, podszywając się pod osobę z naszej listy kontaktów. Gdy zareagujemy, od razu dostaniemy odpowiedź, tak jakby rozmówca faktycznie był po drugiej stronie. Uwaga! W takiej rozmowie oszust udający znajomego może prosić o wszystko – zaczynając od przelewu, a kończąc na zostawieniu klucza pod wycieraczką. Wprowadzają w błąd.

Nieuczciwi przedsiębiorcy, którzy w internecie udzielają płatnych porad (np. prawnych, podatkowych, księgowych), też już korzystają ze sztucznej inteligencji. Jeśli porady pisze program bazujący na AI, wydają się rzetelne i wyczerpujące, ale mogą zawierać poważne błędy, bo sztuczna inteligencja często opiera się na danych nieprawdziwych albo nieaktualnych. Gdy zastosujemy się do takiej porady, możemy stracić o wiele więcej niż zapłacone za nią pieniądze – np. źle napisać odwołanie, nie dochować ważnego terminu, a nawet przegrać sprawę w sądzie.

W internecie zaczyna też krążyć wiele wiadomości zdrowotnych tworzonych z pomocą sztucznej inteligencji. Lekarze i eksperci biją na alarm: nieprawdziwe informacje trudno rozpoznać. Dając im wiarę, można poważnie sobie zaszkodzić!

Jak się chronić przed oszustwami z wykorzystaniem AI?

Obecnie najlepiej chroni nas wiedza – świadomość tego, jak mogą działać przestępcy. Dlatego warto przekazać te informacje jak największej liczbie znajomych osób. 

  • Jeśli dzwoni do ciebie ktoś z rodziny, prosząc o pieniądze albo o poufne informacje, np. numer dowodu, PIN do karty, nigdy nie spełniaj takiej prośby od razu. Zawsze sprawdzaj, z kim naprawdę rozmawiasz: rozłącz się i sama zadzwoń do tej osoby.
  • Uwaga! Dobrym pomysłem może być ustalenie w gronie rodziny waszego „hasła”, które będzie rodzajem uwierzytelnienia przez telefon. Niech to będzie np. jakieś wydarzenie, o którym wiecie tylko wy. Gdy ktoś „bliski” zadzwoni z nietypową prośbą i nie będzie wiedział, o co chodzi, zorientujesz się, że to oszust.
  • Ważne dla ciebie wiadomości staraj się weryfikować (sprawdź np. czy tę samą informację podają zaufane portale informacyjne). W przypadku internetowej porady pytaj lub sprawdzaj, kto (z imienia i nazwiska) jej udzielił. Z dużą ostrożnością traktuj wiadomości kontrowersyjne i szokujące, np. filmy dotyczące polityków czy celebrytów w zaskakujących sytuacjach. To mogą być wytwory oszustów, którzy chcą przykuć twoją uwagę lub chcieć do czegoś cię nakłonić.

Jak rozpoznać wiadomość od sztucznej inteligencji?

To na tyle trudne, że informatycy tworzą specjalne programy do rozpoznawania tekstów pisanych przez AI. 

  • Teksty tworzone przez sztuczną inteligencję na pierwszy rzut oka wydają się logiczne, ale w trakcie uważnej lektury można wychwycić informacje sprzeczne albo bardzo ogólnikowe.
  • Istotna jest szybkość reakcji – jeśli na twoje pytania (np. przez telefon, SMS, na czacie) dostaniesz odpowiedź natychmiast i do tego obszerną i wyczerpującą, to może znaczyć, że odpowiada ci chatbot, czyli aplikacja używająca sztucznej inteligencji, a nie żywy człowiek.
  • Sygnałem ostrzegawczym jest także brak błędów. Chatboty wykorzystujące sztuczną inteligencję, takie jak np. chatGPT, to modele językowe, które się nie mylą. Nie robią literówek, błędów gramatycznych ani stylistycznych. Tekst jest bezbłędny, ale też sprawia wrażenie bezosobowego i aż nadto poprawnego.

W jaki sposób oszuści wyłudzili pieniądze z pomocą AI?

W ub. roku w USA oszuści, którzy posługiwali się sztuczną inteligencją do fałszowania głosu, okradli udoskonaloną metodą „na wnuczka” ponad 5 tysięcy osób.

  • W USA matka 15-latki usłyszała w słuchawce zapłakany głos córki, która mówiła, że została uprowadzona. Następnie ktoś zażądał okupu za jej „uwolnienie”. Przerażona kobieta wpłaciła pieniądze, choć córka była bezpieczna u krewnych. Głos córki został sklonowany.
  • W Wielkiej Brytanii sekretarka prezesa firmy energetycznej odebrała telefon od przełożonego, który polecił jej, żeby zrobiła przelew dużej kwoty na wskazane konto. Głos prezesa też był sklonowany. Pieniędzy nie odzyskano.
  • Do osoby mieszkającej w Chinach zadzwonił „znajomy”, który w czasie wideorozmowy sfałszowanej z pomocą sztucznej inteligencji poprosił o wysoką pożyczkę. Ofiara nie miała wątpliwości, że rozmawia ze znajomym, bo nie tylko go słyszała, ale też widziała na ekranie swojego telefonu. I dała pieniądze przestępcy.

 

 

Czytaj więcej