O sztucznej inteligencji AI mówią dziś wszyscy. To narzędzie, które w wielu dziedzinach zastępuje człowieka. Może korzystać z niego każdy, także oszust. Co to jest AI i dlaczego może być groźna? Na czym polegają oszustwa z wykorzystaniem AI? Sprawdź, jak się chronić przed oszustwami z wykorzystaniem AI i jak rozpoznać wiadomość od sztucznej inteligencji?
Spis treści
Przestępcy sztuczną inteligencję już wykorzystują do swoich celów. W USA w zeszłym roku z jej pomocą wyłudzono od zwykłych ludzi ponad 11 miliardów dolarów! Takie przypadki zdarzają się coraz częściej także w Europie. Wkrótce czeka nas lawina oszustw z użyciem tego narzędzia. Na co się przygotować i przed czym się bronić?
Sztuczna inteligencja (ang. artificial intelligence, AI) to rozbudowany system informatyczny, na który składają się tzw. sieci neuronowe (algorytmy, modele matematyczne i językowe). Został stworzony przez człowieka, ale może już działać samodzielnie, rozwijać się i „uczyć” analogicznie jak ludzki mózg. Algorytmy AI przetwarzają codziennie gigantyczne ilości danych, zdobywają wiedzę, dostosowując się do sytuacji. Nie potrzebują sterowania przez człowieka. Wystarczy postawić im jakiś cel, a one samodzielnie będą go realizować.
Jednym z pierwszych takich celów dla sztucznej inteligencji w latach 50. ub. wieku była wygrana w turnieju szachowym. Potem „myślące” komputery zaczęto wykorzystywać m.in. w autonomicznych samochodach, które poruszają się bez kierowców. Dziś sztuczna inteligencja rozwija się błyskawicznie dzięki tzw. głębokiemu uczeniu się. Jest to m.in. umiejętność rozumienia ludzkiej mowy, przewidywania zdarzeń i podejmowania decyzji.
Programy na niej bazujące (tzw. chatboty) potrafią rozmawiać, tworzyć filmy, muzykę, obrazy. Uwaga! Coraz trudniej odróżnić to, co robią chatboty, od efektów działania człowieka. Dlatego AI w rękach przestępców jest tak niebezpieczna.
Klonują głos dowolnej osoby. Dotąd oszust mógł tylko kogoś udawać, a teraz może mówić czyimś głosem – dosłownie. W telefonie możemy usłyszeć realny głos kogoś bliskiego lub znajomego. Dzwoniący będzie mówić identycznie jak on, z reali styczną intonacją, emocjami, używając tego samego słownictwa. Powie np., że znalazł się w trudnej sytuacji, miał wypadek i prosi o szybki przelew pieniędzy albo podanie kodu BLIK.
Klonowanie głosu umożliwiają proste w obsłudze aplikacje, dostępne w internecie za niewielką opłatą lub nawet za darmo. Aby sklonować czyjś głos, wystarczy minuta nagrania rzeczywistej wypowiedzi czy przechwyconej rozmowy. Oszust może też zadzwonić pod byle pretekstem i nagrać próbkę głosu.
Następnie dzwoni do ofiary, ale nic nie mówi – wpisuje w komputerze to, co sklonowanym głosem ma „powiedzieć” aplikacja. Piszą wiadomości, które nie wzbudzają żadnych podejrzeń. W przeszłości SMS-y czy e-maile rozsyłane przez oszustów poznawaliśmy po błędach językowych. Sztuczna inteligencja tworzy wiadomości bez błędów, czystą polszczyzną.
Oszuści wykorzystują też chatboty, które symulują pisaną rozmowę. Wysyłają SMS albo wiadomość w komunikatorze typu Messenger, WhatsApp, podszywając się pod osobę z naszej listy kontaktów. Gdy zareagujemy, od razu dostaniemy odpowiedź, tak jakby rozmówca faktycznie był po drugiej stronie. Uwaga! W takiej rozmowie oszust udający znajomego może prosić o wszystko – zaczynając od przelewu, a kończąc na zostawieniu klucza pod wycieraczką. Wprowadzają w błąd.
Nieuczciwi przedsiębiorcy, którzy w internecie udzielają płatnych porad (np. prawnych, podatkowych, księgowych), też już korzystają ze sztucznej inteligencji. Jeśli porady pisze program bazujący na AI, wydają się rzetelne i wyczerpujące, ale mogą zawierać poważne błędy, bo sztuczna inteligencja często opiera się na danych nieprawdziwych albo nieaktualnych. Gdy zastosujemy się do takiej porady, możemy stracić o wiele więcej niż zapłacone za nią pieniądze – np. źle napisać odwołanie, nie dochować ważnego terminu, a nawet przegrać sprawę w sądzie.
W internecie zaczyna też krążyć wiele wiadomości zdrowotnych tworzonych z pomocą sztucznej inteligencji. Lekarze i eksperci biją na alarm: nieprawdziwe informacje trudno rozpoznać. Dając im wiarę, można poważnie sobie zaszkodzić!
Obecnie najlepiej chroni nas wiedza – świadomość tego, jak mogą działać przestępcy. Dlatego warto przekazać te informacje jak największej liczbie znajomych osób.
To na tyle trudne, że informatycy tworzą specjalne programy do rozpoznawania tekstów pisanych przez AI.
W ub. roku w USA oszuści, którzy posługiwali się sztuczną inteligencją do fałszowania głosu, okradli udoskonaloną metodą „na wnuczka” ponad 5 tysięcy osób.