Вкрасти $ 35 млн — не проблема: як штучний інтелект став зброєю шахраїв

Читать на русском
Автор

Штучний інтелект покликаний полегшити життя людства, але саме людство може використовувати його на зло

У всьому світі досить часто люди стають жертвами шахраїв. Існує чимало різновидів афер і обманів, і всім слід бути уважними і звертати особливу увагу на професійних жебраків та інших обманщиків.

З розвитком технологій з’являються нові види шахрайства. Зловмисники розширюють арсенал своїх засобів і методів дії.

Недавня стаття на сайті Forbes розповідає про незвичайний випадок шахрайства, за допомогою якого злочинці заволоділи 35 млн доларів.

Злочин

На початку 2020 року менеджеру банку в Об’єднаних Арабських Еміратах подзвонила людина, голос якої він впізнав — це був директор компанії, з яким він вже спілкувався раніше. У цього директора були хороші новини: його компанія збиралася зробити важливе придбання, тому йому потрібно було, щоб банк дозволив деякі перекази на суму 35 млн доларів.

Для координації процедур найняли юриста на ім’я Мартін Зельнер, і менеджер банку міг бачити в своїй поштовій скриньці електронні листи від директора і юриста, що підтверджують, які суми і куди повинні бути переведені. Менеджер банку, вважаючи, що все виглядає законно, почав здійснювати перекази.

Але він не знав, що його обдурили в рамках ретельно розробленою афери, в якій шахраї використовували технологію "глибокого голосу" для клонування мови директора.

Згідно з судовим документом, який потрапив у розпорядження Forbes, ОАЕ звернулися до американських слідчих за допомогою у відстеженні 400 тис. доларів викрадених коштів. Розслідування виявило, що щонайменше 17 осіб були задіяні в складній злочинній схемі, в результаті якої викрадені гроші були переведені на банківські рахунки по всьому світу.

Прокуратура Дубая продовжує вести розслідування. На момент публікації вона не відповіла на прохання про коментар.

До Мартіна Зельнера, адвоката з США, також звернулися за коментарями, але він також не дав відповіді.

Це другий відомий випадок, коли шахраї використовували інструменти зміни голосу для скоєння пограбування. У першому випадку, про який дізналася громадськість, шахраї використовували цю технологію, щоб видати себе за генерального директора енергетичної компанії з Великобританії. Тоді в 2019 році вони спробували вкрасти 240 тис. доларів.

Технології на шкоду?

Випадок в ОАЕ показує, наскільки руйнівними можуть бути такі високотехнологічні шахрайства. Це особливо насторожує на тлі попереджень про використання штучного інтелекту для створення так званих глибоких підроблених зображень і голосів в кіберзлочинності.

"В даний час ми знаходимося на порозі того, що зловмисники переключать свій досвід і ресурси на використання новітніх технологій для маніпулювання людьми", — заявив експерт з кібербезпеки в компанії ESET.

Зловмисники стежать за розвитком нових технологій /plusworld.ru

"Маніпулювати звуком значно легше, ніж створювати фальшиві відео. Кількість подібних інцидентів буде тільки збільшуватися. І нам необхідно розповісти людям про подібний тип загроз, попрацювати над поліпшенням методів аутентифікації», — додав експерт.

Чи є захист?

Різні технологічні стартапи працюють над все більш складними технологіями голосового ШІ.

Тим часом, визнаючи можливість коректного використання ШІ, кілька компаній, таких як Pindrop, вартість якої оцінюється в 900 млн доларів, стверджують, що вони можуть розпізнавати синтезовані голоси і тим самим запобігати шахрайству.

Якщо записи ваших виступів доступні в Інтернеті, будь-то в соціальних мережах, на YouTube або на сайті роботодавця, цілком можливо, що за контроль над вашим голосом йде таємна боротьба, про яку ви не знаєте.

Раніше "Телеграф" писав про те, що Facebook потрапив у расистський скандал через штучний інтелект.