Украсть $35 млн - не проблема: как искусственный интеллект стал оружием мошенников
- Автор
- Дата публикации
- Автор
Искусственный интеллект призван облегчить жизнь человечества, но само человечество может использовать его во зло
Во всем мире довольно часто люди становятся жертвами мошенников. Существует немало разновидностей афер и обманов, и всем следует быть внимательными и обращать особое внимание на профессиональных попрошаек и прочих обманщиков.
С развитием технологий появляются новые виды мошенничества. Злоумышленники расширяют арсенал своих средств и методов действия.
Недавняя статья на сайте Forbes рассказывает о необычном случае мошенничества, при помощи которого преступники завладели 35 млн долларов.
Преступление
В начале 2020 года менеджеру банка в Объединенных Арабских Эмиратах позвонил человек, голос которого он узнал – это был директор компании, с которым он уже общался раньше. У этого директора были хорошие новости: его компания собиралась сделать важное приобретение, поэтому ему нужно было, чтобы банк разрешил некоторые переводы на сумму 35 млн долларов.
Для координации процедур был нанят юрист по имени Мартин Зельнер, и менеджер банка мог видеть в своем почтовом ящике электронные письма от директора и юриста, подтверждающие, какие суммы и куда должны быть переведены. Менеджер банка, полагая, что все выглядит законно, начал осуществлять переводы.
Но он не знал, что его обманули в рамках тщательно разработанной аферы, в которой мошенники использовали технологию "глубокого голоса" для клонирования речи директора.
Согласно судебному документу, попавшему в распоряжение Forbes, ОАЭ обратились к американским следователям за помощью в отслеживании 400 тыс. долларов похищенных средств. Расследование выявило, что по меньшей мере 17 человек были задействованы в сложной преступной схеме, в результате которой похищенные деньги были переведены на банковские счета по всему миру.
Прокуратура Дубая продолжает вести расследование. На момент публикации она не ответила на просьбу о комментарии.
К Мартину Зельнеру, адвокату из США, также обратились за комментариями, но он также не дал ответа.
Это второй известный случай, когда мошенники использовали инструменты изменения голоса для совершения ограбления. В первом случае, о котором узнала общественность, мошенники использовали эту технологию, чтобы выдать себя за генерального директора энергетической компании из Великобритании. Тогда в 2019 году они попытались украсть 240 тыс. долларов.
Технологии во вред?
Случай в ОАЭ показывает, насколько разрушительными могут быть такие высокотехнологичные мошенничества. Это особенно настораживает на фоне предупреждений об использовании искусственного интеллекта для создания так называемых глубоких поддельных изображений и голосов в киберпреступности.
"В настоящее время мы находимся на пороге того, что злоумышленники переключат свой опыт и ресурсы на использование новейших технологий для манипулирования людьми", — заявил эксперт по кибербезопасности в компании ESET.
"Манипулировать звуком значительно легче, чем создавать фальшивые видео. Количество подобных инцидентов будет только увеличиваться. И нам необходимо рассказать людям о подобном типе угроз, поработать над улучшением методов аутентификации», — добавил эксперт.
Есть ли защита?
Различные технологические стартапы работают над все более сложными технологиями голосового ИИ.
Между тем, признавая возможность злонамеренного использования ИИ, несколько компаний, таких как Pindrop, стоимость которой оценивается в 900 млн долларов, утверждают, что они могут распознавать синтезированные голоса и тем самым предотвращать мошенничество.
Если записи ваших выступлений доступны в Интернете, будь–то в социальных сетях, на YouTube или на сайте работодателя, вполне возможно, что за контроль над вашим голосом идет тайная борьба, о которой вы не знаете.
Ранее "Телеграф" писал о том, что искусственный интеллект использовали в сфере медицины для распознавания симптомов коронавируса.