Мошенники могут подделывать человеческий голос, используя технологию искусственного интеллекта дипфейк (от deep learning — «глубинное обучение» и fake — «подделка»), предупредили эксперты Лаборатории Касперского. Она позволяет создавать убедительные копии изображений, видео- или аудиоматериалов с помощью машинного обучения, передает ИА «NewTimes.kz».
Сама по себе технология безвредна, но в мире было уже несколько прецедентов, когда мошенники использовали голосовые дипфейки. Например, в 2019 году с помощью этой технологии ограбили британскую энергетическую компанию. Злоумышленник выдал себя за генерального директора головного немецкого подразделения этого предприятия и потребовал срочно перевести ему 220 тыс евро (243 тыс долларов). Подобный случай произошел в 2020 году, тогда мошенники украли до 35 млн долларов у японской компании.
«Пока технология создания дипфейков недоступна для широкого использования и находится в основном в руках больших корпораций. Однако в будущем она может оказаться в свободном доступе, что приведет к всплеску мошенничества. Скорее всего, злоумышленники будут пытаться генерировать голоса в режиме реального времени. Например, чтобы выдать себя за чьего-нибудь родственника и выманить деньги. Пока такой сценарий маловероятен: для создания качественных дипфейков нужно много ресурсов, которые доступны только крупным компаниям. Но риск столкнуться с подобным мошенничеством все равно есть», — отмечает Дмитрий Аникин, старший исследователь данных в Лаборатории Касперского.
Как защититься от дипфейков: