Как распознать голосовые дипфейки

Мошенники могут подделывать человеческий голос, используя технологию искусственного интеллекта дипфейк (от deep learning — «глубинное обучение» и fake — «подделка»), предупредили эксперты Лаборатории Касперского. Она позволяет создавать убедительные копии изображений, видео- или аудиоматериалов с помощью машинного обучения, передает ИА «NewTimes.kz».

Фото: Pexels

Сама по себе технология безвредна, но в мире было уже несколько прецедентов, когда мошенники использовали голосовые дипфейки. Например, в 2019 году с помощью этой технологии ограбили британскую энергетическую компанию. Злоумышленник выдал себя за генерального директора головного немецкого подразделения этого предприятия и потребовал срочно перевести ему 220 тыс евро (243 тыс долларов). Подобный случай произошел в 2020 году, тогда мошенники украли до 35 млн долларов у японской компании.

«Пока технология создания дипфейков недоступна для широкого использования и находится в основном в руках больших корпораций. Однако в будущем она может оказаться в свободном доступе, что приведет к всплеску мошенничества. Скорее всего, злоумышленники будут пытаться генерировать голоса в режиме реального времени. Например, чтобы выдать себя за чьего-нибудь родственника и выманить деньги. Пока такой сценарий маловероятен: для создания качественных дипфейков нужно много ресурсов, которые доступны только крупным компаниям. Но риск столкнуться с подобным мошенничеством все равно есть», — отмечает Дмитрий Аникин, старший исследователь данных в Лаборатории Касперского.

Как защититься от дипфейков:

  • Обращайте внимание на подозрительные звонки.
  • Вас должно насторожить плохое качество звука, неестественная монотонность голоса, неразборчивая речь, посторонние шумы.
  • Не принимайте эмоциональные решения, не сообщайте никому свои данные и не переводите деньги.
  • Помните, что главное оружие мошенников — это неожиданность. Используйте надежные решения, которые помогают защититься от телефонных мошенников.