В Екатеринбурге мошенники начали осуществлять свои атаки, выдавая себя за сотрудников исследовательских центров. Они осуществляют звонки под предлогом проведения социологического опроса, пытаясь записать голос жертвы для создания дипфейков.
Как сообщает РИА Новости, такая схема мошенничества стала распространенной по всей стране и используется в различных аудио- и видеозвонках под разными предлогами. Злоумышленники стараются удерживать собеседника на линии как минимум 20 секунд, чтобы успешно клонировать его голос.
«Недавно моему коллеге позвонили через видеосвязь. Он ответил на звонок, так как ждал важный рабочий звонок. Его записали и использовали изображение для создания дипфейка, в результате чего обманули его знакомых и заставили их отдать деньги», — поделилась своей историей екатеринбурженка Татьяна.
Ведущий аналитик компании F6, Евгений Егоров, рассказывает, что злоумышленники уже несколько лет активно используют технологии голосовых дипфейков, созданных с помощью искусственного интеллекта. Существует множество инструментов, позволяющих создавать поддельные аудио- и видеоматериалы, и для этого не нужно иметь глубокие технические знания — достаточно специального программного обеспечения или даже чат-ботов.
Искусственно созданные аудиосообщения активно используются в мошеннических схемах. Мошенники, например, могут отправлять такие сообщения с просьбой одолжить деньги родственникам или коллегам своей жертвы, а также рассылать в групповых чатах. В случае с фейковыми знакомствами (FakeDate) или сообщениями, выдающимися за сообщения от руководителей (FakeBoss), мошенники получают еще больше шансов на обман, создавая у жертвы иллюзию взаимодействия с настоящим человеком.
«Качество голосовых сообщений и видео, генерируемых с помощью искусственного интеллекта, стремительно растет и становится всё более реалистичным. Интонации звучат естественнее, а качество видео улучшается, что позволяет снизить количество очевидных дефектов, выдающих подделку», — поясняет Евгений Егоров.
Эксперт также добавил, что мошенники используют искусственный интеллект для генерации диалогов и ответов. Они могут «скармливать» чат-ботам переписки конкретных людей с целью точного воспроизведения их стиля общения.
«Чтобы не попасться в ловушку мошенников, важно перепроверять, действительно ли обращается к вам владелец аккаунта. Для этого рекомендуется перезвонить ему по телефону или воспользоваться другими способами связи», — подытожил специалист.
Материал предоставлен сайтом realtagil.ru.