Взять образцы: записи автоответчиков стали использовать для создания дипфейков
Голосовые данные могут стать опасным оружием в руках мошенников
EN
Мошенники могут использовать персональные голосовые приветствия на автоответчиках для создания дипфейков — об этом предупредили эксперты. Эти записи позволяют злоумышленникам при помощи нейросетей имитировать голос потенциальной жертвы и в дальнейшем использовать его при атаках на ее окружение. Подробности о том, как мошенники используют записи автоответчиков для создания дипфейков, чем это опасно и как защититься от таких угроз, читайте в материале «Известий».
Чем голосовые приветствия на автоответчиках интересны мошенникам
Персональное голосовое приветствие на автоответчике — такой же образец голоса, как, например, реальный телефонный разговор или голосовое сообщение из украденного аккаунта, говорит в беседе с «Известиями» ведущий аналитик департамента Digital Risk Protection компании F6 Евгений Егоров. При этом голосовые дипфейки, созданные при помощи искусственного интеллекта (ИИ), злоумышленники используют уже пару лет.
— На сегодняшний день существует множество инструментов для создания поддельных видео и аудиосообщений, которые преступники могут применять даже без особых технических знаний, — рассказывает эксперт.
При этом многое зависит о того, какова длина голосового приветствия или записи, дополняет руководитель R&D-лаборатории Центра технологий кибербезопасности ГК «Солар» Максим Бузинов. К примеру, отрывок длительностью в три секунды подойдет для воссоздания тембра голоса при монотонной речи, но для копирования эмоций и характерных черт потребуется более длительный эпизод
— Сегодня, чтобы повторить голос, достаточно короткой записи, но ее качество, скорее всего, будет не слишком убедительным, — соглашается руководитель направления исследования данных в «Лаборатории Касперского» Дмитрий Аникин. Однако, если обладатель автоответчика запишет более длительное голосовое приветствие, оно может стать весьма опасным инструментом в руках мошенников.
Как мошенники применяют данные голосовых приветствий
Фиксировать непосредственные случаи использования киберпреступниками голосовых приветствий на автоответчике довольно затруднительно, поскольку специалисты по кибербезопасности чаще всего сталкиваются с уже готовыми фактами имитации голосов, говорит в беседе с «Известиями» эксперт по кибербезопасности Angara Security Никита Новиков.
— Однако вполне вероятно, что автоответчики являются одним из популярных способов, при помощи которых злоумышленники могут получить реальный голос человека для последующей подделки, — рассказывает эксперт.
Автоответчик может воспроизводить фразы, ключевые слова, интонацию и манеру речи человека. А злоумышленник записывает звуковую дорожку и заносит ее в систему ИИ, которая, проанализировав запись, воспроизведет голос с нужным текстом, необходимым для мошенника, объясняет Никита Новиков.
— Автоответчик — это доступный источник информации, ведь для доступа к нему мошенникам не требуются какие-то инструменты взлома, — отмечает GR-директор ИБ-компании «Код Безопасности» Александра Шмигирилова. — Без каких-либо усилий они получают сразу два вида данных: телефонный номер и образец голоса.
При этом подделанные аудиосообщения используются во многих распространенных схемах, говорит Евгений Егоров. Мошенники отправляют такие сообщения, например, с просьбой одолжить денег родственникам, коллегам жертвы или в групповые чаты, чтобы ввести их в заблуждение и заставить поверить, что просьба исходит от знакомого человека. В схемах с фейковыми знакомствами FakeDate или с сообщениями от руководителя FakeBoss злоумышленники получают еще больше возможностей для обмана жертв, создавая у них иллюзию общения с реальным человеком.
Чем опасны схемы мошенников с голосовыми дипфейками
Голосовые сообщения, которые злоумышленники подделывают с помощью ИИ, становятся всё более качественными — интонации голоса всё естественнее, а в записях всё меньше дефектов, которые выдают фейк, рассказывает Евгений Егоров. Сами алгоритмы дипфейков — это следствие развития алгоритмов ИИ, который сильно упростил жизнь злоумышленникам и снизил порог входа для преступников.
— Высококачественный аудиофейк с разнообразным контентом потребует специалиста высокой квалификации и стоимости, — говорит Максим Бузинов. — Поэтому качественные комплексные подделки с разнообразным контентом относятся к таргетированному фишингу.
Алгоритмы ИИ для создания аудифейков собеседник «Известий» сравнивает с технологиями для печати фальшивых купюр высокого качества. Но если для выявления фальшивых денег есть средства быстрой и точной валидации подделок, то в случае с голосовыми фейками таких возможностей пока мало. При этом зачастую голосовые фальсификации при тщательном рассмотрении заметны на слух.
Однако в моменте у неподготовленного человека нет времени и навыков, чтобы проанализировать сообщения от фейкового босса или родственника, отмечает Максим Бузинов. При этом сегодня крупные разработчики программного обеспечения развивают средства борьбы с подделками голоса. Уже существует множество алгоритмов выявления артефактов голоса и обнаружения искусственно сгенерированного контента.
— В большинстве случаев они выявляют отдельные виды артефактов и делают это на хорошем уровне, — рассказывает специалист. — Однако средства для анализа всех случаев подделок с высокой скоростью и качеством работы пока нет.
Ситуацию осложняет то, что обычные люди в коммуникациях используют разнообразные искажения, например, для улучшения голоса. Можно просто спеть на видеосообщении под фонограмму, чем сейчас наполнены соцсети, чтобы технология антифейка дала ложное срабатывание. Эти аспекты усложняют работу качественного определения дипфейков, что идет на руку мошенникам, подчеркивает Максим Бузинов.
Способы защиты
Для того чтобы защититься от схем мошенников, связанных с использованием голосовых приветствий на автоответчиках, лучше не записывать их самостоятельно, а воспользоваться услугами операторов связи, которые имеют собственные инструменты, советует Александра Шмигирилова. С помощью таких инструментов можно оставить сообщение с просьбой перезвонить, при этом они не дают звонящему образец голоса, поскольку за пользователя отвечает робот.
— Чтобы у злоумышленника не было возможности сымитировать голос, рекомендуется либо отказаться от автоответчика в принципе, либо использовать какой-то роботизированный аналог, — соглашается Никита Новиков.
Чтобы не попасться на уловки мошенников, отправляющих голосовые сообщения с номеров знакомых или звонящих по телефону, эксперт советует всегда проверять информацию отправителя звонком на номер, сохраненный в телефонной книге. Также следует соблюдать правила безопасного общения в мессенджерах и в целом перепроверять всю поступающую информацию.
Полностью обезопасить себя от копирования голоса с помощью нейросетей пока невозможно, и такая защита вряд ли появится в ближайшем будущем, говорит старший инженер по информационной безопасности R-Vision Дмитрий Бурмашов. Однако важным элементом по-прежнему остается умение распознавать мошеннические схемы. Так, если к вам обращается официальное лицо и вы сомневаетесь в его подлинности, уточните, можно ли выполнить требуемые действия через официальный сайт или приложение. Если же действия можно выполнить только по телефону, это повод насторожиться.
— Если вам звонят знакомые с просьбой что-то передать или перевести деньги, перезвоните им самостоятельно и задайте два вопроса: один — который знают только они, и второй — заведомо неправильный для них, но обычный для постороннего человека, — заключает эксперт.