Общество

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

Число таких угроз в 2025 году будет расти

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

В 2024 году число дипфейк-атак, по подсчетам VisionLabs (структура МТС), составило десятки тысяч случаев, а в 2025 году это число может возрасти уже в десятки раз. Причем реальные масштабы атак с использованием дипфейков в России значительно превышают открытые официальные данные. Жертве может позвонить и «близкий родственник», и «руководитель» компании или подразделения. Одна из самых непредсказуемых на сегодня угроз — возможность генерировать дипфейк-звонок в режиме реального времени. Обзор актуальных атак и их особенностей — в материале «Известий».

Масштаб проблемы

ИБ-исследователи в последнее время наблюдают рост использования дипфейков для атак, в том числе на уязвимые группы населения, такие как подростки, женщины и пенсионеры. Отдельной статистики по этим категориям нет — существует лишь общая сводка по мошенничеству с использованием дипфейков, включая атаки на процессы банков или телеком-операторов, социально значимые фейки, атаки на конкретных людей.

— Речь может идти о десятках тысяч случаев, — утверждает представитель VisionLabs Татьяна Дешкина. — На данный момент не существует централизованной системы отслеживания или регистрации всех случаев дипфейк-атак в реальном времени.

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

Источники «Известий» в Роскомнадзоре эту информацию подтвердили.

Дипфейки могут появляться на различных платформах, включая социальные сети, мессенджеры и видеохостинги, и часто остаются незамеченными или необнаруженными. Многие случаи дипфейков происходят в частных или закрытых сетях, что делает их обнаружение и учет сложными.

Представители уязвимых слоев населения чаще становятся объектами именно атак на личность. Например, был случай, когда пожилого человека обманули дипфейком мэра Москвы, чтобы выманить деньги.

По оценкам VisionLabs, в целом убытки от кибермошенничества в 2024 году прогнозируются до 300 млрд рублей. Ущерб непосредственно от дипфейков велик, но выделить конкретную долю весьма сложно.

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

При этом, по данным Ideco, общий ущерб от деятельности мошенников, который пришелся на банковские операции, совершавшиеся без согласия клиента, по итогам только последних девяти месяцев 2024 года превышает 15 млрд рублей.

— Стандартным примером дипфейк-атак в бизнес-среде является подмена личности руководителя, — отмечает директор Ideco Дмитрий Хомутов. — Есть пример, когда подделка голоса CEO приводила к краже $243 тыс. со счетов крупной британской энергетической компании.

Из-за активного развития ИИ в последние месяцы появилось множество программ, которые помогут мошенникам подделать и голос, и создать фальшивые видеопортреты, добавляет руководитель отдела системного администрирования IT-компании Simpl Константин Ильиных. Так, в Telegram могут прислать несуществующее сообщение в формате «кружочка» и обмануть пользователей. Лучше перезвонить человеку, прийти обсудить вопрос лично, если руководитель или коллега просят перевести деньги.

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

По прогнозам VisionLabs, количество атак в 2025 году возрастет в десятки раз.

— Проблема в том, что теперь даже некоторые сложные и качественные алгоритмы дипфейков можно легко найти в открытом доступе, — сетует Татьяна Дешкина. — Также снизился и порог входа для генерации подделок — есть приложения, которые позволяют создавать дипфейки даже людям без минимального опыта программирования.

В VisionLabs предупреждают, что один из самых опасных методов мошенничества — видеозвонки. Они вызывают доверие, поскольку происходят непосредственно здесь и сейчас. Беда в том, что сегодня можно сгенерировать такой дипфейк-звонок в режиме реального времени. При этом низкое качество может быть списано на плохое интернет-соединение или погрешности камеры ноутбука. Такие видеозвонки могут использоваться как при атаке на банк (допустим, дипфейк лица бабушки, злоумышленники оформляют на нее кредит), так и при вымогательстве у пенсионеров.

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

Сгенерированный дипфейк-звонок в режиме реального времени подстраивается под разговор, тем самым создавая ощущение действительности диалога. Аферисты применяют различные методы психологического давления, представляясь судебными приставами, госслужащими или сотрудниками банков. Но страшнее всего, когда голос родного человека вынуждает человека или сотрудника компании раскрывать конфиденциальную информацию. Именно такие звонки хакеров наиболее опасны для уязвимых групп населения.

Пожилые люди, дети и сотрудники, не обученные основам безопасного поведения в интернете, больше всех подвержены дипфейк-звонкам. По данным Ideco, общая динамика преступлений в сфере информационно-коммуникационных технологий продолжает расти: за три последних квартала 2024 года их число составило 564 тыс., что почти на 16% больше по сравнению с аналогичным периодом прошлого года.

Основные виды дипфейк-атак

Можно выделить несколько типов дипфейк-угроз.

— Замена лица. Лицо одного человека вставляется вместо другого в видеофайле. Чаще всего этот вид атаки используется в видеозвонках или «кружочках» в мессенджерах.

— Перенос мимики. Например, под движения губ человека из оригинального видео подставляется другой голос.

— Создание несуществующих лиц. Злоумышленники генерируют изображения новых, реалистичных лиц, которые используются для анонимного мошенничества или дезинформации.

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

Почему дипфейки выглядят реалистичными? При видеозвонках и коротких видео в мессенджерах мошенники заменяют лицо одного человека на другое, создавая правдоподобную подделку личности. Если атака связана с голосом, используется технология, которая копирует манеру речи и звучание, делая ее похожей на оригинал. Такие методы делают дипфейки очень убедительными и сложно отличимыми от реального человека, что повышает риск обмана.

— Серьезной проблемой, особенно на Западе (в России такая практика пока распространена меньше), становится использование дипфейков с порнографическим содержанием или монтажом, — говорит представитель VisionLabs Татьяна Дешкина. — Такие материалы могут применяться для шантажа и преследования женщин.

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

К сожалению, сервисы для изменения голоса можно скачать с веб-площадок разработчиков, они практически в свободном доступе и часто не требуют специальных навыков для установки.

Как защититься от видеоимитаций

Для борьбы с мошенниками используют детекторы дипфейков, которые постоянно совершенствуются, что критически важно с учетом регулярного улучшения качества фейков. Такие детекторы могут определять все основные виды видеоатак, включая замену лица, перенос мимики и создание несуществующих лиц.

И если банки и телеком-операторы, как правило, обладают техническими и организационными ресурсами для защиты от дипфейков — например, могут ограничить доступ к критическим операциям через голосовых помощников, то в плане социально значимых фейков ситуация гораздо более тревожная, отмечает эксперт АРПП «Отечественный софт», руководитель службы информационной безопасности «МойОфис» Дмитрий Соколов.

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

Особую тревогу вызывают дипфейк-звонки, которые стали новым и крайне опасным инструментом мошенников. Это угроза, которая может подстерегать любого человека, но особенно тех, кто может быть не осведомлен о возможностях технологий. Для них звонок, например, от «близкого человека», который якобы оказался в беде, — это реальная угроза потерять деньги, оформить кредиты на свое имя или даже лишиться жилья.

Опасность таких звонков в их правдоподобности — технологии сегодня позволяют имитировать не только голос, но и интонации, что делает мошенничество почти невозможным для обнаружения.

— Представим гипотетическую атаку, где мошенник использует видеозвонок с заранее сгенерированным видеоаватаром близкого человека, говорящего его голосом, — говорит Соколов. — Для этого применяются как раз технологии дипфейков, которые могут анимировать человека по одной фотографии, а также синтезировать речь на основе образцов голоса.

Сбросить вызов: россияне получают дипфейк-звонки от родственников и начальников

Один из самых простых, но распространенных сценариев — это отправка сгенерированного изображения, где якобы близкий человек находится в полиции или больнице. Увидев такое, неподготовленный человек может легко потерять бдительность и передать мошеннику конфиденциальную информацию. Поэтому, призывают эксперты, следует быть готовыми и к таким жизненным сценариям.

Специалисты указывают, как и в случае с любыми видами мошенничества, в первую очередь необходимо сохранять бдительность и тщательно проверять все необычные обращения. Если возникает хотя бы малейшее сомнение, всегда стоит запросить информацию, которую мог бы знать только тот, кто на самом деле звонит.

— Относительно дипфейков, сгенерированных в реальном времени, которые являются наиболее опасными и непредсказуемыми по последствиям, стоит быть особо бдительными, — говорит ведущий юрист Staffcop («Атом безопасность» входит в ГК «СКБ Контур») Ольга Попова. — Услышав голос близкого человека, якобы просящего о помощи, почти любой из нас потеряет способность критически мыслить и может начать немедленно выполнять указания злоумышленников. Такие звонки создают психологическое давление и нервное напряжение, которые могут довести до противоправных действий, эмоционального истощения. Лучший быстрый и простой способ самоконтроля — перезвонить и всё перепроверить.

Источник

Похожие статьи

Кнопка «Наверх»