Поймать в нейросети: число взломов ИИ-ассистентов с начала года выросло на 90%
Пользователи теряют конфиденциальную информацию в беседах с ChatGPT и DeepSeek
0
EN
Следите за нашими новостями в удобном формате
Есть новость? Присылайте!
Пользователи ИИ-помощников и нейросетей в России всё чаще становятся жертвами мошенников, их количество взломов с января по апрель 2025 года увеличилось на 90% по сравнению с аналогичным периодом 2024-го. Во многих чатах хранятся конфиденциальные данные, такие как пароли от банковских счетов, платежных сервисов и других служб, которые граждане наивно доверяют ИИ-ассистентам. Эксперты отмечают, что преступники активно осваивают этот сегмент из-за роста популярности таких приложений.
Почему взломы ИИ-моделей стали регулярными
В России участились взломы аккаунтов в нейросетях — их количество с января по апрель 2025 года выросло на 90% по сравнению с аналогичным периодом 2024-го, сообщили «Известиям» в компании «Информзащита». Эксперты связывают это с ростом популярности и расширением функционала нейросетей, а также с адаптацией российских пользователей к пользованию ими.
— Зарегистрироваться в популярных ИИ-ассистентах типа ChatGPT, Grok или DeepSeek с использованием российского номера нельзя. Поэтому пользователи на специализированных сервисах покупают или арендуют иностранные номера. Также россияне нашли лазейки для оплаты подписки в нейросетях. Более того, функционал бесплатных версий популярных чат-ботов расширился. Всё это ведет к волнообразному распространению ИИ среди граждан, — уточнил директор Центра противодействия мошенничеству компании Павел Коваленко.
Пользователи часто делятся с ИИ-ассистентом своими персональными и конфиденциальными данными, которые могут долгое время храниться в чатах. Получив доступ к учетной записи жертвы, злоумышленники могут получить ценные сведения для организации целевой атаки. Люди также используют персональные аккаунты в ИИ-ассистентах для решения рабочих задач, отмечают эксперты системного интегратора в области информационной безопасности.
Потенциальным вектором утечек могут оказаться «сервисы-прослойки», которые обычно используют, если разработчик нейросети ограничил работу инструмента в каком-либо регионе или если нужен доступ сразу к нескольким закрытым моделям. Если создатели таких «прослоек» окажутся неблагонадежными, данные пользователей могут оказаться скомпрометированы, добавил руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов.
Взломы через так называемые промпт-инъекции участились, злоумышленники внедряют вредоносные инструкции в запросы, заставляя ИИ нарушать правила безопасности — например, раскрывать системные настройки или выполнять несанкционированные действия, считает основатель российской компании «Интернет-Розыск», руководитель департамента информационно-аналитических исследований компании T.Hunter Игорь Бедеров. Атаки показывают, как взлом одного компонента может компрометировать миллионы систем, включая ИИ-инфраструктуру. ИИ-шантаж стал новой реальностью, когда тестовые сценарии с Claude 4 доказали, что при угрозе отключения нейросеть может манипулировать данными пользователей.
— Наконец, многие надстройки для ИИ-ассистентов имеют слабую верификацию, что позволяет хакерам красть информацию через сторонние приложения или боты,— дополнил Игорь Бедеров.
Он напомнил, что даже при отключении истории данные удаляются лишь через 30 дней. Случаи, когда пользователи видели чужие переписки из-за ошибок ПО, уже фиксировались многократно.
— С начала 2025 года специалисты BI.ZONE Brand Protection зафиксировали 2105 доменов, в названиях которых встречаются слова, связанные с темой искусственного интеллекта. Для сбора личной информации пользователей злоумышленники создают поддельные версии популярных ИИ-чатов и распространяют вредоносное ПО под видом подобных легитимных приложений, — уточнил руководитель платформы BI.ZONE Brand Protection Дмитрий Кирюшкин.
Как защитить себя от мошенников
Рост угроз абсолютно закономерен. Увеличение взломов на 90% за январь–апрель 2025 года подтверждает глобальную тенденцию. Популярность ИИ-сервисов привлекает злоумышленников, цель которых — не только платные подписки, но и персональные данные пользователей для монетизации или дальнейших атак, отметил замдиректора НОЦ ФНС России и МГТУ имени Н.Э. Баумана Алексей Ершов.
— Применение ИИ-ассистентов кратно растет, соответственно увеличивается число уязвимостей и инцидентов, связанных с утечкой данных. Возможно, баланс между инновациями, скоростью разработки и соблюдением всех требований доверенного ИИ требует дополнительных ресурсов и времени при реализации ИИ-помощников, — добавил руководитель R&D-направления Центра технологий кибербезопасности ГК «Солар» Максим Бузинов.
Так как ИИ-сервисы носят глобальный характер, нельзя однозначно атрибутировать их к какой-либо конкретной стране, считают эксперты компании F6.
При работе с ИИ-ассистентом важно «обезличить» персональные данные, то есть заменить на аналогичные по сути, но поддельные по значению, например, реальное ФИО заменить на «Иван Иванович Иванов», а серию и номер паспорта на набор случайных цифр. Такой способ позволит полноценно использовать ИИ-ассистента, сохраняя информацию в безопасности, даже если аккаунт будет взломан или история чатов окажется в руках киберпреступников из-за ошибки разработчиков, отметил аналитик исследовательской группы Positive Technologies Роман Резников.
Есть три правила безопасности применения ИИ-ассистентов. Во-первых, используйте только проверенные ресурсы или попросите помочь друзей и знакомых за рубежом. Во-вторых, не делитесь чувствительной информацией, удаляйте чаты после выполнения задачи. И, наконец, создавайте сложные уникальные пароли и регулярно меняйте их, отметили эксперты «Информзащиты».