Переход не туда: чем опасны рекомендательные алгоритмы в Сети
Результаты их выдачи могут угрожать здоровью пользователей
Рекомендательные алгоритмы, которые предлагают пользователям тот или иной контент, могут нести в себе скрытые риски, а порой даже угрожать жизням и здоровью людей — об этом предупредили эксперты. В США видео, выданное алгоритмами TikTok, уже обернулось трагической смертью 10-летней девочки. Подробности — в материале «Известий».
Судебный прецедент
Федеральный апелляционный суд США принял решение, согласно которому крупные технологические компании могут нести ответственность за контент, рекомендуемый их алгоритмами. Вердикт был вынесен по делу о трагической смерти 10-летней девочки, которая погибла, пытаясь повторить опасный челлендж, увиденный в TikTok.
Ранее подобные иски отклонялись на основании раздела 230-го Закона о добропорядочности в коммуникациях, который защищал интернет-платформы от ответственности за контент, публикуемый пользователями. Однако суд постановил, что, когда платформа активно рекомендует контент через свои алгоритмы, она больше не может считаться нейтральным посредником и должна нести ответственность за свои действия.
Это решение может иметь значительные последствия для индустрии социальных медиа и открыть путь для множества исков против технологических гигантов. Ряд экспертов уже назвал его переломным моментом и допустил, что оно приведет к серьезным изменениям в работе социальных сетей и других онлайн-платформ.
— Рекомендательные системы работают на основании предпочтений и истории взаимодействия пользователя с сервисом и его составляющими, — говорит в беседе с «Известиями» руководитель группы испытательной лаборатории Лиги цифровой экономики Дмитрий Саков. — Чтобы предоставить пользователям интересный контент, сервисы собирают информацию об их действиях в Сети и запрашивают разрешение на использование персональных данных.
Тайны алгоритмов
По словам Дмитрия Сакова, основная проблема заключается в том, что зачастую до конца неизвестно, какую именно информацию о пользователе собирают и каким образом ее используют рекомендательные алгоритмы. При этом они несут в себе целый ряд рисков с точки зрения кибербезопасности.
— Первый риск — это угроза взлома хранилища сведений о пользователе, а также формирование у людей определенного мнения при предоставлении им материалов, — говорит собеседник «Известий». — Если в первом случае всё достаточно просто — при сборе и хранении данных всегда есть риск получения несанкционированного доступа и кражи, то эффект от реализации второго риска сложно оценить.
Как отмечает Дмитрий Саков, количество небезопасного контента в цифровом пространстве напрямую влияет на частоту взаимодействия пользователя с ним. Вследствие этого растет и риск распространения небезопасных и недостоверных материалов, фейков и дезинформации через рекомендательные алгоритмы. Злоумышленники на постоянной основе модернизируют способы взлома и уже сейчас могут задействовать рекомендации — например, предлагать ссылки на фишинговые сайты с целью сбора личных данных для кражи средств.
Манипуляция результатами работы или процессом обучения рекомендательных механизмов может повлечь за собой выдачу некорректных предложений и принятие покупателями неверных решений, дополняет бизнес-консультант по информационной безопасности компании Positive Technologies Алексей Лукацкий.
— Например, некорректно рекомендованный товар может привести к потере денег, а неверная подсказка при выборе лекарств — к проблемам со здоровьем, — объясняет эксперт. — Но пока это скорее мифические риски, так как в большинстве случаев такие системы не принимают решений за человека, а только советуют их.
Как отмечает Алексей Лукацкий, аналогичная ситуация возникает и с рекомендациями на основе контента, когда пользователю показывается что-то запрещенное. Однако специалист пока не видит большого смысла в целенаправленных атаках для достижения этой задачи.
Риски рекомендаций
В свою очередь, начальник отдела по информационной безопасности компании «Код безопасности» Алексей Коробченко указывает на то, что рекомендательные алгоритмы, как и сам искусственный интеллект (ИИ), применяется в широком спектре технологий и сервисов. Это не только рекомендации по просмотру интересных и популярных видео в социальных сетях, но также, например, системы автоматической парковки в автомобиле или решения в сфере защиты информации.
— Если говорить о кибербезопасности, то ошибка в рекомендательных алгоритмах может привести в лучшем случае к предоставлению администратору IT-инфраструктуры неправильных данных, а в худшем — к выходу из строя целевой защищаемой системы, — рассказывает эксперт. — В итоге это может привести к технологической аварии, если говорить о каких-либо производственных предприятиях.
В контексте возможных ошибок рекомендательных алгоритмов неизбежно встает вопрос, кто именно должен нести за них ответственность. По словам Алексея Коробченко, тут всё зависит от того, где именно используются рекомендательные алгоритмы. К примеру, в соцсети за алгоритмы, которые рекомендуют то или иное видео, ответственность, вероятно, должна нести сама социальная сеть. В средствах защиты — вендор этих продуктов. При этом какая именно возможна ответственность, зависит от степени вреда для пользователей и общества.
Специалист отмечает, что такой вопрос требует всестороннего обсуждения. Например, если в видео стоит автоматическая маркировка «Не повторять, опасно для жизни», а пользователь повторил, то встает вопрос, должна ли в данной ситуации понести наказание соцсеть. Важно понимать, что нет идеальной системы и всегда найдутся пользователи, которые смогут обойти как алгоритмы, так и различные запреты, подчеркивает Алексей Коробченко.
Механизмы защиты
При столкновении с неприемлемым контентом важно отправлять отчеты, если сервис это предусматривает, говорит Дмитрий Саков. Отчет помогает бороться с недобросовестными авторами и удалять из своей ленты недопустимый контент, минимизируя появление похожих материалов в будущем. Получив отчет о присутствии неприемлемого контента, компания-разработчик должна принять меры по его устранению.
— В некоторых сервисах есть различные возможности по настройке персонализации информации — от отключения подобной функции до нажатия кнопки «неинтересно» с целью корректировки алгоритмов и исключения появления неблагоприятного контента в будущем, — отмечает собеседник «Известий».
Говоря про защиту детей от нежелательных рекомендаций в Сети, Алексей Коробченко напоминает, что на некоторых популярных платформах есть возможность создать детский профиль, где не должен появляться неподходящий контент. Кроме того, можно стараться модерировать то, что смотрит ребенок, но, если алгоритмы платформы игнорируют всякие попытки оградить детей от непотребного контента, единственный работающий способ — сменить платформу.
Кроме того, чем больше свободы в Сети у ребенка, тем выше вероятность, что он будет смотреть неподходящий по возрасту контент без ведома родителей. Поэтому важно приучать детей к кибергигиене, учить распознавать фейковую информацию, рассказывать о том, что видео в интернете, особенно со всякими трюками и челленджами, нужно воспринимать настороженно, поскольку они могут привести к травмам.
— В России деятельность владельцев сайтов, использующих рекомендательные системы, регулируется на законодательном уровне после внесения поправок в 2023 году в 149-ФЗ «Об информации, информационных технологиях и о защите информации», — отмечает Дмитрий Саков. — Таким образом, граждане могут ознакомиться с положениями закона и при обнаружении фактов нарушений в тех или иных сервисах обратиться в Роскомнадзор.
Впрочем, по мнению Алексея Лукацкого, по-настоящему задуматься о безопасности рекомендательных систем придется в тот момент, когда они перейдут к автоматическому принятию решений. То же самое касается и ответственности их разработчиков за последствия, которые пока являются достаточно размытыми, заключает эксперт.