Эксперт назвал способы найти ответственных за ошибки искусственного интеллекта
Турубар: ИИ-системы нужно сертифицировать по аналогии с авиацией или медициной
0
EN
Следите за нашими новостями в удобном формате
Есть новость? Присылайте!
С развитием искусственного интеллекта вопрос ответственности за его ошибки становится всё более актуальным. Директор по развитию digital-агентства Articul и председатель кластера РАЭК «Искусственный интеллект» Николай Турубар 4 июня рассказал «Известиям» о сложностях определения виновных в случаях, когда алгоритмы принимают ошибочные решения с серьезными последствиями.
Эксперт привел несколько громких примеров, когда ошибки ИИ приводили к трагическим последствиям: от рекомендаций опасных схем лечения онкобольным системой Watson for Oncology до самоубийства подростка после общения с чат-ботом.
«На первый взгляд, ответ на вопрос, кто будет отвечать, если ИИ ошибется, очевиден: машина — не субъект и ответственности не несет. У нее нет совести, намерений, понимания добра и зла. Это алгоритм, который действует в рамках заданных инструкций. Значит, ответственность — на людях. Но на ком именно: разработчиках, компаниях или пользователях?» — задается вопросом Турубар.
По словам специалиста, в некоторых случаях определить виновного относительно просто — например, когда ошибка связана с некорректным обучением модели. Он напомнил о судебном иске против Equifax из-за заниженных кредитных рейтингов и дискриминационной системе найма Amazon. Однако часто сама природа работы нейросетей делает невозможным понимание логики принятия решений, что создает правовой вакуум.
«Мы создаем «черные ящики», но не готовы отвечать за их работу, — констатирует эксперт. — Как оспорить отказ в кредите, если сотрудник банка может сказать только «так решил ИИ»? Кто ответит, если робомобиль собьет человека?»
Турубар считает, что решение проблемы лежит в двух плоскостях: технологической и регуляторной. С одной стороны, необходимо развивать объяснимый ИИ (Explainable AI), технологии которого уже существуют. С другой — требуется создание строгих этических норм и сертификации ИИ-систем по аналогии с авиацией или медициной.
Эксперт положительно оценивает инициативы вроде европейского регламента AI Act или российского Кодекса этики для ИИ, подписанного ведущими организациями. По его мнению, такие меры могут стать основой для формирования ответственного подхода к разработке и внедрению искусственного интеллекта, пока технологии не достигли уровня, когда последствия ошибок станут необратимыми.
Ранее, 6 марта, сообщалось, что большинство опрошенных креативных специалистов активно используют нейросети в своей работе. При этом 43% респондентов прибегают к ним на регулярной основе, следует из результатов исследования Агентства креативных индустрий Москвы и компании MTS AI.