Эксперты обсуждают правовые пробелы в регулировании искусственного интеллекта после серии инцидентов с ошибочными решениями алгоритмов. Николай Турубар, предлагает сертифицировать ИИ-системы по аналогии с авиацией или медициной.
Развитие искусственного интеллекта ставит перед обществом новые правовые и этические вопросы, в частности — кто должен нести ответственность в случае ошибочных решений, принимаемых алгоритмами. Николай Турубар, директор по развитию digital-агентства Articul и председатель кластера РАЭК «Искусственный интеллект» отметил сложности в определении виновных сторон при возникновении подобных ситуаций.
«На первый взгляд, ответ на вопрос, кто будет отвечать, если ИИ ошибется, очевиден: машина — не субъект и ответственности не несет. У нее нет совести, намерений, понимания добра и зла. Это алгоритм, который действует в рамках заданных инструкций. Значит, ответственность — на людях. Но на ком именно: разработчиках, компаниях или пользователях?»
Николай Турубар, директор по развитию digital-агентства Articul и председатель кластера РАЭК «Искусственный интеллект»
В качестве примеров эксперт привел случаи, когда ошибки ИИ приводили к серьезным последствиям: система Watson for Oncology выдавала некорректные рекомендации по лечению онкологических заболеваний, а чат-бот в одном из экспериментов косвенно повлиял на решение подростка совершить суицид. Иногда источник проблемы установить проще — например, если сбой произошел из-за некорректного обучения модели, как в случае с системой подбора персонала Amazon или ошибками в кредитных рейтингах Equifax. Однако в других ситуациях из-за «черного ящика» нейросетей понять причину ошибочного решения практически невозможно, что усложняет правовое регулирование.
«Мы создаем «черные ящики», но не готовы отвечать за их работу. Как оспорить отказ в кредите, если сотрудник банка может сказать только «так решил ИИ»? Кто ответит, если робомобиль собьет человека?»
Николай Турубар, директор по развитию digital-агентства Articul и председатель кластера РАЭК «Искусственный интеллект»
Турубар считает, что решить проблему можно за счет развития технологий объяснимого ИИ (Explainable AI), а также требуется создание строгих этических норм и сертификации ИИ-систем по аналогии с авиацией или медициной.
В качестве положительных примеров можно привести европейский регламент AI Act и российский Кодекс этики искусственного интеллекта, подписанный ведущими технологическими компаниями. Такие меры помогут сформировать ответственный подход к внедрению ИИ и минимизировать риски, связанные с его применением.