Семь «законов робототехники»

В Европе начинается этап разработки и экспериментальной апробации систем искусственного интеллекта (ИИ) в соответствии с этическими принципами ЕС, принятыми ранее в отношении ИИ, сказано в сообщении Еврокомиссии.

Еврокомиссия предлагает промышленным организациям, научно-исследовательским институтам и государственным органам проверить на практике список этических принципов, составленный группой экспертов, и впервые анонсированный в апреле прошлого года.

После «крупномасштабного экспериментального этапа» и анализа результатов заинтересованными сторонами в начале 2020 года начнётся «формирование международного консенсуса в отношении ИИ, ориентированного на человека», говорится в сообщении.

В 2016 году в ЕС частные инвестиции в искусственный интеллект составили от 2,4 до 3,2 миллиардов евро. В Азии в ИИ было инвестировано от 6,5 до 9,7 миллиарда евро, а в Северной Америке – от 12,1 до 18,6 миллиарда. Теперь в ЕС до 2020 года на ИИ будет выделено 1,5 миллиарда евро по программе «Горизонт», ещё 20 миллиардов, как ожидается, составят государственные и частные инвестиции.

Еврокомиссия полагает, что для создания прочной основы развития ИИ после 2020 года потребуются дополнительные инвестиции: каждый год по 20 миллиардов евро совокупных государственных и частных инвестиций, а также по миллиарду в рамках программ «Горизонт» и «Цифровая Европа».

В настоящее время Еврокомиссия, в отличие от «Трех законов робототехники» А. Азимова, декларирует семь основных принципов («ключевых требований») к ИИ-системам:

  1. Соблюдение прав человека: ИИ-системы должны работать на справедливое общество, поддерживая [европейские] установления в области прав человека и его основные права, не ограничивая самостоятельность человека;
  2. Надёжность и безопасность: ошибки и несоответствия ожиданиям разработчика должны контролироваться человеком на всех этапах жизненного цикла ИИ-систем;
  3. Конфиденциальность данных: граждане должны иметь полный контроль над личными данными, и эти данные не должны использоваться во вред людям;
  4. Прозрачность: ИИ-системы должны контролироваться человеком (в настоящее время этот принцип соблюдается далеко не всегда, после обучения большинство ИИ-систем работают как «чёрные ящики», это порождает принципиально новые угрозы информационной безопасности человека – ред.).
  5. Многообразие, недискриминационный характер и добросовестность: ИИ-системы должны быть доступны для всех, они должны учитывать весь спектр человеческих способностей, навыков и потребностей;
  6. Социальное благополучие и экологическая безопасность: ИИ-системы должны использоваться для развития «позитивных социальных изменений», повышения устойчивости и «экологической ответственности» социума;
  7. Подконтрольность: следует создать механизмы обеспечения ответственности и подконтрольности ИИ-систем за результаты их деятельности (подконтрольность социуму может обеспечиваться, в частности, за счёт признания ИИ-систем субъектами права, в этом случае юридическую ответственность они несут «самостоятельно»; условный «трибунал для ИИ» радикально упрощает регулирование, поскольку исключает юридическое описание тонкостей создания и применения ИИ-систем).

Что будем искать? Например,ChatGPT

Мы в социальных сетях