ЕС согласовал первый в мире закон о регулировании искусственного интеллекта

ЕС согласовал новый радикальный законопроект про регулирование ИИ. Он будет действовать в 27 странах и коснется даже техногигантов Google, Microsoft и OpenAI. Все компании в этой сфере должны будут раскрывать, как работают модели, маркировать генерации и прочее. Наказания за нарушение предусмотрены: до 7% от оборота. Правда, многие аспекты закона заработают лишь через 12-24 месяцев.

Что известно

Во-первых, будет система управления рисками по уровням: для систем ИИ, классифицированных как представляющие высокий риск, были согласованы определенные обязательства и требования к прозрачности. В настоящее время требуется обязательное оценивание потенциально негативных влияний на здравоохранение, безопасность, основные права человека и общество в целом.

Во-вторых, модели Foundation будут регулироваться, если их обучение потребовало использования вычислительной мощности в объеме не менее 10^25 флопс. Это включает модели уровня GPT-3 или выше.

В-третьих, следующие системы будут под запретом. У компаний будет всего 6 месяцев, чтобы обеспечить соблюдение закона:

  • системы биометрической категоризации, использующие чувствительные характеристики (например, политические, религиозные, философские убеждения, сексуальная ориентация, раса);
  • ненаправленное скрейпинг изображений лиц из интернета или с камер видеонаблюдения для создания баз данных распознавания лиц;
  • распознавание эмоций на рабочем месте и в образовательных учреждениях;
  • социальное скоринг на основе социального поведения или личных характеристик;
  • ИИ, который манипулируют человеческим поведением, чтобы обойти их свободную волю;
  • ИИ, используемый для эксплуатации уязвимостей людей (из-за их возраста, инвалидности, социального или экономического положения).

Что касается санкций, то несоблюдение может привести к штрафам, которые варьируются от 35 млн евро или 7% от оборота до 7,5 млн евро или 1,5% от оборота, в зависимости от нарушения и размера компании.

Почему это важно

Поставщики систем ИИ высокого риска должны вести подробную документацию, чтобы показать свое соответствие регулирующим требованиям. Это включает в себя запись методов обучения и наборов данных, которые были использованы.

Усиленные требования к прозрачности могут вызвать проблемы с защитой интеллектуальной собственности, требуя баланса между раскрытием информации и сохранением коммерческой тайны.

Все это потенциально увеличит операционные затраты и добавляет значительную административную нагрузку, что потенциально может повлиять на время выхода на рынок новых ИИ-продуктов в Европе.

Между тем, во Франции и Италии удалось добиться некоторых поблажек для компаний, которые публикуют опенсорс-модели. Например, это касается компаний Mistral, Aleph Alpha.

 

Что будем искать? Например,ChatGPT

Мы в социальных сетях