ЕС согласовал новый радикальный законопроект про регулирование ИИ. Он будет действовать в 27 странах и коснется даже техногигантов Google, Microsoft и OpenAI. Все компании в этой сфере должны будут раскрывать, как работают модели, маркировать генерации и прочее. Наказания за нарушение предусмотрены: до 7% от оборота. Правда, многие аспекты закона заработают лишь через 12-24 месяцев.
Что известно
Во-первых, будет система управления рисками по уровням: для систем ИИ, классифицированных как представляющие высокий риск, были согласованы определенные обязательства и требования к прозрачности. В настоящее время требуется обязательное оценивание потенциально негативных влияний на здравоохранение, безопасность, основные права человека и общество в целом.
Во-вторых, модели Foundation будут регулироваться, если их обучение потребовало использования вычислительной мощности в объеме не менее 10^25 флопс. Это включает модели уровня GPT-3 или выше.
В-третьих, следующие системы будут под запретом. У компаний будет всего 6 месяцев, чтобы обеспечить соблюдение закона:
- системы биометрической категоризации, использующие чувствительные характеристики (например, политические, религиозные, философские убеждения, сексуальная ориентация, раса);
- ненаправленное скрейпинг изображений лиц из интернета или с камер видеонаблюдения для создания баз данных распознавания лиц;
- распознавание эмоций на рабочем месте и в образовательных учреждениях;
- социальное скоринг на основе социального поведения или личных характеристик;
- ИИ, который манипулируют человеческим поведением, чтобы обойти их свободную волю;
- ИИ, используемый для эксплуатации уязвимостей людей (из-за их возраста, инвалидности, социального или экономического положения).
Что касается санкций, то несоблюдение может привести к штрафам, которые варьируются от 35 млн евро или 7% от оборота до 7,5 млн евро или 1,5% от оборота, в зависимости от нарушения и размера компании.
Почему это важно
Поставщики систем ИИ высокого риска должны вести подробную документацию, чтобы показать свое соответствие регулирующим требованиям. Это включает в себя запись методов обучения и наборов данных, которые были использованы.
Усиленные требования к прозрачности могут вызвать проблемы с защитой интеллектуальной собственности, требуя баланса между раскрытием информации и сохранением коммерческой тайны.
Все это потенциально увеличит операционные затраты и добавляет значительную административную нагрузку, что потенциально может повлиять на время выхода на рынок новых ИИ-продуктов в Европе.
Между тем, во Франции и Италии удалось добиться некоторых поблажек для компаний, которые публикуют опенсорс-модели. Например, это касается компаний Mistral, Aleph Alpha.