В ЕС определили, какие виды технологий искусственного интеллекта необходимо запретить

Регуляторы Евросоюза определили, какие виды технологий искусственного интеллекта следует запретить, поскольку они представляют угрозу для общества. Это решение было принято в рамках нового закона об ИИ, который был разработан в Евросоюзе.

В ЕС начали действовать правила, которые запрещают применение технологий, считающихся потенциально опасными. В 27 странах Евросоюза до августа должны быть созданы регулирующие органы, которые будут следить за соблюдением этих правил.

Принятые в прошлом году правила ЕС направлены на предотвращение злоупотреблений в отношении новых технологий, не препятствуя инновациям в Европе, которые столкнулись с трудностями на фоне быстрого развития США и Китая в области ИИ. Закон использует подход, основанный на оценке риска: если система представляет высокий риск, компании придется выполнить строгие обязательства перед получением разрешения в ЕС.

Комиссия определила восемь случаев, которые могут служить основанием для введения ограничений.

  • Распознавание лиц в реальном времени с помощью камер, установленных в общественных пространствах. Цель – предотвратить задержание полицией без перекрестной проверки с реальной информацией. Исключение – предотвращение террористических атак.
  • Система оценки, которая учитывает информацию о человеке, не представляющую опасности: использование ИИ для оценки вероятности невыплаты кредита или мошенничества в сфере социального обеспечения на основе персональных данных, таких как происхождение, цвет кожи или поведение в социальных сетях.
  • Анализ криминального риска исключительно с использованием биометрических характеристик. Полиция не может использовать ИИ для предсказания риска преступного поведения человека, основываясь только на его внешности или личных характеристиках, без учета объективных фактов.
  • Сбор онлайн-изображений для формирования баз данных, предназначенных для идентификации лиц. Закон запрещает извлечение изображений лиц из интернета и записей видеонаблюдения. Это может привести к созданию больших баз данных и государственной слежке.
  • Определение эмоционального состояния сотрудников и учащихся в рабочих и образовательных пространствах.
  • Управление поведением с помощью искусственного интеллекта. Нельзя интегрировать в дизайн интерфейса системы ИИ, воздействующие на подсознание пользователей, чтобы заставить их совершить покупкку.
  • Использование уязвимостей, обусловленных возрастом или инвалидностью. Правила запрещают игры и другие системы, созданные для детей, пожилых людей или иных уязвимых групп, поощряющие потенциально опасное поведение.
  • Определение политических убеждений или сексуальной идентичности с помощью биометрических данных. Системы, которые делают выводы о политических взглядах или сексуальной ориентации людей по их лицам, не будут допущены в ЕС.

В случае нарушения установленных норм компании могут быть оштрафованы на сумму, составляющую до 7% от их годового дохода в мировом масштабе. Максимальная сумма штрафа может достигать 35 миллионов евро или 37 миллионов долларов США, в зависимости от того, какая сумма больше.

Что будем искать? Например,ChatGPT

Мы в социальных сетях