Технологические гиганты подпишут соглашение по обеспечению безопасности ИИ

Технологические гиганты со всего мира утвердили соглашение по обеспечению безопасности ИИ. На основе него компании из таких стран, как США, Китай, Канада, Великобритания, Франция, Южная Корея и ОАЭ, возьмут на себя добровольные обязательства по обеспечению безопасной разработки своих передовых моделей искусственного интеллекта.

Технологические гиганты подпишут соглашение по обеспечению безопасности ИИ

На Сеульском саммите крупные технологические гиганты, такие как Microsoft, Amazon и OpenAI, утвердили международное соглашение по безопасности искусственного интеллекта. Компании из США, Китая, Канады, Великобритании, Франции, Южной Кореи и Объединенных Арабских Эмиратов возьмут на себя добровольные обязательства по безопасной разработке передовых ИИ-моделей.

В рамках соглашения производители моделей ИИ обязуются опубликовать «рамки безопасности». В них будет подробно описано, как компании будут оценивать риски, связанные с их технологиями, например, проводить анализ риска неправильного использования злоумышленниками.

Эти «рамки безопасности» будут определять недопустимые виды рисков, такие как автоматизированные кибератаки и угрозы, связанные с биологическим оружием. В случае возникновения экстремальных ситуаций компании внедрят «аварийный выключатель», который приведет к остановке разработки модели ИИ.

Соглашение расширяет предыдущие обязательства, взятые технологическими гигантами на саммите по безопасности ИИ в Великобритании, которые касались разработки программного обеспечения для генеративного ИИ.

Компании также согласились участвовать в определении пороговых значений для технологий ИИ совместно с лидерами рынка и правительствами стран. Показатели будут обнародованы перед следующим AI Action Summit, который пройдет во Франции в 2025 году.

Что будем искать? Например,ChatGPT

Мы в социальных сетях