Большинство ИИ-ботов работают без элементарных мер безопасности

Международная группа ученых обнаружила тревожный дефицит прозрачности в сфере искусственного интеллекта. Разработчики охотно рассказывают о возможностях своих систем, но умалчивают о мерах безопасности. 

Большинство ИИ-ботов работают без элементарных мер безопасности

В рамках проекта AI Agent Index исследователи из Кембриджа, MIT, Стэнфорда и Еврейского университета проанализировали тридцать современных ИИ-агентов из США и Китая. Выяснилось, что лишь четыре компании публикуют полные отчеты по безопасности. Двадцать пять разработчиков скрывают результаты внутренних тестов, а двадцать три — данные сторонних проверок.

Особую тревогу вызывает высокий уровень автономности систем. Тринадцать агентов демонстрируют «пограничные» уровни самостоятельности, но только по четырем из них проводилась оценка безопасности самих ботов.

Наименее прозрачны браузерные агенты, которые действуют в интернете от имени пользователя: совершают покупки, заполняют формы, бронируют билеты. Они не раскрывают около двух третей параметров безопасности. Например, агент Perplexity Comet имитирует поведение человека при просмотре сайтов, что уже вызвало судебные претензии со стороны Amazon.

Почти все западные агенты построены на базе ограниченного числа моделей (GPT, Claude, Gemini), что создает уязвимые точки: сбой в одной системе может повлечь проблемы в сотнях зависимых.

По словам ведущего автора исследования Леона Стауфера, разрыв между скоростью внедрения ИИ-агентов и развитием систем контроля продолжает увеличиваться. Это создает серьезные риски, учитывая способность таких программ получать доступ к личным данным и учетным записям пользователей.

Что будем искать? Например,ChatGPT

Мы в социальных сетях