Эксперты Positive Technologies проанализировали три ключевых направления развития ИИ, которые открывают перспективы для компаний, но одновременно увеличивают киберугрозы. Речь идет об агентском ИИ, edge AI и квантовом ИИ, способных как оптимизировать процессы, так и привести к утечкам данных, финансовым потерям и другим серьезным последствиям.

Эксперты Positive Technologies изучили три главных направления развития искусственного интеллекта: агентский ИИ, edge AI и квантовый ИИ. Каждое из них открывает новые возможности для бизнеса, но также создает серьезные киберугрозы, включая утечки данных, фальсификацию биометрии, финансовые потери и даже остановку производства.
Агентский ИИ, основанный на больших языковых моделях, способен автономно принимать решения и управлять процессами — от логистики до обслуживания клиентов. Однако злоумышленники могут манипулировать данными в памяти ИИ, подменять входную информацию или перегружать систему запросами, что приводит к сбоям и нарушениям безопасности. Внедрение вредоносного кода в фреймворки для разработки ИИ-агентов ставит под угрозу целые системы.
Edge AI, или ИИ на периферийных устройствах, позволяет обрабатывать данные в реальном времени даже при слабом интернет-соединении. Это полезно в медицине, умных городах и промышленности. Однако уязвимости IoT-устройств, устаревшее ПО и сетевые атаки (например, DDoS или «человек посередине») могут привести к утечке конфиденциальных данных.
Квантовый ИИ пока находится на ранней стадии, но его уже тестируют в фармацевтике, финансах и логистике. Он ускоряет сложные вычисления и снижает энергопотребление. Однако атаки на облачные платформы, через которые работает квантовый ИИ, могут привести к краже интеллектуальной собственности. Подмена данных на этапе обучения способна вызвать критические ошибки — например, признание токсичных веществ безопасными или пропуск мошеннических транзакций. Кроме того, квантовый ИИ усиливает традиционные атаки, такие как подбор паролей.
«Компании, способные интегрировать кибербезопасность в стратегию внедрения ИИ, обеспечат себе устойчивое технологическое преимущество и укрепят доверие клиентов и партнеров».
Яна Авезова, ведущий аналитик направления аналитических исследований Positive Technologies
Специалисты предупреждают, что для безопасного использования ИИ недостаточно только технических мер. Необходимо обучать сотрудников, стандартизировать процессы и строго контролировать доступные ИИ данные, чтобы предотвратить утечки конфиденциальной информации.
