Эксперты назвали критические для бизнеса последствия использования ИИ

 Эксперты Positive Technologies проанализировали три ключевых направления развития ИИ, которые открывают перспективы для компаний, но одновременно увеличивают киберугрозы. Речь идет об агентском ИИ, edge AI и квантовом ИИ, способных как оптимизировать процессы, так и привести к утечкам данных, финансовым потерям и другим серьезным последствиям.

Эксперты Positive Technologies изучили три главных направления развития искусственного интеллекта: агентский ИИ, edge AI и квантовый ИИ. Каждое из них открывает новые возможности для бизнеса, но также создает серьезные киберугрозы, включая утечки данных, фальсификацию биометрии, финансовые потери и даже остановку производства.

Агентский ИИ, основанный на больших языковых моделях, способен автономно принимать решения и управлять процессами — от логистики до обслуживания клиентов. Однако злоумышленники могут манипулировать данными в памяти ИИ, подменять входную информацию или перегружать систему запросами, что приводит к сбоям и нарушениям безопасности. Внедрение вредоносного кода в фреймворки для разработки ИИ-агентов ставит под угрозу целые системы.

Edge AI, или ИИ на периферийных устройствах, позволяет обрабатывать данные в реальном времени даже при слабом интернет-соединении. Это полезно в медицине, умных городах и промышленности. Однако уязвимости IoT-устройств, устаревшее ПО и сетевые атаки (например, DDoS или «человек посередине») могут привести к утечке конфиденциальных данных.

Квантовый ИИ пока находится на ранней стадии, но его уже тестируют в фармацевтике, финансах и логистике. Он ускоряет сложные вычисления и снижает энергопотребление. Однако атаки на облачные платформы, через которые работает квантовый ИИ, могут привести к краже интеллектуальной собственности. Подмена данных на этапе обучения способна вызвать критические ошибки — например, признание токсичных веществ безопасными или пропуск мошеннических транзакций. Кроме того, квантовый ИИ усиливает традиционные атаки, такие как подбор паролей.

«Компании, способные интегрировать кибербезопасность в стратегию внедрения ИИ, обеспечат себе устойчивое технологическое преимущество и укрепят доверие клиентов и партнеров».

Яна Авезова, ведущий аналитик направления аналитических исследований Positive Technologies

Специалисты предупреждают, что для безопасного использования ИИ недостаточно только технических мер. Необходимо обучать сотрудников, стандартизировать процессы и строго контролировать доступные ИИ данные, чтобы предотвратить утечки конфиденциальной информации.

Что будем искать? Например,ChatGPT

Мы в социальных сетях