За последние два года искусственный интеллект прошел путь от экзотической технологии до незаменимого рабочего инструмента. Сотрудники по всей России ежедневно используют ChatGPT, Claude и десятки других нейросетей. Проблема в том, что делают они это часто без ведома руководства или ИТ-отдела и службы безопасности. В статье Валентин Микляев, сооснователь проекта MOLL Y/X, разберет, почему традиционные запреты не работают, к каким последствиям это приводит и какие решения действительно помогают бизнесу сохранить баланс между эффективностью и безопасностью.
Shadow AI: что это такое и чем отличается от привычного Shadow IT?
Теневой искусственный интеллект (Shadow AI) — это использование сотрудниками публичных ИИ-сервисов для обработки корпоративных данных без официального одобрения ИТ-департамента и службы информационной безопасности. В отличие от классического Shadow IT, где речь шла об установке нелицензионного ПО или использовании личных облачных хранилищ, теневой ИИ имеет несколько принципиальных отличий, которые делают его гораздо более сложной проблемой для корпоративной безопасности.
Во-первых, порог входа. Если раньше для установки условной CRM требовались определенные технические навыки, то сегодня достаточно иметь браузер. Во-вторых, скорость распространения. ИИ-инструменты не нужно устанавливать на корпоративные устройства — достаточно открытой вкладки в браузере. В-третьих, и это главное, масштаб потенциального ущерба.
Одна утечка конфиденциального документа в публичную нейросеть может привести к тому, что информация попадет в обучающую выборку и станет доступна другим пользователям. В условиях российского законодательства о защите персональных данных это создает серьезные риски для бизнеса.
Компании замечают проблему постфактум по простой причине: традиционные средства мониторинга не рассчитаны на отслеживание текстовых запросов к веб-сервисам. DLP-системы не всегда эффективно контролируют ввод данных в веб-формы, особенно вне периметра сети.
Инциденты вскрываются либо когда утечка уже произошла и информация появилась в открытом доступе, либо когда компания проводит специальный аудит использования облачных сервисов. К сожалению, к этому моменту ущерб уже нанесен, и ретроспективно оценить масштаб потерь крайне сложно.
Кто чаще становится инициатором утечек: стажеры или топ-менеджмент?
Есть один из самых устойчивых мифов в корпоративной безопасности. Утечки — это не всегда результат действий неопытных или невнимательных сотрудников. Наиболее частыми «нарушителями» становятся как раз высококвалифицированные специалисты, которые прекрасно понимают правила информационной безопасности, но сознательно их игнорируют ради решения рабочих задач.
Программисты загружают фрагменты кода для отладки, юристы — пункты договоров для анализа, маркетологи — целые брифы и стратегии. Топ-менеджмент использует ИИ для подготовки презентаций и аналитических записок, часто содержащих чувствительную информацию о стратегии компании.
Что ими движет? Это не лень и не незнание правил, а жесткое давление бизнес-задач и сжатые сроки. В условиях российского рынка, где кадровые ресурсы часто ограничены, а нагрузка на специалистов высока, выбор очевиден. Сотрудник не хочет нарушать правила — он хочет выполнить свою работу. Проблема в том, что безопасных инструментов для этого ему не предоставили.
Конфликт безопасности и эффективности: на чьей стороне руководитель?
Сотрудники службы информационной безопасности должны защищать данные компании, но при этом их коллеги из бизнес-подразделений получают от руководства KPI, достижение которых без ИИ становится практически невозможным. В digital-агентствах требуют ускорить написание контента в три раза. От юристов требуется скорость проверки договоров на риски. Финансовые аналитики должны готовить отчеты быстрее, чем это возможно при ручной обработке данных.
Руководитель правило, он занимает прагматичную позицию: результаты нужны здесь и сейчас, а риски — это абстрактное «может случиться когда-нибудь». В этом нет халатности — это нормальная бизнес-логика. Проблема в том, что когда «когда-нибудь» наступает, цена вопроса оказывается непропорционально высокой.
Утечка базы клиентов, нарушение соглашения о неразглашении с партнером, штрафы регулятора за раскрытие персональных данных — все это может стоить бизнесу репутации и денег, многократно превышающих экономию на внедрении безопасных решений.
Решение этого конфликта лежит не в плоскости «запретить или разрешить», а в предоставлении сотрудникам безопасных инструментов, которые дают ту же эффективность, что и публичные нейросети. Когда у работника есть возможность использовать ИИ без риска нарушения регуляторных требований, конфликт снимается сам собой. Безопасность перестает быть препятствием для эффективности и становится ее естественной частью.
Помогают ли запреты и блокировки?
Блокировать все известные публичные ИИ технически возможно, но сотрудник всегда найдет выход. Запустит на мобильном телефоне, на личном ПК, дома или на своем мобильном интернете вне зоны контроля корпоративной сети. В условиях гибридного формата работы, который стал нормой для большинства российских компаний, контролировать все точки доступа практически невозможно.
Приказ директора без технического обеспечения его исполнения создает еще одну проблему — культуру формального подчинения. Сотрудники привыкают к тому, что правила существуют на бумаге, но не в реальности. Это размывает дисциплину информационной безопасности в целом, делая компанию уязвимой не только перед утечками через ИИ, но и перед другими угрозами. Гораздо эффективнее признать реальность: люди будут использовать ИИ. Вопрос в том, как сделать это использование безопасным для бизнеса.
«Отравление» баз знаний: скрытая угроза
Прямые утечки — это «быстрый ущерб», который можно обнаружить и локализовать. Но есть и отложенные последствия, которые проявляются месяцами и годами. Когда сотрудники массово отправляют корпоративную информацию в публичные нейросети, происходит постепенное «обескровливание» информационного капитала компании. Фрагменты стратегий, детали переговоров, технические решения — все это попадает в обучающие выборки моделей и становится частью их «знаний».
В результате компания теряет свое конкурентное преимущество, основанное на уникальных данных. Более того, если эти же модели используются конкурентами (а в случае публичных сервисов это неизбежно), то уникальная информация может быть использована против бизнеса.
Это создает долгосрочные риски, которые сложно оценить количественно, но которые могут оказаться фатальными для стратегического позиционирования компании на рынке.
Какие классы решений существуют для безопасного использования публичных LLM?
Рынок смещается от запретительной модели к модели управляемого риска. Можно выделить несколько классов решений, каждый из которых имеет свои преимущества и ограничения:
- Первый класс — корпоративные версии популярных сервисов. Многие вендоры предлагают бизнес-тарифы с расширенными гарантиями конфиденциальности. Например, ChatGPT Enterprise. Но это решение не снимает проблему полностью — данные все равно покидают периметр организации.
- Второй класс — DLP-системы с модулем контроля ИИ. Они пытаются блокировать передачу чувствительной информации в облачные сервисы, анализируя трафик. Однако DLP работает по принципу «запретить», что не соответствует реальным потребностям бизнеса. Кроме того, такие системы часто дают ложные срабатывания, создавая неудобства для легитимных пользователей, и могут быть обойдены через шифрование или использование нестандартных каналов.
- Третий и наиболее перспективный класс — инструменты анонимизации и маскирования данных на устройстве пользователя. Вместо того чтобы запрещать использование ИИ, специальное программное обеспечение (например, браузерные расширения) автоматически обезличивает конфиденциальную информацию перед отправкой в нейросеть. Персональные данные заменяются на псевдонимы, коммерческая тайна маскируется, финансовые показатели обезличиваются.
Сотрудник получает возможность работать с ИИ в привычном режиме, а бизнес получает гарантию, что чувствительные данные не покинут защищенный контур. В идеальной реализации пользователь даже не замечает, что его запрос был обработан: после получения ответа от нейросети система восстанавливает оригинальные данные. Это позволяет совместить удобство публичных сервисов с требованиями корпоративной безопасности, не заставляя сотрудников менять привычные рабочие процессы.
Своя изолированная LLM: реалистично ли для среднего бизнеса?
Развертывание собственной локальной LLM — это лобовое решение проблемы, которое на практике оказывается доступным лишь крупным корпорациям с существенными ИТ-бюджетами. Среди реальных затрат:
- Аппаратное обеспечение. Для запуска модели хорошего уровня требуется кластер GPU-серверов, инвестиции в который начинаются от десятков миллионов рублей. Это не разовая трата — оборудование требует регулярного обновления и обслуживания.
- Кадры. Для тонкой настройки, дообучения и поддержки корпоративной модели требуются ML-инженеры с высокой квалификацией. На российском рынке это одна из самых дефицитных и дорогих специальностей. Зарплатные ожидания таких профессионалов часто превышают бюджеты, заложенные на проекты цифровой трансформации.
- Качество модели. Локальные решения, как правило, уступают публичным по широте знаний и качеству рассуждений без значительных инвестиций. Публичные модели обучаются на миллиардах примеров и постоянно обновляются. Корпоративная модель замыкается в своем домене и быстро устаревает без регулярного дообучения. Это создает парадокс — компания вкладывает ресурсы в решение, которое уступает дешевому публичному сервису в функциональности. Сотрудники, почувствовав разницу, неизбежно будут искать способы использовать «более умные» публичные аналоги.
Компромиссное решение существует: использовать публичные модели, но с гарантированной защитой данных. Инструменты анонимизации позволяют сохранить преимущества облачных решений — актуальность, качество, отсутствие затрат на инфраструктуру, — при этом обеспечивая контроль над информацией. Для среднего российского бизнеса это оптимальный путь, который не требует многомиллионных инвестиций и штата ML-специалистов, но при этом закрывает основные риски утечек.
Будущее теневого ИИ: ГОСТы, суды и новые вызовы
Ближайшие два–три года станут переломными для регулирования ИИ в России. Реальные изменения принесут новые стандарты по безопасности ИИ для объектов критической информационной инфраструктуры и отраслевые требования для финансового сектора, телекоммуникаций и госсектора. Можно ожидать появления первых судебных прецедентов по утечкам через нейросети — скорее всего, в контексте защиты персональных данных, где ответственность компаний уже четко определена законодательством.
Мы увидим становление безопасного ИИ как стандартной опции, аналогичной тому, как когда-то антивирусы стали обязательным элементом корпоративной ИТ-инфраструктуры. Компании, которые сегодня считают вложения в защиту ИИ-инструментов избыточными, через несколько лет будут вынуждены догонять. Регуляторные требования сделают наличие политик и технических средств контроля использования ИИ обязательным условием прохождения проверок и получения лицензий для ряда отраслей.
При этом проблема не исчезнет полностью — она трансформируется. Появление более «умных» ИИ-агентов, способных самостоятельно выполнять сложные цепочки действий, создаст новые вызовы. Если сегодня сотрудник сознательно отправляет данные в нейросеть, то завтра автономный агент может сделать это в рамках выполнения задачи, не запрашивая подтверждения. Это требует пересмотра не только технических средств защиты, но и самой архитектуры взаимодействия человека и ИИ в корпоративной среде.
Резюме
Теневой ИИ — это не проблема «непослушных сотрудников», а системный вызов, требующий системного ответа. Запреты не работают, потому что работают люди — и они находят способы выполнять свои задачи эффективнее. Локальные решения слишком дороги и сложны для большинства организаций.
Выход — в признании реальности и предоставлении безопасных инструментов, которые позволяют использовать все преимущества ИИ без угрозы утечки конфиденциальной информации. Именно эту задачу решают технологии анонимизации данных: превратить неизбежное использование ИИ из риска в конкурентное преимущество бизнеса. Важно понимать, что ИИ — это не угроза, которую нужно блокировать, а инструмент, который нужно правильно интегрировать.
