Ключевые ошибки при внедрении ИИ: как не загубить бизнес

Искусственный интеллект открывает перед бизнесом невероятные возможности — от автоматизации процессов до персонализации клиентского опыта. Однако с этим мощным инструментом приходят и серьезные риски. Неправильное внедрение ИИ может не только снизить эффективность работы компании, но и привести к потере репутации, утечке данных или значительным финансовым убыткам. 

В статье совместно с экспертами разберем топ-5 ошибок, которые могут разрушить бизнес, и расскажем, как их избежать.

Ключевые ошибки при внедрении ИИ: как не загубить бизнес

Главная ошибка — внедрение без стратегии

Компании все чаще внедряют ИИ, надеясь на революционные изменения в бизнесе, упуская из виду важность исходных данных. Как результат, это приводит к неэффективным решениям и искаженным выводам. Почему так происходит?

Зачастую «пытаются автоматизировать плохо организованную или неструктурированную деятельность, что приводит к низкой эффективности от внедрения ИИ», сообщает Александр Стародубцев, владелец продукта Ainergy.

Тажке бизнес «сосредотачивается на технологии, забывая о качестве и релевантности данных, что может привести к неэффективным решениям и неверным выводам», — отмечает Игорь Кузнецов, PR-специалист компании «АРБАЙТ». 

Сергей Рабусов, сооснователь агентства ИИ-автоматизации и веб-разработки BARS Agency, соглашается: «Многие компании начинают работу с ИИ, не уделяя должного внимания сбору и проверке информации. Это приводит к тому, что алгоритмы обучаются на ошибочных или неполных данных, что в итоге искажает результаты. Специалисты по данным могут помочь выявить проблемы до внедрения системы».

Не менее важным аспектом является четкое понимание целей внедрения ИИ:

«Компания тратит огромное количество денег, алгоритмы обучают на кривых данных, ожидания от ИИ не совпадают с реальностью, автоматизируют не то, что реально необходимо. Пример: бизнес хочет «умный» чат-бот, но не думает о реальных запросах клиентов. В итоге бот раздражает людей, а поддержка все равно завалена жалобами»

Александр Мезенцев, директор по информационным технологиям АО «Свой Банк»

Кроме того, бизнес нередко недооценивает ограничения ИИ-моделей. По словам Эдуарда Долгалева, коммерческого директора ГК Selecty, «компании часто воспринимают ИИ как универсальное решение, ожидая от него автономных, безошибочных решений без необходимости постоянного мониторинга и корректировки. Однако алгоритмы машинного обучения обучаются на исторических данных, а значит, могут унаследовать ошибки, предвзятость или ограничения этих данных». 

В результате отсутствия должного внимания к валидации и интерпретации решений ИИ, бизнес рискует получить искаженные данные, что может привести к ошибочным выводам, снижению эффективности и потере доверия со стороны клиентов.

Еще одна критическая ошибка — слепая вера в ИИ как единственный источник информации. Максим Малышев, генеральный директор digital-агентства Notamedia, говорит: «Искусственный интеллект — отличный вспомогательный инструмент, но он не должен быть единственным источником информации для принятия решений».

Василий Саутин, руководитель дирекции по развитию бизнеса ИТ-сервисной компании IBS, также предостерегает от чрезмерного доверия ИИ: «Если бизнес использует эту технологию как «черный ящик», то возникновение целого ряда проблем неизбежно. Модели могут воспроизводить скрытые ошибки и предвзятость, если обучены на некорректных данных. Вот в найме персонала, к примеру, это способно привести к дискриминации определенных групп пользователей».

Проблемой также является недостаточная интеграция ИИ в бизнес-процессы и корпоративную культуру: 

«Часто компания фокусируется на технической стороне внедрения ИИ (алгоритмы, данные, инфраструктура), но упускают необходимость адаптировать свои бизнес-процессы и, что еще важнее, рабочие команды (отделы, подразделения) под новые возможности. ИИ часто воспринимается как панацея, которую можно встроить без изменения текущих рабочих потоков или корпоративной культуры». 

Владимир Фризен, технический директор Smartech

Вадим Седельников, владелец ИИ-платформы AiLine Softline Digital (ГК Softline), добавляет: «Компании часто внедряют ИИ «ради ИИ», без понимания, какую конкретную проблему должен решить искусственный интеллект или какую ценность привнести. Именно поэтому в таких проектах не всегда очевиден экономический и бизнес-эффект от применения ИИ».

Важным фактором является и вопрос безопасности данных. Павел Карасев, бизнес-партнер компании «Компьютерные технологии», предупреждает: «Основная проблема — пользователи сами передают чувствительную информацию. Это могут быть корпоративные документы, персональные данные клиентов или коммерческая тайна. Если такие данные попадут в обучающую выборку или логи, они теоретически могут быть использованы в будущих ответах модели, что создает риск непреднамеренного раскрытия». 

Евгений Рыбкин, менеджер по продуктовому маркетингу TECNO, также подчеркивает риск утечки данных и предостерегает: «Делиться важными финансовыми и стратегическими данными вашей компании со сторонним ИИ в любом случае не стоит». Иногда даже собственные ИИ-модели могут нести в себе риски, если процесс управления данными не настроен должным образом.

Иван Башарин, руководитель лаборатории ИИ VESNA, обращает внимание на то, что «По статистике, 80% проектов в области ИИ терпят неудачу. Основная причина этого низкое качество используемых данных, что в итоге приводит к ошибкам и неточным результатам. Поэтому без надлежащих качественных обучающих данных разработанная программа ИИ приведет к ложным и неточным результатам, что в конечном итоге может привести к большим проблемам в бизнесе». 

Михаил Хомутецкий, основатель ИИ сервиса «Турболого», дополняет: «Без всестороннего тестирования это нередко остается незамеченным на этапах внедрения и раскрывается в полной мере уже только после внедрения бизнес вдруг понимает, что ИИ-решение работает не совсем так, как ожидалось».

Успешное внедрение ИИ требует комплексного подхода: работы с качественными данными, четкого определения бизнес-целей, продуманной интеграции в бизнес-процессы и контроля за принимаемыми решениями. Это же становится основой для эффективного масштабирования.

Скрытые риски масштабирования

Масштабирование ИИ-решений кажется логичным шагом вперед: больше данных, возможностей автоматизации. Однако за этим ростом скрываются подводные камни, которые могут обойтись бизнесу слишком дорого. 

Ошибки в алгоритмах, рост затрат, потеря контроля над системой, юридические ловушки — все это может превратить перспективное развитие в головную боль. Компании, которые заранее не продумывают риски, рискуют столкнуться не с прогрессом, а с хаосом.

«Основной скрытый риск при масштабировании решений на основе генеративных нейронных сетей заключается в потере контроля над процессом и результатами их работы. Чтобы избежать этого, важно интегрировать эксперта со стороны бизнеса во все ключевые точки», заявляет Александр Стародубцев, владелец продукта Ainergy.

Однако и тут не все так просто. «Внедрение человеческого надзора за работой нейросети порождает новую проблему — «засыпание за рулем». Со временем человек, проверяющий результаты, может начать безоговорочно доверять системе, переставая критически оценивать ее выводы. Это приводит к деградации функции контроля и снижению эффективности надзора», дополняет эксперт.

Другим из главных вызовов становится управление качеством данных. На начальном этапе обучения модели компании могут использовать структурированные и тщательно отобранные данные, но по мере масштабирования появляется риск включения в систему менее качественной или несбалансированной информации.

«Если данные были недостаточно качественны на этапе обучения моделей, но при точечном внедрении это сказывалось не слишком сильно, то при расширении ошибки могут стать критичными», — предупреждает Евгений Рыбкин, менеджер по продуктовому маркетингу TECNO.

Эдуард Долгалев, коммерческий директор ГК Selecty, дополняет: «При расширении охвата бизнеса могут появиться новые источники информации с менее качественными или несбалансированными данными. Это приводит к ухудшению качества прогнозов и увеличению ошибок. Важно заранее предусмотреть механизмы адаптации модели и автоматической очистки данных».

Качество моделей зависит не только от самих данных, но и от их репрезентативности:

«Также существует риск возникновения предвзятости в моделях, если они обучены на не репрезентативных выборках данных, что может привести к ухудшению качества решений».

Игорь Кузнецов, PR-специалист компании «АРБАЙТ»

Это особенно актуально, если ИИ-система адаптируется под новые рынки: алгоритм, хорошо работающий в одной стране, может не соответствовать требованиям и ожиданиям пользователей в другой. 

Технические сложности масштабирования тоже не всегда очевидны на старте проекта: «Алгоритмы, работавшие хорошо в тестовом режиме, могут давать неверные результаты при увеличении нагрузки», — отмечает Сергей Рабусов, сооснователь агентства AI-автоматизации и веб-разработки BARS Agency. 

Владимир Фризен, технический директор Smartech, добавляет: «Непредсказуемая нагрузка на инфраструктуру: при относительно небольшом количестве пользователей хватало одного сервера, пользователей стало больше, но поставили второй сервер, и в 2 раза быстрее не стало». Соответственно, при увеличении пользователей удвоение серверов не всегда ведет к двукратному росту производительности.

Помимо вычислительных мощностей, компании могут столкнуться с ростом затрат: «То, что на малых объемах стоило копейки, на больших масштабах может стать значительной статьей затрат. Необходимо заранее продумать возможность замены сервиса на более дешевый аналог, чтобы избежать финансовых потерь», — предупреждает Максим Малышев, генеральный директор digital-агентства Notamedia. 

Эксперт приводит пример разработчика, который создал SaaS-сервис с помощью ИИ-генерации кода. Вначале проект работал хорошо, но со временем код усложнился до такой степени, что поддержка и развитие системы стали практически невозможными без привлечения специалистов. 

Финансовые риски также связаны с юридическими аспектами: «…законы о защите данных могут резко усложнить жизнь», — говорит Александр Мезенцев, директор по информационным технологиям (CTO) АО «Свой Банк». Михаил Хомутецкий, основатель ИИ-сервиса «Турболого», добавляет, что при масштабировании увеличивается вероятность утечек конфиденциальной информации.

Отдельное внимание стоит уделить различиям между облачными и селф-хостед ИИ-решениями:

«Селф-хостед ИИ-решения требуют существенных мощностей, постоянного обслуживания и контроля. Соответственно, при масштабировании вы неизменно столкнетесь с тем, что обслуживать систему становится все сложнее, и она становится все менее надежной. У облачных решений, доступных по API, другие проблемы: со стабильностью (вы не можете контролировать стороннее решение), и с тем, что провайдер услуг может сменить условия договора или удалить нужный вам функционал».

Филипп Щербанич, backend-разработчик компании Mayflower

Еще одна проблема масштабирования — кадровый вопрос. По мере роста технической сложности проекта все больше знаний концентрируется у узкого круга специалистов: «Со временем понимать, как работает вся система, будут 1-2 специалиста. Или вообще никто», — отмечает Владимир Фризен, технический директор Smartech. 

Вадим Седельников, владелец ИИ-платформы AiLine Softline Digital (ГК Softline), также подчеркивает риск формирования «коллекции» разрозненных ИИ-инструментов, усложняющей их поддержку и развитие.

Кроме того, ИИ влияет на саму корпоративную среду: «До сих пор сильны опасения, что ИИ вытеснит людей с рабочих мест. Пока, как мы видим, этого почти не происходит», — говорит Евгений Рыбкин, менеджер по продуктовому маркетингу TECNO. Хотя автоматизация действительно меняет профессии, он отмечает, что «серьезные задачи все равно решают люди».

Автоматизация vs. контроль: где проходит граница?

Когда речь заходит об автоматизации бизнес-процессов, важно понимать, где проходит граница между эффективной автоматизацией и потерей контроля. Внедрение ИИ может значительно повысить производительность и уменьшить издержки, однако без должного контроля со стороны человека такие технологии могут привести к непредсказуемым последствиям.

«Граница четко проходит там, где сам процесс автоматизации начинает принимать решения, оказывающих влияние на стратегические аспекты бизнеса, без должного человеческого контроля. Важно, чтобы в критических ситуациях оставалась возможность вмешательства человека, а также четкие механизмы и методики мониторинга и оценки работы ИИ»

Игорь Кузнецов, PR-специалист компании «АРБАЙТ»

Размытость границы между автоматизацией и потерей контроля особенно ярко проявляется в тех случаях, когда ИИ становится не просто инструментом, а автономной системой, принимающей ключевые решения. Алексей Оносов, основатель компании «Юнисофт», подчеркивает: «С одной стороны, ИИ способен значительно повысить эффективность и снизить издержки. С другой — полная передача контроля алгоритмам может привести к катастрофическим последствиям, как в случае с фондом “Далио”. Оптимальный подход — использование ИИ в качестве инструмента поддержки принятия решений, но не как замену человеческому суждению в критически важных областях». 

Сергей Рабусов, сооснователь агентства BARS Agency, также соглашается с тем, что важный момент границы заключается в том, когда система начинает самостоятельно принимать ключевые решения: «Если алгоритм выбирает действия без вмешательства человека, сотрудники не могут вовремя скорректировать курс. Это может привести к ошибкам, которые трудно исправить». 

Также важно учитывать, что граница проходит там, где ИИ начинает влиять на такие критически важные сферы, как финансы и репутация бизнеса. Александр Мезенцев, CTO АО «Свой Банк», подчеркивает: «Для того чтобы использование ИИ было управляемым и контролируемым, нужно внедрять принципы «человек в цикле» (финальный контроль за критичными решениями), следить за прозрачностью алгоритмов и обновлять их при необходимости».

Эдуард Долгалев, коммерческий директор ГК Selecty, добавляет, что передача контроля в таких сферах, как ценообразование, найм сотрудников или юридические решения, может привести к опасным последствиям: «Например, алгоритм может допустить дискриминацию, завышать цены в кризисных ситуациях или принимать неэтичные решения».

Для сохранения контроля важно понимать, какие решения можно делегировать автоматизированным системам, а какие требуют человеческого вмешательства. Как подчеркивает Максим Малышев, генеральный директор Notamedia, такой подход помогает минимизировать риски и сохранять контроль над ключевыми аспектами бизнеса.

Владимир Фризен, технический директор Smartech, обращает внимание на различие между рутинными задачами и более серьезными решениями: «При этом нетрудно забыть, что некоторые «рутинные» для тебя решения для кого-то будут иметь колоссальные последствия. Вот здесь и должна быть граница, за которой решение будет принимать (и за него отвечать) человек». 

В тех областях, где решения могут касаться жизни и здоровья людей, таких как медицина и психология, контроль должен оставаться за человеком:

«Здесь обязательна ручная валидация и дополнительный контроль всего процесса человеком. При этом ИИ решения все равно применяются для оптимизации — от этого уже никуда не деться»

Филипп Щербанич, backend-разработчик компании Mayflower

Евгений Рыбкин, менеджер по продуктовому маркетингу TECNO, акцентирует внимание на важности экспертного подхода в принятии стратегических решений. Он подчеркивает, что передача таких решений ИИ может повлечь за собой серьезные риски для бизнеса, если не будет достаточного контроля. 

Руководители сами интуитивно ощущают, где проходит граница между автоматизацией и потерей контроля, и не позволяют ИИ принимать критически важные решения без участия человека. «Так что при принятии критических решений место ИИ пока как «системы поддержки принятия решений», — отмечает Сергей Щербаков, старший руководитель группы отдела данных и машинного обучения ICL Services. 

Вадим Седельников, владелец ИИ-платформы AiLine Softline Digital, добавляет: «Контроль над критически важными решениями может быть утрачен только при условии, что сотрудники компании, использующие ИИ-решения, не понимают принцип их работы и периметр применения. В таких случаях лучше использовать интерпретируемые модели, структуру которых может объяснить человек, и проводить обучение сотрудников».

В свою очередь, Михаил Хомутецкий, основатель ИИ-сервиса для малого бизнеса «Турболого», считает, что контроль над критически важными решениями может быть утрачен, если не будет должного мониторинга и резервного контроля. Он подчеркивает, что всегда необходимо сохранять контроль за такими решениями человеком. 

Таким образом, граница между автоматизацией бизнес-процессов и потерей контроля над критически важными решениями проявляется там, где ИИ отходит от типовых стандартных процедур и выполняет действия, выходящие за рамки уже отработанных операций. «В таких ситуациях, как мы упоминали ранее, обязательно должен присутствовать человек, несущий ответственность за реализацию активностей, не входящих в спектр типовых процедур», — подытоживает Александр Стародубцев, владелец продукта Ainergy.

Превентивные меры защиты бизнеса

Эффективное внедрение и использование ИИ требует комплексного подхода к управлению рисками. Без должной проработки превентивных мер бизнес может столкнуться с проблемами, связанными с безопасностью, качеством данных и надежностью моделей. Поэтому компаниям необходимо уделить особое внимание стратегиям, которые помогут минимизировать потенциальные угрозы и сделать работу с ИИ предсказуемой и управляемой.

Разделение проекта на этапы с четкими контрольными точками позволяет своевременно выявлять ошибки и предотвращать критические сбои. Важную роль, по мнению Игоря Немова, советника руководителя Т1 ИИ (ИТ-холдинг Т1), играют «красные команды» — группы, которые целенаправленно ищут уязвимости в ИИ, — помогают выявить слабые места модели до ее внедрения.

«Важно регулярно проводить стресс-тесты, проверяя, как система реагирует на резкие изменения данных, например, внезапное падение спроса на 90% или моделирование кибератаки. Поэтому очистка и актуализация данных должны быть непрерывным процессом, а не разовой задачей», — добавляет эксперт. 

Помимо этого, одним из ключевых направлений защиты бизнеса является кибербезопасность:

«Огромная база открытого ПО дает злоумышленникам огромный спектр возможностей. Для успешного превентивного реагирования, необходимо знать векторы атак. Во-первых, это автоматизированные атаки: ПО, которое само модифицирует свой код, избегая сигнатур, а еще атаки Brute Force и DDoS с самоадаптирующимся поведением. Во-вторых, поиск уязвимостей в режиме “брейншторма”: такой подход позволяет злоумышленникам автоматически анализировать открытые репозитории, патчи, исходный код, чтоб искать потенциальные бреши. Ну и, конечно, data poisoning: намеренная дезориентация модели ИИ стороны защиты для облегчения вторжения».

Алексей Иванов, заместитель технического директора «АйТи Бастион» по вопросам инноваций

Иванов рекомендует комбинировать ИИ с традиционными методами защиты: сегментацией сети, контролем прав доступа и патч-менеджментом. Важно защищать не только сеть, но и тестовые датасеты, а также внедрять механизмы верификации, позволяющие выявлять причины того или иного решения модели.

Перед внедрением ИИ необходимо провести тщательный анализ экономической целесообразности и цифровой зрелости компании. По мнению Егора Ершова, руководителя группы «Цветовая вычислительная фотография» AIRI, если в компании много однотипных и затратных операций, автоматизация может существенно повысить эффективность.

Эксперт также рекомендует привлекать сотрудников к тестированию ИИ-систем, поскольку это помогает выявить потенциальные проблемы до развертывания решения. Помимо этого, важно обеспечить безопасность данных и оценить уровень поддержки со стороны поставщика, если используется стороннее ИИ-решение.

Для минимизации рисков компании должны интегрировать ИИ-инструменты в единую экосистему, проводить регулярный аудит алгоритмов и обучать сотрудников работе с искусственным интеллектом. «Также минимизировать риски при работе с ИИ поможет обучение сотрудников и комбинированное применение ИИ-решений с возможностью ручного управления критическими процессами», — отмечает Вадим Седельников, владелец ИИ-платформы AiLine Softline Digital (ГК Softline).

Превентивный подход должен учитывать не только технические, но и организационные аспекты: «Вовлекать бизнес с самого начала проработки идеи использования ИИ – это позволит держать в фокусе действительно востребованные проблемы, а не распыляться по сторонам», — советует Сергей Щербаков, старший руководитель группы отдела данных и машинного обучения ICL Services. Он также напоминает о необходимости следить за качеством данных: «Мусор на входе = мусор на выходе — это золотое правило, о котором часто забывают».

«Кроме того, следует установить личную ответственность сотрудников за качество работы ИИ и результаты его деятельности», — добавляет Александр Стародубцев, владелец продукта Ainergy.

Риски при внедрении ИИ различаются в зависимости и от масштаба компании: «Каждая конкретная мера зависит от риска, на смягчение которого она направлена. К тому же компании находятся в разных условиях: то, что для Яндекса или Сбера досадная неприятность и операционный убыток, для небольшой компании легко может обернуться закрытием бизнеса. Поэтому список рисков более или менее одинаков для всех компаний, внедряющих ИИ в свой бизнес. Но способы минимизации рисков в каждом случае будут свои», — подчеркивает Владимир Фризен, технический директор Smartech. Каждому бизнесу необходимо индивидуально анализировать угрозы и разрабатывать стратегии их минимизации.

Один из ключевых факторов защиты — прозрачность работы ИИ: «Использование методов Explainable AI (XAI) позволяет бизнесу лучше понимать, почему алгоритм принимает те или иные решения, и вовремя корректировать их», — отмечает Эдуард Долгалев, коммерческий директор ГК Selecty. Он также рекомендует внедрять системы мониторинга, которые отслеживают корректность входных данных и анализируют изменения в работе алгоритмов.

Необходимо регулярно проверять исходные данные, контролировать доступ и применять шифрование. «Приглашение внешних экспертов для оценки работы системы позволяет увидеть незаметные ошибки», — добавляет Сергей Рабусов, сооснователь агентства ИИ-автоматизации и веб-разработки BARS Agency. 

По словам эксперта, обучение сотрудников основам работы с ИИ снижает риски и позволяет оперативно реагировать на непредвиденные ситуации. Защита бизнеса при внедрении ИИ требует комплексного подхода, включающего технические, организационные и этические меры. Только системный и продуманный подход позволит максимально использовать потенциал ИИ, снижая возможные угрозы и риски.

Вывод

Ошибки при внедрении ИИ могут стоить бизнесу не только эффективности, но и репутации, а в некоторых случаях — даже существования. Некачественные данные, отсутствие стратегии, чрезмерное доверие к алгоритмам и недостаточная защита информации — вот основные причины провалов ИИ-проектов. 

Однако, как отмечают эксперты, все эти риски можно минимизировать, если подойти к процессу осознанно: проводить тщательную подготовку, тестировать модели, обучать сотрудников и обеспечивать контроль за решениями алгоритмов. ИИ — мощный инструмент, но только в руках тех, кто умеет им управлять.

Что будем искать? Например,ChatGPT

Мы в социальных сетях