Думать надо! Побочные эффекты сильного ИИ

Чтобы продемонстрировать скрытые опасности новых технологий, обычно приходится напрягать фантазию: изобретать ситуации, стечение обстоятельств. Но бывает и так, что случай преподносит аргументы на блюдечке, да ещё в такой форме, что, как говорится, нарочно не придумаешь. Именно так случилось с — занятным самим по себе — сервисом How Old Do I Look (How-old.net), запущенным на днях Microsoft Research.

HowOld — штука почти фантастическая. Попросту, это веб-сервис, автоматически определяющий по фотографии пол и возраст человека, на ней запечатлённого. Грузите снимок (желательно лицо крупным планом: мелкие черты играют важную роль) и немедленно получаете результат. Точность во многих случаях такая, что, признаться, я даже потратил несколько минут на расследование: а не мошенничает ли машина, не подглядела ли в соцсетях, не извлекла ли из снимка какую-нибудь метаинформацию? По всему выходит, что всё честно: HowOld действительно угадывает пол и возраст по фотографии.

Почти идеально (приврал на пару лет).
Почти идеально (приврал на пару лет).

Понятно, что простой персоналке решение такой задачи с такой точностью не под силу. Скрывается за фокусом искусственный интеллект, а правильней даже — сильный ИИ (над которым в Microsoft работают последние годы), предварительно натасканный на определение возраста по большому массиву подготовленных фото. Алгоритмы так называемого сильного/глубокого обучения настолько сложные, что пытаться объяснить их широкой публике смысла нет, зато есть масса способов продемонстрировать их возможности — например, определением возраста по снимку. Авторы HowOld потом признавались, что были ошарашены, увидев, как в считанные часы их сервис стал местом паломничества десятков тысяч человек со всего мира.

Сильный ИИ есть теперь у каждого уважающего себя интернет- и ИТ-гиганта. Его активно применяют для помощи поисковым машинам, сортировки контента в соцсетях и прочих подобных задач, предполагающих нетривиальный подход к обработке огромных объёмов информации. Однако в последние год-два обозначился ещё один интересный тренд: компании пытаются заработать, предоставляя прямой доступ к сильному ИИ пользователям со стороны.

Помните айбиэмовский Watson? С недавних пор каждый желающий может воспользоваться им для решения самых приземлённых задач, чуть ли не бухгалтерских: сперва вы обучаете его, предоставляя свои данные, потом эксплуатируете, заставляя извлекать полезную лично вам информацию. Специалистом по машинному обучению быть не нужно: общение с Watson идёт через набор простых API, запросы формируются чуть ли не на естественном языке.

То же самое предлагает теперь и Microsoft: доступ к её сильному ИИ осуществляется посредством API, а сервисы наподобие HowOld служат примером того, как просто можно создавать практически полезные приложения. Когнитивное программирование — могучая сила: что возраст или пол, когда из любого потока сырых данных (текст, графика, голос) можно извлекать смысл, генерировать рекомендации, предсказывать поведение людей, выстраивать образы в ряды подобия!

Ну, ошибся. С кем не бывает!
Ну, ошибся. С кем не бывает!

Тем же курсом движутся Facebook, Google, Baidu, другие гиганты, не считая многообещающих стартапов вроде Dextro, использующего сильный ИИ для смысловой сортировки видеопотоков. Короче говоря, сильный ИИ шагнул из лабораторий в повседневность, на улицы, в настоящую жизнь. И первая и естественная реакция со стороны простого пользователя — считать машину умней человека. В каком-то смысле так оно и есть: суперкомпьютер быстрей и точней в решении многих конкретных задач, вроде того же распознавания лиц и определения возраста.

Но о чём мы забываем и о чём забывать не стоит, так это о том, что компьютер — даже не ребёнок, а только лишь вычислительная машина, которую натаскали на решение конкретной задачи! Дайте время — и это обстоятельство обязательно вылезет наружу, проявится побочными эффектами. Примером может служить уже знакомый вам HowOld.

Спустя день или два после запуска, когда он уже гремел по всей планете, а лица в рамочках взобрались в топы соцсетей, там же в соцсетях обозначился любопытный феномен. Открыли его японцы — что, в общем-то, не удивительно с их врождённой страстью к мистицизму. Так вот выяснилось, что HowOld иногда находит лица там, где они человеку не видны. Вот, например, милая японочка позирует на фоне сада, но — что это?! — в сплетении ветвей машина разглядела лицо 20-летней девушки! А вот и вовсе жуткая картина: на снимке, запечатлевшем садовый домик поздним вечером, тьма буквально усеяна невидимыми нам, но видными машине лицами всех возрастов! И аналогичных примеров полно: когда смешных, а когда и страшных.

Кто здесь?!
Кто здесь?!

Почему такое происходит — для человека, понимающего начинку ИИ, не секрет. Потому же, почему искусственная нейросеть, наученная видеть кошечек, видит их в белом шуме. Нейросеть, натасканная на конкретный образ, даёт ложно-положительный сигнал при случайном совпадении элементов тому усреднению, которое она помнит. Да, проблему можно облегчить, ужесточив критерии: в случае с HowOld, например, это означает отказ от распознавания слишком мелких или слабоконтрастных объектов. Но — облегчить, а не устранить. Искусственный интеллект — даже «сильный» — по-прежнему не человек: он по-прежнему не понимает контекста, не думает, а значит будет ошибаться, пытаясь обнаружить искомое там, где его по определению быть не может.

Тут-то и кроется опасность. Пока ИИ используют для развлечения, «призраки» нам не вредят. Но представьте, чем способны аукнуться такие же призраки, когда сильный ИИ начнут массово применять для распознавания речи, предсказания поведения покупателей, вообще извлечения смысловых составляющих из сырых потоков Big Data! Работая с ИИ, необходимо помнить, что машина — не человек. Будут ли это помнить простые пользователи?

Что будем искать? Например,ChatGPT

Мы в социальных сетях