Cтарший вице-президент и директор по исследованиям компании IBM доктор Джон Келли написал книгу “Умные машины”, которая выйдет в свет ближайшей осенью. Она посвящёна созданию целой экосистемы когнитивных вычислений – технологий будущего, способных взаимодействовать с людьми более естественным образом. Речь идёт о разработке архитектуры и алгоритмов, имитирующих отдельные способности мозга по восприятию данных различного вида, принятию решений и самообучению по результатам анализа их эффективности.

Доктор Джон Келли (слева) и директор музея компьютерной истории Джон Холлар (справа) на выставке в Калифорнии, посвящённой суперкомпьютеру IBM Watson (фото: asmarterplanet.com)
Доктор Джон Келли (слева) и директор музея компьютерной истории Джон Холлар (справа) на выставке в Калифорнии, посвящённой суперкомпьютеру IBM Watson (фото: asmarterplanet.com).

Джон Келли пишет, что современные люди сталкиваются с постоянным ростом объёмов информации. Если раньше казалось, что это благо, помогающее развитию общества, то сейчас стало вполне очевидно: чем больше данных, тем больше проблем. Мы попросту не успеваем вникнуть в интересующие нас вопросы как следует. Поэтому люди часто принимают необдуманные решения, ознакомившись только с одной точкой зрения. За недостатком времени анализ новых данных откладывается, а затем они вспоминаются уже как проверенная информация.

Директор может разгрузить себя, поручив большую часть обработки данных секретарю, ассистентам и даже целому штату аналитиков. Обычным людям всё сложнее противостоять давлению инфосреды. Когнитивные компьютерные технологии способны помочь в будущем как руководителям крупных компаний, так и обывателям. Умный поиск, семантический анализ, распознавание образов, прокладка маршрута с учётом пробок и оценка состояния водителя в фоне – это всё только начало.

Среди действующих когнитивных систем наиболее известен суперкомпьютер IBM Watson с программой искусственного интеллекта, созданной под руководством Дэвида Феруччи в рамках проекта DeepQA. Этот суперкомпьютер обыграл в 2011 году двух чемпионов в викторине Jeopardy. В ролике ниже приводятся пояснения о работе его алгоритма и необычной структуре использованной базы данных.

Как и в случае с победившим Каспарова суперкомпьютером Deep Blue, для IBM это была лишь демонстрация возможностей. Реальная область практических применений будет совершенно иной.

Специалисты компании рассчитывают в ближайшие двадцать лет создать компактную или даже носимую систему, имитирующую работу миллиардов нейронов и триллионов синапсов. Применений для неё найдётся масса – как в гражданском, так и в военном секторе.

Общественности говорят в основном о медицинских аспектах применения. К примеру, указывается, что с помощью такого электронного ассистента слабовидящие люди смогут не только лучше ориентироваться, но и жить более полноценной жизнью. У здорового человека мозг обрабатывает терабайты графических данных ежедневно, и заменить функции зрительной коры не сможет ни один носимый компьютер классической архитектуры.

Основная проблема целой отрасли в том, что архитектура компьютеров и базовые подходы к программированию сформировались в ту пору, когда на ЭВМ решали довольно узкий круг прикладных математических задач. Они были вычислительно сложными, а их постановкой занимался штат опытных программистов.

От современных компьютеров требуется гораздо больше. Всевозможные “умные устройства” должны большей частью самостоятельно получать и успевать обрабатывать массу разнородных данных. Результат требуется выдавать через дружественный интерфейс, чтобы помочь человеку в его повседневной жизни или просто развлечь его.

Для этого компьютерная техника должна постоянно развиваться в направлении “очеловечивания” и всё больше опираться на алгоритмы самообучения. Иными словами – как можно точнее копировать суть работы мозга, сохраняя запредельную скорость обработки числовых данных.

Компания IBM при поддержке Корнеллского университета и DARPA уже многие годы разрабатывает такой искусственный мозг. До сих пор в научном мире нет единого мнения о многих аспектах функционирования неокортекса. Поэтому задача не состоит в том, чтобы воссоздать на массиве транзисторов работу коры головного мозга в деталях. Скорее есть понятное желание сотворить на базе компьютерных технологий нечто работающее похожим образом. Требуется не более быстрый автомат, а гибкая вычислительная система, хотя бы частично проявляющая свойства мышления живых организмов.

Значимых успехов в этой области удалось достичь в прошлом году: тогда с помощью второго по мощности суперкомпьютера из списка Топ-500 сымитировали работу ста триллионов синапсов. Конечно, эмуляция происходила с большой долей условности, а скорость обработки сигналов была оценена в полторы тысячи раз ниже, чем у реальной группы нейронов. Более быстрая и точная имитация работы всего нескольких нейронов по-прежнему требует десятков тысяч процессорных ядер.

В IBM Research стараются научить компьютеры не просто считать быстрее, но и проявлять отдельные элементы мыслительного процесса. По мнению исследователей, компьютеры будущего не должны слепо следовать алгоритму, как это было до сих пор. Они станут учитывать множество второстепенных факторов, свой прошлый опыт и будут даже немного колебаться в принятии решений – совсем как человек.

Агентство перспективных оборонных научно-исследовательских разработок США щедро финансирует связанную с этой инициативой программу SyNAPSE (Системы нейроморфной адаптивной масштабируемой пластичной электроники). Её главная цель – обеспечить компьютеры теми способностями, которые у человека пока ещё развиты лучше.

Особенно это касается восприятия, умения принимать решения в условиях жёсткого дефицита достоверных данных и придумывать нестандартные выходы из ситуаций, в которых не приходилось бывать прежде.

Интерес DARPA вполне понятен. Сегодня управляемые операторами БПЛА уже показали свою эффективность. Осталось убрать операторов и связанные с ними задержки в передаче управляющих команд, чтобы Пентагон получил более совершенные и самодостаточные образцы боевой авиации.

В IBM Research убеждены, что так называемые когнитивные вычислительные системы найдут самое широкое применение и вскоре полностью изменят наши представления о компьютерной технике, которая до сих пор базируется на архитектуре фон Неймана.

Впервые о проекте открыто заговорили в 2008 году. Через год коллектив IBM Research отчитался о завершении подготовительного этапа – так называемой “фазы 0», на которой был сформулирован план исследований и решены общие вопросы.

К 2011 году был завершён первый этап проекта, заключавшийся в разработке фундаментальной архитектуры вычислительных блоков, эмулирующих работу нейронов. Ключевым требованием была масштабируемость архитектуры, поскольку от отдельных групп нейронов по мере роста доступной вычислительной мощности требовалось переходить к имитации работы целых отделов коры головного мозга.

Сегодня коллектив IBM Research говорит о новых успехах. Команде удалось провести объёмное исследование под названием “крупномасштабное корковое моделирование”. Оно было сфокусировано на таких особенностях работы мозга, как сверхнизкий уровень энергопотребления и высочайшая плотность хранения данных. По результатам длительного эксперимента был создан новый алгоритм, позволяющий моделировать работу мозга более точно и ценой меньших затрат.

На его основе под руководством ведущего специалиста Дхармендра Модха был разработан язык программирования, ориентированный на создание приложений для когнитивных вычислений. Дальнейший этап – создание полноценной среды разработчика, поддерживающей весь цикл программирования – от проектирования до отладки и развертывания нового поколения приложений, способных частично имитировать свойства мозга. В конце неделе IBM представит свои разработки на Международной совместной конференции по нейронным сетям в Далласе.