Группа исследователей из Токийского университета работает над изменением парадигмы взаимодействия компьютера и человека. Задача японских ученых – превратить объекты, окружающие нас в повседневной жизни, в простые и понятные интерфейсы для управления компьютером. И кое-что из этого им уже удалось.
Создатели технологии ставят перед собой две основные задачи. Во-первых, они хотят заставить человечество отказаться от кучи ненужных гаджетов, которые необходимо не только постоянно носить с собой, но и заряжать. Во-вторых, они считают, что времена, когда человек подстраивался под интерфейсы должны кануть в лету: в будущем «повсеместной» дополненной реальности именно компьютер будет учиться распознавать человеческие жесты.
Технически это реализуется следующим образом. В помещении устанавливается высокоточная камера, проектор и акустическая система. При помощи камеры система распознает жесты пользователя, проектор отвечает за воспроизведение интерфейса на выбранном объекте, а акустическая система вкупе с параметрической антенной решеткой помогает правильному позиционированию звука в пространстве.
Презентация технологии состоялась на выставке Digital Contents Expo – 2011, где создатели системы «повсеместной» дополненной реальности заставляли звонить пластиковый банан и превращали коробку из-под пиццы в ноутбук с сенсорным интерфейсом.
Конечно, технология пока что далека от совершенства и даже не имеет официального названия: сами разработчики предпочитают называть её Device-free Ubiquitous Augumented Reality System. Но даже продемонстрированные достижения заставляют поверить в то, что будущее уже где-то неподалёку.