В начале августа 2012 года в Америке прошла очередная конференция SIGGRAPH, на которой демонстрировалось множество интересных разработок, так или иначе связанных с компьютерной графикой и новаторскими компьютерными интерфейсами. Весь список участников, конечно, охватить невозможно, и в наш список вполне могли не войти какие-то из важных новинок. Тем не менее каждый из этой десятки наиболее ярких проектов достоин того, чтобы с ним ознакомиться.
Проекции на мыльных пузырях
Ёити Отиай из Университета Токио изобрёл пусть не самую практичную, но крайне зрелищную штуку: систему проецирования изображения на мыльные пузыри. Кроме непосредственно проектора в ней используется источник ультразвука, да и пузыри не простые, а сделанные из специального состава. О подробностях можно прочесть на сайте проекта или в посте Андрея Василькова.
Тензорные 3D-дисплеи MIT
В Массачусетском Технологическом Институте разработали очередной способ отображения трёхмерной картинки на экране, не требующий от зрителя надевать специальные очки. В отличие от известной технологии параллаксного барьера, пригодной без дополнительных модификаций лишь для одного зрителя, здесь картинка получается по-настоящему трёхмерной и лишённой этого недостатка. Здесь используются три наложенные друг на друга ЖК-панели и некий уникальный и требовательный к ресурсам алгоритм. По словам исследователей, технология может достичь рынка уже в течение пяти лет. Что ж, посмотрим!
http://www.youtube.com/watch?v=LjQxj8iEmjQ
Музицирующий сканер
Как музыкальный инструмент мог забрести на конференцию о компьютерной графике? Очень просто: устройство Gocen только наполовину является музыкальным инструментом, а на вторую половину — это сканер. Проводим им по нарисованному от руки нотному стану с нотами, и он распознаёт их и передаёт в компьютер для дальнейшего воспроизведения. Изобрели эту штуку в Токийском столичном университете и не предполагают серьёзного использования. Это, скорее, учебный инструмент, который поможет изучающим музыку быстрее освоиться с нотами.
Рейтрейсинг в реальном времени на основе Nvidia Maximus
Как известно, чтобы получить готовую картинку из смоделированной в трёхмерном редакторе сцены, нужно подождать, пока она обсчитается с учётом освещения. Благодаря новой технологии Nvidia Maximus этого ожидания можно избежать: открыть окно с рендером на втором мониторе и сразу наблюдать за тем, как картинка будет изменяться по ходу редактирования моделей. В ролике демонстрируется, как движок V-Ray RT в режиме реального времени обсчитывает разные сцены, смоделированные в Maya 2013. Используются сразу две профессиональные карты — Nvidia Quadro и Tesla.
Робот TELESAR V
TELESAR V — очередное чудо японского роботостроения. Он разработан в Tachi Lab учёными нескольких университетов и предназначен для телеприсутствия: оператор надевает шлем виртуальной реальности и перчатки, передающие роботу движения рук. В обратную сторону передаётся тактильная отдача и даже температура — к примеру, если через робота пожать руку, то можно почувствовать, что она тёплая. К сожалению, в отличие от нескольких предыдущих поколений TELESAR, этот вариант исключает возможность отображать вместо лица робота лицо собеседника, ведь оно скрыто за громоздким шлемом.
Что делает Париж Парижем?
Погуляв по городу, мы подсознательно понимаем, что у него есть некий уникальный вид, не похожий на другие города (или наоборот — похожий на какой-то другой город). Но в чём именно заключаются уникальные или схожие черты? Черты города состоят из множества деталей, и распознать их — непростая задача. Алгоритм, разработанный группой учёных из США и Франции при поддержке Google, позволил получить подробнейший ответ на вынесенный в заголовок вопрос. Проанализировав данные Google Street View, он смог выбрать характерные дизайны балконных решёток, парадных дверей, окон, номеров домов и так далее. Поскольку каждый снимок содержит данные о геолокации, можно проводить и более детальный поиск: к примеру, узнать, какие районы города похожи своей архитектурой.
Обман осязания
Учёные из исследовательской лаборатории фирмы Disney показали на SIGGRAPH 2012 сразу несколько работ, каждая из которых заслуживает внимания. Revel — технология, позволяющая накладывать осязаемую текстуру на любые объекты, будь то плоскость стола, экран планшета, стекло или ещё что-нибудь. Фокус, правда, не удастся, если не подключить и человека и предмет к системе электродами, но в случае с гаджетами это можно замаскировать, встроив оба контакта в разные части корпуса.
Touch? — Мультитач для всего
Ещё одна похожая разработка Disney и, кажется, ещё более важная, чем Revel. Возможность наделять любые предметы способностью детектировать прикосновения разных типов — ещё одна составная часть будущего, в котором предметы научатся реагировать на действия людей. В демонстрационном ролике приведены примеры почти чрезмерно умных предметов: двери кабинета, на которой меняются таблички в зависимости от того, сколькими пальцами повернуть ручку, и дивана, убавляющего освещение в комнате по мере того, как на нём располагаются со всё большим комфортом.
Цветок как тач-интерфейс
Любой цветок можно превратить в тач-сенсор при помощи системы Botanicus, созданной в берлинской Studio NAND, подразделении фирмы Disnеy. Всё, что нужно для начала работы, — вставить электрод в землю в горшке, и устройство будет передавать компьютеру точные координаты прикосновений. На цветке можно даже играть музыку!
Реалистичная симуляция волос
Самая сложная для моделирования и анимации часть человеческой фигуры — это, несомненно, волосы. И если аниматоры, создающие трёхмерные мультфильмы, уже освоили шевелюры любой сложности, то в компьютерных играх с этим сложнее. Чтобы обсчитывать шевелюру в реальном времени, требуются либо очень большие вычислительные мощности, либо хитрый алгоритм. Именно его и изобрела группа учёных, спонсируемая компанией Disney.
Бонус: кроме научных достижений и инженерных разработок на SIGGRAPH показывали и шедевры искусства: в рамках конференции прошёл фестиваль компьютерной анимации. Главный приз взял ролик R?flexion режиссёра Йосимити Тамуры (список остальных победителей можно найти на сайте SIGGRAPH). К сожалению, целиком его на YouTube нет — только короткий отрывок.