На Android и iOS появятся функции управления устройствами без использования рук

Google и Apple представили новые функции для пользователей с ограниченными физическими возможностями. Project Gameface на Android и Eye Tracking на iOS позволяют управлять устройствами с помощью глаз или мимики лица.

Eye Tracking

В честь Международного дня осведомленности о доступности (Global Accessibility Awareness Day) Google и Apple объявили о внедрении новых функций, позволяющих пользователям управлять своими устройствами без использования рук.

Project Gameface на Android

В своем блоге Google объявила о запуске функции Project Gameface для Android. Этот проект, впервые анонсированный в прошлом году для Windows, представляет собой систему, основанную на использовании движений головы и мимики лица для управления курсором компьютера и мобильными устройствами.


Project Gameface работает благодаря совокупности служб Android для специальных возможностей, платформы Google MediaPipe и фронтальной камеры устройства. Это позволяет пользователям управлять экраном и приложениями, поднимая брови и открывая рот.

Project Gameface для Android

Компания также предлагает настройку 52 положений и возможность менять размер жеста для активации определенных команд.

Однако Google отмечает, что разработчикам потребуется встроить поддержку Project Gameface в свои приложения.

Eye Tracking на iOS

С другой стороны, Apple представила Eye Tracking, функцию на основе искусственного интеллекта, которая предоставляет пользователям возможность управлять iPad и iPhone с помощью глаз.

Система Eye Tracking отслеживает движение глаз с помощью фронтальной камеры. Процесс настройки и калибровки занимает всего несколько секунд. Благодаря встроенному машинному обучению все данные, используемые для настройки и управления этой функцией, безопасно хранятся на устройстве и не передаются Apple.

Анимация, демонстрирующая новую функцию Apple eye tracking accessibility на iPad.

Apple подчеркивает, что функция отслеживания глаз работает в приложениях iPadOS и iOS без необходимости дополнительного оборудования или аксессуаров. При использовании Eye Tracking пользователи могут перемещаться по элементам приложения и активировать любой из них с помощью функции Dwell Control, получая доступ к различным функциям, таким как физические кнопки, прокрутка и другие жесты.

Отмечается, что новая функция на основе ИИ была разработана Apple в сотрудничестве с OpenAI и Google.

Что будем искать? Например,ChatGPT

Мы в социальных сетях