iPhone, «чувствующий команды глазного яблока» реализовал американский студент. Кстати, моргание гаджет тоже считает командой. Оригинальное приложение разработчика базируется на ARKit 2.
Новая ОС, запущенная под iPhone, стала платформой для инструментария ARKit второй модификации, пишет xrust. Американский студент, воспользовавшись новыми возможностями, составил программу дополненной реальности. Его гаджет стал откликаться на команды глаз. Иконки iPad теперь отзываются на моргание, а курсор передвигается сообразно отклонениям оси глазного яблока.
Комментируя новшество, разработчик пояснил: просто заинтересовало создать новую функцию. Обывателя привлечет креативный способ «общения» с гаджетом. Впрочем, ограниченные возможности расширяются такой программой. Студент подразумевал, например, парализованных людей.
Напомним, ARKit – разработка Apple, снабдившая создателей приложений инструментом, упрощающим реализацию программ под дополненную реальность. Главным сенсором, воспринимающим команды, выступает камера гаджета. Остальные элементы «переводят» координаты характерных точек глаза, на язык процессора, других исполнительных «органов» устройства.
Первый вариант ARKit «заточили» под горизонтальные поверхности – приложение, найдя подходящую, транслировало на экран нужный объект, размещая его там. Имитацию теней, изменение оттенков разработчики Apple также предусмотрели, понимая, пользователи будут перемещать гаджет.
Внедрив ARKit, программисты избавили создателей AR-приложений от рутины – готовые блоки кода ожидают стандартных команд.