Инновационные технологии Omron: распознавание лиц и жестов

Жестовый интерфейс

Программное обеспечение Gesture and Voice Control

NPointer помогает управлять компьютером с помощью движений рук в качестве команд ввода. Используя обычную веб-камеру, направленную к столу, где вы можете поместить свою руку и перемещать ее, вы можете управлять движениями указателей на экране компьютера.

Image

Вы можете запустить приложение, запустив его запускаемый файл, Он должен открыть интерфейс приложения, где вы можете настроить параметры приложения. Вы можете настроить несколько параметров, таких как скорость движения указателя а также ускорение для калибровки перемещения указателя на экране компьютера. Кроме того, вы также можете таймаут меню и максимальная скорость движения который управляет указателем, когда вы удаляете руку из поля просмотра камеры.

Опции NPointer

NPointer поставляется с различными режимами для управления указателем. Вы можете настроить параметры приложения для переключения между различными параметрами управления.

  • Управление камерой — Используйте встроенную или установленную веб-камеру для управления указателем

    • Рука — Используйте свою руку для управления указателем. Удобно, если у вас установлена веб-камера.
    • Головной / фронтальный контроль — Используйте головку / лобную поверхность для управления указателем. Удобно при использовании встроенной камеры для ноутбука.
  • Голосовое управление — Включает выбор меню указателя с помощью голосовых команд.

Разбивка меню действий

Когда вы держите голову / руку неподвижно какое-то время (время, определяемое таймаутом меню), появляется меню действий, которое выглядит как показано ниже, предлагая множество функций, имитирующих обычное использование мыши.

Как видно из изображения выше, после появления меню действий вы можете переместить руку / голову, чтобы воспроизвести движение на экране компьютера и поместить указатель выбора действия на нужную функцию. Выбранная функция будет активирована после того, как указатель выбора действия будет перемещен в эту функцию и останется неподвижным на мгновение.

Для прокрутки вам необходимо выбрать действие колеса прокрутки который активирует режим прокрутки и отображает приведенное ниже меню действий.

Когда выбран режим прокрутки, вы можете переместить свою руку / голову, чтобы прокручивать страницы на экране компьютера. Если вы хотите отключить режим прокрутки, просто поместите указатель выбора действия в положение «Прокрутка» и пусть он останется там на мгновение.

Управление голосом

Если вы выбрали Голосовое управление как метод по умолчанию для управления указателем, вам нужно будет настроить параметры голоса и записать голосовые команды для нескольких функций указателя.

Для этого нажмите Настройки голоса в правом нижнем углу. Это должно вызвать меню настроек голосового управления, в котором вы можете записать голосовую команду для таких функций, как щелчок правой кнопкой мыши, щелчок левой кнопкой мыши и т. Д. Команды настраиваются, чтобы вы могли их удалить и записать снова.

Image

Обертывание вещей

NPointer это легкое приложение, которое может оказаться весьма полезным для людей с ограниченными возможностями. Как только вы получаете зависание движений указателя и его функций, становится весело работать с ним. Для лучшей точности качество веб-камеры должен быть достаточно хорош с более высокой частотой кадров. Также, надлежащие условия освещения одинаково важны. Если вы используете свою руку для жестов, вам нужно держать руку на устойчивой поверхности стола и указывать веб-камеру прямо поверх нее.

Вы можете загрузить исполняемый файл с официального сайта. Сообщите нам, если вы сочтете это полезным или столкнетесь с любыми проблемами при его использовании.

Простые касания

Как и в случае базовых событий мыши и клавиатуры, события касания встроены в низкоуровневые классы UIElement и ContentElement. Все они перечислены ниже.

События сенсорного ввода
Имя Тип маршрутизации Описание
PreviewTouchDown Туннелирование Возникает, когда пользователь касается данного элемента
TouchDown Пузырьковое распространение То же
PreviewTouchMove Туннелирование Возникает, когда пользователь коснулся данного элемента и передвигает палец
TouchMove Пузырьковое распространение То же
PreviewTouchUp Туннелирование Возникает, когда пользователь поднимает палец, прекращая касание
TouchUp Пузырьковое распространение То же
TouchEnter Нет Возникает, когда точка контакта входит извне в пределы данного элемента
TouchLeave Нет Возникает, когда точка контакта выходит за пределы данного элемента

Все эти события предоставляют объект TouchEventArgs, который содержит два важных члена. Во-первых, метод GetTouchPoint() дает экранные координаты точки,
где возникло событие касания (и еще другие, не так часто применяемые, данные — такие как размер точки контакта). Во-вторых, свойство TouchDevice возвращает объект TouchDevice. Фокус в том, что каждая точка контакта считается отдельным устройством. Поэтому если пользователь касается экрана двумя пальцами в разных местах (одновременно или один за другим), WPF считает, что это два устройства касания, и назначает каждому из них уникальный идентификатор. При перемещении пальцев и возникновения события касания код может различить эти точки касания с помощью свойства TouchDevice.Id.

Приведенный ниже пример демонстрирует этот механизм на простом примере программной обработки простых касаний. Когда пользователь касается холста окна, приложение добавляет на него небольшой овал, чтобы показать точку контакта. При перемещении пальца код сдвигает овал следом.

Этот пример отличается от аналогичного тестового примера для событий мыши тем, что пользователь может прикоснуться к экрану сразу несколькими пальцами, и при этом на экране возникнут несколько овалов, каждый из которых можно перемещать независимо от других.

Чтобы отслеживать все точки контакта, в переменной-члене окна понадобится хранить коллекцию каких-то объектов. Лучше всего хранить коллекцию объектов UIElement (по одному для каждого активного овала), индексируя их с помощью (целочисленных) идентификаторов устройства касания.

Когда пользователь впервые касается экрана, код создает и конфигурирует новый элемент Ellipse (который выглядит как небольшой кружок). Координаты овала берутся из точки касания, он добавляется в коллекцию, индексированную идентификаторами устройства касания, а затем прорисовывается на холсте.

Когда пользователь после касания экрана передвигает палец, возникает событие TouchMove. В этот момент можно определить, какая точка двигается, с помощью идентификатора устройства касания. После этого коду остается только найти соответствующий овал и изменить его координаты. И, наконец, когда пользователь поднимает палец, овал удаляется из коллекции. По
желанию его можно удалить и с холста.

WIMP или GUI

WIMP это аббревиатура от Windows, Icons, Menus, Pointer — окна, иконки, меню, указатель.
WIMP-интерфейс — это графический пользовательский интерфейс, в котором пользователь передаёт компьютеру свои намерения взаимодействуя с окнами, иконками, меню и указателем.

Основные концепции WIMP

  • Метафоры. Этот метод использует концепцию того, что человек будет искать ассоциации с реальной жизнью при работе за компьютером. Это сильно упрощает обучение человека взаимодействию с интерфейсом. Однако необходимо отметить, что стоит грамотно относиться к метафорам. Например в качестве метафоры для действия “Сохранить” используется иконка дискеты, но уже довольно большая часть пользователей никогда не видела в живую дискету.

  • Отдача. Основывается на том, что при совершении какого либо действия, пользователь ожидает физического отклика. В основном такой метод использует анимации интерфейса.

  • Point and click. Т.к пользователь видит объекты на экране, то он может указать на них.

  • Единообразие. В различных программах используются одни и те же концепции, сходные иконки, расположение виджетов. Да, если ты будешь следовать канонам, то скорее всего твой интерфейс будет удобен и соответствовать стандартам индустрии , к тому же это значительно ускоряет разработку. Однако это ограничивает творческую свободу

  • Очевидность действий. В отличии от CLI, в gui все возможные действия представлены на экране. Однако с ростом функционала растёт и площадь экранного пространства, что не всегда хорошо и приводит к перегруженности интерфейса.

Преимущества

  • Основываясь на ожидаемых и логичных возможностях(“физическое” взаимодействиe, метафоры) интерфейса, пользователь быстрее учиться.

  • Единообразие элементов интерфейса создаёт единый стандарт взаимодействия для большинства приложений с которыми может столкнуться пользователь, что позволяет переносить пользовательский опыт между различными приложениями.

Недостатки

  • Ограниченость экранного пространства

  • Вероятность появления перегруженных интерфейсов

  • Отсутствие возможности передать сложные намерения путём “естественного взаимодействия”.

Включение и отключение

Производители мобильных персональных компьютеров максимально упростили порядок включения/отключения сенсорной модели. В некоторых современных ноутбуках (компании HP) рядом с тачпадом имеется выделенная кнопка, которая и отвечает за его активацию и дезактивацию. Соответственно всё, что остаётся, это нажать на данную кнопку и получить желаемый результат. Но подобная возможность реализована далеко не на всех ноутбуках. В большинстве случаев за включение/отключение отвечает определённая комбинация из клавиш «Fn» и «F1 – F12». Здесь уже всё зависит от производителя выбранного девайса, например:

  • «Asus» – сочетание «Fn + F9»;
  • «Lenovo» – «Fn + F8»;
  • «Samsung» – «Fn + F5»;
  • «Toshiba» – «Fn + F5»;
  • «Acer» – «Fn + F7»;
  • «Dell» – «Fn + F5».

К сожалению, нередки случаи, когда упомянутые выше комбинации клавиш попросту не срабатывают

В этом случае следует обратить внимание на настройки BIOS, а для этого потребуется сделать следующее:

  • при включении компьютера, также в зависимости от производителя, откройте настройки BIOS. Это может быть клавиша «F2», «Delete», «TAB» и т. д.;
  • на вкладке «Advanced» найдите параметр, в наименовании которого присутствует «Pointing Device» (Указательные устройства), и переведите его в режим «Enabled» для включения, и «Disabled» для отключения;
  • сохраните изменённую конфигурацию, нажав клавишу «F10» и дождитесь перезагрузки компьютера.

В случае, если ничего из вышеперечисленного не помогло, возможно, на корректность работы тачпада влияют некорректные драйверы данного программного обеспечения. Следовательно, потребуется установить или переустановить их любым удобным способом, например, скачав с сайта производителя или воспользовавшись специализированным ПО – «DriverPack Solution».

Эвристики

  1. Распознавание неточных жестов и ошибочных движений (эффективность передачи информации) — даже на поверхности экрана человеческая рука не способна воспроизводить жесты с предельной точностью, что уж говорить о жестикуляции в пространстве. Не стоит ожидать высокой точности жестов: в противном случае пользователь столкнется с массой ошибок. Необходимо установить разумные пределы точности и прощать пользователю незначительные ошибки.
  2. «Личностные качества» системы должны соответствовать ее функционалу (эффективность обработки информации) — общаясь с неодушевленным объектом, люди машинально приписывают ему некие личностные качества. Полученные от данного объекта ответы помогают им сформировать более точный портрет этой «личности». Согласитесь, если бы производительные приложения вроде Excel или Numbers общались с нами в дружелюбной манере, пользоваться ими было бы куда как приятнее. Водители еще больше доверяли бы автомобильной навигационной системе, обладай она уверенным и строгим голосом. А, например, благодаря Siri пользователи теперь получают удовольствие от решения рутинных задач вроде ежедневного планирования — и все потому, что разработчики Apple запрограммировали в ней чувство юмора.
  3. Не надо заставлять пользователя многократно повторять жесты или просто подолгу жестикулировать, если только это не является целью (эффективность передачи информации) — многократное повторение жестов или продолжительная активность изматывают пользователей. Растет мышечное напряжение, снижается точность — в итоге все это не самым лучшим образом сказывается на эффективности работы. Конечно, данная эвристика неприменима, если цель состоит в том, чтобы заставить пользователей упражняться.
  4. Жестовые и голосовые команды должны быть уместными в контексте ситуации, в которой пользователь к ним прибегает (эффективность восприятия и передачи информации) — жестовые и голосовые команды прекрасно видны и слышны со стороны, и пользователь ни за что не станет ими пользоваться, если при этом он будет выглядеть нелепо. К примеру, если приложение предназначено для использования в офисе, то размашистые движения и выкрикивание странных команд будет довольно неуместно. С другой стороны, в контексте детской игры забавные жесты и команды могут оказаться весьма кстати.
  5. Приглашения к действию должны быть понятными, а само взаимодействие — логичным и последовательным (эффективность обработки информации) — согласно исследованиям Джоша Кларка (Josh Clark) и Дэна Саффера (Dan Saffer), управление с помощью жестов более эффективно, чем с помощью элементов графического или сенсорного интерфейса, но при этом приемы такого управления менее очевидны для пользователей. То же самое касается и голосового управления. Использование жестов и голосовых команд в интерфейсе выводит человеко-машинное взаимодействие на новый уровень, и здесь ясность приглашений к действию и последовательность операций становятся важными как никогда.

Использование технологии в потребительских товарах

Подобно тому, как многие идеи из научной фантастики стали реальностью, распознавание жестов уже вошло в нашу повседневную жизнь. Впервые подобную технологию представила компания Microsoft в 2010 году в своем бесконтактном сенсоре Kinect для Xbox 360. Он фиксирует движения тела и рук в реальном времени, освобождая геймеров от необходимости использовать клавиатуру и джойстики. Также он поддерживает одновременное использование устройства несколькими игроками. Сегодня Kinect является частью облачной платформы Microsoft Azure.

В 2019 году технологические гиганты Microsoft и Intel начали расширять возможности использования систем распознавания жестов. Intel подготовила технический документ по бесконтактной многофакторной аутентификации, которая могла использоваться организациями здравоохранения для повышения безопасности и эффективности работы врачей. Microsoft, в свою очередь, разрабатывает проект по распознаванию жестов с помощью камеры в хирургических условиях.

Однако это не единственные компании, внедряющие технологию в потребительские товары собственного производства. 

  • Google внедрила возможность распознавания жестов в мобильные устройства и умные колонки, а Huawei — в свой флагманский смартфон.
  • С 2016 года компания BMW в 7-й серии автомобилей использует функцию распознавания жестов, которая позволяет водителям увеличивать или уменьшать громкость, принимать или отклонять телефонный вызов и менять угол обзора камеры. Также доступен дополнительный настраиваемый жест двумя пальцами.
  • Совсем недавно Университет Аалто в сотрудничестве с компанией HitSeed обнаружили, что подобная технология может быть встроена даже в умную одежду для использования в сфере производства и здравоохранения.

Процесс обработки видеоизображения

Техническое, или машинное, зрение реализует сложный процесс выделения, идентификации и преобразования видеоинформации, который содержит шесть основных этапов:

  • получение (восприятие) информации с датчика;
  • предварительная обработка изображения;
  • сегментация;
  • описание;
  • распознавание;
  • интерпретация.

После восприятия информации в виде визуального изображения производится ее предварительная обработка для снижения посторонних помех, улучшения изображений отдельных элементов объекта или сцены. Затем происходит сегментация, заключающаяся в подразделении сцены на составляющие части или элементы для выделения на изображении интересующих объектов.

Спецификации


Спецификации дизайна взаимодействий основываются на двух измерениях, которых им вполне достаточно. Однако для некоторых бесконтактных жестов могут потребоваться переменные вроде «расстояние до экрана» или «движение по оси Z», которые эффективнее визуализируются в 3D.

Речевое взаимодействие еще сложнее. Теперь, когда взаимодействие с системой в буквальном смысле становится диалогом, дизайнерам следует учитывать множество дополнительных факторов, например пользовательские интонации, акценты или выбор слов для одной и той же команды. В естественно-языковом интерфейсе такие вариации должны учитываться по максимуму.

Кроме того, появляется множество переменных, определяющих то, какой ответ система выдает пользователю. Интонация, выбор слов, модуляция, тембр — все эти и многие другие факторы влияют на то, как пользователь воспринимает систему.

Данные и мои ранние модели

Странные картинки, но помеченные и обильные.

Когда я прочитал изображения, первая проблема, с которой я столкнулся, заключалась в том, что мои изображения были черно-белыми. Это означает, что массивы NumPy имеют только один канал вместо трех (то есть форма каждого массива (224, 224, 1)). В результате я не смог использовать эти изображения с предварительно обученной моделью VGG-16, поскольку для этой модели требуется 3-канальное изображение RGB. Это было решено с помощью np.stack в списке изображений, X_data:

После того, как я преодолел это препятствие, я приступил к построению модели, используя разделение теста на поезд, котороеполностью протянутыйфотографии от 2 из 10 человек в них. После повторного запуска модели, построенной на архитектуре VGG-16, моя модель набрала в целом F1 балл 0,74. Это было довольно неплохо, учитывая, что случайное угадывание более 10 классов даст в среднем лишь 10% точности.

Однако обучение модели распознаванию изображений из однородного набора данных — это одно. Обучение тому, как распознавать изображения, которые он не видел раньше, в режиме реального времени — совсем другое. Я попытался отрегулировать освещение моих фотографий и использовать темный фон, имитируя фотографии, на которых тренировалась модель.

Я также попытался увеличить изображение — сальто, перекосы, повороты и многое другое. Хотя эти изображения были лучше, чем раньше, у меня все еще были непредсказуемые — и, на мой взгляд, неприемлемые — результаты. У меня было ноющее чувство, что мне нужно переосмыслить проблему и придумать творческий способ заставить этот проект работать.

Вывод: обучите вашу модель изображениям, максимально приближенным к изображениям, которые она может увидеть в реальном мире.

Типы жестов

В компьютерных интерфейсах различают два типа жестов: Мы рассматриваем онлайн-жесты, которые также можно рассматривать как прямые манипуляции, такие как масштабирование и вращение. Напротив, офлайн-жесты обычно обрабатываются после завершения взаимодействия; е. грамм. нарисован круг, чтобы активировать контекстное меню.

  • Офлайн-жесты: те жесты, которые обрабатываются после взаимодействия пользователя с объектом. Примером может служить жест для активации меню.
  • Онлайн-жесты: жесты прямого управления. Они используются для масштабирования или поворота материального объекта.

Как проработать UI

Рекомендации, которые помогут создать хороший пользовательский интерфейс вне зависимости от его типа:

  1. Изучите ЦА. В какой ситуации они будут использовать ваш продукт? С каких устройств чаще всего выполняют нужные действия? Чего им не хватает?

  2. Упрощайте. Каждая дополнительная кнопка, изображение, правило для формирования команд или строка текста усложняет UX. Убедитесь, что каждый элемент служит своей цели.

  3. Следите за последовательностью. Это включает в себя использование единой типографики, цветов и макетов, а также сохранение последовательности взаимодействия и функциональности во всех частях программы.

  4. Обеспечьте обратную связь. UI должен всегда предоставлять пользователю информацию о происходящем. Это может быть в виде индикаторов загрузки, сообщений об успехе/ошибке или других типов ответов.

  5. Повышайте доступность: убедитесь, что ваш интерфейс доступен как можно большему числу людей. Это включает в себя проектирование для различных размеров и разрешений экрана, различных типов устройств и пользователей с ограниченными возможностями.

  6. Следуйте рекомендациям платформы. Если вы разрабатываете приложение для конкретной системы (например, iOS или Android), следуйте ее рекомендациям по дизайну.

  7. Тестируйте. Разработка хорошего UI — итеративный процесс. Создайте прототип, протестируйте его на пользователях, соберите отзывы, внести улучшения и повторяйте этот процесс до тех пор, пока вы не будете довольны дизайном. В тестированиях помогут сервисы AskUsers.

Узнать больше о тестированиях вы сможете из этой статьи.

Считывание телодвижений (косвенный ввод данных)

Вдобавок к новым возможностям управления посредством жестов сенсор Kinect для ПК способен считывать прочие телодвижения пользователей, которые выдают их усталость или настроение. Например, более активная жестикуляция (скажем, более размашистые и резкие жесты) может быть расценена системой как знак того, что пользователь взволнован, и система корректирует свое поведение соответствующим образом. У пользователей, использующих производительные приложения, такое поведение может быть вызвано чувством неудовлетворенности, и система может попытаться помочь пользователю успокоиться.

Еще одним индикатором является точность жестов. Ленивые и неточные жесты пользователя могут быть расценены как признак усталости, и в таком случае система может выдать сообщение с предложением сделать перерыв в работе. Кроме этого, в зависимости от того, сидит ли пользователь за ПК или стоит в полный рост (хотя это и нельзя полностью отнести к косвенным признакам), можно делать доступными разные наборы функций.

Кто работает с интерфейсами

Интерфейсами пользуются абсолютно все, кто использует компьютеры, смартфоны или другие гаджеты. Интерфейс есть практически у любой программы, с которой вы работаете: браузера, графического редактора, мессенджера и чего угодно другого. С программой без интерфейса нельзя взаимодействовать. Это службы операционной системы, системные процессы, которые работают «в фоне» без участия пользователя.

В более узком смысле с интерфейсами работают UI-дизайнеры или разработчики, если речь идет не о графическом интерфейсе. Разработчики же реализуют интерфейс так, чтобы он был функциональным и понятным.

Человеко-машинные интерфейсы: ждем перемен

Благодаря сенсорным интерфейсам взаимодействие пользователей с вычислительными устройствами стало более естественным и интуитивным. С повсеместным распространением сенсорных технологий стали появляться новые концепции взаимодействий. Усилиями корпораций Майкрософт и Apple соответственно бесконтактные жестовые и естественно-языковые (NLI) интерфейсы, дождавшись своего часа, теперь наконец начинают понемногу проникать в отрасль. Если эти технологии приживутся, то благодаря ним мы сможем сделать следующий шаг к созданию естественного пользовательского интерфейса (Natural User Interface, NUI).

Жизненный цикл ответчика¶

Представление может стать ответчиком прикосновения, реализовав правильные методы согласования. Есть два метода, чтобы спросить представление, хочет ли оно стать ответчиком:

  • — Хочет ли это представление стать отвечающим при начале касания?
  • — Вызывается для каждого движения прикосновения к виду, когда он не является ответчиком: хочет ли этот вид «претендовать» на отзывчивость при касании?

Если представление возвращает true и пытается стать ответчиком, произойдет одно из следующих событий:

  • — Представление теперь реагирует на события прикосновения. Это время, чтобы выделить и показать пользователю, что происходит.
  • — Что-то другое является ответчиком в данный момент и не будет его освобождать

Если представление отвечает, можно вызвать следующие обработчики:

  • — Пользователь перемещает палец.
  • — Выполняется в конце касания, то есть «touchUp»
  • — Что-то другое хочет стать ответчиком. Должно ли это представление освободить ответчика? Возвращение true позволяет освободить
  • — Ответчик был взят из представления. Может быть взят другими представлениями после вызова , или может быть взят ОС без запроса (происходит с центром управления/центром уведомлений на iOS).

— это синтетическое событие касания, имеющее следующую форму:

    • — Массив всех событий касания, которые изменились с момента последнего события
    • — Идентификатор прикосновения
    • — Положение X касания относительно элемента
    • — Положение Y касания относительно элемента
    • — Положение X касания относительно корневого элемента
    • — Положение Y касания относительно корневого элемента
    • — Идентификатор узла элемента, получающего событие касания
    • — Идентификатор времени касания, полезный для расчета скорости.
    • — Массив всех текущих касаний на экране

Захват обработчиков ShouldSet

и вызываются по схеме пузырьков, где сначала вызывается самый глубокий узел. Это означает, что самый глубокий компонент станет ответчиком, когда несколько представлений вернут для обработчиков . В большинстве случаев это желательно, поскольку это гарантирует, что все элементы управления и кнопки могут быть использованы.

Однако иногда родитель хочет убедиться в том, что он стал ответчиком. Это можно сделать с помощью фазы захвата. Прежде чем система ответчика поднимется из самого глубокого компонента, она выполнит фазу захвата, срабатывая . Поэтому, если родительский вид хочет предотвратить переход дочернего компонента в статус ответчика при запуске касания, он должен иметь обработчик , который возвращает .

Настройка

Теперь следует коснуться наиболее интересного вопроса, связанного с созданием собственных «горячих жестов» и иных настроек сенсорной панели. Для этого на компьютере с операционной системой Windows 10 потребуется сделать следующее:

  • нажмите на кнопку «Пуск» и выберите раздел «Параметры» и далее «Устройства»;
  • с правой стороны открывшегося окна перейдите в подраздел «Сенсорная панель»;
  • в этом же разделе можно провести настройку чувствительности тачпада и открыть дополнительные настройки устройства; 
  • далее конкретизированный порядок действий привести невозможно, так как последующие шаги зависят от предоставленных разработчиками возможностей по изменению функционала тачпада.

Asus

Например, для ноутбуков «Asus» существует специальная утилита под названием «Asus Smart Gesture», ярлык от которой помещается в трей. Следует отметить, что данная утилита полностью заменяет ранее используемые драйверы, поэтому в разделе «Свойства» на вкладке «ELAN» (в зависимости от производителя наименование может быть другим) устройства отображаться не будут, да в этом случае это не требуется. Окно управления утилиты состоит из трёх вкладок:

  • вкладка «Жесты», где можно включить или выключить определённые параметры, за которые отвечает управление одним/двумя или тремя/четырьмя пальцами; 
  • вкладка «Обнаружение мыши» позволяет активировать режим, при котором сразу после подключения компьютерной мыши отключается сенсорная панель; 
  • вкладка «Мобильное управление», с помощью которой можно включить удалённое управление компьютером с помощью технологии «Remote Link».  

Как видно, компания «Asus» предоставляет не так много возможностей по персонализации, это лишь основные параметры, аналогичные настройки мышки.

Lenovo

По схожей схеме, иногда с большим спектром настраиваемых параметров, действуют и другие производители. К примеру, компания «Lenovo» также выделяет отдельную утилиту, с помощью которой можно настроить следующие моменты:

  1. Вкладка «Одним пальцем» – соответственно предоставляет возможность активировать или отключить стандартные функции управления тачпадом с помощью одного пальца, например, щелчок или перетаскивание объекта. 
  2. Вкладка «Несколькими пальцами» включает в себя наибольшее количество настраиваемых параметров: масштабирование или вызов меню. Кроме включения/отключения подобного управления, можно изменить и дополнительные показатели нескольких функций, например, с помощью ползунка можно скорректировать скорость изменения масштаба до наиболее комфортного показателя, а также быстро просмотреть сделанные изменения. 
  3. Вкладка «Дополнительно» включает в себя три подраздела:
    • «Прослеживание за ладонью». Нередки случаи, когда тачпад распознаёт касание ладонью за попытку выполнить команду, что приводит к совершенно другим результатам, чем ожидается. С помощью данного параметра можно настроить отклик тачпада на случайное касание датчиков ладонью.
    • «Чувствительность сенсора». Название подраздела говорит само за себя.
    • «Движение через край». К управлению рассматриваемым устройством необходимо привыкнуть, так как далеко не всегда получается сразу же корректно использовать управление с помощью нескольких пальцев. Например, при изменении масштаба часто пальцы уходят за границу сенсора, и для достижения нужного масштаба приходится снова повторять манипуляции. Данный подраздел поможет минимизировать риски повторения подобной ситуации. 

Кроме того, для получения более развёрнутой информации по использованию настраиваемых параметров, достаточно кликнуть на иконку с «?», которая находится в левом нижнем углу окна. Информация предоставлена в избыточном объёме и с пошаговыми иллюстрациями.

Обзор

Особенности распознавания жестов:

  • Более точным
  • Высокая стабильность
  • Экономия времени на разблокировку устройства

Основные области применения распознавания жестов в текущемсценарий:

  • Автомобильный сектор
  • Сектор бытовой электроники
  • Транзитный сектор
  • Игровой сектор
  • Разблокировать смартфоны
  • Защита
  • Домашняя автоматизация
  • Автоматический перевод на язык жестов

Распознавание жестов может быть выполнено с помощью техник из компьютерное зрение и обработка изображений.

Литература включает текущую работу в области компьютерного зрения по улавливанию жестов или более общих человеческих поза и движения с помощью камер, подключенных к компьютеру.

Распознавание жестов и перьевые вычисления:Перьевые вычисления уменьшают влияние оборудования на систему, а также расширяют диапазон объектов физического мира, которые можно использовать для управления, помимо традиционных цифровых объектов, таких как клавиатуры и мыши. Такие реализации могут позволить создать новый диапазон оборудования, для которого не требуются мониторы. Эта идея может привести к созданию голографического дисплея. Термин распознавание жестов используется для более узкого обозначения символов рукописного ввода без ввода текста, таких как рукописный ввод на графический планшет, мультитач жесты и жест мыши признание. Это взаимодействие с компьютером посредством рисования символов курсором указывающего устройства. (видеть Ручные вычисления )

Оцените статью