Как мне пойти по кодированию голосового триггера для навигации по Google Glass Cards?
This is how I see it happening:
1) "Ok Glass, Start My Program"
2) Application begins and shows the first card
3) User can say "Next Card" to move to the next card
(somewhat the equivalent of swiping forward when in the timeline)
4) User can say "Previous Card" to go back
Карты, которые мне нужно отображать, - это простой текст и изображения, мне интересно, могу ли я настроить слушателя какого-либо типа для прослушивания голосовых команд, пока отображается карта.
Я исследовал ближайшее голосовое командование из указанного списка, но не смог запустить код, хотя у меня есть все библиотеки.
Примечание: важно, чтобы пользователь все еще видел карту при использовании голосовой команды. Также его руки заняты, поэтому tap/swipe не является вариантом.
Любые идеи о как управлять временной шкалой в моем приложении Immersion, используя только голосовое управление?, будут очень благодарны!
Я отслеживаю https://code.google.com/p/google-glass-api/issues/detail?id=273.
Мои текущие исследования заставили меня взглянуть на Google Glass Developer, чтобы использовать предлагаемый Google способ прослушивания жестов: https://developers.google.com/glass/develop/gdk/input/touch#detecting_gestures_with_a_gesture_detector
Как мы можем активировать эти жесты с помощью голосовых команд?
Android только для бета-версии обновленных носимых устройств для android http://developer.android.com/wear/notifications/remote-input.html, можно ли использовать это, чтобы ответить на мой вопрос? он по-прежнему чувствует, что мы все еще на расстоянии одного шага, так как мы можем позвонить в службу, но не будем "спать" и "просыпаться" в качестве фоновой службы, когда мы говорим.