我正在开展一个项目,尝试使用CyberGlove II Recognize Gestures
。
当我执行GetDataGlove Demo
(出现在SDK
)时,我得到了这个结果。 (See results in prompt)
Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0
Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0
Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0
...
如果我做同样的动作,上述值会非常相似但不同。
值0到4代表每个手指,3个值代表手指的每个关节。
但我有两个问题:
Gesture Recognition
? PS:对我来说最重要的是学习如何理解传感器数据。有一些教学样本。我想识别来自Brazil Sign Languages
的手势。
答案 0 :(得分:0)
CyberGlove API
并未提供此识别的原生内容。随着同一手势的手势数据发生变化,我不得不使用机器学习。我使用Microsoft Azure Machine Learning,服务基于JSON
。
首先,我必须使用我想要识别的手势映射创建.csv
。我为每个手势做了手势100
次的映射。这个数量已被证明是合理的认可和表现也非常有趣。