如何使用Cyber​​Glove II执行手势识别

时间:2016-03-01 19:10:03

标签: visual-c++ gesture-recognition cyberglove

我正在开展一个项目,尝试使用CyberGlove II Recognize Gestures

当我执行GetDataGlove Demo(出现在SDK)时,我得到了这个结果。 (See results in prompt

Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0

Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0

Glove:
0 0.38016 -0.13131 -0.12843
1 -0.09696 -0.20426 -0.0753
2 0.1725 0.01804 -012612
3 0.36897 -0.30396 0.01051
4 0.31597 -0.273 -0.2964
Tracker:
0 0 0
0 0 0 0

...
  • 如果我做同样的动作,上述值会非常相似但不同。

  • 值0到4代表每个手指,3个值代表手指的每个关节。

但我有两个问题:

  1. 您如何在Gesture Recognition
  2. 中解释这些数据
  3. 每个传感器返回的最大值和最小值是什么?
  4. PS:对我来说最重要的是学习如何理解传感器数据。有一些教学样本。我想识别来自Brazil Sign Languages的手势。

1 个答案:

答案 0 :(得分:0)

CyberGlove API并未提供此识别的原生内容。随着同一手势的手势数据发生变化,我不得不使用机器学习。我使用Microsoft Azure Machine Learning,服务基于JSON

首先,我必须使用我想要识别的手势映射创建.csv。我为每个手势做了手势100次的映射。这个数量已被证明是合理的认可和表现也非常有趣。