使用深度数据计算手的面积

时间:2014-05-18 22:35:38

标签: c# computer-vision kinect kinect-sdk

使用Kinect传感器,我试图编写一个算法来检测握紧的拳头。我试图通过计算手所占面积来实现这一目标(因为握紧拳头区域<非紧握拳头区域)。

这是我到目前为止所拥有的:

  • 每个像素的深度信息(来自DepthStream)
  • Hand的位置(来自SkeletonStream)

我无法弄清楚如何获得与手相对应的深度数据。在Kinect给手的确切位置获取深度数据很容易,但我不知道如何获得手的所有深度数据。任何建议,伪代码和/或教程链接都会有所帮助。

2 个答案:

答案 0 :(得分:1)

来自KinectInteractions的事件可以检测到拳头位于gripped mode or released mode时,因为它用于KinectRegion中的KinectScrollViewer:

The HandPointGrip event The HandPointGripReleased event

此外,这可能与this post重复。

答案 1 :(得分:0)

我在这个领域没有经验,但在我的搜索中发现了这一点。看看它是否对您有所帮助:https://groups.google.com/forum/#!topic/openni-dev/Kj2JL6K0PBw