我知道这已经全网了。我浏览了很多,并发现了很多关于手势识别的信息。但是在阅读之后我感到更加困惑,他们中的大多数似乎都在使用Kinect Official SDK,微软的SDK而且我不想使用它们。
我需要为Linux开发它,并且想知道OpenNI,NITE是否能让我灵活地识别手势。
我正在尝试开发一种手语程序,它可识别手势并在屏幕上绘制内容(球体,立方体等),
任何人都可以给我一个明确的指导方针来开始这个项目。我不知道从哪里开始。
欢迎任何帮助。
由于
答案 0 :(得分:3)
为了开始理解手势,我建议查看我做了一段时间的博客文章: http://www.exceptontuesdays.com/gestures-with-microsoft-kinect-for-windows-sdk-v1-5/
这个,加上它链接的帖子,进入构成“手势”的内容以及如何使用Kinect for Windows SDK实现它们。
您还可以查看您的Kinect工具箱,它也可以为官方Kinect SDK做手势: http://kinecttoolbox.codeplex.com
这些将使您更好地理解如何处理手势。然后,您可以将这些概念和想法转移到OpenNI环境中。
答案 1 :(得分:1)
如果您在手语系统中想要使用手势,可以查看Kinect 3D handtracking。如果它包括全身运动,那么看看KineticSpace。这两个工具都适用于Linux,但第一个工具也需要支持CUDA的GPU。
答案 2 :(得分:0)
我认为手势识别不依赖于你是否使用Kinect Official SDK或OpenNI,如果你可以从Kinect获取骨架数据或者图像,那么你可以从之间的关系中提取姿势或位置。斯卡尔顿与时俱进。据我所知,这些SDK都提供了这些信息。
我在windows上开发了kinect,但原理是相同的,我仍然建议知道关于手势识别的原理,然后你可以找到使用其他SDK进行识别的方法。