我知道这听起来很愚蠢,而且我参加聚会可能已经很晚了,但这是我想要编写手势识别应用程序(例如此 Hand detection 或此 actual finger detection 之类的)的东西Xbox 360 Kinect。 SDK(版本 1.8)已找到,安装并运行,初步研究已完成 - 我只是忘了看用哪种语言编写代码。从 SDK 到文档的链接将是第一件事,但不幸的是,这是一个死胡同。
从提供的示例来看,它似乎是 C++ 或 C#,尽管一些旧帖子也声称是 Java。我的问题是:是否有与 SDK 无关的文档,以及在这种特定情况下在 C++/C#/Java 下进行开发时存在哪些陷阱? 2011 年的post 几乎没有涵盖开头。
附录:进一步查看时,我收到了来自开发人员工具包的示例站点的提示 - 可以访问该站点,但所有列出和链接的示例也都是死胡同。
附录:作为参考,我使用了这个 instruction - 最终证明是徒劳的。
找到一个版本的 NiTE here
答案 0 :(得分:0)
我过去曾提供过 this answer。
我个人最常使用 Xbox360 传感器和 OpenNI(因为它是跨平台的)。此外,NITE 中间件与 OpenNI 一起提供了一些基本的手部检测甚至手势检测(滑动、圆圈手势、“按钮”按下等)。
虽然 OpenNI 是开源的,但 NITE 不是,所以你会被他们提供的东西所限制。
您分享的链接使用 OpenCV。您可以安装 OpenNI 并使用 OpenNI 支持从源代码编译 OpenCV。或者,您可以手动将 OpenNI 帧数据包装到 OpenCV cv::Mat
中,然后从那里继续进行 OpenCV 操作。
这是一个使用 OpenNI 获取深度数据并将其传递给 OpenCV 的基本示例:
#include <OpenNI.h>
#include "opencv2/highgui/highgui.hpp"
#include "opencv2/videoio/videoio.hpp"
#include <iostream>
using namespace cv;
using namespace std;
int main() {
// setup OpenNI
openni::Status rc = openni::STATUS_OK;
openni::Device device;
openni::VideoStream depth, color;
const char* deviceURI = openni::ANY_DEVICE;
rc = openni::OpenNI::initialize();
printf("After initialization:\n%s\n", openni::OpenNI::getExtendedError());
rc = device.open(deviceURI);
if (rc != openni::STATUS_OK)
{
printf("Device open failed:\n%s\n", openni::OpenNI::getExtendedError());
openni::OpenNI::shutdown();
return 1;
}
rc = depth.create(device, openni::SENSOR_DEPTH);
if (rc == openni::STATUS_OK)
{
rc = depth.start();
if (rc != openni::STATUS_OK)
{
printf("Couldn't start depth stream:\n%s\n", openni::OpenNI::getExtendedError());
depth.destroy();
}
}
else
{
printf("Couldn't find depth stream:\n%s\n", openni::OpenNI::getExtendedError());
}
if (!depth.isValid())
{
printf("No valid depth stream. Exiting\n");
openni::OpenNI::shutdown();
return 2;
}
openni::VideoMode vm = depth.getVideoMode();
int cols, rows;
cols = vm.getResolutionX();
rows = vm.getResolutionY();
openni::VideoFrameRef frame;
depth.start();
// main loop
for (;;) {
// read OpenNI frame
depth.readFrame(&frame);
// get depth pixel data
openni::DepthPixel* dData = (openni::DepthPixel*)frame.getData();
// wrap the data in an OpenCV Mat
Mat depthMat(rows, cols, CV_16UC1, dData);
// for visualisation only remap depth values
Mat depthShow;
const float scaleFactor = 0.05f;
depthMat.convertTo(depthShow, CV_8UC1, scaleFactor);
if(!depthShow.empty())
{
imshow("depth", depthShow);
}
if (waitKey(30) == 27) break;
}
// OpenNI exit cleanup
depth.stop();
openni::OpenNI::shutdown();
}
您链接到的其中一个教程 (https://github.com/royshil/OpenHPE) 使用了 libfreenect
,这是与旧 Kinect 交互的另一个出色的跨平台选项。
FWIW,XBox One 的 Kinect 具有更好的深度数据,更好地处理阳光直射,并且 SDK 支持自定义手势识别(例如参见 this tutorial)。