用于开发 Xbox 360 kinect 应用程序的语言

时间:2021-01-18 16:59:42

标签: kinect kinect-sdk gesture-recognition xbox360

我知道这听起来很愚蠢,而且我参加聚会可能已经很晚了,但这是我想要编写手势识别应用程序(例如此 Hand detection 或此 actual finger detection 之类的)的东西Xbox 360 Kinect。 SDK(版本 1.8)已找到,安装并运行,初步研究已完成 - 我只是忘了看用哪种语言编写代码。从 SDK 到文档的链接将是第一件事,但不幸的是,这是一个死胡同。
从提供的示例来看,它似乎是 C++ 或 C#,尽管一些旧帖子也声称是 Java。我的问题是:是否有与 SDK 无关的文档,以及在这种特定情况下在 C++/C#/Java 下进行开发时存在哪些陷阱? 2011 年的post 几乎没有涵盖开头。

附录:进一步查看时,我收到了来自开发人员工具包的示例站点的提示 - 可以访问该站点,但所有列出和链接的示例也都是死胡同。

附录:作为参考,我使用了这个 instruction - 最终证明是徒劳的。

找到一个版本的 NiTE here

1 个答案:

答案 0 :(得分:0)

我过去曾提供过 this answer

我个人最常使用 Xbox360 传感器和 OpenNI(因为它是跨平台的)。此外,NITE 中间件与 OpenNI 一起提供了一些基本的手部检测甚至手势检测(滑动、圆圈手势、“按钮”按下等)。

虽然 OpenNI 是开源的,但 NITE 不是,所以你会被他们提供的东西所限制。

您分享的链接使用 OpenCV。您可以安装 OpenNI 并使用 OpenNI 支持从源代码编译 OpenCV。或者,您可以手动将 OpenNI 帧数据包装到 OpenCV cv::Mat 中,然后从那里继续进行 OpenCV 操作。

这是一个使用 OpenNI 获取深度数据并将其传递给 OpenCV 的基本示例:

#include <OpenNI.h>

#include "opencv2/highgui/highgui.hpp"
#include "opencv2/videoio/videoio.hpp"

#include <iostream>

using namespace cv;
using namespace std;

int main() {
    // setup OpenNI
    openni::Status rc = openni::STATUS_OK;
    openni::Device device;
    openni::VideoStream depth, color;
    const char* deviceURI = openni::ANY_DEVICE;
    rc = openni::OpenNI::initialize();

    printf("After initialization:\n%s\n", openni::OpenNI::getExtendedError());
    rc = device.open(deviceURI);
    if (rc != openni::STATUS_OK)
    {
        printf("Device open failed:\n%s\n", openni::OpenNI::getExtendedError());
        openni::OpenNI::shutdown();
        return 1;
    }

    rc = depth.create(device, openni::SENSOR_DEPTH);
    if (rc == openni::STATUS_OK)
    {
        rc = depth.start();
        if (rc != openni::STATUS_OK)
        {
            printf("Couldn't start depth stream:\n%s\n", openni::OpenNI::getExtendedError());
            depth.destroy();
        }
    }
    else
    {
        printf("Couldn't find depth stream:\n%s\n", openni::OpenNI::getExtendedError());
    }

    if (!depth.isValid())
    {
        printf("No valid depth stream. Exiting\n");
        openni::OpenNI::shutdown();
        return 2;
    }

    openni::VideoMode vm = depth.getVideoMode();
    int cols, rows;
    cols = vm.getResolutionX();
    rows = vm.getResolutionY();

    openni::VideoFrameRef frame;
    depth.start();
    // main loop
    for (;;) {
        // read OpenNI frame
        depth.readFrame(&frame);
        // get depth pixel data
        openni::DepthPixel* dData = (openni::DepthPixel*)frame.getData();
        // wrap the data in an OpenCV Mat
        Mat depthMat(rows, cols, CV_16UC1, dData);
        // for visualisation only remap depth values
        Mat depthShow;
        const float scaleFactor = 0.05f;
        depthMat.convertTo(depthShow, CV_8UC1, scaleFactor);
        if(!depthShow.empty())
        {
            imshow("depth", depthShow);
        }
        
        if (waitKey(30) == 27)   break;

    }
    // OpenNI exit cleanup
    depth.stop();
    openni::OpenNI::shutdown();
}

您链接到的其中一个教程 (https://github.com/royshil/OpenHPE) 使用了 libfreenect,这是与旧 Kinect 交互的另一个出色的跨平台选项。

FWIW,XBox One 的 Kinect 具有更好的深度数据,更好地处理阳光直射,并且 SDK 支持自定义手势识别(例如参见 this tutorial)。

相关问题