我正在使用Kinect驱动程序CL NUI并尝试获取项目的相对深度。
库提供了一种获取表示屏幕上对象深度的图像的方法。这是一个例子:
是否有一种简单的方法可以将像素颜色转换为图像深度?例如,最接近的颜色可以是0的深度,最远的颜色可以是1的深度。
有谁知道怎么做?
我找到了关于如何将深度数据转换为颜色的这些问题,我想要的是相反的:
float RawDepthToMeters(int depthValue)
{
if (depthValue < 2047)
{
return float(1.0 / (double(depthValue) * -0.0030711016 + 3.3309495161));
}
return 0.0f;
}
Vec3f DepthToWorld(int x, int y, int depthValue)
{
static const double fx_d = 1.0 / 5.9421434211923247e+02;
static const double fy_d = 1.0 / 5.9104053696870778e+02;
static const double cx_d = 3.3930780975300314e+02;
static const double cy_d = 2.4273913761751615e+02;
Vec3f result;
const double depth = RawDepthToMeters(depthValue);
result.x = float((x - cx_d) * depth * fx_d);
result.y = float((y - cy_d) * depth * fy_d);
result.z = float(depth);
return result;
}
Vec2i WorldToColor(const Vec3f &pt)
{
static const Matrix4 rotationMatrix(
Vec3f(9.9984628826577793e-01f, 1.2635359098409581e-03f, -1.7487233004436643e-02f),
Vec3f(-1.4779096108364480e-03f, 9.9992385683542895e-01f, -1.2251380107679535e-02f),
Vec3f(1.7470421412464927e-02f, 1.2275341476520762e-02f, 9.9977202419716948e-01f));
static const Vec3f translation(1.9985242312092553e-02f, -7.4423738761617583e-04f, -1.0916736334336222e-02f);
static const Matrix4 finalMatrix = rotationMatrix.Transpose() * Matrix4::Translation(-translation);
static const double fx_rgb = 5.2921508098293293e+02;
static const double fy_rgb = 5.2556393630057437e+02;
static const double cx_rgb = 3.2894272028759258e+02;
static const double cy_rgb = 2.6748068171871557e+02;
const Vec3f transformedPos = finalMatrix.TransformPoint(pt);
const float invZ = 1.0f / transformedPos.z;
Vec2i result;
result.x = Utility::Bound(Math::Round((transformedPos.x * fx_rgb * invZ) + cx_rgb), 0, 639);
result.y = Utility::Bound(Math::Round((transformedPos.y * fy_rgb * invZ) + cy_rgb), 0, 479);
return result;
}
My Matrix Math很弱,我不知道如何扭转计算。
答案 0 :(得分:3)
我找到了解决方案。
深度值存储在CLNUIDevice.GetCameraDepthFrameRAW
图像中。
该图像的颜色是从11位深度值创建的。 I.E.你有24位的RGB颜色(如果是ARGB,则为32位)。要获得深度,您需要截断不必要的位,如下所示:
private int colorToDepth(Color c) {
int colorInt = c.ToArgb();
return (colorInt << 16) >> 16;
}
使用16,因为16位的数字为0位填充0位。 I.E.你有一个如下所示的数字:1111 1111 0000 0 ### #### ####其中1是alpha通道,零是填充,'#'是实际值。 左移16换你0000 0 ### #### #### 0000 0000,你想把我的换档向右推16次:0000 0000 0000 0 ### ##### ####
答案 1 :(得分:0)
如果我错了,请纠正我,但据我所知,您的代码从Kinect接收深度数组,使用DepthToWorld
将其转换为“世界”对象(使用x,y,z坐标),然后转换那是使用WorldToColor
的彩色2D数组。从那时起,您试图检索每个像素相对于Kinect的距离(以米为单位)。正确?
那么为什么不直接从Kinect获取初始深度数组,并在每个像素上调用RawDepthToMeters
函数?
之前反转代码所做的操作是一个巨大的性能损失......