我正在考虑将Azure Kinect用于正在使用的产品,但是在阅读的一份文档中看到的某些内容使我感到停顿:
“深度相机将原始的调制红外图像传输到主机PC。 在PC上,GPU加速深度引擎软件将原始 信号进入深度图。”
我不确定这是否是非技术作者试图解释工程师告诉他们的内容的结果,还是应将其解释为字面事实。
我假设LED处于调制状态,并且相移就是确定深度的方法。如果Kinect内的传感器只是一台具有快速全局快门且可以精确定时的常规相机,我想您可以连续拍摄几张图像,并以像素为单位计算出光线的相移。它正在接收。我正在使用资源受限的嵌入式计算机,该计算机可能没有处理能力实时处理每个像素的深度。这是主机真正确定深度的实际情况,还是Kinect直接为您提供距离?