我想对Intel RealSense或Orbbec Astra相机的对齐RGB和深度流进行机器学习(尤其是CNN)实验。我的目标是进行一些对象识别,并在输出视频流中突出显示/标记它们(作为起点)。
但是,在阅读了许多文章之后,我仍然对所涉及的框架以及数据如何从相机流经所涉及的软件组件感到困惑。我只是无法获得高水平的照片。
这是我对处理流程的假设:
传感器=>驱动程序=> libRealSense / Astra SDK => TensorFlow
问题
Astra OpenNI SDK
之外还提供了另外一个Astra SDK
,因为Intel为OpenCV
和OpenNI
提供了包装(?)。我何时或为何需要此附加库/支持?答案 0 :(得分:1)
sensor -> driver -> camera library -> other libraries built on top of it
(请参阅OpenCV对Intel RealSense的支持)-> captured image.
一旦获得图像,您当然可以做任何想做的事。tf.data
为模型创建输入管道,并在tensorflow中开发在RGDB图像上使用CNN的任何应用程序(只需在Google上搜索并查看arxiv以获得关于可能的应用程序。)模型经过训练后,只需导出训练后的图并将其用于推理,因此您的管道将变为:sensor -> driver -> camera library -> libs -> RGBD image -> trained model -> model output