我正在研究分类问题(自动驾驶汽车的对象分类)。我使用KITTI提供的数据集,该数据集提供激光雷达和相机数据,并希望使用这两个数据来执行任务。
3D LIDAR数据投影到RGB图像的坐标系上,从而生成稀疏的LIDAR图像:
每个像素都使用深度(到点的距离:sqrt(X²+Y²),在0到255之间缩放)进行编码。
为了获得CNN更好的结果,我需要一个密集的激光雷达图像,有人知道如何使用python做到这一点吗?
我想获得这样的东西
提前谢谢
答案 0 :(得分:1)
我以前从未使用过点云数据/ LIDAR,但由于没有人回答,我会尽力而为。我不确定每种方法的修复方法,尽管我认为它们可能无法很好地工作(除了可变方法,我认为这会相当慢)。但是,如果您的目标是将3D LIDAR读数(伴随有环号和激光强度读数)投影到密集的2D矩阵(用于CNN中),则以下参考资料可能会有用。此外,在本文中,他们引用了以前的工作(Collar Line Segments for Fast Odometry Estimation from Velodyne Point Clouds),其中更详细地介绍了极性合并技术and has C++ code available。查看论文,但我将在此处尝试总结该技术:
CNN for Very Fast Ground Segmentation in Velodyne LiDAR Data -在第III.A节(将稀疏3D数据编码为密集2D矩阵)中描述了其预处理技术。
最后,看看下面的论文,他们介绍了一些在CNN中使用稀疏Velodyne读数的技术。也许看看其中有没有改善您的表现?
Vehicle Detection from 3D Lidar Using Fully Convolutional Network -在第III.A节(数据准备)中描述了其预处理技术。
将范围数据编码为2通道图像
不均等(上/下)采样
所有技术都是针对KITTI数据集/ Velodyne LIDAR实施的,因此我认为它们可以针对您的特定用例工作(也许进行一些修改)。