我正在尝试通过机器学习从便携式LiDAR点云数据(* .txt或* .ply格式,具有xyz坐标和强度)中检测树木。我的最终目标是从数据中找到树木的轮廓框。 在哪里可以找到相似或适用的示例?
我使用KAARTA模具来破坏点云数据,该数据提供点云数据和轨迹数据作为输出(层格式)。模具在扫描过程中检测到我的移动,并将扫描过程中收集的数据合并到单个点云中。
我搜索了参考文献,并试图改编Pointnet和Pointnet ++,这似乎还不够,因为它们不仅使用了点云数据,还使用了标记的图像数据。因此,我尝试采用仅使用点云数据的PointRCNN。但是,由于该方法是从KITTI数据集中获取训练数据的,而点云数据是使用相机进行校准并保存为* .bin文件的,因此我的层或txt格式不匹配。而且,据我所知,PointRCNN github并没有可视化也没有建议最终测试的数据。
我的点云数据像这样 x y z坐标和强度,
8.91111946000000 -3.29306102000000 -1.70352602000000 8
10.5736494100000 -4.01511002000000 -1.67315805000000 10
11.8306922900000 -4.49030399000000 -1.57627404000000 28
17.4149875600000 -6.58615303000000 -1.89027500000000 18
14.9005212800000 -5.65278721000000 -1.24228799000000 20
14.8979778300000 -5.66406107000000 -0.498665000000000 21
15.4343833900000 -5.87334013000000 -0.134660010000000 10