我有2个点云(以mm为单位),一个是从stl对象采样的“网格”(99999个点),第二个是3D cam拍摄的该对象的点云(约30841个点)。我正在使用此PCL教程的代码进行模板匹配:http://pointclouds.org/documentation/tutorials/template_alignment.php。之后,我将使用PCL ICP代码进行最终对齐。但是我从模板对齐中获得的初步猜测仍然很糟糕。 (例如,没有轮换,半决赛……)
我尝试从以下位置更改设置:
normal_radius_(0.02f)
feature_radius_(0.02f)
min_sample_distance_(0.05f)
max_correspondence_distance_(0.01f * 0.01f)
nr_iterations_(50)
对此:
normal_radius_(2.0f)
feature_radius_(2.0f)
min_sample_distance_(0.5f)
max_correspondence_distance_(1.0f * 1.0f)
nr_iterations_(1000)
有人可以给我一些如何改进此代码的提示吗?谢谢!
答案 0 :(得分:1)
与分辨率有关的参数也应相对于点云的分辨率进行设置。 还应根据对象的大小设置与对象大小有关的参数。
一些例子:
normal_radius: 4-8 * <resolution>
mm
中,那么您选择的半径2mm
太小了。feature_radius: 1-2 * <normal_radius>
max_correspondence_distance:
将此值设置为1mm*1mm
,这意味着对应对象只能相隔1mm
才能归类为对应对象。在此,重要的是使用与您的对象的大小有关的值。您应该问自己,“我的对象与参考之间的最大允许距离是多少,以使我的对象仍然匹配?” 如果要比较人脸,则应使用一些centimeter
,例如1cm-5cm
,因为脸很小。但是,假设您要比较建筑物等大型物体。在那里您可以使用最多1m
的值。min_sample_distance:
在这里与max_correspondence_distance
几乎相同。您应该问自己,“一个样品应与另一个样品相距多少?” 。值越小,您将获得更多的样本。同样,选择一个值,该值是对象大小的一小部分,但也应考虑该值不应小于云的分辨率。您将其设置为0.5mm
,太小了。nr_iterations:
通常不那么重要,但是100-500
之间的值是合理的。答案 1 :(得分:1)
normal_radius _ :
min_sample_distance _ :
feature_radius _ :
max_correspondence_distance _ :
对于您的情况(同一对象的两个云),如果您的云具有法线,则完全不需要使用SampleConsensusInitialAlignment即可获得良好的初始猜测。只需对齐两个云的平均法线即可。您可以对两种云都应用以下方法,以使其处于“规范化”的位置和方向:
void ToOrigin(pcl::PointCloud<pcl::PointXYZINormal>::Ptr cloud, Eigen::Affine3f & transformation, Eigen::Vector3f up, float resolution)
{
// Calc Origin
pcl::PointXYZINormal origin;
auto size = cloud->points.size();
for (auto pointItr = cloud->begin(); pointItr != cloud->end(); pointItr++)
{
origin.getArray3fMap() += pointItr->getArray3fMap() / size;
origin.getNormalVector3fMap() += pointItr->getNormalVector3fMap();
}
origin.getNormalVector3fMap().normalize();
// Calc Transformation
auto proj = origin.getNormalVector3fMap().dot(up) * origin.getNormalVector3fMap();
// the direction that will be rotated to y_axis
// (the part of "up" that is perpendicular to the cloud normal)
auto y_direction = (up - proj).normalized();
// the direction that will be rotated to z_axis
auto z_direction = origin.getNormalVector3fMap();
// the point that will be shifted to origin (0,0,0)
auto center = origin.getArray3fMap();
pcl::getTransformationFromTwoUnitVectorsAndOrigin(y_direction, z_direction, center, transformation);
// Transform
pcl::PointCloud<pcl::PointXYZINormal> cloud_tmp;
pcl::transformPointCloudWithNormals(*cloud, cloud_tmp, transformation);
pcl::copyPointCloud(cloud_tmp, *cloud);
}