我之前发布了有关同一程序的问题,但未收到任何答案。我已经纠正了我在那时遇到的问题,只是面对一个新问题。
基本上我使用未经校准的方法自动校正立体图像对以进行旋转和平移。我使用诸如SURF之类的特征检测算法来找到两个图像中的点,左右立体图像对,然后再次使用SURF我匹配两个图像之间的点。然后我需要使用这些匹配点来找到我可以用来校正图像的基本矩阵。
我的问题是这个。我的匹配点存储在描述符匹配的单个向量中,然后针对异常值进行过滤。 findFundamentalMat将两个独立的匹配点数组作为输入。我不知道如何从我的矢量转换为我的两个独立数组。
cout << "< Matching descriptors..." << endl;
vector<DMatch> filteredMatches;
crossCheckMatching( descriptorMatcher, descriptors1, descriptors2, filteredMatches, 1 );
cout << filteredMatches.size() << " matches" << endl << ">" << endl;
创建了矢量。
void crossCheckMatching( Ptr<DescriptorMatcher>& descriptorMatcher,
const Mat& descriptors1, const Mat& descriptors2,
vector<DMatch>& filteredMatches12, int knn=1 )
{
filteredMatches12.clear();
vector<vector<DMatch> > matches12, matches21;
descriptorMatcher->knnMatch( descriptors1, descriptors2, matches12, knn );
descriptorMatcher->knnMatch( descriptors2, descriptors1, matches21, knn );
for( size_t m = 0; m < matches12.size(); m++ )
{
bool findCrossCheck = false;
for( size_t fk = 0; fk < matches12[m].size(); fk++ )
{
DMatch forward = matches12[m][fk];
for( size_t bk = 0; bk < matches21[forward.trainIdx].size(); bk++ )
{
DMatch backward = matches21[forward.trainIdx][bk];
if( backward.trainIdx == forward.queryIdx )
{
filteredMatches12.push_back(forward);
findCrossCheck = true;
break;
}
}
if( findCrossCheck ) break;
}
}
}
交叉检查匹配并存储在filteredMatches中。
cout << "< Computing homography (RANSAC)..." << endl;
vector<Point2f> points1; KeyPoint::convert(keypoints1, points1, queryIdxs);
vector<Point2f> points2; KeyPoint::convert(keypoints2, points2, trainIdxs);
H12 = findHomography( Mat(points1), Mat(points2), CV_RANSAC, ransacReprojThreshold );
cout << ">" << endl;
基于阈值找到单应性,该阈值在命令提示符中的运行时设置。
//Mat drawImg;
if( !H12.empty() ) // filter outliers
{
vector<char> matchesMask( filteredMatches.size(), 0 );
vector<Point2f> points1; KeyPoint::convert(keypoints1, points1, queryIdxs);
vector<Point2f> points2; KeyPoint::convert(keypoints2, points2, trainIdxs);
Mat points1t; perspectiveTransform(Mat(points1), points1t, H12);
for( size_t i1 = 0; i1 < points1.size(); i1++ )
{
if( norm(points2[i1] - points1t.at<Point2f>((int)i1,0)) < 4 ) // inlier
matchesMask[i1] = 1;
}
/* draw inliers
drawMatches( leftImg, keypoints1, rightImg, keypoints2, filteredMatches, drawImg, CV_RGB(0, 255, 0), CV_RGB(0, 0, 255), matchesMask, 2 ); */
}
进一步过滤匹配以删除异常值。
......然后是什么?如何将剩下的内容拆分为两个Mat匹配点以在findFundamentalMat中使用?
修改
我现在使用我的蒙版来制作一个finalMatches矢量(这取代了上面的最终过滤程序):
Mat drawImg;
if( !H12.empty() ) // filter outliers
{
size_t i1;
vector<char> matchesMask( filteredMatches.size(), 0 );
vector<Point2f> points1; KeyPoint::convert(keypoints1, points1, queryIdxs);
vector<Point2f> points2; KeyPoint::convert(keypoints2, points2, trainIdxs);
Mat points1t; perspectiveTransform(Mat(points1), points1t, H12);
for( i1 = 0; i1 < points1.size(); i1++ )
{
if( norm(points2[i1] - points1t.at<Point2f>((int)i1,0)) < 4 ) // inlier
matchesMask[i1] = 1;
}
for( i1 = 0; i1 < filteredMatches.size(); i1++ )
{
if ( matchesMask[i1] == 1 )
finalMatches.push_back(filteredMatches[i1]);
}
namedWindow("matches", 1);
// draw inliers
drawMatches( leftImg, keypoints1, rightImg, keypoints2, filteredMatches, drawImg, CV_RGB(0, 255, 0), CV_RGB(0, 0, 255), matchesMask, 2 );
imshow("matches", drawImg);
}
但是我仍然不知道如何将我的finalMatches DMatch矢量分割成我需要提供给findFundamentalMat的Mat数组,请帮忙!!!
修改
工作(某种)解决方案:
Mat drawImg;
vector<Point2f> finalPoints1;
vector<Point2f> finalPoints2;
if( !H12.empty() ) // filter outliers
{
size_t i, idx;
vector<char> matchesMask( filteredMatches.size(), 0 );
vector<Point2f> points1; KeyPoint::convert(keypoints1, points1, queryIdxs);
vector<Point2f> points2; KeyPoint::convert(keypoints2, points2, trainIdxs);
Mat points1t; perspectiveTransform(Mat(points1), points1t, H12);
for( i = 0; i < points1.size(); i++ )
{
if( norm(points2[i] - points1t.at<Point2f>((int)i,0)) < 4 ) // inlier
matchesMask[i] = 1;
}
for ( idx = 0; idx < filteredMatches.size(); idx++)
{
if ( matchesMask[idx] == 1 ) {
finalPoints1.push_back(keypoints1[filteredMatches[idx].queryIdx].pt);
finalPoints2.push_back(keypoints2[filteredMatches[idx].trainIdx].pt);
}
}
namedWindow("matches", 0);
// draw inliers
drawMatches( leftImg, keypoints1, rightImg, keypoints2, filteredMatches, drawImg, CV_RGB(0, 255, 0), CV_RGB(0, 0, 255), matchesMask, 2 );
imshow("matches", drawImg);
}
然后我将finalPoints1和finalPoints2作为Mat发送到findFundamentalMat中。现在我唯一的问题是我的输出并不像预期的那样远,图像都搞砸了: - /
答案 0 :(得分:9)
您的匹配数组是描述符数组的偏移量。由于每个描述符都有一个对应的关键点,因此您可以简单地从索引中迭代并构建两个关键点数组。然后可以将这些关键点输入findFundamentalMat。
编辑:
我相信你的错误在于产生finalMatches而你丢失了信息。 vector filteredMatches已重载。 matchesMask为1的索引显示关键点1的索引,而存储在finalMatches中的索引是关键点2的索引。通过scrunching到finalMatches,你实际上失去了第一组索引。
尝试以下方法:
有一个循环计算实际匹配的数量:
int num_matches = 0;
for( int idx = 0; idx < matchesMask.size(); idx++ )
{
if ( matchesMask[idx] == 1 )
num_matches++;
}
现在声明正确大小的CvMats:
matched_points1 = cvCreateMat(2,numPoints,CV_32F);
matched_points2 = cvCreateMat(2,numPoints,CV_32F);
现在遍历filteredMatches并插入:(确切的语法可能不同,你明白了)
offset = 0;
for (int idx = 0; idx < matchesMask.size(); idx++)
{
if ( matchesMask[idx] == 1 ) {
matched_points1[2*offset] = keypoints1[idx].pt.x;
matched_points1[2*offset+1] = keypoints1[idx].pt.y;
matched_points2[2*offset] = keypoints2[filteredMatches[idx]].pt.x;
matched_points2[2*offset+1] = keypoints2[filteredMatches[idx]].pt.y;
offset++;
}
}