与ORB python opencv匹配的功能

时间:2015-07-29 02:28:37

标签: python opencv

我正在使用ORB python opencv匹配功能,但是当我运行此代码时,我收到此错误 Traceback(最近一次调用最后一次):   文件“ffl.py”,第27行,in     对于m,n匹配: TypeError:'cv2.DMatch'对象不可迭代

我不知道如何解决它

import numpy as np
import cv2
import time

ESC=27   
camera = cv2.VideoCapture(0)
orb = cv2.ORB_create()
bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)

imgTrainColor = cv2.imread('/home/shar/home.jpg')
imgTrainGray = cv2.cvtColor(imgTrainColor, cv2.COLOR_BGR2GRAY)

kpTrain = orb.detect(imgTrainGray,None)
kpTrain, desTrain = orb.compute(imgTrainGray, kpTrain)

firsttime = True

while True:

    ret, imgCamColor = camera.read()
    imgCamGray = cv2.cvtColor(imgCamColor, cv2.COLOR_BGR2GRAY)
    kpCam = orb.detect(imgCamGray,None)
    kpCam, desCam = orb.compute(imgCamGray, kpCam)
    bf = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True)
    matches = bf.match(desCam,desTrain)
    good = []
    for m,n in matches:
        if m.distance < 0.7*n.distance:
            good.append(m)

    if firsttime==True:
        h1, w1 = imgCamColor.shape[:2]
        h2, w2 = imgTrainColor.shape[:2]
        nWidth = w1+w2
        nHeight = max(h1, h2)
        hdif = (h1-h2)/2
        firsttime=False

    result = np.zeros((nHeight, nWidth, 3), np.uint8)
    result[hdif:hdif+h2, :w2] = imgTrainColor
    result[:h1, w2:w1+w2] = imgCamColor

    for i in range(len(matches)):
        pt_a=(int(kpTrain[matches[i].trainIdx].pt[0]), int(kpTrain[matches[i].trainIdx].pt[1]+hdif))
        pt_b=(int(kpCam[matches[i].queryIdx].pt[0]+w2), int(kpCam[matches[i].queryIdx].pt[1]))
        cv2.line(result, pt_a, pt_b, (255, 0, 0))

    cv2.imshow('Camara', result)

    key = cv2.waitKey(20)                                 
    if key == ESC:
        break

cv2.destroyAllWindows()
camera.release()

3 个答案:

答案 0 :(得分:9)

bf.match只返回单个对象的列表,你不能用m,n迭代它。也许你对bf.knnMatch感到困惑?

您只需将代码更改为:

for m in matches:
    if m.distance < 0.7:
        good.append(m)

来自OpenCV的Python教程(link):

  

matches = bf.match(des1,des2)行的结果是DMatch的列表   对象。此DMatch对象具有以下属性:

     
      
  • DMatch.distance - 描述符之间的距离。越低越好   它是。
  •   
  • DMatch.trainIdx - 列车描述符中描述符的索引
  •   
  • DMatch.queryIdx - 查询描述符中描述符的索引
  •   
  • DMatch.imgIdx - 火车图像索引。
  •   

答案 1 :(得分:1)

该代码尝试使用 Lowe 的比率测试(请参阅原始 SIFT 论文)。

这要求,对于每个描述符,两个最接近的匹配。

代码应该是:

    matches = bf.knnMatch(desCam, desTrain, k=2) # knnMatch is crucial
    good = []
    for (m1, m2) in matches: # for every descriptor, take closest two matches
        if m1.distance < 0.7 * m2.distance: # best match has to be this much closer than second best
            good.append(m1)

此外,我强烈推荐法兰绒匹配器。它比蛮力匹配器更快。

查看 OpenCV tutorials 或 OpenCV 源代码 (samples/python/find_obj.py) 中的示例目录以获取有效代码。

答案 2 :(得分:0)

for m in matches:
    if m.distance < 0.7:
        good.append(m)

此代码块不错,但实际上与原始代码的含义不同。我认为使用ORB以及匹配项中涉及n和n + 1个元素的东西是指SIFT算法的原始意图,该算法执行比率匹配。

所以,正确的代码应该是(我猜):

for i, m in enumerate(matches):
    if i < len(matches) - 1 and m.distance < 0.7 * matches[i+1].distance:
        good.append(m)

效率较低,并且可能存在变通方法或更好的代码。但我的主要观点是强调所回答的代码与OP的代码没有相同

原始SIFT论文说:

  

此测试通过计算最佳匹配与最佳匹配之间的比率来拒绝较差的匹配   和第二好的比赛。如果比率低于某个阈值,则匹配   由于质量低劣而被丢弃。

还请注意,“ 0.7”被命名为“比率”,并且在原始纸张中固定为0.75(从内存中)。