我试图使用Oxford Buildings Dataset制作简单的图片搜索引擎 首先,我使用SIFT提取功能。基本上我迭代了数据集中的每个图像,并为每个图像生成关键点和描述符。 然后,我选择一个随机图片作为查询并使用bf.match方法找到匹配的关键点找到数据集和查询中图像之间的距离。但之后 - 我猜这是我真正错误的部分 - 我算了匹配关键点。想法是哪个图片具有最匹配的关键点是与查询图像最相似的图片。
matches = bf.match(query_d, desc)
# Sort the matches in the order of their distance.
matches = sorted(matches, key = lambda x:x.distance)
print matches
matches_num.append((len(matches), imageID))
我的问题是在计算关键点后如何应用任何分类方法?