通过4个位移点找到单应矩阵

时间:2017-09-28 21:37:56

标签: computer-vision homography

我已经训练了一个模型,可以根据Deep image homography estimation找出4个相应像素的位移点。换句话说,本文的输出并没有给出4个相应的点,而是它们的位移。

示例:

4个对应点:

p1 <-> p1', p2 <-> p2', p3 <->p3', p4 <-> p4'

4个对应点的位移(模型的输出):

(p1'.x - p1.x, p1'.y-p1.y), (p2'.x - p2.x, p2'.y-p2.y), (p3'.x - p3.x, p3'.y-p3.y), (p4'.x - p4.x, p4'.y-p4.y)

该论文称我们可以从4个替换点到9个参数单应矩阵进行1对1映射,但是如何?

我研究DLT,正如论文所建议的那样,该算法需要4个对应点(8个像素位置),而不是4个对应点的位移。

1 个答案:

答案 0 :(得分:1)

据我了解你的问题,你问的是如果首先没有像素correspondence就可以生成位移。这需要对论文的假设进行一些描述。

如摘要中所述,给定两个图像,他们估计Homography矩阵(在某些假设下)完全描述两个图像之间每个像素的位移。

&#13;
&#13;
P<sup>2</sup><sub>i</sub> = HP<sub>i</sub><sup>1</sup>
&#13;
&#13;
&#13;

在上面的公式中, H 是3x3矩阵乘以P2,它是第二个图像中的一个点。这个操作给出了P1,它是&#34;转换的#34;在第一张图片中的位置。每当使用单应矩阵来描述该变换时,假设场景中的对象到目前为止,使得它们可以解释为它们生活在平面上。这就是为什么用矩阵来解释这种变换的原因。因为它只能描述仿射变换(即平移,旋转和倾斜),所有这些变换都是在平面场景的假设下进行的。

回到您的问题,此转换可用于查找对应关系,例如通过舍入上面等式中的 P1 或者找到第一个图像中的最近邻居,这使得它不再是一对一的映射,因为多个 P2 可以映射到一个P1

我不确定你的问题是否属于我的答案集。如果它没有让我知道,那么我可以改进它。