仿射变换的质量(在两组匹配点之间)

时间:2017-11-02 16:25:47

标签: image-processing distance matching least-squares affinetransform

我试图将两个人体姿势相互比较。我有两个姿势需要比较的18个身体关节点。 所以我们有两组匹配点,模型X(需要模仿)和输入Y(需要在匹配等级上检查)。 为此,计算仿射变换A(变换X到Y)。然后,现在知道A,计算X在Y(= X * A)上的投影(最小二乘)。 最后,确定姿势是否相似归结为比较输入姿势和模型在输入上的投影。 (见图中的图像)

enter image description here

我的问题是,比较输入姿势和模型项目的最佳方法是什么?

到目前为止,我计算每个匹配点之间的欧几里德距离。对于归一化,我首先将每个坐标值除以图像像素的宽度或高度。 我考虑所有匹配点的最大欧氏距离和所有欧氏距离的总和。在确定的阈值的帮助下,它决定两个姿势是否匹配。

我已经阅读了有关计算图像相似度的不同算法(如Mahalanobis,Cosine,[Pearson]相关性),但我认为这些对于这种情况来说是过度的。在这里,只考虑了18组点,它们已经匹配。

0 个答案:

没有答案