使用例
实施
结果
生成的3D点与原始点匹配,直到一个比例(在我的情况下为~144)。
任何帮助都将不胜感激。
我试图使用与3D相同的投影矩阵 - >令人惊讶的是,2D投影从2D转换为3D(使用cv :: tirangulatePoints),这导致了一个空矢量(所有3D点都有x,y,z,w == 0),这最终是因为两个摄像机仅通过旋转而不是通过变换而不同,因此,两个投影线是正交的(在3D空间中)导致零长度基线(极线而不是平面),因此,最小化x,y处的距离,z == 0,得到 null 向量。
在两个摄像头之间添加平移导致正确恢复原始坐标,但是,考虑到我使用完全相同的投影矩阵进行3D到2D传输,然后,3D再回到2D三角剖分。
当进行相机姿态估计(从点对应中提取投影矩阵)时,转换得到一个比例,因此,三角测量结果也达到了一定的范围。
是否有可能以公制/像素,...单位而非达到比例来推导平移(相机移动了多少)的差异?需要什么先验知识?
答案 0 :(得分:3)
三角测量点与用于三角测量的相机位于同一坐标系中...
在实际意义上,不是。
答案 1 :(得分:0)
想想就像你有图像显示房间一样。你不知道房间是否符合人类的正常尺寸,或者是否在火柴盒中。
要了解对象的实际大小,您必须了解其中一项措施:
对于后一点,如果您有许多图像和正确的GPS坐标,则可以使用GPS坐标获取最小二乘结果。因此,您必须在公制系统中获取GPS坐标(WGS84),例如UTM。