我正在构建一个实时对象跟踪系统,对于我的问题,我需要已跟踪的对象的坐标。在匹配描述符(使用SIFT特征匹配)并检索查询点和训练点之后,我已经使用以下代码成功实时跟踪了对象。
matrix, mask = cv2.findHomography(
query_pts, train_pts, cv2.RANSAC, 5.0)
h, w = img1.
dst = cv2.perspectiveTransform(np.float32([[0, 0], [0, h], [w, h], [w, 0]] ).reshape(-1, 1, 2), matrix)
frame = cv2.polylines(frame, [np.int32(dst)], True, (255, 0, 0), 3)
cv2.polylines
函数在实时视频中准确地绘制了boundingBox,但是问题是我不知道如何获取cv2.polylines
所绘制的矩形的坐标。
如何从cv2.perspectiveTransform
的输出中获取boundingBox?