OpenCV - 删除凸性缺陷(Python到C ++)

时间:2013-08-30 22:19:45

标签: c++ python opencv computer-vision sudoku

我无法将代码从Python中的一个代码移植到C ++中,我希望有人可以帮助解决这个问题并澄清部分流程。

我正在谈论的答案 - https://stackoverflow.com/a/11366549

我正处于对质心进行分类的步骤(一个在最后一个之前)。有问题的代码完成了这项工作,但我不确定如何使用C ++获得相同的结果而不会使代码更长。

centroids = np.array(centroids,dtype = np.float32)
c = centroids.reshape((100,2))
c2 = c[np.argsort(c[:,1])]

b = np.vstack([c2[i*10:(i+1)*10][np.argsort(c2[i*10:(i+1)*10,0])] for i in xrange(10)])
bm = b.reshape((10,10,2))

我想要实现这一目标的方法是:

  • 初始质心数组已经按照某种方式排序(最高y值Point的索引为0,最低值为99),所以我想将其反转,使数组从上到下排序。 / p>

  • 之后只需要对行进行排序(按x轴排序10行10列)

我相信这一切都必须要做,但我找不到一种优雅的方法来编码(不使用矢量和手动排序)。

我也不太明白最后一步,图像被扭曲(使端口很难移动),所以如果有人能够提供一些有关这部分内容以及可能与之相当的C ++的见解,我很感激。

output = np.zeros((450,450,3),np.uint8)
for i,j in enumerate(b):
    ri = i/10
    ci = i%10
    if ci != 9 and ri!=9:
        src = bm[ri:ri+2, ci:ci+2 , :].reshape((4,2))
        dst = np.array( [ [ci*50,ri*50],[(ci+1)*50-1,ri*50],[ci*50,(ri+1)*50-1],[(ci+1)*50-1,(ri+1)*50-1] ], np.float32)
        retval = cv2.getPerspectiveTransform(src,dst)
        warp = cv2.warpPerspective(res2,retval,(450,450))
        output[ri*50:(ri+1)*50-1 , ci*50:(ci+1)*50-1] = warp[ri*50:(ri+1)*50-1 , ci*50:(ci+1)*50-1].copy()

我只是学习OpenCV和C ++,我知道这可能是微不足道的,所以我希望有人可以节省一些时间并提供一些基本的答案。

修改

根据要求,这是代码。我已经处理了第一部分,仍然不确定这是否是正确的方法。

#pragma mark Correcting the defects
findContours(res, contours, RETR_LIST, CHAIN_APPROX_SIMPLE);
vector<cv::Point> centroids;
centroids.reserve(100);

for (int i = 0; i < contours.size(); i++) {
    vector<cv::Point> contour = contours.at(i);
    Moments mom = moments(contour);
    cv::Point center = cv::Point(int(mom.m10 / mom.m00), int(mom.m01 / mom.m00));
    centroids.push_back(center);
}

std::reverse(centroids.begin(), centroids.end());

struct {
    bool operator()(const cv::Point p1, const cv::Point p2) {
        return p1.x < p2.x;
    }
} pointXGreater;

for (int i = 0; i < 10; i++) {
    std::sort(centroids.begin() + i * 10, centroids.begin() + (i + 1) * 10, pointXGreater);
}

Mat b(centroids);
Mat bm = b.reshape(10, 10);

用图像在图像上绘制质心后,看起来它们是正确的。

现在我陷入了最后一部分试图解密Python代码并不知道它的作用。到目前为止我得到了这个:

Mat output = Mat::zeros(450, 450, CV_8U);

for (int i = 0; i < centroids.size(); i++) {
    cv::Point j = centroids.at(i);

    int ri = i / 10;
    int ci = i % 10;

    if (ci != 9 && ri != 9) {
        Mat src = ??
        Mat dst = ??
        Mat retval = getPerspectiveTransform(src, dst);
        Mat warp;
        warpPerspective(res2, warp, retval, (450, 450));
        Mat output = ??
    }
}

我会继续尝试理解它,但是真的很感激一些帮助,因为这种Python语法不是很友好,特别是如果你真的不知道正在做什么。

1 个答案:

答案 0 :(得分:1)

经过一段时间的敲击,这就是我提出的(似乎工作)

#pragma mark Correcting the defects
findContours(res, contours, RETR_LIST, CHAIN_APPROX_SIMPLE);
vector<cv::Point> centroids;
centroids.reserve(100);

for (int i = 0; i < contours.size(); i++) {
    vector<cv::Point> contour = contours.at(i);
    Moments mom = moments(contour);
    cv::Point center = cv::Point(int(mom.m10 / mom.m00), int(mom.m01 / mom.m00));
    centroids.push_back(center);
}

std::reverse(centroids.begin(), centroids.end());

struct {
    bool operator()(const cv::Point p1, const cv::Point p2) {
        return p1.x < p2.x;
    }
} pointXGreater;

for (int i = 0; i < 10; i++) {
    std::sort(centroids.begin() + i * 10, centroids.begin() + (i + 1) * 10, pointXGreater);
}

Mat bm = Mat(centroids);
bm = bm.reshape(2, 10);

Mat output(450, 450, CV_8UC3, CV_RGB(1, 1, 1));

for (int i = 0; i < centroids.size(); i++) {
    int ri = i / 10;
    int ci = i % 10;

    if (ci != 9 && ri != 9) {
        cv::Point2f src[4];
        src[0] = cv::Point2f(bm.at<cv::Point>(ri, ci).x, bm.at<cv::Point>(ri, ci).y);
        src[1] = cv::Point2f(bm.at<cv::Point>(ri, ci + 1).x, bm.at<cv::Point>(ri, ci + 1).y);
        src[2] = cv::Point2f(bm.at<cv::Point>(ri + 1, ci).x, bm.at<cv::Point>(ri + 1, ci).y);
        src[3] = cv::Point2f(bm.at<cv::Point>(ri + 1, ci + 1).x, bm.at<cv::Point>(ri + 1, ci + 1).y);

        cv::Point2f dst[4];
        dst[0] = cv::Point2f(ci * 50, ri * 50);
        dst[1] = cv::Point2f((ci + 1) * 50 - 1, ri * 50);
        dst[2] = cv::Point2f(ci * 50, (ri + 1) * 50 - 1);
        dst[3] = cv::Point2f((ci + 1) * 50 - 1, (ri + 1) * 50 - 1);

        Mat retval = getPerspectiveTransform(src, dst);
        Mat warp;
        warpPerspective(res2, warp, retval, cv::Size(450, 450));

        for (int j = ri * 50; j < (ri + 1) * 50 - 1; j++) {
            for (int k = ci * 50; k < (ci + 1) * 50 - 1; k++) {
                output.at<Vec3b>(j, k) = warp.at<Vec3b>(j, k);
            }
        }
    }
}