从OpenCV距离变换获得奇怪的结果

时间:2017-02-28 06:54:19

标签: ios opencv image-processing uiimage opencv3.1

我正在尝试使用openCV

实现类似的功能

https://mathematica.stackexchange.com/questions/19546/image-processing-floor-plan-detecting-rooms-borders-area-and-room-names-t

但是,我遇到了一些问题(可能是由于我自己对OpenCV的无知)。

当我尝试对我的图像执行距离变换时,我根本没有得到预期的结果。

这是我正在使用的原始图片

enter image description here

这是我用opencv

进行一些清理后获得的图像

enter image description here

这是我在尝试对上面的图像进行距离变换后得到的诡计。我的理解是,这应该看起来更像模糊的热图。如果我按照opencv示例通过此点并尝试运行阈值来查找距离峰值,我只得到一个黑色图像。 enter image description here

到目前为止,这是我使用一些不同的opencv示例拼凑在一起的代码

    cv::Mat outerBox = cv::Mat(matImage.size(), CV_8UC1);
cv::Mat kernel = (cv::Mat_<uchar>(3,3) << 0,1,0,1,1,1,0,1,0);

for(int x = 0; x < 3; x++) {
    cv::GaussianBlur(matImage, matImage, cv::Size(11,11), 0);
    cv::adaptiveThreshold(matImage, outerBox, 255, cv::ADAPTIVE_THRESH_MEAN_C, cv::THRESH_BINARY, 5, 2);
    cv::bitwise_not(outerBox, outerBox);

    cv::dilate(outerBox, outerBox, kernel);
    cv::dilate(outerBox, outerBox, kernel);

    removeBlobs(outerBox, 1);

    erode(outerBox, outerBox, kernel);
}

cv::Mat dist;
cv::bitwise_not(outerBox, outerBox);
distanceTransform(outerBox, dist, cv::DIST_L2, 5);
// Normalize the distance image for range = {0.0, 1.0}
// so we can visualize and threshold it
normalize(dist, dist, 0, 1., cv::NORM_MINMAX);


    //using a threshold at this point like the opencv example shows to find peaks just returns a black image right now
//threshold(dist, dist, .4, 1., CV_THRESH_BINARY);
//cv::Mat kernel1 = cv::Mat::ones(3, 3, CV_8UC1);
//dilate(dist, dist, kernel1);


self.mainImage.image = [UIImage fromCVMat:outerBox];

void removeBlobs(cv::Mat &outerBox, int iterations) {
int count=0;
int max=-1;

cv::Point maxPt;

for(int iteration = 0; iteration < iterations; iteration++) {

    for(int y=0;y<outerBox.size().height;y++)
    {
        uchar *row = outerBox.ptr(y);
        for(int x=0;x<outerBox.size().width;x++)
        {
            if(row[x]>=128)
            {

                int area = floodFill(outerBox, cv::Point(x,y), CV_RGB(0,0,64));

                if(area>max)
                {
                    maxPt = cv::Point(x,y);
                    max = area;
                }
            }
        }

    }

    floodFill(outerBox, maxPt, CV_RGB(255,255,255));
    for(int y=0;y<outerBox.size().height;y++)
    {
        uchar *row = outerBox.ptr(y);
        for(int x=0;x<outerBox.size().width;x++)
        {
            if(row[x]==64 && x!=maxPt.x && y!=maxPt.y)
            {
                int area = floodFill(outerBox, cv::Point(x,y), CV_RGB(0,0,0));
            }
        }
    }
}
}

我已经在这上面敲了几个小时,我完全被困在泥里,所以任何帮助都会非常感激。这有点超出我的深度,我觉得我可能只是在某个地方犯了一些基本错误而没有意识到这一点。

编辑: 使用与上面相同的代码运行OpenCV for Mac(不是iOS),我得到了预期的结果 enter image description here

这似乎表明问题在于Mat - &gt; OpenCV建议使用的UIImage桥接。我将继续使用Mac库来测试我的代码,但是能够从UIImage桥接中获得一致的结果肯定会很好。

    + (UIImage*)fromCVMat:(const cv::Mat&)cvMat
{
    // (1) Construct the correct color space
    CGColorSpaceRef colorSpace;
    if ( cvMat.channels() == 1 ) {
        colorSpace = CGColorSpaceCreateDeviceGray();
    } else {
        colorSpace = CGColorSpaceCreateDeviceRGB();
    }

    // (2) Create image data reference
    CFDataRef data = CFDataCreate(kCFAllocatorDefault, cvMat.data, (cvMat.elemSize() * cvMat.total()));

    // (3) Create CGImage from cv::Mat container
    CGDataProviderRef provider = CGDataProviderCreateWithCFData(data);
    CGImageRef imageRef = CGImageCreate(cvMat.cols,
                                        cvMat.rows,
                                        8,
                                        8 * cvMat.elemSize(),
                                        cvMat.step[0],
                                        colorSpace,
                                        kCGImageAlphaNone | kCGBitmapByteOrderDefault,
                                        provider,
                                        NULL,
                                        false,
                                        kCGRenderingIntentDefault);

    // (4) Create UIImage from CGImage
    UIImage * finalImage = [UIImage imageWithCGImage:imageRef];

    // (5) Release the references
    CGImageRelease(imageRef);
    CGDataProviderRelease(provider);
    CFRelease(data);
    CGColorSpaceRelease(colorSpace);

    // (6) Return the UIImage instance
    return finalImage;
}

1 个答案:

答案 0 :(得分:1)

我使用python在OpenCV中进行了距离变换,我得到了这个:

enter image description here

你说过#34;我只得到一张黑色图像&#34;。我最初遇到了同样的问题,直到我使用:int

将图像转换为np.uint8(dist_transform)类型

我做了一些额外的事情(你可能/可能不需要它)。为了在一定程度上对房间进行分割,我对距离变换图像进行了阈值处理。我得到了这个结果:

enter image description here