使用cv :: warpAffine偏移目标图像来旋转cv :: Mat

时间:2011-10-18 20:36:02

标签: c++ image-processing opencv rotation

我正在尝试旋转 1296x968 图像 90度,使用OpenCV的 C ++ API 我面临一些问题。

输入input

旋转的output

如您所见,旋转的图像存在一些问题。首先,它具有与原始尺寸相同的尺寸,即使我专门创建具有原始尺寸的目标Mat。结果,目标图像被裁剪。

我怀疑这种情况正在发生,因为我正在调用warpAffine()并传递原始Mat的大小而不是目标Mat的大小。但我这样做是因为我跟着this answer ,但现在我怀疑答案可能是错的。所以这是我的第一个疑问/问题。

第二,是warpAffine()以某个偏移量写入目的地(可能是将旋转的数据复制到图像的中间),这个操作会让人感到恐惧图像周围有大黑边

如何解决这些问题?

我正在分享以下源代码:

#include <cv.h>
#include <highgui.h>
#include <iostream>

using namespace cv;
using namespace std;

void rotate(Mat& image, double angle)
{
    Point2f src_center(image.cols/2.0F, image.rows/2.0F);

    Mat rot_matrix = getRotationMatrix2D(src_center, angle, 1.0);

    Mat rotated_img(Size(image.size().height, image.size().width), image.type());

    warpAffine(image, rotated_img, rot_matrix, image.size());
    imwrite("rotated.jpg", rotated_img);
}

int main(int argc, char* argv[])
{
    Mat orig_image = imread(argv[1], 1);
    if (orig_image.empty())
    {
        cout << "!!! Couldn't load " << argv[1] << endl;
        return -1;
    }

    rotate(orig_image, 90);

    return 0;
}

5 个答案:

答案 0 :(得分:27)

找到了一个不会涉及warpAffine()的解决方案

但在此之前,我需要说明(对于将来的参考资料)我的怀疑是对的,你需要在调用warpAffine()时传递目的地的大小:

warpAffine(image, rotated_img, rot_matrix, rotated_img.size());

据我所知,这个函数绘制的黑色边框(由偏移写入引起)似乎是它的标准行为。我已经注意到了C接口,以及使用2.3.1a和2.3.0版本在Mac和Linux上运行的OpenCV的C ++接口。

我最终使用的解决方案比所有 warp thing 更简单。您可以使用cv::transpose()cv::flip()将图像旋转90度。这是:

Mat src = imread(argv[1], 1);

cv::Mat dst;
cv::transpose(src, dst);
cv::flip(dst, dst, 1);

imwrite("rotated90.jpg", dst);

----我&gt;

答案 1 :(得分:10)

由于偏移等原因,许多人在旋转图像或图像块方面遇到了问题。因此,我发布了一个解决方案,允许您旋转图像的区域(或整个)并将其粘贴到另一个图像或有功能计算一个适合一切的图像。

// ROTATE p by R
/**
 * Rotate p according to rotation matrix (from getRotationMatrix2D()) R
 * @param R     Rotation matrix from getRotationMatrix2D()
 * @param p     Point2f to rotate
 * @return      Returns rotated coordinates in a Point2f
 */
Point2f rotPoint(const Mat &R, const Point2f &p)
{
    Point2f rp;
    rp.x = (float)(R.at<double>(0,0)*p.x + R.at<double>(0,1)*p.y + R.at<double>(0,2));
    rp.y = (float)(R.at<double>(1,0)*p.x + R.at<double>(1,1)*p.y + R.at<double>(1,2));
    return rp;
}

//COMPUTE THE SIZE NEEDED TO LOSSLESSLY STORE A ROTATED IMAGE
/**
 * Return the size needed to contain bounding box bb when rotated by R
 * @param R     Rotation matrix from getRotationMatrix2D()
 * @param bb    bounding box rectangle to be rotated by R
 * @return      Size of image(width,height) that will compleley contain bb when rotated by R
 */
Size rotatedImageBB(const Mat &R, const Rect &bb)
{
    //Rotate the rectangle coordinates
    vector<Point2f> rp;
    rp.push_back(rotPoint(R,Point2f(bb.x,bb.y)));
    rp.push_back(rotPoint(R,Point2f(bb.x + bb.width,bb.y)));
    rp.push_back(rotPoint(R,Point2f(bb.x + bb.width,bb.y+bb.height)));
    rp.push_back(rotPoint(R,Point2f(bb.x,bb.y+bb.height)));
    //Find float bounding box r
    float x = rp[0].x;
    float y = rp[0].y;
    float left = x, right = x, up = y, down = y;
    for(int i = 1; i<4; ++i)
    {
        x = rp[i].x;
        y = rp[i].y;
        if(left > x) left = x;
        if(right < x) right = x;
        if(up > y) up = y;
        if(down < y) down = y;
    }
    int w = (int)(right - left + 0.5);
    int h = (int)(down - up + 0.5);
    return Size(w,h);
}

/**
 * Rotate region "fromroi" in image "fromI" a total of "angle" degrees and put it in "toI" if toI exists.
 * If toI doesn't exist, create it such that it will hold the entire rotated region. Return toI, rotated imge
 *   This will put the rotated fromroi piece of fromI into the toI image
 *
 * @param fromI     Input image to be rotated
 * @param toI       Output image if provided, (else if &toI = 0, it will create a Mat fill it with the rotated image roi, and return it).
 * @param fromroi   roi region in fromI to be rotated.
 * @param angle     Angle in degrees to rotate
 * @return          Rotated image (you can ignore if you passed in toI
 */
Mat rotateImage(const Mat &fromI, Mat *toI, const Rect &fromroi, double angle)
{
    //CHECK STUFF
    // you should protect against bad parameters here ... omitted ...

    //MAKE OR GET THE "toI" MATRIX
    Point2f cx((float)fromroi.x + (float)fromroi.width/2.0,fromroi.y +
               (float)fromroi.height/2.0);
    Mat R = getRotationMatrix2D(cx,angle,1);
    Mat rotI;
    if(toI)
        rotI = *toI;
    else
    {
        Size rs = rotatedImageBB(R, fromroi);
        rotI.create(rs,fromI.type());
    }

    //ADJUST FOR SHIFTS
    double wdiff = (double)((cx.x - rotI.cols/2.0));
    double hdiff = (double)((cx.y - rotI.rows/2.0));
    R.at<double>(0,2) -= wdiff; //Adjust the rotation point to the middle of the dst image
    R.at<double>(1,2) -= hdiff;

    //ROTATE
    warpAffine(fromI, rotI, R, rotI.size(), INTER_CUBIC, BORDER_CONSTANT, Scalar::all(0)); 

    //& OUT
    return(rotI);
}

答案 2 :(得分:4)

我意识到你已经找到了其他更快的解决方案(90度旋转应该非常快,并且不需要warpAffine的所有机器),但我想解决其他任何遇到此问题的黑色边界问题。

warpAffine还能做些什么?目标图像被指定为比它高,并且仿射变换仅指定旋转(围绕图像的中心),而不是缩放。这正是它所做的。在任何地方都没有任何信息可以告诉warpAffine应该在那些黑色边框中画出什么,所以它让它们变黑。

直接物理实验:将一张纸放在桌子上。在它周围画一个轮廓(这是你在指定希望结果与原始形状/大小相同时所做的)。现在将该纸张围绕其中心旋转90度。查看由表格轮廓约束的区域。如果它是一张黑色的桌子,它看起来就像你的结果。

答案 3 :(得分:4)

也许这可以帮助某人 变量是
img:原始图像
角度:度
规模 dst:目标图片

int width = img.size().width, 
    height = img.size().height;
Mat rot = getRotationMatrix2D(Point2f(0,0), angle, scale)/scale; //scale later
double sinv = rot.at<double>(0,1),
       cosv = rot.at<double>(0,0);
rot.at<double>(1,2) = width*sinv;  //adjust row offset
Size dstSize(width*cosv + height*sinv, width*sinv + height*cosv);
Mat dst;
warpAffine(img, dst, rot, dstSize);
resize(dst, dst, Size(), scale, scale);  //scale now

答案 4 :(得分:2)

我发现的一个问题是,warpAffine的目标图片尺寸设置为image.size()而不是rotated_img.size()。然而,在经线之后,它仍然在 x y 中翻译得太远......我尝试了完全相同的扭曲

[ 6.123031769111886e-17 1                     163.9999999999999;
 -1                     6.123031769111886e-17 1132;
  0                     0                     1]

来自OpenCV的Matlab中的getRotationMatrix2D,它运行得很好。我开始闻到warpAffine ...

可能存在的错误