相机(简单光线照相机)的纵横比计算错误

时间:2015-11-03 03:44:01

标签: c++ aspect-ratio raycasting perspectivecamera

我正在制作一些非常简单的光线追踪器。

目前我正在尝试使透视相机正常工作。

我使用这样的循环来渲染场景(只有两个硬编码的球体 - 我从中心投射每个像素的光线,没有应用AA):

Camera * camera = new PerspectiveCamera({ 0.0f, 0.0f, 0.0f }/*pos*/, 
{ 0.0f, 0.0f, 1.0f }/*direction*/, { 0.0f, 1.0f, 0.0f }/*up*/,
buffer->getSize() /*projectionPlaneSize*/);
Sphere * sphere1 = new Sphere({ 300.0f, 50.0f, 1000.0f }, 100.0f); //center, radius
Sphere * sphere2 = new Sphere({ 100.0f, 50.0f, 1000.0f }, 50.0f);

for(int i = 0; i < buffer->getSize().getX(); i++) {
    for(int j = 0; j < buffer->getSize().getY(); j++) {
//for each pixel of buffer (image)
        double centerX = i + 0.5;
        double centerY = j + 0.5;

        Geometries::Ray ray = camera->generateRay(centerX, centerY);
        Collision * collision = ray.testCollision(sphere1, sphere2);
        if(collision){
            //output red
        }else{
            //output blue
        }
    }
}

Camera::generateRay(float x, float y)是:

Camera::generateRay(float x, float y) {
    //position = camera position, direction = camera direction etc.
    Point2D xy = fromImageToPlaneSpace({ x, y });
    Vector3D imagePoint = right * xy.getX() + up * xy.getY() + position + direction;
    Vector3D rayDirection = imagePoint - position;
    rayDirection.normalizeIt();
    return Geometries::Ray(position, rayDirection);
}

Point2D fromImageToPlaneSpace(Point2D uv) {
    float width = projectionPlaneSize.getX();
    float height = projectionPlaneSize.getY();
    float x = ((2 * uv.getX() - width) / width) * tan(fovX);
    float y = ((2 * uv.getY() - height) / height) * tan(fovY);
    return Point2D(x, y);
}

fovs:

double fovX = 3.14159265359 / 4.0;
double fovY = projectionPlaneSize.getY() / projectionPlaneSize.getX() * fovX;

我为1:1宽度:高度方面(例如400x400)获得了良好的结果: enter image description here

但我得到的错误是800x400: enter image description here

对于更大的宽高比(例如1200x400),情况会稍差一些: enter image description here

我做错了什么或我省略了哪一步

这可能是精确的问题,还是fromImageToPlaneSpace(...)的问题?

2 个答案:

答案 0 :(得分:0)

警告:我在一家视频公司工作了5年,但我有点生疏。

注意:写完之后,我意识到像素宽高比可能不是你的问题,因为屏幕宽高比似乎也是错误的,所以你可以稍微跳过一下。

但是,在视频中,我们关注两个不同的视频来源:standard definition屏幕宽高比为4:3,高清晰度为屏幕宽高比16:9

但是,还有另一个变量/参数: pixel 纵横比。在标准清晰度中,像素是正方形,而hidef像素是矩形(反之亦然 - 我无法记住)。

假设您当前的计算对于屏幕比率是正确的,您可能需要考虑相机源或您正在使用的显示器的像素长宽比不同。

屏幕宽高比和像素长宽比都可以存储为.mp4,.jpeg等。

我下载了你的1200x400 jpeg。我在其上使用ImageMagick来改变像素长宽比:

convert orig.jpg -resize 125x100%\! new.jpg

这表示更改像素纵横比(将宽度增加125%并保持高度相同)。 \!表示像素屏幕之比。 125是因为我记得矩形像素为8x10。无论如何,你需要将水平宽度增加10/8,即1.25或125%

毋庸置疑,这给了我圈子而不是椭圆形。

实际上,我可以通过调整屏幕宽高比获得相同的效果。

因此,在您计算的某个地方,您会引入该因素的扭曲。你在哪里应用缩放?函数调用有何不同?

您在哪里设置屏幕尺寸/比例?我不会想到这些(例如我在任何地方都看不到1200或400)。

如果我不得不冒猜测,你必须考虑fromImageToPlaneSpace中的纵横比。宽度/高度需要预分频,或x =和/或y =线需要缩放因子。 AFAICT,你所获得的只适用于目前的方形几何体。要测试一下,使用1200x400的情况下,将x乘以125%[kludge],我打赌你会得到一些东西。

答案 1 :(得分:0)

从图像中看,您似乎错误地定义了从像素坐标到世界坐标的映射,并在Y轴上引入了一些拉伸。

略过代码,看起来您正在从帧缓冲区的维度定义摄像机的视锥体。因此,如果您具有非1:1宽高比帧缓冲区,则您的视图平截头体不是1:1。您需要将摄像机视锥体的模型与最终帧缓冲区的图像空间维度分开。

换句话说,帧缓冲区是我们正在查看的摄像机投影的平面部分。相机定义了如何将世界的3D空间投影到相机平面上。

任何关于3D图形的基础书都将讨论观看和投影。