我正在制作一些非常简单的光线追踪器。
目前我正在尝试使透视相机正常工作。
我使用这样的循环来渲染场景(只有两个硬编码的球体 - 我从中心投射每个像素的光线,没有应用AA):
Camera * camera = new PerspectiveCamera({ 0.0f, 0.0f, 0.0f }/*pos*/,
{ 0.0f, 0.0f, 1.0f }/*direction*/, { 0.0f, 1.0f, 0.0f }/*up*/,
buffer->getSize() /*projectionPlaneSize*/);
Sphere * sphere1 = new Sphere({ 300.0f, 50.0f, 1000.0f }, 100.0f); //center, radius
Sphere * sphere2 = new Sphere({ 100.0f, 50.0f, 1000.0f }, 50.0f);
for(int i = 0; i < buffer->getSize().getX(); i++) {
for(int j = 0; j < buffer->getSize().getY(); j++) {
//for each pixel of buffer (image)
double centerX = i + 0.5;
double centerY = j + 0.5;
Geometries::Ray ray = camera->generateRay(centerX, centerY);
Collision * collision = ray.testCollision(sphere1, sphere2);
if(collision){
//output red
}else{
//output blue
}
}
}
Camera::generateRay(float x, float y)
是:
Camera::generateRay(float x, float y) {
//position = camera position, direction = camera direction etc.
Point2D xy = fromImageToPlaneSpace({ x, y });
Vector3D imagePoint = right * xy.getX() + up * xy.getY() + position + direction;
Vector3D rayDirection = imagePoint - position;
rayDirection.normalizeIt();
return Geometries::Ray(position, rayDirection);
}
Point2D fromImageToPlaneSpace(Point2D uv) {
float width = projectionPlaneSize.getX();
float height = projectionPlaneSize.getY();
float x = ((2 * uv.getX() - width) / width) * tan(fovX);
float y = ((2 * uv.getY() - height) / height) * tan(fovY);
return Point2D(x, y);
}
fovs:
double fovX = 3.14159265359 / 4.0;
double fovY = projectionPlaneSize.getY() / projectionPlaneSize.getX() * fovX;
我为1:1
宽度:高度方面(例如400x400)获得了良好的结果:
我做错了什么或我省略了哪一步?
这可能是精确的问题,还是fromImageToPlaneSpace(...)
的问题?
答案 0 :(得分:0)
警告:我在一家视频公司工作了5年,但我有点生疏。
注意:写完之后,我意识到像素宽高比可能不是你的问题,因为屏幕宽高比似乎也是错误的,所以你可以稍微跳过一下。
但是,在视频中,我们关注两个不同的视频来源:standard definition
,屏幕宽高比为4:3
,高清晰度为屏幕宽高比16:9
。
但是,还有另一个变量/参数: pixel 纵横比。在标准清晰度中,像素是正方形,而hidef像素是矩形(反之亦然 - 我无法记住)。
假设您当前的计算对于屏幕比率是正确的,您可能需要考虑相机源或您正在使用的显示器的像素长宽比不同。
屏幕宽高比和像素长宽比都可以存储为.mp4,.jpeg等。
我下载了你的1200x400 jpeg。我在其上使用ImageMagick来改变仅像素长宽比:
convert orig.jpg -resize 125x100%\! new.jpg
这表示更改像素纵横比(将宽度增加125%并保持高度相同)。 \!
表示像素与屏幕之比。 125是因为我记得矩形像素为8x10。无论如何,你需要将水平宽度增加10/8,即1.25或125%
毋庸置疑,这给了我圈子而不是椭圆形。
实际上,我可以通过调整屏幕宽高比获得相同的效果。
因此,在您计算的某个地方,您会引入该因素的扭曲。你在哪里应用缩放?函数调用有何不同?
您在哪里设置屏幕尺寸/比例?我不会想到这些(例如我在任何地方都看不到1200或400)。
如果我不得不冒猜测,你必须考虑fromImageToPlaneSpace
中的纵横比。宽度/高度需要预分频,或x =
和/或y =
线需要缩放因子。 AFAICT,你所获得的只适用于目前的方形几何体。要测试一下,使用1200x400的情况下,将x乘以125%[kludge],我打赌你会得到一些东西。
答案 1 :(得分:0)
从图像中看,您似乎错误地定义了从像素坐标到世界坐标的映射,并在Y轴上引入了一些拉伸。
略过代码,看起来您正在从帧缓冲区的维度定义摄像机的视锥体。因此,如果您具有非1:1宽高比帧缓冲区,则您的视图平截头体不是1:1。您需要将摄像机视锥体的模型与最终帧缓冲区的图像空间维度分开。
换句话说,帧缓冲区是我们正在查看的摄像机投影的平面部分。相机定义了如何将世界的3D空间投影到相机平面上。
任何关于3D图形的基础书都将讨论观看和投影。