我正在尝试为光线跟踪图形引擎添加光栅化支持。但是,无论采用何种方法,我都希望获得相同的图像(当然,不计算阴影)。
相反,我让测试模型以两种不同的大小呈现,所以我猜测它必须与我为光线跟踪投射光线的方式或我构建投影的方式有关光栅化矩阵。
这是我的#34;相机"构造函数(负责构建投影矩阵):
Camera::Camera(float fLength, float fov, float targetRatio, float zNear, float zFar)
{
focalLength = fLength;
fieldOfView = fov;
aspectRatio = targetRatio;
scale = tan(fieldOfView * 0.5 * DEG_TO_RAD);
viewMatrix = Matrix4<float>();
projectionMatrix = Matrix4<float>();
float distance = zFar - zNear;
projectionMatrix.xx = scale / aspectRatio;
projectionMatrix.yy = scale;
projectionMatrix.zz = -(zFar + zNear) / distance;
projectionMatrix.zw = -1.0f;
projectionMatrix.wz = -2.0f * zNear * zFar / distance;
projectionMatrix.ww = 0.0;
//aperture = tan(fieldOfView / 2 * DEG_TO_RAD) * focalLength * 2;
//fieldOfView = atan((aperture / 2) / focalLength) * 2 * RAD_TO_DEG;
}
这是我根据帧缓冲区尺寸和当前像素坐标投射光线的方法(我计算方向并从最后一个矩阵行获取相机位置):
Ray Camera::castRay(unsigned int width, unsigned int height, unsigned int x, unsigned int y)
{
float dirX = (2 * (x + 0.5) / (float)width - 1) * aspectRatio * scale;
float dirY = (1 - 2 * (y + 0.5) / (float)height) * scale;
Vector3<float> dir = (Vector3<float>(dirX, dirY, -1.0) * viewMatrix).normalize();
return Ray(Vector3<float>(viewMatrix.wx, viewMatrix.wy, viewMatrix.wz), dir);
}
另一方面,这是我使用光栅化方法栅格顶点的方式:
Vector4<float> vertexInRasterSpace;
Vector4<float> vertexInCameraSpace;
vertexInCameraSpace = currentVertex * camera.viewMatrix;
vertexInRasterSpace = vertexInCameraSpace * camera.projectionMatrix;
vertexInRasterSpace.x = std::min(width - 1, (int)((vertexInRasterSpace.x + 1) * 0.5 * width));
vertexInRasterSpace.y = std::min(height - 1, (int)((1 - (vertexInRasterSpace.y + 1) * 0.5) * height));
vertexInRasterSpace.z = -vertexInCameraSpace.z;
最后,得到的结果是:
- 射线追踪 - &gt; Ray tracing picture
- 光栅化 - &gt; Rasterization picture
有人说,两个图像都使用相同的模型视图矩阵。在我最初的假设中,我得到了相同(大小)的图像,我是不是错了?
〜天空
答案 0 :(得分:1)
取决于光栅化算法正在做什么(您是将顶点提供给3D图形API还是进行自己的光栅化?),但我的第一个嫌疑人是:
在乘以透视矩阵之后,但在光栅化之前,您需要执行透视除法:即,将矢量的X,Y和Z分量除以W分量。这似乎不见了。
如果要将输出顶点输入到3D图形API,那么考虑窗口的宽度和高度可能不是您想要的(这是硬件的视口转换的一部分)渲染管道)。