我正在尝试通过编写一个简单的光线跟踪器来学习更多关于vectormath的内容,并且我一直在阅读它,但我无法找到的是如何确定主要的方向射线。这听起来像一个简单的问题,可能是,但凭借我目前的知识,我无法弄明白。
我认为我需要一个摄像头(只不过是一个位置和一个方向作为矢量),然后从摄像机中将主光线发射到摄像机前面的屏幕上,该屏幕代表最终图像。我无法弄清楚的是屏幕的角坐标。如果我知道屏幕,找到主光线的方向很容易。
我希望屏幕可以使用简单的数学运算,而不需要任何旋转矩阵。我最好的猜测是:
我将摄像机的方向作为矢量,此方向等于投影屏幕平面的法线。所以我有正常的屏幕,从那里我可以很容易地计算出屏幕的中心:
camera_location + (normal * distance)
距离是屏幕和相机之间的距离。然而,这就是我迷路的地方,我无法找到一种方法来确定相机任意方向的平面角坐标。
你们有人可以帮助我吗?如果我的方法无法工作,那会是什么?
答案 0 :(得分:1)
编辑:这是一些代码,与原先发布的代码相比大大减少了,因为它省略了viewMatrix的创建。这只是某些扫描线渲染所需要的,并没有用于光线跟踪。
艰苦的工作是lookat()函数,特别是'up'和'right'向量的创建。它们必须彼此垂直,并且还必须与在眼睛和图像中心之间运行的矢量相互垂直。创建这些向量依赖于跨产品向量函数。
投射光线的实际功能假定屏幕视口在Y方向上从-0.5到+0.5。这个功能非常简单,只需要将“视图”,“向上”和“向右”向量的正确比例加在一起。
public class Camera {
protected Point3d eye;
protected Point3d center;
protected Vector3d up;
protected Vector3d right;
protected Vector3d view;
protected double fovy; // half FoV in radians
protected double tanf;
protected double aspect;
public Ray castRay(double x, double y) {
Vector3d dir = new Vector3d(view);
Vector3d t = new Vector3d();
t.scale(tanf * x * aspect, right);
dir.add(t);
t.scale(tanf * y, up);
dir.add(t);
dir.normalize();
return new Ray(eye, dir);
}
/* algorithm taken from gluLookAt */
public void lookAt(Point3d _eye, Point3d _center, Vector3d _up) {
eye = new Point3d(_eye);
center = new Point3d(_center);
Vector3d u = new Vector3d(_up);
Vector3d f = new Vector3d(center);
f.sub(eye);
f.normalize();
Vector3d s = new Vector3d();
u.normalize();
s.cross(f, u);
s.normalize();
u.cross(s, f);
view = new Vector3d(f);
right = new Vector3d(s);
up = new Vector3d(u);
}
/* algorithm taken from gluPerspective */
public void setfov(double _fovy, double _aspect)
{
fovy = Math.toRadians(_fovy) / 2.0;
tanf = Math.tan(fovy);
aspect = _aspect;
}
}
答案 1 :(得分:0)
感谢您提供的信息。就个人而言,我对矩阵变换不太满意,并希望尽可能避免它们。但是,从你的帖子我明白转换是我想做的唯一方法吗?那太糟糕了,因为我觉得我非常接近(我得到了屏幕的正常和中心点)并且会喜欢纯矢量数学解决方案。
我会尝试采用你的代码,但不幸的是我不知道你的对象内部在某些点上究竟发生了什么,主要是在Matrix4d对象中。
PS:如果你想回答StackOverflow上作为问题创建者的答案,你应该对该答案做出评论,还是可以创建一个新的“答案”?