关于OpenGL空间转换的困惑

时间:2018-01-19 18:06:55

标签: opengl math basis

在JungHyun Han撰写的 3D图形游戏编程book中,在第38-39页,给出了

从e_1,e_2,e_3到u,v,n的基础变换矩阵是 enter image description here

然而,这与我从线性代数中所知道的相矛盾。我的意思是基础转换矩阵不应该是该矩阵的转置吗?

请注意,作者进行了他的推导,但我找不到我所知道的和作者所处的缺失点。

代码: 顶点着色器:

#version 330
layout(location = 0) in vec4 position;
layout(location = 1) in vec4 color;

uniform vec3 cameraPosition;
uniform vec3 AT;
uniform vec3 UP;
uniform mat4 worldTrans;

vec3 ep_1 = ( cameraPosition - AT )/ length(cameraPosition - AT);
vec3 ep_2 = ( cross(UP, ep_1) )/length( cross(UP, ep_1 )); 
vec3 ep_3 = cross(ep_1, ep_2);

vec4 t_ep_1 = vec4(ep_1, -1.0f);
vec4 t_ep_2 = vec4(ep_2, cameraPosition.y);
vec4 t_ep_3 = vec4(ep_3, cameraPosition.z);
mat4 viewTransform = mat4(t_ep_1, t_ep_2, t_ep_3, vec4(0.0f, 0.0f, 0.0f, 1.0f));

smooth out vec4 fragColor;
void main()
{
    gl_Position = transpose(viewTransform) * position;
    fragColor = color;
}
)glsl";

输入:

GLuint transMat = glGetUniformLocation(m_Program.m_shaderProgram, "worldTrans");
    GLfloat dArray[16] = {0.0};
    dArray[0] = 1;
    dArray[3] = 0.5;
    dArray[5] = 1;
    dArray[7] = 0.5;
    dArray[10] = 1;
    dArray[11] = 0;
    dArray[15] = 1;
    glUniformMatrix4fv(transMat, 1, GL_TRUE, &dArray[0]);
    GLuint cameraPosId = glGetUniformLocation(m_Program.m_shaderProgram, "cameraPosition");
    GLuint ATId = glGetUniformLocation(m_Program.m_shaderProgram, "AT");
    GLuint UPId = glGetUniformLocation(m_Program.m_shaderProgram, "UP");
    const float cameraPosition[4] = {2.0f, 0.0f, 0.0f};
    const float AT[4] = {1.0f, 0.0f, 0.0f};
    const float UP[4] = {0.0f, 0.0f, 1.0f};
    glUniform3fv(cameraPosId, 1, cameraPosition);
    glUniform3fv(ATId, 1, AT);
    glUniform3fv(UPId, 1, UP);

2 个答案:

答案 0 :(得分:1)

虽然旋转,缩放或变形可以用表格中的4x4矩阵表示,但确实如此 enter image description here

您正在阅读的是所谓的" View Transformation"

要实现此矩阵,我们需要两个转换:首先,转换为相机位置,然后旋转相机。

进行这些转换的数据是:

  • 相机位置C(Cx,Cy,Cz)
  • 目标位置T(Tx,Ty,Tz)
  • 相机标准化UP(Ux,Uy,Uz)

翻译可以用

表示

enter image description here

对于我们定义的轮换: 是F = T – C,在正常化后,我们得到f = F / ||T-C||,也由f= normalize(F)表示
s = normalize(cross (f, UP))
u = normalize(cross(s, f))

s, u, -f是旧坐标系中表示的新轴。

因此我们可以为此转换构建旋转矩阵 enter image description here

在唯一的矩阵中组合两个变换我们得到: enter image description here enter image description here

请注意,轴系统是OpenGL使用的系统,-f= cross(s,u)

现在,与您的GLSL代码相比,我看到:

  1. 您的f(ep_1)向量进入对位方向。
  2. s(ep_2)向量计算为cross(UP, f)而不是cross(f, UP)。这是对的,因为1)。
  3. u(ep_3)相同。
  4. 构建V单元格(0,0)是错误的。它尝试使用-1.0f
  5. 设置正确的方向
  6. 对于其他单元格(t_ep_J组件),使用相机位置。但您忘记将{em>点积与s,u,f一起使用。
  7. GLSL初始值设定项mat4(c1,c2,c3,c4)需要列向量作为参数。你通过了row-colums。但是,在main之后transpose使用了IEnumerable<string[]>来纠正它。
  8. 在旁注中,您不会计算每个顶点的矩阵,时间,时间和时间......对吗?更好地在CPU端计算它并以if(按列顺序)作为统一传递。

答案 1 :(得分:0)

显然,向量空间中基础的改变确实改变了向量空间中的向量,这不是我们想要的。

因此,我申请的数学在这里无效。

要详细了解我们使用我在问题中提供的矩阵的原因,请参阅this问题。