协调转换和预测问题

时间:2015-02-09 23:15:25

标签: c++ opengl 3d projection qglwidget

我一直想尝试将我的鼠标坐标转换为OpenGL场景中的3D空间坐标。

目前,我的预测有点混乱(我认为),当我在场景中移动时,它似乎并没有完全考虑我的“相机”。为了检查这一点,我划了一条线。

我的调整大小功能:

    void oglWidget::resizeGL(int width, int height)
    {
        if (height == 0) {
            height = 1;
        }
        pMatrix.setToIdentity();
        pMatrix.perspective(fov, (float) width / (float) height, -1, 1);
        glViewport(0, 0, width, height);
    }

我的渲染功能(paintGl())如下:

glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);
glPolygonMode( GL_FRONT_AND_BACK, GL_LINE );
QMatrix4x4 mMatrix;
QMatrix4x4 vMatrix;

QMatrix4x4 cameraTransformation;
cameraTransformation.rotate(alpha, 0, 1, 0);
cameraTransformation.rotate(beta, 1, 0, 0);

QVector3D cameraPosition = cameraTransformation * QVector3D(camX, camY, distance);
QVector3D cameraUpDirection = cameraTransformation * QVector3D(0, 1, 0);
vMatrix.lookAt(cameraPosition, QVector3D(camX, camY, 0), cameraUpDirection);
glMatrixMode(GL_MODELVIEW);
glLoadIdentity();    
gluLookAt(cameraPosition.x(), cameraPosition.y(), cameraPosition.z(), camX, camY, 0, cameraUpDirection.x(), cameraUpDirection.y(), cameraUpDirection.z());

shaderProgram.bind();
shaderProgram.setUniformValue("mvpMatrix", pMatrix * vMatrix * mMatrix);
shaderProgram.setUniformValue("texture", 0);


for (int x = 0; x < tileCount; x++)
{
    shaderProgram.setAttributeArray("vertex", tiles[x]->vertices.constData());
    shaderProgram.enableAttributeArray("vertex");
    shaderProgram.setAttributeArray("textureCoordinate", textureCoordinates.constData());
    shaderProgram.enableAttributeArray("textureCoordinate");
    glTexImage2D( GL_TEXTURE_2D, 0, GL_RGBA, tiles[x]->image.width(), tiles[x]->image.height(), 0, GL_RGBA, GL_UNSIGNED_BYTE, tiles[x]->image.bits());
    glDrawArrays(GL_TRIANGLES, 0, tiles[x]->vertices.size());
}
shaderProgram.release();

创建我的Ray:

GLdouble modelViewMatrix[16];
GLdouble projectionMatrix[16];
GLint viewport[4];
GLfloat winX, winY, winZ;
glGetDoublev(GL_MODELVIEW_MATRIX, modelViewMatrix);
glGetDoublev(GL_PROJECTION_MATRIX, projectionMatrix);
glGetIntegerv(GL_VIEWPORT, viewport);

winX = (float)x;
winY = (float)viewport[3] - (float)y;
glReadPixels( winX, winY, 1, 1, GL_DEPTH_COMPONENT, GL_FLOAT, &winZ );

GLdouble nearPlaneLocation[3];
gluUnProject(winX, winY, 0, modelViewMatrix, projectionMatrix,
             viewport, &nearPlaneLocation[0], &nearPlaneLocation[1],
        &nearPlaneLocation[2]);

GLdouble farPlaneLocation[3];
gluUnProject(winX, winY, 1, modelViewMatrix, projectionMatrix,
             viewport, &farPlaneLocation[0], &farPlaneLocation[1],
        &farPlaneLocation[2]);

 QVector3D nearP = QVector3D(nearPlaneLocation[0], nearPlaneLocation[1],
            nearPlaneLocation[2]);
 QVector3D farP = QVector3D(farPlaneLocation[0], farPlaneLocation[1],
            farPlaneLocation[2]);

我觉得我正在使用冲突系统或其他东西。

我应该使用不同的变量来管理我的相机吗?我看到有关投影视图,模型视图等的讨论,但我不知道如何使用它并使用着色器程序。对于OpenGL,我仍然是新手。

所以澄清:我正在尝试将鼠标坐标转换为3D空间坐标。到目前为止,它似乎是半工作,它只是没有考虑到相机旋转。我确认我的问题与光线创建或坐标的不投影有关,而与我的实际光线拾取逻辑无关。

2 个答案:

答案 0 :(得分:2)

通过混合不同的功能组/级别,您看起来很像被绊倒。您有使用固定功能矩阵堆栈的一些方面。例如,在绘图功能中:

glMatrixMode(GL_MODELVIEW);
glLoadIdentity();    
gluLookAt(cameraPosition.x(), cameraPosition.y(), cameraPosition.z(), camX, camY, 0, cameraUpDirection.x(), cameraUpDirection.y(), cameraUpDirection.z());

或者在你的非投影功能中:

glGetDoublev(GL_MODELVIEW_MATRIX, modelViewMatrix);
glGetDoublev(GL_PROJECTION_MATRIX, projectionMatrix);

但在其他地方,你正在构建自己的矩阵,并将它们作为制服传递到着色器中:

vMatrix.lookAt(cameraPosition, QVector3D(camX, camY, 0), cameraUpDirection);
...
shaderProgram.setUniformValue("mvpMatrix", pMatrix * vMatrix * mMatrix);

这是实现相同功能的两种不同方式。但是你不能自由地混合和匹配它们的各个部分。如果你想保持清洁和可预测的东西,你应该选择一个,并坚持下去。由于第一个是不推荐使用的遗留功能,我建议您坚持使用构建自己的矩阵,并使用着色器代码中定义的制服。

作为一个例子来说明为什么你当前的功能组合令人失望:你从glGetDoublev(GL_PROJECTION_MATRIX, ...)的固定函数矩阵堆中获取当前投影矩阵。但至少在此处显示的代码中,您永远不会使用矩阵堆栈指定投影矩阵。所以这只是给你一个单位矩阵。就OpenGL而言,您作为制服传递给着色器程序的pMatrix矩阵完全不相关。

重写整个代码对于这个答案来说会有点多,所以这里只是关键部分的指针:

  • 删除所有引用矩阵堆栈的调用。其中包括glMatrixMode()glLoadIdentity()gluLookAt()以及glGetDoublev()调用以获取当前矩阵的调用。
  • 为所有渲染使用着色器(如果您还没有),并在GLSL代码中定义所需的所有矩阵作为制服。
  • 使用您自己的代码或广泛使用的矩阵/矢量库之一自行计算和管理矩阵。
  • 将这些矩阵作为制服传递给着色器。

现在,对于取消投影,您似乎已经拥有了模型,视图和投影矩阵(pMatrixvMatrixmMatrix)。因此,不需要任何glGet*()调用来从OpenGL中检索它们。将vMatrixmMatrix相乘得到modelViewMatrix,并直接使用pMatrix作为传递给gluUnProject()的投影矩阵。

严格来说,我也会考虑不推荐使用GLU。但如果你仍然习惯使用gluUnProject(),那么现在可能最容易。否则,常用的矩阵库可能会有它的实现。或者,如果您不害怕弄脏手,如果您查找解释基础计算的一些规范/文档,则不应该难以实施。

答案 1 :(得分:1)

在这里,我认为我遇到了一系列问题。

  1. 我应该使用-1代表我的近平面,而不是0
  2. 我的矩阵有不同的数据类型(特别是QT),这使我无法直接将它们插入到unproject函数中。
  3. 我通过以下方式解决了这些问题:

    1. 我安装了GLM library来规范化我的数据类型
    2. 我自己进行了矩阵计算
      • 所以我将矩阵拉入我的光线创建函数,然后将逆视图矩阵乘以逆模型矩阵,然后乘以逆投影矩阵。
      • 然后将该值乘以屏幕坐标的2个不同矢量(必须在NDC空间中)。一个z为-1,另一个对应于窗口空间的近和远平面。最后,那些向量也必须具有1的“w”值,因此矩阵*向量的结果计算可以除以其自身的最后一个点。
    3. 我在这里打开了一系列问题,因为我最初的光线拾取问题导致我的代码中出现了一系列错误。 如果有人遇到过这里发布的问题,可能值得查看我打开的其他问题,因为我的所有问题都源于投影问题:

      • In here,我了解到我实际上需要某种形式的计算来创建光线。
      • In here,我了解到unProject没有用,因为我试图使用OpenGL函数拉出模型并查看矩阵,但我从来没有真正设置它们,因为我手工构建了矩阵。我在2折中解决了这个问题:我手动完成了数学运算,并且我制作了相同数据类型的所有矩阵(它们之前是混合数据类型,也导致了问题)。
      • And lastly, in here,我了解到我的操作顺序略有偏离(需要将矩阵乘以向量,而不是反向),我的近平面需要为-1,而不是0,最后一个将与矩阵相乘的向量值(值“w”)需要为1.

      由于我的问题延长了很长一段时间,并且提出了几个问题,所以我非常感谢一些帮助我的人: