我想用OpenCV加载图像(jpg和png)作为OpenGL纹理。
以下是我将图像加载到OpenGL的方法:
glEnable(GL_TEXTURE_2D);
textureData = loadTextureData("textures/trashbin.png");
cv::Mat image = cv::imread("textures/trashbin.png");
if(image.empty()){
std::cout << "image empty" << std::endl;
}else{
glGenTextures( 1, &textureTrash );
glBindTexture( GL_TEXTURE_2D, textureTrash );
glTexParameterf(GL_TEXTURE_2D,GL_TEXTURE_MIN_FILTER,GL_LINEAR);
glTexParameterf(GL_TEXTURE_2D,GL_TEXTURE_MAG_FILTER,GL_LINEAR);
glTexParameterf( GL_TEXTURE_2D, GL_TEXTURE_WRAP_S , GL_REPEAT );
glTexParameterf( GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_REPEAT );
glTexImage2D(GL_TEXTURE_2D,0,3,image.cols, image.rows,0,GL_RGB,GL_UNSIGNED_BYTE, image.data);
}
加载图像,因为“image.empty”始终返回false
以下是使用创建的纹理渲染场景的方法:
glActiveTexture(GL_TEXTURE0);
glBindTexture(GL_TEXTURE_2D, textureTrash);
glm_ModelViewMatrix.top() = glm::translate(glm_ModelViewMatrix.top(),0.0f,-13.0f,-10.0f);
glUniformMatrix4fv(uniformLocations["modelview"], 1, false, glm::value_ptr(glm_ModelViewMatrix.top()));
std::cout << "textureShaderID: " << glGetUniformLocation(shaderProgram,"texture") << std::endl;
glUniform1i(glGetUniformLocation(shaderProgram,"texture"), 0);
objLoader->getMeshObj("trashbin")->render();
最后是我想将纹理应用于几何体的fragmentShader
#version 330
in vec2 tCoord;
// texture //
// TODO: set up a texture uniform //
uniform sampler2D texture;
// this defines the fragment output //
out vec4 color;
void main() {
// TODO: get the texel value from your texture at the position of the passed texture coordinate //
color = texture2D(texture, tCoord);
}
纹理坐标来自顶点缓冲区对象,可从.obj文件中正确设置。当我将颜色设置为例如,我也能在场景中看到对象。碎片着色器中的红色,或vec4(tCoord,0,1);然后对象以不同的颜色着色。
不幸的是,当我想要应用纹理时,屏幕保持黑色...有人可以帮助我并告诉我为什么会保持黑色?
答案 0 :(得分:17)
仅查看纹理加载代码,您忽略了许多关于OpenCV如何在内存中布局图像的注意事项。我已经在this answer中解释了相反的方向(glGetTexImage
进入OpenCV图像),但是在这里将它概括为CV-GL方向:
首先,OpenCV不一定存储紧密打包的图像行,但可能将它们与某些字节边界对齐(不知道多少,至少4,但可能是8或更多?)。如果你很幸运,它将使用4字节对齐,GL也设置为4字节对齐的默认像素存储模式。但是为了安全起见,最好手动摆弄像素存储模式:
//use fast 4-byte alignment (default anyway) if possible
glPixelStorei(GL_UNPACK_ALIGNMENT, (image.step & 3) ? 1 : 4);
//set length of one complete row in data (doesn't need to equal image.cols)
glPixelStorei(GL_UNPACK_ROW_LENGTH, image.step/image.elemSize());
然后你必须考虑到OpenCV从上到下存储图像的事实,而GL使用从下到上。这可以通过恰当地镜像t纹理坐标(可能直接在着色器中)来处理,但你也可以在上传之前翻转图像:
cv::flip(image, flipped, 0);
image = flipped; //maybe just cv::flip(image, image, 0)?
最后但并非最不重要的是,OpenCV以BGR格式存储彩色图像,因此将其上传为RGB会扭曲颜色。那么在GL_BGR
中使用glTexImage2D
(需要OpenGL 1.2,但谁没有?)。
这些可能不是您问题的完整解决方案(因为我认为这些错误应该导致扭曲而不是黑色图像),但它们肯定是需要处理的问题。
编辑:您的片段着色器是否实际编译成功(在使用纹理的完整版本中)?我问,因为在GLSL 3.30中你使用单词texture
也是内置函数的名称(实际应该使用它而不是不推荐的texture2D
函数),所以也许编译器有一些名称解析问题(并且可能在您的简化着色器中忽略此错误,因为整个制服将被优化掉,并且已知许多GLSL编译器不是严格标准兼容的其他内容)。所以,试着给那个采样器统一一个不同的名字。
答案 1 :(得分:8)
好的,这是我的工作解决方案 - 基于“Christian Rau”的想法 - 非常感谢!
cv::Mat image = cv::imread("textures/trashbin.png");
//cv::Mat flipped;
//cv::flip(image, flipped, 0);
//image = flipped;
if(image.empty()){
std::cout << "image empty" << std::endl;
}else{
cv::flip(image, image, 0);
glGenTextures(1, &textureTrash);
glBindTexture(GL_TEXTURE_2D, textureTrash);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MIN_FILTER, GL_NEAREST);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_MAG_FILTER, GL_LINEAR);
// Set texture clamping method
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_S, GL_CLAMP);
glTexParameteri(GL_TEXTURE_2D, GL_TEXTURE_WRAP_T, GL_CLAMP);
glTexImage2D(GL_TEXTURE_2D, // Type of texture
0, // Pyramid level (for mip-mapping) - 0 is the top level
GL_RGB, // Internal colour format to convert to
image.cols, // Image width i.e. 640 for Kinect in standard mode
image.rows, // Image height i.e. 480 for Kinect in standard mode
0, // Border width in pixels (can either be 1 or 0)
GL_BGR, // Input image format (i.e. GL_RGB, GL_RGBA, GL_BGR etc.)
GL_UNSIGNED_BYTE, // Image data type
image.ptr()); // The actual image data itself
glGenerateMipmap(GL_TEXTURE_2D);
}