无法访问的glXMakeCurrent崩溃c ++应用程序

时间:2016-11-02 22:22:18

标签: c++ opengl nvidia glx

通常我能够自己解决几乎所有的编程问题,但是这个问题让我很惊讶,我想你也会发现它非常有趣。

所以我正在使用GLX处理低级OpenGL应用程序,并且它因分段错误而崩溃。我把代码分解为这个最小的例子:

#include <string>
#include <GL/glx.h>

int main(int argc, char** argv)
{
    Display* display = NULL;
    if(display)
        glXMakeCurrent(display, 0, 0);
    std::string title("Hello GLX");
    return 0;
}

我用

编译
g++ -g -o wtf wtf.cpp -lGL

我顺便使用64位Linux Mint 17.3。

正如你所看到的,没有任何可疑之处 - 我的意思是它甚至没有做任何事情,但正如我所说,它崩溃了......如果我发表评论glXMakeCurrent,那么Segfault就会消失绝对没有意义,因为它甚至没有达到过。 如果我删除字符串的实例化,它也不会崩溃。交换实例或包含没有帮助,它仍然会崩溃。

这是GDB Backtrace:

Program received signal SIGSEGV, Segmentation fault.
0x0000000000000000 in ?? ()
(gdb) bt
#0  0x0000000000000000 in ?? ()
#1  0x00007ffff3deb291 in init () at dlerror.c:177
#2  0x00007ffff3deb6d7 in _dlerror_run (operate=operate@entry=0x7ffff3deb130 <dlsym_doit>, args=args@entry=0x7fffffffdc50)
    at dlerror.c:129
#3  0x00007ffff3deb198 in __dlsym (handle=<optimized out>, name=<optimized out>) at dlsym.c:70
#4  0x00007ffff7b4ee1e in ?? () from /usr/lib/nvidia-352/libGL.so.1
#5  0x00007ffff7af9b47 in ?? () from /usr/lib/nvidia-352/libGL.so.1
#6  0x00007ffff7dea0cd in call_init (l=0x7ffff7ff94c0, argc=argc@entry=1, argv=argv@entry=0x7fffffffdda8, 
    env=env@entry=0x7fffffffddb8) at dl-init.c:64
#7  0x00007ffff7dea1f3 in call_init (env=<optimized out>, argv=<optimized out>, argc=<optimized out>, l=<optimized out>)
    at dl-init.c:36
#8  _dl_init (main_map=0x7ffff7ffe1c8, argc=1, argv=0x7fffffffdda8, env=0x7fffffffddb8) at dl-init.c:126
#9  0x00007ffff7ddb30a in _dl_start_user () from /lib64/ld-linux-x86-64.so.2
#10 0x0000000000000001 in ?? ()
#11 0x00007fffffffe101 in ?? ()
#12 0x0000000000000000 in ?? ()
(gdb) 

和我的glxinfo输出(扩展名除外)

name of display: :0
display: :0  screen: 0
direct rendering: Yes
server glx vendor string: NVIDIA Corporation
server glx version string: 1.4
...
client glx vendor string: NVIDIA Corporation
client glx version string: 1.4
...
GLX version: 1.4
...
OpenGL vendor string: NVIDIA Corporation
OpenGL renderer string: GeForce GTX 560 Ti/PCIe/SSE2
OpenGL core profile version string: 4.3.0 NVIDIA 352.63
OpenGL core profile shading language version string: 4.30 NVIDIA via Cg compiler
OpenGL core profile context flags: (none)
OpenGL core profile profile mask: core profile
...
OpenGL version string: 4.5.0 NVIDIA 352.63
OpenGL shading language version string: 4.50 NVIDIA
OpenGL context flags: (none)
OpenGL profile mask: (none)

我对此感到非常惊讶,因为恕我直言,这绝对没有意义。你们其中一个人是否知道问题可能是什么?我在想某些调用可能已经破坏了VTable类,但在这个例子中,甚至没有类。它也不是与libGL.so的32-vs-64-bit冲突。

当我在主函数的开头放置std::cerr << "foo";std::cerr.flush();(确定它不应该是必要的)时,我没有输出,所以它看起来像一个加载库的问题,但是我可以运行opengl.org/wiki/Tutorial:_OpenGL_3.0_Context_Creation_(GLX)中的代码,所以问题不能发现库或图形芯片处于某种错误状态左右(我甚至重新启动......一台Linux机器......那是我的想法!)

1 个答案:

答案 0 :(得分:1)

Segmentation Fault before main() when using glut, and std::string?的重复 这里的解决方法也适用于我:强制libpthread被链接,例如通过

export LD_PRELOAD=/lib/x86_64-linux-gnu/libpthread.so.0
./wtf

我遇到过的最奇怪和最不合逻辑的问题之一。