我有一个基于rhel 6.1的三节点集群
在每个节点上我有两个CPU和4个GPU Tesla M2090 /
我使用Openmpi 1.6.1,它工作正常(在GPU Linpak ver。上进行过系统测试)。
我安装了mvapich2 1.9,我遇到了同样的问题。
我觉得这个测试可能有问题吗?!
Cuda ver 5.0
Infiniband - MEllanox。
编译这个bechmark是成功的,当我开始指向时只使用CPU(H到H)(localhost和两个节点):
mpirun -np 2 ./osu_latency H H
工作正常。但是当我使用GPU(从CPU复制到GPU mem)时:
mpirun -np 2 ./osu_latency H D
程序因分段错误(11)而崩溃。
我使用以下参数从http://www.nersc.gov/assets/Trinity--NERSC-8-RFP/Benchmarks/Dec17/OMB-NERSC8.tar编译此基准测试版本3.7:
- 前缀=的/ usr /本地/长凳/ OSU --enable-cuda --with-cuda = / usr / local / cuda-5.0 --with-cuda-include = / usr / local / cuda-5.0 / include --with-cuda-libpath = / usr / local / cuda-5.0 CC = / usr / local / mpi / openmpi16 / bin / mpicc
我尝试使用过时路径运行程序,但它没有效果。
问题出在哪里? 提前谢谢!