Boost图库分布式广度优​​先搜索MPI_Unpack运行时错误

时间:2012-07-23 18:41:27

标签: c++ boost runtime-error breadth-first-search

我正在使用boost图库并遇到运行时错误,我似乎无法弄清楚如何修复。

当我创建和广度首先搜索具有顶点数量和处理器数量的错误组合的rmat图时,我得到MPI_Unpack运行时错误。

              Number of Vertices  
Processors | 1,000,000 | 2,000,000  
    1      |    pass   |   pass  
    2      |    pass   |   fail
    3      |    pass   |   pass
    4      |    pass   |   pass

从堆栈跟踪中我相信代码在调用时失败,第一次在广度优先搜索代码中检查要处理的顶点队列是否为空时进行同步。

有人能告诉我我的代码有什么问题吗?我在使用gcc 4.4.6的mac pro运行red hat linux(版本6.2)上使用boost版本1.41.0,如果这有帮助的话。

我的代码是:

#include <boost/graph/use_mpi.hpp>
#include <boost/mpi/environment.hpp>
#include <boost/mpi/communicator.hpp>
#include <boost/graph/distributed/concepts.hpp>
#include <boost/graph/adj_list_serialize.hpp>
#include <boost/graph/distributed/mpi_process_group.hpp>
#include <boost/graph/distributed/adjacency_list.hpp>
#include <boost/random/linear_congruential.hpp>
#include <boost/graph/distributed/breadth_first_search.hpp>
#include <boost/graph/rmat_graph_generator.hpp>

using namespace boost;
using namespace graph;
using namespace distributed;

int main(int argc, char* argv[])
{
    mpi::environment env(argc, argv);
    mpi::communicator world;

    int verts = 20;
    if(argc > 1){
        verts = atoi(argv[1]);
    }
    int edgs = 12*verts;
    if(argc > 2){
        edgs = atoi(argv[2]);
    }

    typedef adjacency_list<listS, distributedS<mpi_process_group, vecS>, undirectedS> Graph;
    minstd_rand gen_rmat;

    typedef rmat_iterator<minstd_rand, Graph> RMATgen;

    Graph g(RMATgen(gen_rmat, verts, 12*verts, 0.33, 0.15, 0.49, 0.03), RMATgen(), verts);

    world.barrier();
    synchronize(g.process_group());
    world.barrier();
    breadth_first_search(g, vertex(0, g), visitor(bfs_visitor<null_visitor>()));
    world.barrier();

    return 0;
}

我得到的运行时错误是:

  

在抛出boost :: exception_detail :: clone_impl <boost::exception_detail::error_info_injector<boost::mph::exception> >

的实例后终止调用      

what():MPI_Unpack:MPI_ERR_ARG:其他类型的无效参数

1 个答案:

答案 0 :(得分:0)

事实证明升级到升级1.50.0已经解决了这个问题。