使用mpi进行sobel边缘检测

时间:2013-12-24 05:58:51

标签: c++ opencv parallel-processing mpi

我是一个mpi新手。我正在尝试将我的代码与mpi并行化(需要更快地运行一些实验)。它应该像这样工作:master向从服务器发送一个字符串数组,它们完成一些工作并将status_ready发送回主服务器。当所有从站都准备就绪时,主站进入循环并迭代地向从站发送双向量,从站处理该向量并将其结果(2个向量)发送回主站。当收到所有tje消息时,master将处理它并且循环迭代(master将结果发送给slave,等等)它应该像这样工作

#include <iostream>
#include <mpi.h>
#include <cmath>
#include <opencv2/imgproc/imgproc.hpp>
#include <opencv2/highgui/highgui.hpp>

using namespace std;
using namespace cv;
//int mod(int z, int l);

int xGradient(Mat image, int x, int y)
{
  return image.at<uchar>(y-1, x-1) +
    2*image.at<uchar>(y, x-1) +
    image.at<uchar>(y+1, x-1) -
    image.at<uchar>(y-1, x+1) -
    2*image.at<uchar>(y, x+1) -
    image.at<uchar>(y+1, x+1);
}

int yGradient(Mat image, int x, int y)
{
  return image.at<uchar>(y-1, x-1) +
    2*image.at<uchar>(y-1, x) +
    image.at<uchar>(y-1, x+1) -
    image.at<uchar>(y+1, x-1) -
    2*image.at<uchar>(y+1, x) -
    image.at<uchar>(y+1, x+1);
}

int main()
{
  Mat src, grey, dst;
  double start, end;
  int i, gx, gy, sum, argc, awal,akhir, size, rank, slave;
  int master=0;
  char **argv;
  // MPI_Status status;
  awal= MPI_Init(&argc, &argv);
  MPI_Comm_size(MPI_COMM_WORLD, &size);
  MPI_Comm_rank(MPI_COMM_WORLD, &rank);
  slave=size-1;
  start=MPI_Wtime();
  if( rank == master )
    {
      // start=MPI_Wtime();
      src= imread("E:/tigaout/Debug/jari.jpg");  
      cvtColor(src,grey,CV_BGR2GRAY);

      //MPI_Send(&(row_pointers[i*share+done][0]), 1, newtype, i, 1, MPI_COMM_WORLD);
      dst = grey.clone();
      if( !grey.data )
        {
          return -1;
        }
      for (i=1; i<slave; i++)
        {
          MPI_Send(&dst, 1, MPI_DOUBLE, i, 1, MPI_COMM_WORLD);
          cout<<"master mengirim data ke rank 1"<<dst<<endl;
        }
    }
  MPI_Barrier(MPI_COMM_WORLD);
  if (rank != master)
    {
      MPI_Recv(&dst, 1, MPI_DOUBLE, 0, 1, MPI_COMM_WORLD, MPI_STATUS_IGNORE);
      cout<<"rank 1 menerima data"<<dst<<endl;
    }
  for(int y = 0; y < grey.rows; y++)
    for(int x = 0; x < grey.cols; x++)
      dst.at<uchar>(y,x) = 0;  

  for(int y = 1; y < grey.rows - 1; y++)
    {
      for(int x = 1; x < grey.cols - 1; x++)
        {
          gx = xGradient(grey, x, y);
          gy = yGradient(grey, x, y);
          sum = abs(gx) + abs(gy);
          sum = sum > 255 ? 255:sum;
          sum = sum < 0 ? 0 : sum;
          dst.at<uchar>(y,x) = sum;


        }
    }


  /*    namedWindow("deteksi tepi sobel");
            imshow("deteksi tepi sobel", dst);

            namedWindow("grayscale");
            imshow("grayscale", grey);

            namedWindow("Original");
            imshow("Original", src);*/

  imwrite( "E:/tigaout/Debug/deteksi jari.jpg", dst );
  MPI_Barrier(MPI_COMM_WORLD);
  end=MPI_Wtime();
  cout<<"waktu eksekusi adalah: "<< end-start << " detik " <<endl;
  akhir=MPI_Finalize();

  //waitKey();

  return 0;
}

我已经尝试使用mpi点对点发送/接收来创建此代码。但我的代码总是错的,我的错在哪里,我该如何解决?

1 个答案:

答案 0 :(得分:0)

通过使用集合体,您可能会获得更好的性能和更简单的代码。奴隶向主服务器发送数据的第一步相当于MPI_Gather。主设备向每个从设备发送新数据的步骤为MPI_Scatter

我认为到目前为止可能导致问题的概念性部分是MPI程序使用single program, multiple data编程模型。每个等级都执行相同的代码,但只获得不同的“等级”值。这似乎在你的if (rank == master)if (rank != master)区块中被理解,但是当使用障碍或其他集体操作时,你必须记住你传递的传播者中的 no rank 它将通过代码中的那一点,直到所有其余的到达那里。您对MPI_Send进行的调用是阻塞的,因此主等级可能不会通过第一次发送,直到接收等级发布匹配的MPI_Recv,即从未因为接收等级被卡在屏障上。

希望有所帮助。