为什么批处理模式比parfor快得多?

时间:2015-04-17 17:37:50

标签: performance matlab runtime parfor

我正在编写matlab代码来执行3维积分:

function [ fint ] = int3d_ser(R0, Rf, N)
Nr = N;
Nt = round(pi*N);
Np = round(2*pi*N);

rs = linspace(R0, Rf, Nr);
ts = linspace(0, pi, Nt);
ps = linspace(0, 2*pi, Np);

dr = rs(2)-rs(1);
dt = ts(2)-ts(1);
dp = ps(2)-ps(1);

C = 1/((4/3)*pi);
fint = 0.0;
for ir = 2:Nr
  r = rs(ir);
  r2dr = r*r*dr;
  for it = 1:Nt-1
    t = ts(it);
    sintdt = sin(t)*dt;
    for ip = 1:Np-1
      p = ps(ip);
      fint = fint + C*r2dr*sintdt*dp;
    end 
  end 
end

end

对于关联的int3d_par(parfor)版本,我打开一个matlab池,只需用for替换parfor。我得到了相当不错的加速,我在更多核心上运行它(我的测试是2到8个核心)。

但是,当我在批处理模式下运行相同的集成时:

function [fint] = int3d_batch_cluster(R0, Rf, N, cluster, ncores)

%%% note: This will not give back the same value as the serial or parpool version.
%%%       If this was a legit integration, I would worry more about even dispersion
%%%       of integration nodes per core, but I just want to benchmark right now so ... meh

Nr = N;
Nt = round(pi*N);
Np = round(2*pi*N);

rs = linspace(R0, Rf, Nr);
ts = linspace(0, pi, Nt);
ps = linspace(0, 2*pi, Np);

dr = rs(2)-rs(1);
dt = ts(2)-ts(1);
dp = ps(2)-ps(1);

C = 1/((4/3)*pi);

rns = floor( Nr/ncores )*ones(ncores,1);
RNS = zeros(ncores,1);
for icore = 1:ncores
  if(sum(rns) ~= Nr) 
    rns(icore) = rns(icore)+1;
  end 
end
RNS(1) = rns(1);
for icore = 2:ncores
  RNS(icore) = RNS(icore-1)+rns(icore);
end

rfs = rs(RNS);
r0s = zeros(ncores,1);
r0s(2:end) = rfs(1:end-1);

j = createJob(cluster);

for icore = 1:ncores
  r0 = r0s(icore);
  rf = rfs(icore);
  rn = rns(icore);
  trs = linspace(r0, rf, rn);
  t{icore} = createTask(j, @int3d_ser, 1, {r0, rf, rn});
end

submit(j);
wait(j);
fints = fetchOutputs(j);

fint = 0.0;
for ifint = 1:length(fints)
  fint = fint + fints{ifint};
end

end

我注意到它快得多。为什么在批处理模式下进行此集成与在parfor中进行此集成不同?

作为参考,我使用N从10和20之类的小数字(以获得运算符的多项式近似中的常数)测试代码到更大的数字,如1000和2000.此算法将立方缩放,因为我将thetaphi方向上的集成节点数分配给给定N的常数倍。

对于2000个节点,parfor版本大约需要630秒,而批处理模式中相同数量的节点大约需要19秒(其中大约12秒只是我们为10个集成节点获得的开销通信)

1 个答案:

答案 0 :(得分:1)

在与Mathworks支持人员交谈后,似乎我对parfor的工作方式存在根本性的误解。我的印象是parfor的行为与openMP相似,而批处理模式在共享内存和分布式内存方面的行为类似于mpi

事实证明parfor实际上也使用了分布式内存。当我创建4个批处理函数时,创建新进程的开销将发生4次。我认为使用parfor会导致开销只发生一次,而parfor则会在同一个内存空间中发生。事实并非如此。

在我的示例代码中,事实证明,对于parfor的每次迭代,我实际上都会产生创建新线程的开销。在比较苹果和苹果时,我应该创建与parfor循环中的迭代相同数量的批量调用。这就是为什么parfor函数花了这么长时间的原因 - 我为多处理带来了更多 的开销。