朱莉娅与Matlab。一个简单的测试用例

时间:2018-07-04 22:27:06

标签: matlab performance julia linear-algebra

不久前我开始学习Julia,因此我决定做一个简单的 一个简单的计算欧几里得代码的比较Julia和Matlab 一组高维点的距离矩阵。

任务很简单,可以分为两种情况:

情况1:给定两个以n x d矩阵形式表示的数据集,例如X1和X2,计算X1中每个点与X2中所有点之间的成对欧几里德距离。如果X1的大小为n1 x d,而X2的大小为n2 x d,则所得的欧几里得距离矩阵D的大小将为n1 x n2。一般情况下,矩阵D不对称,对角线元素不等于零。

情况2:给定一个数据集,其形式为nxd矩阵X,计算X中所有n个点之间的成对欧几里得距离。结果,欧几里得距离矩阵D的大小为nxn,对称,主对角线上有零个元素。

我在Matlab和Julia中对这些功能的实现如下。请注意,所有实现都不依赖于任何类型的循环,而是依赖于简单的线性代数运算。另外,请注意,使用这两种语言的实现非常相似。

在对这些实现进行任何测试之前,我的期望是Julia代码将比Matlab代码快得多,而且幅度要大得多。令我惊讶的是,事实并非如此!

我的实验参数在下面的代码中给出。我的机器是MacBook Pro。 (2015年中的15英寸)和2.8 GHz英特尔酷睿i7(四核)和16 GB 1600 MHz DDR3。

Matlab版本:R2018a

Julia版本:0.6.3
            BLAS:libopenblas(USE64BITINT DYNAMIC_ARCH NO_AFFINITY Haswell)
            LAPACK:libopenblas64_
            LIBM:libopenlibm
            LLVM:libLLVM-3.9.1(ORCJIT,haswell)

结果在下表(1)中给出。

表1:在计算两个不同数据集之间的欧几里得距离矩阵的30次试验中,平均时间(以标准差为单位)以秒为单位(第1组), 以及一个数据集中所有成对点之间(第2组)。

          Two Datasets  ||  One Dataset     

Matlab:2.68(0.12)秒。 1.88(0.04)秒。

Julia V1:5.38(0.17)秒4.74(0.05)秒。

Julia V2:5.2(0.1)秒


我没想到两种语言之间会有这种显着差异。我希望朱莉娅比Matlab更快,或者至少与Matlab一样快。看到Matlab在这个特定任务中的速度比Julia快2.5倍,真是令人惊讶。由于某些原因,我不想基于这些结果得出任何早期结论。

第一 ,虽然我认为我的Matlab实现效果很好,但我想知道我的Julia实现是否是完成此任务的最佳选择。我仍在学习Julia,希望有一个更高效的Julia代码可以为该任务缩短计算时间。特别是,Julia在此任务中的主要瓶颈在哪里?或者,为什么Matlab在这种情况下有优势?

第二 ,我当前的Julia程序包基于适用于MacOS的通用和标准BLAS和LAPACK程序包。我想知道基于Intel MKL的具有BLAS和LAPACK的JuliaPro是否会比我正在使用的当前版本更快。这就是为什么我选择从更多有知识的人那里获得有关StackOverflow的反馈的原因。

第三 的原因是我想知道Julia的编译时间是否为 包括在表1(第二行和第三行)中所示的时间中,以及是否有更好的方法来评估函数的执行时间。

如果对我之前的三个问题有任何反馈,我将不胜感激。

谢谢!

提示:该问题已被识别为StackOverflow上另一个问题的可能重复。但是,这并非完全正确。该问题具有三个方面,如以下答案所示。首先,是的,问题的一部分与OpenBLAS与MKL的比较有关。其次,事实证明,如答案之一所示,实施方式也可以得到改进。最后,可以使用BenchmarkTools.jl来对julia代码本身进行基准标记。

MATLAB

num_trials = 30;
dim = 1000;
n1 = 10000;
n2 = 10000;

T = zeros(num_trials,1);

XX1 = randn(n1,dim);
XX2 = rand(n2,dim);

%%% DIFEERENT MATRICES
DD2ds = zeros(n1,n2);

for (i = 1:num_trials)
  tic;
  DD2ds = distmat_euc2ds(XX1,XX2);
  T(i) = toc;
end

mt = mean(T);
st = std(T);

fprintf(1,'\nDifferent Matrices:: dim: %d, n1 x n2: %d x %d -> Avg. Time %f (+- %f) \n',dim,n1,n2,mt,st);

%%% SAME Matrix 
T = zeros(num_trials,1);

DD1ds = zeros(n1,n1);

for (i = 1:num_trials)
  tic;
  DD1ds = distmat_euc1ds(XX1);
  T(i) = toc;
end

mt = mean(T);
st = std(T);

fprintf(1,'\nSame Matrix:: dim: %d, n1 x n1 : %d x %d -> Avg. Time %f (+- %f) \n\n',dim,n1,n1,mt,st);

distmat_euc2ds.m

function [DD] = distmat_euc2ds (XX1,XX2)
    n1 = size(XX1,1);
    n2 = size(XX2,1);
    DD = sqrt(ones(n1,1)*sum(XX2.^2.0,2)' + (ones(n2,1)*sum(XX1.^2.0,2)')' - 2.*XX1*XX2');
end

distmat_euc1ds.m

function [DD] = distmat_euc1ds (XX)
    n1 = size(XX,1);
    GG = XX*XX';
    DD = sqrt(ones(n1,1)*diag(GG)' + diag(GG)*ones(1,n1) - 2.*GG);
end

朱莉娅

include("distmat_euc.jl")

num_trials = 30;

dim = 1000;
n1 = 10000;
n2 = 10000;

T = zeros(num_trials);

XX1 = randn(n1,dim)
XX2 = rand(n2,dim)

DD = zeros(n1,n2)

# Euclidean Distance Matrix: Two Different Matrices V1
# ====================================================
for i = 1:num_trials
    tic()
    DD = distmat_eucv1(XX1,XX2)
    T[i] = toq();
end

mt = mean(T)
st = std(T)

println("Different Matrices V1:: dim:$dim, n1 x n2: $n1 x $n2 -> Avg. Time $mt (+- $st)")


# Euclidean Distance Matrix: Two Different Matrices V2
# ====================================================
for i = 1:num_trials
    tic()
    DD = distmat_eucv2(XX1,XX2)
    T[i] = toq();
end

mt = mean(T)
st = std(T)

println("Different Matrices V2:: dim:$dim, n1 x n2: $n1 x $n2 -> Avg. Time $mt (+- $st)")


# Euclidean Distance Matrix: Same Matrix V1
# =========================================
for i = 1:num_trials
    tic()
    DD = distmat_eucv1(XX1)
    T[i] = toq();
end

mt = mean(T)
st = std(T)

println("Same Matrix V1:: dim:$dim, n1 x n2: $n1 x $n2 -> Avg. Time $mt (+- $st)")

distmat_euc.jl

function distmat_eucv1(XX1::Array{Float64,2},XX2::Array{Float64,2})
    (num1,dim1) = size(XX1)
    (num2,dim2) = size(XX2)

    if (dim1 != dim2)
        error("Matrices' 2nd dimensions must agree!")
    end

    DD = sqrt.((ones(num1)*sum(XX2.^2.0,2)') +
         (ones(num2)*sum(XX1.^2.0,2)')' - 2.0.*XX1*XX2');
end


function distmat_eucv2(XX1::Array{Float64,2},XX2::Array{Float64,2})
    (num1,dim1) = size(XX1)
    (num2,dim2) = size(XX2)

    if (dim1 != dim2)
        error("Matrices' 2nd dimensions must agree!")
    end

    DD = (ones(num1)*sum(Base.FastMath.pow_fast.(XX2,2.0),2)') +
         (ones(num2)*sum(Base.FastMath.pow_fast.(XX1,2.0),2)')' -
         Base.LinAlg.BLAS.gemm('N','T',2.0,XX1,XX2);

    DD = Base.FastMath.sqrt_fast.(DD)
end


function distmat_eucv1(XX::Array{Float64,2})
    n = size(XX,1)
    GG = XX*XX';
    DD = sqrt.(ones(n)*diag(GG)' + diag(GG)*ones(1,n) - 2.0.*GG)
end

1 个答案:

答案 0 :(得分:7)

第一个问题:如果我这样重写julia距离函数:

function dist2(X1::Matrix, X2::Matrix)
    size(X1, 2) != size(X2, 2) && error("Matrices' 2nd dimensions must agree!")
    return sqrt.(sum(abs2, X1, 2) .+ sum(abs2, X2, 2)' .- 2 .* (X1 * X2'))
end

我将执行时间削减了40%以上。

对于单个数据集,您可以节省更多,如下所示:

function dist2(X::Matrix)
    G = X * X'
    dG = diag(G)
    return sqrt.(dG .+ dG' .- 2 .* G)
end

第三个问题:您应该使用BenchmarkTools.jl进行基准测试,并执行这样的基准测试(记住$用于变量插值):

julia> using BenchmarkTools
julia> @btime dist2($XX1, $XX2);

此外,您不应该使用浮点数来进行幂运算,例如:X.^2.0。写入X.^2更快,也同样正确。

对于乘法,2.0 .* X2 .* X之间没有速度差异,但是您仍应该使用整数,因为它更通用。例如,如果X具有Float32个元素,则与2.0相乘将把数组提升到Float64 s,而与2相乘将保留eltype。

最后,请注意,在新版本的Matlab中,您也可以通过简单地将Mx1数组与1xN数组相加来获得广播行为。不需要先通过乘以ones(...)来展开它们。