为什么gcc的输出要比Visual Studio慢得多(对于这段代码)?

时间:2017-08-05 20:09:19

标签: c gcc visual-studio-2012

当我使用gcc编译定期更新的Ubuntu 16.04 64bit上的跟随代码

gcc source.c -O3 --fast-math

可执行文件需要大约45秒的CPU时间才能运行。但是在同一台机器和Windows 7 64bit中,在发布模式下使用Visual Studio 2012,运行CPU时间不到10秒。造成这种差异的主要原因是什么?避风港我使用了足够的gcc优化选项? Visual Studio的编译器是更好的编译器吗?或其他什么?

#include <stdio.h>
#include <math.h>
#include <time.h>

#define Nx 1000

int main()
{
    double d = 0.015e-2;        // meter
    double V0 = 400;            // volt
    double De = 1800e-4;        // m^2 per sec
    double mu_e = 2.9e1 / 760;  // m^2 per volt sec
    double n0 = 1e19;           // per m^3
    double e_eps = 1.602e-19 / 8.854e-12;
    double ne[Nx], je[Nx], E[Nx];
    double dx = d / (Nx - 1);
    double dt = 1e-14;          // s
    const int Nt = 500000;
    int i, k;
    double sum;
    FILE *fp_ne, *fp_E;
    double alpha, exp_alpha, R;
    int ESign = -1;
    clock_t start_t, end_t;

    start_t = clock();
    // initialization
    for (i = 1; i < Nx; i++)
        ne[i] = n0;
    ne[0] = 1e-4 * n0;

    for (i = 0; i < Nx; i++)
        E[i] = -V0 / d;

    // time loop
    for (k = 0; k < Nt; k++)
    {
        if (k%1000==0) printf("k = %d\n", k);
        for (i = 0; i < (Nx-1); i++)
        {
            alpha = mu_e*dx*E[i]/De;
            exp_alpha = exp(alpha);
            R = (exp_alpha-1)/alpha;
            je[i] = (De/(dx*R))*(ne[i]-exp_alpha*ne[i+1]);
        }

        for (i = 1; i < (Nx - 1); i++)
            ne[i] += -dt/dx*(je[i] - je[i-1]);
        ne[Nx - 1] = ne[Nx - 2];

        sum = 0;
        for (i = 0; i < (Nx - 1); i++)
            sum += dx*je[i];
        for (i = 0; i < (Nx - 1); i++)
        {
            E[i] += -dt*e_eps*(sum / d - je[i]);
            if (E[i]>=0) ESign=+1;
        }
        if (ESign==1) break;
    }

    // output
    printf("time=%e\n",k*dt);
    fp_ne = fopen("ne.txt", "w");
    fp_E = fopen("E.txt", "w");
    fprintf(fp_ne, "# x (cm)\tne(per cm^3)\n");
    fprintf(fp_E,  "# x (cm)\tE(V/cm)\n");
    for (i = 0; i < Nx; i++)
        fprintf(fp_ne, "%f\t%e\n", i*dx*100,ne[i]/1e6);
    for (i = 0; i < Nx-1; i++)
        fprintf(fp_E, "%f\t%e\n", i*dx*100, fabs(E[i])/1e2);
    fclose(fp_ne);
    fclose(fp_E);
    end_t = clock();
    printf("CPU time = %f\n", (double)(end_t - start_t) / CLOCKS_PER_SEC);
}

1 个答案:

答案 0 :(得分:2)

我做的第一件事是注释掉环路内的I / O.

//if (k%1000==0) printf("k = %d\n", k);

我只用那个改变得到了下面的时间。最后的fprintf来电确实会显着影响时间,但不会影响他们的相对差异,所以我不会再次测量所有这些。

我在Arch Linux第一代Core i5上获得了这些时间(全部使用标准-O2编译):

  • GCC 7.1:

    CPU time = 23.459520
    
  • Clang 4.0.1:

    CPU time = 22.936315
    
  • Intel 17.0.4:

    CPU time = 7.830828
    

在同一台机器上的Windows 10的Qemu / libvirt虚拟机上,我得到了这些时间:

  • MinGW-w64 GCC 6.3:

    CPU time = 76.122000
    
  • VS 2015.3:

    CPU time = 13.497000
    
  • VS 2017:

    CPU time = 49.306000
    

在WINE上(原生Linux,但Win32 API仿真,应该仍然可以与原生Linux代码执行相媲美)

  • MinGW-w64 GCC 6.3:

    CPU time = 56.074000
    
  • VS 2015.3:

    CPU time = 12.048000
    
  • VS 2017:

    CPU time = 34.541000
    

长话短说:似乎这些输出了这个特定问题的最佳代码:

  1. 英特尔在Linux上(可能也在Windows上)
  2. VS 2015.3
  3. Linux上的GCC / Clang
  4. VS 2017
  5. MinGW-w64海湾合作委员会。
  6. 查看装配将是解决这个问题的唯一方法,但正确分析这个问题超出了我的范围。