当我使用gcc编译定期更新的Ubuntu 16.04 64bit上的跟随代码
gcc source.c -O3 --fast-math
可执行文件需要大约45秒的CPU时间才能运行。但是在同一台机器和Windows 7 64bit中,在发布模式下使用Visual Studio 2012,运行CPU时间不到10秒。造成这种差异的主要原因是什么?避风港我使用了足够的gcc优化选项? Visual Studio的编译器是更好的编译器吗?或其他什么?
#include <stdio.h>
#include <math.h>
#include <time.h>
#define Nx 1000
int main()
{
double d = 0.015e-2; // meter
double V0 = 400; // volt
double De = 1800e-4; // m^2 per sec
double mu_e = 2.9e1 / 760; // m^2 per volt sec
double n0 = 1e19; // per m^3
double e_eps = 1.602e-19 / 8.854e-12;
double ne[Nx], je[Nx], E[Nx];
double dx = d / (Nx - 1);
double dt = 1e-14; // s
const int Nt = 500000;
int i, k;
double sum;
FILE *fp_ne, *fp_E;
double alpha, exp_alpha, R;
int ESign = -1;
clock_t start_t, end_t;
start_t = clock();
// initialization
for (i = 1; i < Nx; i++)
ne[i] = n0;
ne[0] = 1e-4 * n0;
for (i = 0; i < Nx; i++)
E[i] = -V0 / d;
// time loop
for (k = 0; k < Nt; k++)
{
if (k%1000==0) printf("k = %d\n", k);
for (i = 0; i < (Nx-1); i++)
{
alpha = mu_e*dx*E[i]/De;
exp_alpha = exp(alpha);
R = (exp_alpha-1)/alpha;
je[i] = (De/(dx*R))*(ne[i]-exp_alpha*ne[i+1]);
}
for (i = 1; i < (Nx - 1); i++)
ne[i] += -dt/dx*(je[i] - je[i-1]);
ne[Nx - 1] = ne[Nx - 2];
sum = 0;
for (i = 0; i < (Nx - 1); i++)
sum += dx*je[i];
for (i = 0; i < (Nx - 1); i++)
{
E[i] += -dt*e_eps*(sum / d - je[i]);
if (E[i]>=0) ESign=+1;
}
if (ESign==1) break;
}
// output
printf("time=%e\n",k*dt);
fp_ne = fopen("ne.txt", "w");
fp_E = fopen("E.txt", "w");
fprintf(fp_ne, "# x (cm)\tne(per cm^3)\n");
fprintf(fp_E, "# x (cm)\tE(V/cm)\n");
for (i = 0; i < Nx; i++)
fprintf(fp_ne, "%f\t%e\n", i*dx*100,ne[i]/1e6);
for (i = 0; i < Nx-1; i++)
fprintf(fp_E, "%f\t%e\n", i*dx*100, fabs(E[i])/1e2);
fclose(fp_ne);
fclose(fp_E);
end_t = clock();
printf("CPU time = %f\n", (double)(end_t - start_t) / CLOCKS_PER_SEC);
}
答案 0 :(得分:2)
我做的第一件事是注释掉环路内的I / O.
//if (k%1000==0) printf("k = %d\n", k);
我只用那个改变得到了下面的时间。最后的fprintf
来电确实会显着影响时间,但不会影响他们的相对差异,所以我不会再次测量所有这些。
我在Arch Linux第一代Core i5上获得了这些时间(全部使用标准-O2
编译):
GCC 7.1:
CPU time = 23.459520
Clang 4.0.1:
CPU time = 22.936315
Intel 17.0.4:
CPU time = 7.830828
在同一台机器上的Windows 10的Qemu / libvirt虚拟机上,我得到了这些时间:
MinGW-w64 GCC 6.3:
CPU time = 76.122000
VS 2015.3:
CPU time = 13.497000
VS 2017:
CPU time = 49.306000
在WINE上(原生Linux,但Win32 API仿真,应该仍然可以与原生Linux代码执行相媲美)
MinGW-w64 GCC 6.3:
CPU time = 56.074000
VS 2015.3:
CPU time = 12.048000
VS 2017:
CPU time = 34.541000
长话短说:似乎这些输出了这个特定问题的最佳代码:
查看装配将是解决这个问题的唯一方法,但正确分析这个问题超出了我的范围。