我正在对某些R语句进行基准测试(请参阅详细信息here),并发现我的已用时间比用户时间长。
user system elapsed
7.910 7.750 53.916
有人可以帮助我了解哪些因素(R或硬件)决定用户时间和经过时间之间的差异,以及我如何改进它?如果有帮助:我在带有4GB RAM的Macbook Air 1.7Ghz i5上运行data.table数据操作。
更新:我粗略的理解是用户时间是我的CPU处理我的工作所需的时间。经过的时间是我提交作业到获取数据的长度。处理8秒后我的电脑还需要做什么?
更新:正如评论中所建议的那样,我在两个data.table上运行了几次:Y,有104列(抱歉,随着时间的推移我添加了更多的列),而X作为Y的子集只有3个键。以下是更新。请注意,我连续运行了这两个程序,因此内存状态应该类似。
X<- Y[, list(Year, MemberID, Month)]
system.time(
{X[ , Month:= -Month]
setkey(X,Year, MemberID, Month)
X[,Month:=-Month]}
)
user system elapsed
3.490 0.031 3.519
system.time(
{Y[ , Month:= -Month]
setkey(Y,Year, MemberID, Month)
Y[,Month:=-Month]}
)
user system elapsed
8.444 5.564 36.284
以下是我工作区中仅有两个对象的大小(添加了逗号)。 :
object.size(X)
83,237,624 bytes
object.size(Y)
2,449,521,080 bytes
谢谢
答案 0 :(得分:18)
用户时间是计算机用于计算的时间。系统时间是操作系统响应程序请求所花费的时间。经过的时间是这两者的总和,再加上等待的等等#34;你的程序和/或操作系统必须这样做。值得注意的是,这些数字是花费的时间总和。你的程序可能会计算1秒钟,然后在操作系统上等待一秒钟,然后在磁盘上等待3秒钟,并在它运行时多次重复此循环。
基于您的程序花费的系统时间与用户时间相同的事实,这是一个非常IO密集的事情。从磁盘读取很多或写入磁盘很多。 RAM非常快,通常几百纳秒。因此,如果所有内容都适合RAM,则经过的时间通常比用户时间略长。但是磁盘可能需要几毫秒的时间来寻找,甚至更长时间来回复数据。这速度慢了一百万。
我们已经确定您的处理器是&#34;正在做的事情&#34;为~8 + ~8 = ~16秒。它为另一个做了什么~54 - ~16 = ~38秒?等待硬盘驱动器向它发送它要求的数据。
UPDATE1:
马修已经提出了一些很好的观点,我做出了一些我可能不应该做的假设。亚当,如果你关心发布表格中所有行的列表(我们只需要数据类型),我们就可以更好地了解正在发生的事情。
我刚刚编写了一个无用的程序来验证我的假设,即没有花费在用户空间和内核空间上的时间可能花在等待IO上。
#include <stdio.h>
int main()
{
int i;
for(i = 0; i < 1000000000; i++)
{
int j, k, l, m;
j = 10;
k = i;
l = j + k;
m = j + k - i + l;
}
return 0;
}
当我运行生成的程序并计时时,我看到类似的东西:
mike@computer:~$ time ./waste_user
real 0m4.670s
user 0m4.660s
sys 0m0.000s
mike@computer:~$
正如您通过检查所看到的,程序没有真正的工作,因此它不会要求内核做任何事情,只需将其加载到RAM中并开始运行即可。几乎所有的&#34;真实&#34;时间花在&#34;用户&#34;时间。
现在是一个内核繁重的无操作程序(少了一些迭代来保持时间合理):
#include <stdio.h>
int main()
{
FILE * random;
random = fopen("/dev/urandom", "r");
int i;
for(i = 0; i < 10000000; i++)
{
fgetc(random);
}
return 0;
}
当我运行那个时,我看到更像这样的东西:
mike@computer:~$ time ./waste_sys
real 0m1.138s
user 0m0.090s
sys 0m1.040s
mike@computer:~$
再次通过检查很容易看出程序只是要求内核给它随机字节。 / dev / urandom是一个非阻塞的熵源。那是什么意思?内核使用伪随机数生成器快速生成&#34; random&#34;我们的小测试程序的价值。这意味着内核必须进行一些计算,但它可以非常快速地返回。所以这个程序主要是等待内核为它计算,我们可以看到,几乎所有的时间都花在了sys上。
现在我们要做一点改变。而不是从非阻塞的/ dev / urandom中读取,我们将从阻塞的/ dev / random读取。那是什么意思?它没有做太多的计算,而是等待你的计算机上发生的事情,内核开发人员根据经验确定是随机的。 (我们也会做更少的迭代,因为这些东西需要更长的时间)
#include <stdio.h>
int main()
{
FILE * random;
random = fopen("/dev/random", "r");
int i;
for(i = 0; i < 100; i++)
{
fgetc(random);
}
return 0;
}
当我跑步和计算这个版本的程序时,这就是我所看到的:
mike@computer:~$ time ./waste_io
real 0m41.451s
user 0m0.000s
sys 0m0.000s
mike@computer:~$
运行需要41秒,但在用户和真实上花费的时间不可估量。这是为什么?所有的时间都花在内核上,但没有进行主动计算。内核只是在等待事情的发生。一旦收集到足够的熵,内核就会唤醒并将数据发送回程序。 (注意,根据所发生的一切,在计算机上运行可能需要更少或更多的时间)。我认为user + sys和real之间的时间差是IO。
那么这一切意味着什么呢?它并没有证明我的回答是正确的,因为可能有其他解释为什么你会看到你的行为。但它确实证明了用户计算时间,内核计算时间和我声称用IO做的时间之间的差异。
这是我/ dev / urandom和/ dev / random之间区别的来源: http://en.wikipedia.org/wiki//dev/random
UPDATE2:
我想我会尝试解决马修的建议,也许L2高速缓存未命中是问题的根源。 Core i7有一个64字节的缓存线。我不知道你对缓存了解多少,所以我会提供一些细节。当你从内存中请求一个值时,CPU不会得到那个值,它会得到它周围的所有64个字节。这意味着如果你以一种非常可预测的模式访问内存 - 比如说数组[0],数组[1],数组[2]等 - 它需要一段时间来获得值0,然后是1, 2,3,4 ......快得多。直到你到达下一个缓存行,就是这样。如果这是一个整数数组,0会很慢,1..15会很快,16会慢,17..31会很快等等。
http://software.intel.com/en-us/forums/topic/296674
为了测试这个,我做了两个程序。它们都有一个1024 * 1024元素的结构数组。在一种情况下,结构中有一个双重,另一种情况下结构中有8个双重结构。双倍长度为8个字节,因此在第二个程序中,我们以最坏的方式访问内存以进行高速缓存。第一个将很好地使用缓存。
#include <stdio.h>
#include <stdlib.h>
#define MANY_MEGS 1048576
typedef struct {
double a;
} PartialLine;
int main()
{
int i, j;
PartialLine* many_lines;
int total_bytes = MANY_MEGS * sizeof(PartialLine);
printf("Striding through %d total bytes, %d bytes at a time\n", total_bytes, sizeof(PartialLine));
many_lines = (PartialLine*) malloc(total_bytes);
PartialLine line;
double x;
for(i = 0; i < 300; i++)
{
for(j = 0; j < MANY_MEGS; j++)
{
line = many_lines[j];
x = line.a;
}
}
return 0;
}
当我运行这个程序时,我看到了这个输出:
mike@computer:~$ time ./cache_hits
Striding through 8388608 total bytes, 8 bytes at a time
real 0m3.194s
user 0m3.140s
sys 0m0.016s
mike@computer:~$
这里是带有大结构的程序,它们每个占用64个字节的内存,而不是8个。
#include <stdio.h>
#include <stdlib.h>
#define MANY_MEGS 1048576
typedef struct {
double a, b, c, d, e, f, g, h;
} WholeLine;
int main()
{
int i, j;
WholeLine* many_lines;
int total_bytes = MANY_MEGS * sizeof(WholeLine);
printf("Striding through %d total bytes, %d bytes at a time\n", total_bytes, sizeof(WholeLine));
many_lines = (WholeLine*) malloc(total_bytes);
WholeLine line;
double x;
for(i = 0; i < 300; i++)
{
for(j = 0; j < MANY_MEGS; j++)
{
line = many_lines[j];
x = line.a;
}
}
return 0;
}
当我跑步时,我看到了:
mike@computer:~$ time ./cache_misses
Striding through 67108864 total bytes, 64 bytes at a time
real 0m14.367s
user 0m14.245s
sys 0m0.088s
mike@computer:~$
第二个程序 - 设计为具有缓存未命中的程序 - 运行完全相同数量的内存访问需要五倍的时间。
另外值得注意的是,在这两种情况下,花费的所有时间都花在用户身上,而不是sys。这意味着操作系统正在计算程序必须等待程序数据的时间,而不是操作系统。鉴于这两个例子,我认为缓存未命中不太可能导致您的经过时间远远超过用户时间。
UPDATE3:
我刚刚看到你的更新,真正瘦身的桌子比普通的桌子快了大约10倍。这也会向我表明(正如另一个马修所说的那样)你已经没有RAM了。
一旦您的程序尝试使用的内存超过计算机实际安装的内存,它就会开始交换到磁盘。这比程序崩溃要好,但它比RAM慢得多,并且可能导致大幅减速。
我试着拼凑一个明天显示交换问题的例子。
UPDATE4:
好的,这是一个与前一个非常类似的示例程序。但现在结构是4096字节,而不是8字节。总的来说,这个程序将使用2GB内存而不是64MB内存。我也稍微改变了一点,并确保我随机访问而不是逐个元素,这样内核就不会变得聪明并开始预测我的程序需求。缓存由硬件驱动(仅由简单的启发式驱动),但kswapd(内核交换守护进程)完全可能比缓存更加智能。
#include <stdio.h>
#include <stdlib.h>
typedef struct {
double numbers[512];
} WholePage;
int main()
{
int memory_ops = 1024*1024;
int total_memory = memory_ops / 2;
int num_chunks = 8;
int chunk_bytes = total_memory / num_chunks * sizeof(WholePage);
int i, j, k, l;
printf("Bouncing through %u MB, %d bytes at a time\n", chunk_bytes/1024*num_chunks/1024, sizeof(WholePage));
WholePage* many_pages[num_chunks];
for(i = 0; i < num_chunks; i++)
{
many_pages[i] = (WholePage*) malloc(chunk_bytes);
if(many_pages[i] == 0){ exit(1); }
}
WholePage* page_list;
WholePage* page;
double x;
for(i = 0; i < 300*memory_ops; i++)
{
j = rand() % num_chunks;
k = rand() % (total_memory / num_chunks);
l = rand() % 512;
page_list = many_pages[j];
page = page_list + k;
x = page->numbers[l];
}
return 0;
}
从程序我调用cache_hits到cache_misses,我们看到内存大小增加了8倍,执行时间增加了5倍。在我们运行这个程序时你期望看到什么?它使用的内存比cache_misses多32倍,但内存访问次数相同。
mike@computer:~$ time ./page_misses
Bouncing through 2048 MB, 4096 bytes at a time
real 2m1.327s
user 1m56.483s
sys 0m0.588s
mike@computer:~$
与cache_misses一样长8倍,与cache_hits一样长40倍。这是在一台4GB内存的计算机上。我在这个程序中使用了50%的RAM,而cache_misses使用了1.5%,cache_hits使用了0.2%。它变得非常慢,即使它没有耗尽我的电脑所有的RAM。这足够重要。
我希望这是关于如何诊断程序运行缓慢的问题的一个很好的入门。