考虑这个递归的多线程程序:
#include <iostream>
#include <thread>
#define NUMTHREADS 4
using namespace std;
int g[NUMTHREADS];
thread t[NUMTHREADS];
void task1(int x)
{
if(x+1<NUMTHREADS)
t[x] = thread(task1, x+1);
for(int i=0;i<100000000;i++)
g[x]++;
if(x+1<NUMTHREADS)
t[x].join();
}
int main()
{
task1(0);
for(int i=0;i<NUMTHREADS;i++)
cout<<g[i]<<" ";
}
我预计线程开销无关紧要,但实际上程序的运行时间随着线程数的增加呈线性增长。
这是我的6核cpu上的一些时间:
NUMTHREADS = 1:
$ time ./a
100000000
real 0m0.330s
user 0m0.312s
sys 0m0.015s
NUMTHREADS = 2:
$ time ./a
100000000 100000000
real 0m0.742s
user 0m1.404s
sys 0m0.015s
NUMTHREADS = 3:
$ time ./a
100000000 100000000 100000000
real 0m1.038s
user 0m2.792s
sys 0m0.000s
NUMTHREADS = 4:
$ time ./a
100000000 100000000 100000000 100000000
real 0m1.511s
user 0m5.616s
sys 0m0.015s
知道为什么会这样吗?
答案 0 :(得分:5)
在访问g
的元素时,由于 false sharing 的极端情况,正在序列化线程程序的执行。以下是程序的修改版本,它可以避免错误共享,并且只要每个线程可以分配给不同的CPU核心,就可以使用不同数量的线程运行相同的时间:
#include <iostream>
#include <thread>
#define NUMTHREADS 4
using namespace std;
int g[NUMTHREADS*16];
thread t[NUMTHREADS];
void task1(int x)
{
if(x+1<NUMTHREADS)
t[x] = thread(task1, x+1);
for(int i=0;i<100000000;i++)
g[x*16]++;
if(x+1<NUMTHREADS)
t[x].join();
}
int main()
{
task1(0);
for(int i=0;i<NUMTHREADS;i++)
cout<<g[i*16]<<" ";
}
1和4个线程的运行时间:
$ time ./a.out
100000000
./a.out 0.45s user 0.01s system 98% cpu 0.466 total
^^^^^^^^^^^
$ time ./a.out
100000000 100000000 100000000 100000000
./a.out 1.52s user 0.01s system 329% cpu 0.462 total
^^^^^^^^^^^
以下是对所发生情况的简短解释。现代x86 CPU以64字节为单位访问主存储器,称为缓存行(除非使用非时间存储或加载指令,但这不是这种情况)。该大小的单个缓存行最多可容纳16个int
数组元素:
| single cache line | another cache line
|------+------+-----+-------|-------+-------+------
| g[0] | g[1] | ... | g[15] | g[16] | g[17] | ...
+------+------+-----+-------+-------+-------+------
^ ^
| |
| +------ thread 1 updates this element
|
+------------- thread 0 updates this element
x86是缓存一致性架构,这意味着当在单个核心中修改缓存行时,其他核心会被告知其相同缓存行的副本不再有效,必须从上层存储器重新加载,例如共享L3缓存或主内存。由于共享的最后一级缓存和主内存都比每个内核的私有缓存慢得多,这导致执行速度慢得多。
修改后的版本将g
中的索引乘以16:
| one cache line | another cache line
|------+------+-----+-------|-------+-------+------
| g[0] | g[1] | ... | g[15] | g[16] | g[17] | ...
+------+------+-----+-------+-------+-------+------
^ ^
| |
| +------ thread 1 updates this element
|
+------------- thread 0 updates this element
现在很清楚,没有两个线程共享同一个缓存行,因此缓存一致性协议不参与该过程。
使用堆栈变量时可以获得相同的效果。线程堆栈通常很大(至少几个KiB)并在内存页边框上对齐,因此不同线程中的堆栈变量永远不会共享同一个缓存行。此外,编译器还可以优化对堆栈变量的访问。
请参阅this answer以获得更详尽的解释和另一种防止错误共享的方法。虽然它与OpenMP有关,但这些概念也适用于您的情况。
答案 1 :(得分:-1)
线程在单独的内核上运行时会提高性能,并且彼此平行。因此,通过将线程关联性设置为不同的核心,将每个线程绑定到不 可能是你的线程在单核上运行。
所以如果线程1,2,3,4分配给diff核心1 2 3 4(不要使用0)那么所有都将同时增加索引。请参阅$cpuinfo
以查看处理器的核心。并使用thread->setAffinity(core_numer);
为线程设置核心。
答案 2 :(得分:-1)
你应该:
使用至少-O2优化编译代码。
将变体g
声明为volatile
,否则可能会在编译时对其进行优化。
在我的2核机器上,thread = 1和thread = 2的成本几乎相同。
答案 3 :(得分:-1)
我认为创建和加入这样的线程有很多开销(参见这个问题C++11: std::thread pooled?)。如果您想并行化以提高效率,请查看类似OpenMP的内容。