我想对矩阵应用特定的过滤器。 (从[0] [0]到结束)
A [i] [j] = 0.2 *(A [i] [j] + A [i + 1] [j] + A [i-1] [j] + A [i] [ j + 1] + A [i] [j-1])
如果[i],[j]例如是[0] [0](矩阵中的第一个值),我在左侧和上侧使用零作为值。
我试图理解为什么我的代码的并行版本比顺序版本慢。
当我使用多个线程进行计算时,我使用的事实是沿对角线有独立的工作。我故意将矩阵扩展两行和两个cols(用零填充),以简化过滤器的计算。
我还尝试了各种尺寸的矩阵(最大7000x7000)。
我的问题: http://15418.courses.cs.cmu.edu/fall2017/lecture/progbasics/slide_032
顺序版本:
for (int i = 1; i < r-1; i++) {
for (int j = 1; j < c-1; j++) {
arr[i][j] = 0.2f * (arr[i][j] + arr[i][j - 1] + arr[i - 1][j] + arr[i][j + 1] + arr[i + 1][j]);
}
}
并行版本:
int n = r - 2;
for (int slice = 0; slice < 2 * n - 1; ++slice) { //along the diagonals
int z = (slice < n) ? 0 : slice - n + 1;
#pragma omp parallel for schedule(static) //spawns threads
for (int j = z; j <= slice - z; ++j) {
pl_arr[j + 1][slice - j + 1] = 0.2f * (pl_arr[j + 1][slice - j + 1] + pl_arr[j + 1][slice - j] + pl_arr[j][slice - j + 1] + pl_arr[j + 1][slice - j + 1 + 1] + pl_arr[j + 1 + 1][slice - j + 1]);
}
}
其余代码:
int r = 7000, c = 7000;
r = r + 2;
c = c + 2;
/* initialize random seed: */
srand(time(NULL));
float **arr = (float **)malloc(r * sizeof(float *));
for (int i = 0; i < r; i++)
arr[i] = (float *)malloc(c * sizeof(float));
float **pl_arr = (float **)malloc(r * sizeof(float *));
for (int i = 0; i < r; i++)
pl_arr[i] = (float *)malloc(c * sizeof(float));
for (int i = 0; i < r; i++) {
for (int j = 0; j < c; j++) {
if ((i == 0) || (i == (r - 1)) || (j == 0) || (j == (c - 1)) ){
arr[i][j] = 0;
pl_arr[i][j] = 0;
}
else {
arr[i][j] = rand() % 99 + 1;
pl_arr[i][j] = arr[i][j];
}
}
}
#pragma omp与schedule(静态)并行-for构造拆分for循环,以便当前团队中的每个线程处理循环的不同部分。
结果: Paralle版本始终比顺序版本慢
答案 0 :(得分:6)
如果弄清楚循环的顺序版本中发生了什么,您会看到内部循环访问顺序的内存地址(或更准确地说,是三个内存范围,每个范围的地址都被顺序访问)。
现代的CPU很好,正在不断地访问连续的内存地址。这就是为什么在许多使用情况下,std::vector
可以比std::list
直观上更快的原因。
现在,对循环的并行版本执行相同的操作。用铅笔在纸上弄清楚每根线最终打到什么。看起来它是垂直遍历矩阵,跨多个单独分配的行。那不会是连续的内存地址,它们会无处不在;不太理想。
您可以简单地做到这一点,只需让每个线程捕获其正在破坏的原始内存地址,然后查看所有执行线程的合并捕获日志即可。现在,将其与顺序版本的内容进行比较。
增加伤害:在典型的现代体系结构上,内存区域被划分为称为“缓存行”的较大块。看起来并行版本将有多个执行线程访问相邻的内存地址,并且其中许多将属于同一缓存行;当多个CPU执行单元必须写入同一高速缓存行时,即使写入每个高速缓存行中的不同地址,它们也必须执行复杂的歌舞例程,以避免踩到彼此的脚趾。 >