我正在为具有不同数据结构和技术(向量,数组和OpenMP)的矩阵实现C ++乘法,我发现了一个奇怪的情况......我的动态数组版本运行得更好:
次:
openmp mult_1:time:5.882000 s
阵列mult_2:时间:1.478000 s
我的编译标志是:
/ usr / bin / g ++ -fopenmp -pthread -std = c ++ 1y -O3
C ++矢量版
$
动态阵列版本
typedef std::vector<std::vector<float>> matrix_f;
void mult_1 (const matrix_f & matrixOne, const matrix_f & matrixTwo, matrix_f & result) {
const int matrixSize = (int)result.size();
#pragma omp parallel for simd
for (int rowResult = 0; rowResult < matrixSize; ++rowResult) {
for (int colResult = 0; colResult < matrixSize; ++colResult) {
for (int k = 0; k < matrixSize; ++k) {
result[rowResult][colResult] += matrixOne[rowResult][k] * matrixTwo[k][colResult];
}
}
}
}
测试:
C ++矢量版
void mult_2 ( float * matrixOne, float * matrixTwo, float * result, int size) {
for (int row = 0; row < size; ++row) {
for (int col = 0; col < size; ++col) {
for (int k = 0; k < size; ++k) {
(*(result+(size*row)+col)) += (*(matrixOne+(size*row)+k)) * (*(matrixTwo+(size*k)+col));
}
}
}
}
动态阵列版本
utils::ChronoTimer timer;
/* set Up simple matrix */
utils::matrix::matrix_f matr1 = std::vector<std::vector<float>>(size,std::vector<float>(size));
fillRandomMatrix(matr1);
utils::matrix::matrix_f matr2 = std::vector<std::vector<float>>(size,std::vector<float>(size));
fillRandomMatrix(matr2);
utils::matrix::matrix_f result = std::vector<std::vector<float>>(size,std::vector<float>(size));
timer.init();
utils::matrix::mult_1(matr1,matr2,result);
std::printf("openmp mult_1: time: %f ms\n",timer.now() / 1000);
我正在检查以前的一些帖子,但我找不到任何与我的问题相关link,link2,link3:
更新 我用答案重构了测试,矢量工作稍微好一些:
vector mult:时间:1.194000 s
array mult_2:time:1.202000 s
C ++矢量版
utils::ChronoTimer timer;
float *p_matr1 = new float[size*size];
float *p_matr2 = new float[size*size];
float *p_result = new float[size*size];
fillRandomMatrixArray(p_matr1,size);
fillRandomMatrixArray(p_matr2,size);
timer.init();
utils::matrix::mult_2(p_matr1,p_matr2,p_result,size);
std::printf("array mult_2: time: %f ms\n",timer.now() / 1000);
delete [] p_matr1;
delete [] p_matr2;
delete [] p_result;
动态阵列版本
void mult (const std::vector<float> & matrixOne, const std::vector<float> & matrixTwo, std::vector<float> & result, int size) {
for (int row = 0; row < size; ++row) {
for (int col = 0; col < size; ++col) {
for (int k = 0; k <size; ++k) {
result[(size*row)+col] += matrixOne[(size*row)+k] * matrixTwo[(size*k)+col];
}
}
}
}
另外,我的矢量化版本效果更好(0.803秒);
答案 0 :(得分:12)
向量向量类似于锯齿状数组 - 每个条目都是指针的数组,每个指针指向另一个浮点数组。
相比之下,原始数组版本是一个内存块,您可以在其中进行数学运算以查找元素。
使用单个矢量,而不是矢量矢量,并手动进行数学运算。或者,使用固定大小std::array
的向量。或者编写一个辅助类型,它采用float的(一维)向量,并为您提供二维视图。
连续缓冲区中的数据比一堆断开连接的缓冲区中的数据更加缓存和优化。
template<std::size_t Dim, class T>
struct multi_dim_array_view_helper {
std::size_t const* dims;
T* t;
std::size_t stride() const {
return
multi_dim_array_view_helper<Dim-1, T>{dims+1, nullptr}.stride()
* *dims;
}
multi_dim_array_view_helper<Dim-1, T> operator[](std::size_t i)const{
return {dims+1, t+i*stride()};
}
};
template<class T>
struct multi_dim_array_view_helper<1, T> {
std::size_t stride() const{ return 1; }
T* t;
T& operator[](std::size_t i)const{
return t[i];
}
multi_dim_array_view_helper( std::size_t const*, T* p ):t(p) {}
};
template<std::size_t Dims>
using dims_t = std::array<std::size_t, Dims-1>;
template<std::size_t Dims, class T>
struct multi_dim_array_view_storage
{
dims_t<Dims> storage;
};
template<std::size_t Dims, class T>
struct multi_dim_array_view:
multi_dim_array_view_storage<Dims, T>,
multi_dim_array_view_helper<Dims, T>
{
multi_dim_array_view( dims_t<Dims> d, T* t ):
multi_dim_array_view_storage<Dims, T>{std::move(d)},
multi_dim_array_view_helper<Dims, T>{
this->storage.data(), t
}
{}
};
现在你可以这样做:
std::vector<float> blah = {
01.f, 02.f, 03.f,
11.f, 12.f, 13.f,
21.f, 22.f, 23.f,
};
multi_dim_array_view<2, float> view = { {3}, blah.data() };
for (std::size_t i = 0; i < 3; ++i )
{
std::cout << "[";
for (std::size_t j = 0; j < 3; ++j )
std::cout << view[i][j] << ",";
std::cout << "]\n";
}
视图类中没有复制数据。它只是提供了一个多维数组的平面数组视图。
答案 1 :(得分:2)
你的方法完全不同:
在&#34;动态数组&#34;你为每个矩阵分配一块内存,并将矩阵的行映射到一维内存范围。
在&#34;向量&#34;你使用的矢量矢量是&#34;真实&#34;和动态&#34;二维意味着矩阵每一行的存储位置与其他行无关。
您可能想要做的是:
使用vector<float>(size*size)
并执行您在&#34;动态数组&#34;中执行的相同映射。例如手工或
编写一个内部为您处理映射的类,并提供一个二维访问接口(T& operator()(size_t, size_t)
或某种row_proxy operator[](size_t)
row_proxy
依次具有T& operator[](size_t)
jq -r 'leaf_paths as $path | $path + [getpath($path)] | @csv'
1}})
答案 2 :(得分:1)
这只是为了强制执行关于连续记忆的理论(
)在对使用g ++(-O2)生成的代码进行一些分析之后,可以在以下位置找到源代码:https://gist.github.com/42be237af8e3e2b1ca03
为阵列版本生成的相关代码是:
.L3:
lea r9, [r13+0+rbx] ; <-------- KEEPS THE ADDRESS
lea r11, [r12+rbx]
xor edx, edx
.L7:
lea r8, [rsi+rdx]
movss xmm1, DWORD PTR [r9]
xor eax, eax
.L6:
movss xmm0, DWORD PTR [r11+rax*4]
add rax, 1
mulss xmm0, DWORD PTR [r8]
add r8, r10
cmp ecx, eax
addss xmm1, xmm0
movss DWORD PTR [r9], xmm1 ; <------------ ADDRESS IS USED
jg .L6
add rdx, 4
add r9, 4 ; <--- ADDRESS INCREMENTED WITH SIZE OF FLOAT
cmp rdx, rdi
jne .L7
add ebp, 1
add rbx, r10
cmp ebp, ecx
jne .L3
查看r9
的值的使用情况如何反映目标数组的连续内存,以及其中一个输入数组的r8
。
另一方面,向量向量生成如下代码:
.L12:
mov r9, QWORD PTR [r12+r11]
mov rdi, QWORD PTR [rbx+r11]
xor ecx, ecx
.L16:
movss xmm1, DWORD PTR [rdi+rcx]
mov rdx, r10
xor eax, eax
jmp .L15
.L13:
movaps xmm1, xmm0
.L15:
mov rsi, QWORD PTR [rdx]
movss xmm0, DWORD PTR [r9+rax]
add rax, 4
add rdx, 24
cmp r8, rax
mulss xmm0, DWORD PTR [rsi+rcx]
addss xmm0, xmm1
movss DWORD PTR [rdi+rcx], xmm0 ; <------------ HERE
jne .L13
add rcx, 4
cmp rcx, r8
jne .L16
add r11, 24
cmp r11, rbp
jne .L12
毫不奇怪,编译器足够聪明,不能为所有operator []
调用生成代码,并且可以很好地内联它们,但是看看如何通过rdi + rcx
跟踪不同的地址当它将值存储回结果向量时,以及各种子向量(mov rsi, QWORD PTR [rdx]
)的额外内存访问,这些子向量都会产生一些开销。