在Matlab中使用GPU为10 000阵列

时间:2015-04-08 07:17:40

标签: matlab gpu

我想找到某种功能的极端。此函数使用具有10 000 - 100 000个元素的数组。函数内部的所有操作都使用Matlab样式编写的数组(例如C = A * B, C = A .* B, A(C) = D)而没有任何循环。 我也想使用GA或SA - 优化这个功能。

我可以用GPU加速加速吗? 我希望我可以,因为所有数组操作C = A * B, C = A .* B, A(C) = D都应该以并行模式执行。

但是这样,我的推理是正确的吗?

1 个答案:

答案 0 :(得分:0)

执行速度取决于CPU和GPU的参数。您可以轻松地将其与

进行比较
tic
C = A * B;
toc

gd = gpuDevice();
tic
aG = gpuArray(A);
bG = gpuArray(B);
C = A * B;
wait(gd);
toc