假设我有stl::array<float, 24> foo
,它是Column-Major格式arrayfire数组的线性化STL链接,例如af::array bar = af::array(4,3,2, 1, f32);
。所以我有一个af::dim4
对象dims
,其尺寸为bar
,我最多有4个af::seq
- 对象,我有线性化数组foo
。< / p>
如何明确地明确表示foo
的索引(即bar
的线性化版本),例如第2.和第3行,即bar(af::seq(1,2), af::span, af::span, af::span)
?我在下面给出了一个小代码示例,它显示了我想要的内容。最后,我还解释了为什么我想要这个。
af::dim4 bigDims = af::dim4(4,3,2);
stl::array<float, 24> foo; // Resides in RAM and is big
float* selBuffer_ptr; // Necessary for AF correct type autodetection
stl::vector<float> selBuffer;
// Load some data into foo
af::array selection; // Resides in VRAM and is small
af::seq selRows = af::seq(1,2);
af::seq selCols = af::seq(bigDims[1]); // Emulates af::span
af::seq selSlices = af::seq(bigDims[2]); // Emulates af::span
af::dim4 selDims = af::dim4(selRows.size, selCols.size, selSlices.size);
dim_t* linIndices;
// Magic functionality getting linear indices of the selection
// selRows x selCols x selSlices
// Assign all indexed elements to a consecutive memory region in selBuffer
// I know their positions within the full dataset, b/c I know the selection ranges.
selBuffer_ptr = static_cast<float> &(selBuffer[0]);
selection = af::array(selDims, selBuffer_ptr); // Copies just the selection to the device (e.g. GPU)
// Do sth. with selection and be happy
// I don't need to write back into the foo array.
Arrayfire必须实现这样的逻辑才能访问元素,我发现了几个相关的类/函数,例如af::index, af::seqToDims, af::gen_indexing, af::array::operator()
- 但是我还没有找到一个简单的方法。
我考虑过基本上重新实现operator()
,以便它可以类似地工作,但不需要引用数组对象。但如果在arrayfire框架中有一个简单的方法,这可能会浪费精力。
背景
我想这样做的原因是因为在与GPU后端链接时,arrayfire不允许仅在主内存(CPU上下文)中存储数据。由于我有一大块数据需要一点一点地处理而且VRAM非常有限,我想实例化af::array
- 来自一个始终存在的stl-container的ad-hoc对象在主记忆中。
当然我知道我可以编写一些索引魔法来解决我的问题,但是我想使用相当复杂的af::seq
对象,这可能会使索引逻辑的高效实现变得复杂。
答案 0 :(得分:1)
在与Gitter的Pavan Yalamanchili讨论后,我设法获得了一份我希望分享的代码,以防任何其他人需要将其变量仅保存在RAM中并将其复制到VRAM上,即ie Arrayfire Universe(如果在GPU或Nvidia上与OpenCL链接)。
此解决方案还可以帮助任何在项目中的其他地方使用AF的人,并希望有一种方便的方法来访问一个大的线性化N-dim数组(N <= 4)。
// Compile as: g++ -lafopencl malloc2.cpp && ./a.out
#include <stdio.h>
#include <arrayfire.h>
#include <af/util.h>
#include <cstdlib>
#include <iostream>
#define M 3
#define N 12
#define O 2
#define SIZE M*N*O
int main() {
int _foo; // Dummy variable for pausing program
double* a = new double[SIZE]; // Allocate double array on CPU (Big Dataset!)
for(long i = 0; i < SIZE; i++) // Fill with entry numbers for easy debugging
a[i] = 1. * i + 1;
std::cin >> _foo; // Pause
std::cout << "Full array: ";
// Display full array, out of convenience from GPU
// Don't use this if "a" is really big, otherwise you'll still copy all the data to the VRAM.
af::array ar = af::array(M, N, O, a); // Copy a RAM -> VRAM
af_print(ar);
std::cin >> _foo; // Pause
// Select a subset of the full array in terms of af::seq
af::seq seq0 = af::seq(1,2,1); // Row 2-3
af::seq seq1 = af::seq(2,6,2); // Col 3:5:7
af::seq seq2 = af::seq(1,1,1); // Slice 2
// BEGIN -- Getting linear indices
af::array aidx0 = af::array(seq0);
af::array aidx1 = af::array(seq1).T() * M;
af::array aidx2 = af::reorder(af::array(seq2), 1, 2, 0) * M * N;
af::gforSet(true);
af::array aglobal_idx = aidx0 + aidx1 + aidx2;
af::gforSet(false);
aglobal_idx = af::flat(aglobal_idx).as(u64);
// END -- Getting linear indices
// Copy index list VRAM -> RAM (for easier/faster access)
uintl* global_idx = new uintl[aglobal_idx.dims(0)];
aglobal_idx.host(global_idx);
// Copy all indices into a new RAM array
double* a_sub = new double[aglobal_idx.dims(0)];
for(long i = 0; i < aglobal_idx.dims(0); i++)
a_sub[i] = a[global_idx[i]];
// Generate the "subset" array on GPU & diplay nicely formatted
af::array ar_sub = af::array(seq0.size, seq1.size, seq2.size, a_sub);
std::cout << "Subset array: "; // living on seq0 x seq1 x seq2
af_print(ar_sub);
return 0;
}
/*
g++ -lafopencl malloc2.cpp && ./a.out
Full array: ar
[3 12 2 1]
1.0000 4.0000 7.0000 10.0000 13.0000 16.0000 19.0000 22.0000 25.0000 28.0000 31.0000 34.0000
2.0000 5.0000 8.0000 11.0000 14.0000 17.0000 20.0000 23.0000 26.0000 29.0000 32.0000 35.0000
3.0000 6.0000 9.0000 12.0000 15.0000 18.0000 21.0000 24.0000 27.0000 30.0000 33.0000 36.0000
37.0000 40.0000 43.0000 46.0000 49.0000 52.0000 55.0000 58.0000 61.0000 64.0000 67.0000 70.0000
38.0000 41.0000 44.0000 47.0000 50.0000 53.0000 56.0000 59.0000 62.0000 65.0000 68.0000 71.0000
39.0000 42.0000 45.0000 48.0000 51.0000 54.0000 57.0000 60.0000 63.0000 66.0000 69.0000 72.0000
ar_sub
[2 3 1 1]
44.0000 50.0000 56.0000
45.0000 51.0000 57.0000
*/
该解决方案使用了一些未记录的AF功能,并且由于for循环在global_idx上运行,所以它应该很慢,但到目前为止,如果想要在CPU上下文中专门保存数据并且只与它共享部分,那么它真的是最好的。用于处理的AF的GPU上下文。
如果有人知道加速此代码的方法,我仍然愿意接受建议。