我已经在整个互联网上搜索了这个,但我还没有找到可靠的答案。我需要指出的是,我是GPU编程的新手,但我刚刚订购了我的Jetson TK1单元,因为我喜欢模拟,我喜欢Python。我在PC上试过Numpy,但我想把这些模拟带到Android上。 我读过有关PyCuda和Numba的内容,但我更喜欢后者,因为它完全是在python中,我不必在C中编写内核。我似乎没有把握的是(在我之后)在我的Jetson TK1上安装numbapro)我将能够在Tegra K1 SOC的多核ARM CPU上引导我的代码,以及如何使用CUDA 6中提供的统一内存。请注意,Numba没有&#39 ; t还支持ARM LLVM。 或者我是否需要启动必需的C ++和CUDA C ++类才能访问CPU内核/线程。
答案 0 :(得分:1)
@NyproTheGeek,
我和你有同样的问题;我花了很多时间试图让NumbaPro在我的Jetson TK1上运行并且一直陷入死胡同。由于互联网上几乎没有提到NumbaPro + Jetson TK1,我终于通过电子邮件向Continuum Analytics的人们发送电子邮件,他们回答说Jetson TK1目前不受支持。然而,他们还指出Jetson TK1在路线图上,尽管没有给出明确的日期。
您对Numba(与NumbaPro相对)不支持LLVM支持的观察是正确的。我相信Continuum Analytics提供的功能是NumbaPro商业产品的一部分。
您可能已经尝试过使用Numba的jit装饰器。这确实通过编译代码提供了显着的性能提升,尽管没有任何接近GPU可用的火力: - )