分析从Python

时间:2018-05-24 11:20:27

标签: python cuda profiling

我在Cuda c中编写了一个共享库,我用Cython包装,并在一个更大的Python项目中调用。我希望在运行共享库时获得有关GPU运行情况的一些信息,例如实现占用率,内存吞吐量等。

我想到的是在Cuda或Python代码中启动和停止分析,或者在运行代码之前启动一些连续的gpu监视器(例如类似于top)。

似乎我不能使用nvprof或nvvp。

0 个答案:

没有答案