标签: python cuda profiling
我在Cuda c中编写了一个共享库,我用Cython包装,并在一个更大的Python项目中调用。我希望在运行共享库时获得有关GPU运行情况的一些信息,例如实现占用率,内存吞吐量等。
我想到的是在Cuda或Python代码中启动和停止分析,或者在运行代码之前启动一些连续的gpu监视器(例如类似于top)。
似乎我不能使用nvprof或nvvp。