我使用tfprof作为配置工具来分析tensorflow python程序。
我在Macbook上获得了有关请求的字节的配置文件结果,但是当我在具有GPU的Linux工作站上执行完全相同的操作时,请求的字节是笔记本电脑的4倍。
起初,我认为这可能是因为GPU实际上会分配比必要数量更多的内存,以减少碎片。但是当我禁用GPU(即让 CUDA_VISIBLE_DEVICES ='')并重新运行该程序时,请求的字节仍然比我的笔记本电脑多4倍。
(我检查了python(3.6)和Tensorflow(r1.5)的版本在两种环境下是否相同,但我的笔记本电脑上的tensorflow仅限于CPU。)
有人知道原因吗?
谢谢。