我得到了日志:
2018-06-18 20:33:24.218811: W tensorflow/core/common_runtime/bfc_allocator.cc:217] Allocator (GPU_1_bfc) ran out of memory trying to allocate 2.27GiB. The caller indicates that this is not a failure, but may mean that there could be performance gains if more memory is available.
我的程序仍然可以运行。 所以我怀疑如果有更多内存可以获得哪些性能?训练速度,准确性还是其他什么?
谢谢!
答案 0 :(得分:0)
如果您的GPU缺少内存,但程序仍然运行,那么这意味着某些优化不会发生,或者某些操作将在您的CPU而不是GPU上运行,这将降低计算速度你的计划。
因此,如果有更多可用内存,您将提高您的培训和测试速度。但准确性不应改变。