我目前正在尝试基于模型检测动物园来训练模型以进行对象检测。在 CPU 上运行设置按预期工作,但在我的 GPU 上尝试相同会导致以下错误。
2021-03-10 11:46:54.286051: I tensorflow/stream_executor/platform/default/dso_loader.cc:49] Successfully opened dynamic library cublas64_11.dll
2021-03-10 11:46:54.751423: E tensorflow/stream_executor/cuda/cuda_blas.cc:226] failed to create cublas handle: CUBLAS_STATUS_ALLOC_FAILED
2021-03-10 11:46:54.764147: E tensorflow/stream_executor/cuda/cuda_blas.cc:226] failed to create cublas handle: CUBLAS_STATUS_ALLOC_FAILED
2021-03-10 11:46:54.764233: W tensorflow/stream_executor/stream.cc:1455] attempting to perform BLAS operation using StreamExecutor without BLAS support
在任务管理器中监视 GPU 信息似乎 tensorflow(据我所知)尝试分配整个内存。在达到特定峰值(大约 8Gb 中的 7.3 Gb)后不久,TF 崩溃并出现上面代码片段中的错误。
Internet / stackoverflow 中针对此特定错误的解决方案提到可以解决此问题,从而允许动态内存增长。这样做似乎有效,TF 设法创建了至少一个新的检查点,但最终因类似类别的错误而崩溃。在这种情况下,CUDA_OUT_OF_MEMORY 错误。
系统信息:
训练设置:
最初我想使用预训练的 EfficientDet D6 模型,但也尝试了其他几个模型,如 EfficientDet D4、CenterNet HourGlass 512x512 和 SSD MobileNet V2 FPNLite。所有这些模型都以不同的批量大小开始,但即使批量大小为 1,问题仍然存在。训练图像也不大(平均 600 x 800)。目前总共有 30 张图片,每班 15 张用于训练(我知道训练数据集应该更大,但这只是为了测试设置)。
现在我的问题是,是否有人有根据的猜测或其他方法来找出此错误的原因,因为我无法想象我的 2060 至少无法训练批量大小为 1 且图像相当小的 SSD .会不会是硬件故障?如果是这样,有没有办法检查?
答案 0 :(得分:0)
我已经对每个涉及的组件进行了完整的重新安装。这次我可能做了一些不同的事情,但我不能说什么。至少我现在可以利用 GPU 进行训练了。