Caffe:如何选择适合内存的最大可用批量大小?

时间:2016-06-08 09:30:02

标签: memory gpu deep-learning caffe

由于小GPU内存(1Gb)我遇到了一些问题,问题是现在我通过反复试验选择batch_size,即使按行Memory required for data:逐行打印的内存大小也是如此小于1Gb它可能会失败。

所以我的问题是:

  1. 如何自动选择适合GPU内存的最大可用批量大小?
  2. 拥有更大的batch_size
  3. 总是更好吗?
  4. 如何计算网络部署期间培训和转发所需的峰值内存?
  5. 更新 我还检查了code,但我不确定top_vecs_是什么

1 个答案:

答案 0 :(得分:2)

如果以逐行打印的内存大小数据所需的内存小于您的​​总GPU内存,它仍然可能会失败,因为其他程序正在使用您的某些GPU内存。在linux下,您可以使用nvidia-smi命令检查统计信息。对我来说使用97MB的Ubuntu图形环境。

  1. 没有办法说caffe自动完成。
  2. 是的,用于培训。它在一次通过中处理更多数据,并且会在更少的时期内收敛,因为SGD将在每次迭代时产生更多类似的结果。对于部署,它不是那么关键
  3. 这可以让您大致了解如何计算:http://cs231n.github.io/convolutional-networks/