有没有办法用cpu估算gpu的计算时间?

时间:2017-11-24 15:22:32

标签: deep-learning gpu cpu gpgpu cpu-speed

我制作了简单的深度学习模型。我现在桌面上只有cpu。 但我必须估计模型在gpu设置中的训练时间。 我不需要准确的训练时间估计。 大概的时间对我来说没问题。 这有什么方法或指标吗? 我的一个想法是比较GFLOP,但是当我计算时它也没有意义。

离。 cpu:intel e5-2686 v4,gpu:nvidia k80

1 个答案:

答案 0 :(得分:1)

您可以使用一种非常天真的方法,通过近似数据集中的并行度来估算加速度(例如,如果它是荒谬的并行,则可能等于数据集中的维数),假设最好的并发实现,实际传输数据的开销为零,然后数学变得简单:

  

speedup = GPU上的物理工作项数#(通常为#CUDA核心数)   典型的nvidia实施)除以物理工作项的数量   在CPU(物理核心数)上。

还有一些不同的因素与不同的硬件架构(ISR,设计等)有关。根据您对模型并行性的估计,实现,这些类型的计算会与实际性能有很大差异并发和硬件。