我制作了简单的深度学习模型。我现在桌面上只有cpu。 但我必须估计模型在gpu设置中的训练时间。 我不需要准确的训练时间估计。 大概的时间对我来说没问题。 这有什么方法或指标吗? 我的一个想法是比较GFLOP,但是当我计算时它也没有意义。
离。 cpu:intel e5-2686 v4,gpu:nvidia k80
答案 0 :(得分:1)
您可以使用一种非常天真的方法,通过近似数据集中的并行度来估算加速度(例如,如果它是荒谬的并行,则可能等于数据集中的维数),假设最好的并发实现,实际传输数据的开销为零,然后数学变得简单:
speedup = GPU上的物理工作项数#(通常为#CUDA核心数) 典型的nvidia实施)除以物理工作项的数量 在CPU(物理核心数)上。
还有一些不同的因素与不同的硬件架构(ISR,设计等)有关。根据您对模型并行性的估计,实现,这些类型的计算会与实际性能有很大差异并发和硬件。