使用深度学习进行语义分割

时间:2016-05-07 02:32:13

标签: deep-learning image-segmentation

我的图像是512x512。我想对该图像执行每像素分类。我已经使用80x80补丁训练了模型。因此,在测试时我有512x512 = 262144个补丁,每个补丁的维度为80x80,这个分类太慢了。如何提高测试时间?请帮帮我。

1 个答案:

答案 0 :(得分:1)

我可能错了,但是没有很多解决方案来加速测试阶段,主要是减少NN神经元数量以减少操作次数:

  • 80x80补丁真的很大,你可能想尝试减小它们的大小并重新训练你的NN。它已经减少了很多神经元。
  • 分析NN权重/输入/输出,以便检测NN中无关紧要的神经元。例如,它们可能总是返回0,然后可以从您的NN中删除它们。然后用简化的架构重新训练你的NN。
  • 如果你还没有这样做,那么批量(更大越好)的补丁而不是一次补丁就快得多。
相关问题