在现实世界的项目中使用迁移学习是一个好主意吗?

时间:2019-11-10 17:09:51

标签: tensorflow deep-learning conv-neural-network transfer-learning

场景

如果我打算训练医学图像数据集并且我选择了可​​可预训练模型,该怎么办?

我的疑问

1 因为我选择了医学图像,所以在COCO数据集上没有任何训练的要点,对吗?如果是这样的话,有什么可能的解决办法呢?

2 在预训练模型中添加更多图层会破坏整个模型吗?大约有10多个类别和10000个训练数据集的课程?

3 如果不从头开始,有什么可能的解决方案,例如微调模型?

PS -让我们假设这种情况是基于出于商业目的部署模型的。

谢谢-

1 个答案:

答案 0 :(得分:1)

是的,在现实世界中的项目中重用预先训练的模型或转移学习是一个好主意,因为它可以节省计算时间并证明了体系结构。

如果您的用例是对医学图像进行分类,即图像分类,则

  1.   

    由于我选择了医学图像,因此没有必要对其进行培训   COCO数据集,对不对?如果可以的话,有什么可能的解决办法呢?

是的,COCO数据集对于图像分类不是一个好主意,因为它对于对象检测非常有效。您可以重用VGGNetResNetInception NetEfficientNet。有关更多信息,请参见TF HUB Modules

  1.   

    在预训练模型中添加更多图层会破坏整个模型吗?   大约有10多个类别和10000个训练数据集的课程?

不。我们可以删除预训练模型的顶层,并可以添加自定义图层,而不会影响预训练模型的性能。

  1.   

    如果不从零开始训练,可能的解决方案是什么,例如   对模型进行微调?

除了使用预先训练的模型外,您还可以使用HParams of Tensorboard调整模型的超参数(由您添加的自定义层)。