迁移学习中的这两种Keras方法之间有什么区别?

时间:2019-04-25 19:33:11

标签: machine-learning keras transfer-learning visual-recognition

我已经看到了两种不同的转移学习/微调方法,但我不确定它们的区别和好处:

  1. 一个简单地加载模型,例如。初始,初始化时使用从例如上的训练生成的权重进行初始化。 Imagenet,冻结转换层并附加一些密集层以适应特定的分类任务。一些引用是:[1][2][3][4]
  2. this keras blog tutorial上,该过程似乎更加复杂:通过VGG16模型运行一次训练/测试数据,并在两个numpy数组中记录来自完全连接的层之前的最后一个激活图的输出。然后在存储的要素之上训练一个小型的全连接模型(权重存储为例如mini-fc.h5)。在这一点上,if遵循类似于方法#1的过程,在该过程中,冻结VGG16的第一个卷积层(使用imagenet的权重初始化),并仅训练最后一个conv层和完全连接的分类器(取而代之的是使用来自vnet16的权重进行初始化)此方法的先前培训部分,mini-fc.h5)。然后训练该最终模型。也许在此keras页面的新类的微调InceptionV3部分中对此方法的最新版本进行了解释:https://keras.io/applications/

这两种方法有什么区别/好处?那些是转移学习与微调的明显例子吗?最后一个链接真的只是方法2的修订版?

感谢您的支持

0 个答案:

没有答案