我已经看到了两种不同的转移学习/微调方法,但我不确定它们的区别和好处:
mini-fc.h5
)。在这一点上,if遵循类似于方法#1的过程,在该过程中,冻结VGG16的第一个卷积层(使用imagenet的权重初始化),并仅训练最后一个conv层和完全连接的分类器(取而代之的是使用来自vnet16的权重进行初始化)此方法的先前培训部分,mini-fc.h5
)。然后训练该最终模型。也许在此keras页面的新类的微调InceptionV3部分中对此方法的最新版本进行了解释:https://keras.io/applications/ 这两种方法有什么区别/好处?那些是转移学习与微调的明显例子吗?最后一个链接真的只是方法2的修订版?
感谢您的支持