关于转移学习中不可训练的层数

时间:2019-04-17 16:24:48

标签: keras conv-neural-network transfer-learning

我正在为我的数据集实验VGG16和InceptionV3模型。

我在Kaggle中看到的一个使用InceptionV3模型的内核将51个初始层设置为不可训练。

另一方面,我在某处看到使用了VGG16模型,除了最后4层都设置为不可训练。

我正在寻找一种通用的通用方法,即对于任何模型,我应将多少层设置为不可训练。

或者我可以从中确定问题陈述的任何基本清单列表之类的东西。

我看到了这个Transfer learning from the pre-trained NASnet network. How to know the number of layers to freeze?,但由于选择了该特定点而无法理解答案

0 个答案:

没有答案