我正在为我的数据集实验VGG16和InceptionV3模型。
我在Kaggle中看到的一个使用InceptionV3模型的内核将51个初始层设置为不可训练。
另一方面,我在某处看到使用了VGG16模型,除了最后4层都设置为不可训练。
我正在寻找一种通用的通用方法,即对于任何模型,我应将多少层设置为不可训练。
或者我可以从中确定问题陈述的任何基本清单列表之类的东西。
我看到了这个Transfer learning from the pre-trained NASnet network. How to know the number of layers to freeze?,但由于选择了该特定点而无法理解答案