我有一个具有两个相似分支的多任务网络和一个只有一个分支的预训练网络(也是相同的)。 我想用我预训练网络中各层的权重来初始化两个分支(在我的多任务网络中)中的层的权重。
现在,我可以使用与预训练网络中相同的名称来正确初始化其中一个分支。 但是,我必须保持另一个分支中的图层名称不同,因此这些图层不会采用预先训练的权重。
另外,我不想在两个分支中分享权重。因此,在两个分支的相应层中为权重赋予相同的名称将不起作用。
这样做有什么好方法/黑客吗?
PS:我想避免使用网络手术,但是也欢迎任何评论,解释一个很好的方法。
澄清:我只是想用相同的权重初始化两个分支。他们可以在训练阶段学习不同的重量,因为它们由不同的损失层控制。
答案 0 :(得分:1)
Przemak D answer是一个很好的黑客来做上述事情。
以上是一个很好的黑客,但网络手术是一种更好的方法。