在深入学习(主要是在Keras)中学习了一些编码器/解码器模型后,我仍然无法理解学习的位置。
编码器是否只是创建了特征映射,然后解码器尝试使用BackProp尽可能接近结果,或者编码器是否在模型训练时学习?
最后一个问题:如果我理解正确,过滤器相当于经典机器学习模型中的节点,改变它的权重来学习,我是对的吗?
答案 0 :(得分:0)
编码器学习输入数据的压缩表示,并且解码器尝试学习如何仅使用该压缩表示来尽可能最好地重建原始输入数据。假设初始权重(通常是随机设置)产生 e 的重建误差。在训练期间,调整编码器和解码器层权重,以便减少 e 。
稍后,通常会删除解码器层,编码器层的输出(压缩表示)将用作输入的特征映射。
压缩表示是什么意思?如果您的输入是大小为20 * 20 = 400个元素的图像,则您的编码器图层可能大小为100,压缩因子为4.换句话说,您正在学习如何仅使用400个元素捕获数据的本质100仍然能够以最小的误差重建400个元素数据。
关于过滤器等效节点和更改权重以了解训练期间输入的最佳表示,您是正确的。