标签: tensorflow neural-network deep-learning triplet
最近,我正在使用三重丢失进行分类任务,VGG16用于提取要素作为骨干网。
三重损失用于优化正样本,负样本与锚点之间的距离,余量用作阈值。
但是我发现使用数据增强时,三重态损失不会低于裕度。这意味着正样本,负样本和锚点之间的距离全部为0,它们聚集在一起。
但是,如果不采用数据扩充并且特征尺寸不太小,则三重态损失可以减少到边际以下。
学习率设置为0.0005,动量优化器,动量= 0.9。
是因为样本本身吗?还是网络?