在深度学习中,如何摆脱卡住的准确性和损失值?

时间:2019-02-19 07:40:25

标签: deep-learning tensorboard vgg-net

我正在用它来处理深度学习和医学图像分类。我使用大脑MRI数据并将其转换为jpg。然后将VGG16用于训练。当我检查损失,准确性,验证损失和验证准确性时,我看到以下图表。

max() Accuracy Loss Validation Accuracy

准确性和val_accuracy停留在某些迭代中。当我以不同角度旋转来扩充数据时,结果是相似的。我该如何摆脱呢?是因为VGG16模型还是我的数据集?我还从tensorboard添加了我的模型图,您可以检查。

这是关于我的论文的,经过几天的研究,我找不到有用的信息。这个网站是我最后的希望。预先感谢。

Validation Loss

1 个答案:

答案 0 :(得分:0)

训练数据和验证数据的精度和损耗图几乎相同,这表明您没有对数据过度拟合,这是理想的。通过旋转图像提供更多数据将有助于减少过拟合,但不会提高您的训练准确性。如果在训练数据的准确性较低的情况下没有过度拟合,则应尝试使用数据增强技术进行训练。 由于您的培训准确性相对较低,因此网络可能没有足够的层次来捕获图像和输出之间的复杂关系。因此,您应该尝试使用具有更多层的新体系结构来增加模型的复杂性。也许VGG 19会有所帮助。

在训练机器学习模型时,请遵循这种方法。 1.检查您的训练错误。如果高于,则增加模型复杂性。通过传统ml模型的模型复杂性,您可以增加训练中的功能数量。对于基于图像的CNN,您可以通过增加CNN层的数量和/或增加每个CNN中的过滤器的数量来实现。

  1. 检查您的验证错误。如果误差较大,但训练误差较小,则表明模型拟合数据过大。您使用诸如退出,批处理规范化和更多训练数据之类的技术来使验证错误尽可能接近训练错误。

您将继续重复这两个步骤,直到出现所需的验证错误。