我正在尝试在具有16800张大小为(480,270),分为100类的图像的数据集上训练ResNet50。 训练开始时,损失在减少,然后开始增加
A正在对我的模型使用以下编译设置:
model.compile(loss='categorical_crossentropy',
optimizer='adam',
metrics=['accuracy'])
我想知道这是否是一个过拟合的方面,尽管数据集很大?我该怎么做才能帮助损失再次减少?我应该降低学习率还是等待更多的纪元或其他解决方案?