我正在tf.keras中编写一个具有3层的神经网络。我的数据集是MNIST数据集。我减少了数据集中的示例数量,因此运行时间降低了。这是我的代码:
import tensorflow as tf
from tensorflow.keras import layers
import numpy as np
import pandas as pd
!git clone https://github.com/DanorRon/data
%cd data
!ls
batch_size = 32
epochs = 10
alpha = 0.0001
lambda_ = 0
h1 = 50
train = pd.read_csv('/content/first-repository/mnist_train.csv.zip')
test = pd.read_csv('/content/first-repository/mnist_test.csv.zip')
train = train.loc['1':'5000', :]
test = test.loc['1':'2000', :]
train = train.sample(frac=1).reset_index(drop=True)
test = test.sample(frac=1).reset_index(drop=True)
x_train = train.loc[:, '1x1':'28x28']
y_train = train.loc[:, 'label']
x_test = test.loc[:, '1x1':'28x28']
y_test = test.loc[:, 'label']
x_train = x_train.values
y_train = y_train.values
x_test = x_test.values
y_test = y_test.values
nb_classes = 10
targets = y_train.reshape(-1)
y_train_onehot = np.eye(nb_classes)[targets]
nb_classes = 10
targets = y_test.reshape(-1)
y_test_onehot = np.eye(nb_classes)[targets]
model = tf.keras.Sequential()
model.add(layers.Dense(784, input_shape=(784,)))
model.add(layers.Dense(h1, activation='relu', kernel_regularizer=tf.keras.regularizers.l2(lambda_)))
model.add(layers.Dense(10, activation='sigmoid', kernel_regularizer=tf.keras.regularizers.l2(lambda_)))
model.compile(optimizer=tf.train.GradientDescentOptimizer(alpha),
loss = 'categorical_crossentropy',
metrics = ['accuracy'])
model.fit(x_train, y_train_onehot, epochs=epochs, batch_size=batch_size)
每当我运行它时,就会发生以下三种情况之一:
在几个时期内,损耗减小并且精度提高,直到损耗由于无明显原因变为NaN且精度直线下降。
每个时期的损失和准确性保持不变。通常损失为2.3025,准确度为0.0986。
损失始于NaN(并一直保持这种状态),而准确度仍然很低。
在大多数情况下,模型会执行以下操作之一,但有时会执行随机操作。似乎发生的不稳定行为是完全随机的。我不知道是什么问题。我该如何解决这个问题?
编辑:有时,损失减少,但准确性保持不变。同样,有时损耗降低而精度提高,然后一段时间后精度降低而损耗仍降低。或者,损失减少而准确度增加,然后切换,损失迅速增加,而准确性却直线下降,最终以损失:2.3025 acc:0.0986结尾。
编辑2:这是有时发生的事的示例:
Epoch 1/100
49999/49999 [==============================] - 5s 92us/sample - loss: 1.8548 - acc: 0.2390
Epoch 2/100
49999/49999 [==============================] - 5s 104us/sample - loss: 0.6894 - acc: 0.8050
Epoch 3/100
49999/49999 [==============================] - 4s 90us/sample - loss: 0.4317 - acc: 0.8821
Epoch 4/100
49999/49999 [==============================] - 5s 104us/sample - loss: 2.2178 - acc: 0.1345
Epoch 5/100
49999/49999 [==============================] - 5s 90us/sample - loss: 2.3025 - acc: 0.0986
Epoch 6/100
49999/49999 [==============================] - 4s 90us/sample - loss: 2.3025 - acc: 0.0986
Epoch 7/100
49999/49999 [==============================] - 4s 89us/sample - loss: 2.3025 - acc: 0.0986
编辑3:我将损失更改为均方误差,并且网络现在运行良好。有没有办法让它保持交叉熵而不收敛到局部最小值?
答案 0 :(得分:1)
您对代码看似随机输出的沮丧感是可以理解和正确识别的。每次模型开始训练时,它都会随机初始化权重。根据此初始化,您将看到三种输出方案之一。
该问题很可能是由于梯度消失所致。当反向传播导致非常小的权重乘以一个很小的数字而产生几乎无限小的值时,就会出现这种现象。解决方案是为每个梯度(在成本函数内)增加一个小的抖动(1e-10),以使它们永远不会达到零。
关于在线消失梯度,还有大量更详细的博客,有关此TensorFlow Network
的实现示例,请参见第217行答案 1 :(得分:1)
对于这类分类问题,我将损失更改为均方误差,并且网络现在运行良好
MSE不是适当的损失函数;您当然应该坚持使用loss = 'categorical_crossentropy'
。
最有可能的原因是,您的MNIST数据未标准化;您应该将最终变量标准化为
x_train = x_train.values/255
x_test = x_test.values/255
不对输入数据进行规范化是导致梯度问题爆炸的已知原因,这可能就是这里发生的情况。
其他建议:为您的第一个密集层设置activation='relu'
,并从所有层中删除正则化程序和初始化程序参数(默认glorot_uniform
实际上是更好的初始化程序,而此处的正则化实际上对性能有害)。
一般建议,尝试 not 重新发明轮子-从Keras example开始,使用内置的MNIST数据...