用keras训练神经网络(观察到的损失太低)

时间:2016-10-17 12:24:14

标签: machine-learning neural-network deep-learning keras

我正在训练一个带有Keras的神经网络,它接受2000 X 1阵列的输入,所有输入数据都是" 0"和" 1"并生成0或1的单个输出。

这是我的模特:

def mdl_normal(sq_len,broker_num):
  model = Sequential()
  model.add(Dense(sq_len * (broker_num + 1), input_dim = (sq_len * (broker_num+1)),activation = 'relu'))
  model.add(Dense(800, activation = 'relu'))
  model.add(Dense(400, activation = 'relu'))
  model.add(Dense(1, activation = 'sigmoid'))
  model.compile(loss='binary_crossentropy', optimizer='SGD')
  return model

但是我在训练时得到以下内容:

Epoch 384/600 0s - 损失:1.4224e-04 - val_loss:2.6322

损失非常低,我想知道我做错了什么。有人能解释一下这里失去的意义吗?

谢谢!

路易斯

0 个答案:

没有答案