我从4度多项式生成了一些数据,并希望在Keras中创建回归模型以拟合此多项式。问题是拟合后的预测似乎基本上是线性的。由于这是我第一次使用神经网络,我认为我犯了一个非常琐碎和愚蠢的错误。
这是我的代码:
model = Sequential()
model.add(Dense(units=200, input_dim=1))
model.add(Activation('relu'))
model.add(Dense(units=45))
model.add(Activation('relu'))
model.add(Dense(units=1))
model.compile(loss='mean_squared_error',
optimizer='sgd')
model.fit(x_train, y_train, epochs=20, batch_size=50)
loss_and_metrics = model.evaluate(x_test, y_test, batch_size=100)
classes = model.predict(x_test, batch_size=1)
x_train
和y_train
是包含来自this file的前9900个条目的numpy数组。
我尝试了不同的batch_sizes,时期数,图层大小和训练数据量。似乎没有任何帮助。
请指出你认为没有意义的一切!
答案 0 :(得分:6)
神经网络通常不能很好地推断多项式函数。但是,如果您的训练和测试数据来自相同的范围,您可以获得相当不错的结果。我生成了一些数据并使用了您的代码:
import numpy as np
x_train=np.random.rand(9000)
y_train=x_train**4+x_train**3-x_train
x_train=x_train.reshape(len(x_train),1)
x_test=np.linspace(0,1,100)
y_test=x_test**4+x_test**3-x_test
x_test=x_test.reshape(len(x_test),1)
model = Sequential()
model.add(Dense(units=200, input_dim=1))
model.add(Activation('relu'))
model.add(Dense(units=45))
model.add(Activation('relu'))
model.add(Dense(units=1))
model.compile(loss='mean_squared_error',
optimizer='sgd')
model.fit(x_train, y_train, epochs=40, batch_size=50, verbose=1)
loss_and_metrics = model.evaluate(x_test, y_test, batch_size=100)
classes = model.predict(x_test, batch_size=1)
test=x_test.reshape(-1)
plt.plot(test,classes,c='r')
plt.plot(test,y_test,c='b')
plt.show()
请注意,我将epochs
增加到40以获得更多迭代和更准确的结果。我还把verbose = 1能够看出损失的行为。损失确实在下降到7.4564e-04
,以下是我得到的结果。红线是网络的预测,蓝线是正确的值。你可以看到他们彼此非常接近。