我正在尝试使用神经网络对f(x)= x ^ 2图进行建模,正在tflearn中进行建模。 但是,即使使用多个图层,当我从模型中绘制一些点时,它总是会绘制一条直线。
import numpy as np
from matplotlib import pyplot
import tflearn
x = list()
y = list()
for i in range(100):
x.append(float(i))
y.append(float(i**2))
features = np.array(x).reshape(len(x),1)
labels = np.array(y).reshape(len(y), 1)
g = tflearn.input_data(shape=[None, 1])
g = tflearn.fully_connected(g, 128)
g = tflearn.fully_connected(g, 64)
g = tflearn.fully_connected(g, 1)
g = tflearn.regression(g, optimizer='sgd', learning_rate=0.01,
loss='mean_square')
# Model training
m = tflearn.DNN(g)
m.fit(features, labels, n_epoch=100, snapshot_epoch=False)
x = list()
y = list()
for i in range(100):
x.append(i)
y.append(float(m.predict([[i]])))
pyplot.plot(x, y)
pyplot.plot(features, labels)
pyplot.show()
绿线是x ^ 2图,蓝线是模型。
答案 0 :(得分:1)
默认情况下,tflearn.fully_connected
具有activation='linear'
,因此无论您堆叠多少层,都只能近似线性函数。
尝试使用其他激活功能,例如tflearn.fully_connected(g, 128, activation='tanh')
,并在输出层保留activation='linear'
,以免影响输出。