我正在尝试使用神经网络来近似对数正态分布pdf(仅作为练习)。但是,model.predict()
始终返回1。这是我的代码
import tensorflow as tf
import numpy as np
from scipy.stats import lognorm
from tensorflow import keras
mu = 5
sig =1
data = np.linspace(0,600,10000)
labels =lognorm.pdf(data,sig,0,np.exp(mu))
model = keras.Sequential()
model.add(keras.layers.Dense(64,input_shape=(1,),activation='sigmoid'))
model.add(keras.layers.Dense(64, activation='sigmoid'))
model.add(keras.layers.Dense(1, activation='softmax'))
model.compile(optimizer=tf.train.AdamOptimizer(0.001),
loss='mse',
metrics=['accuracy'])
model.fit(data, labels, epochs=1)
# Now test
x = np.random.lognormal(mu, sig, 100)
y =lognorm.pdf(x,sig,0,np.exp(mu))
score = model.evaluate(x, y)
# score = [0.9951245284080505, 0.0]
# Now try prediction
newx = np.linspace(600,1000,50)
newy = model.predict(newx)
score2 = model.evaluate(newx, newy)
# score2 = [0.0, 1.0]
score2
为0,但不应为0。有人可以帮我找到我做错了什么吗?
答案 0 :(得分:0)
您的最后一层是softmax,它尝试获取最高的输出字段并将其捕捉为一个值,并随之缩放其他所有内容。
Softmax主要用于分类问题,您要在其中明确声明一个潜在的输出为“正确”。
在这种情况下,您只有一个输出,该输出打算表示一个介于0和1之间的值,因此我可能在最后一层使用另一个Sigmoid。