我正在一个包含始终等于0的标签的数据集上训练一个简单模型,并获得0.0精度。
该模型如下:
import csv
import numpy as np
import pandas as pd
import tensorflow as tf
labelsReader = pd.read_csv('data.csv',usecols = [12],header=None)
dataReader = pd.read_csv('data.csv',usecols = [1,2,3,4,5,6,7,8,9,10,11],header=None)
labels_ = labelsReader.values
data_ = dataReader.values
labels = np.float32(labels_)
data = np.float32(data_)
x = tf.placeholder(tf.float32, [None, 11])
W = tf.Variable(tf.truncated_normal([11, 1], stddev=1./11.))
b = tf.Variable(tf.zeros([1]))
y = tf.matmul(x, W) + b
# Define loss and optimizer
y_ = tf.placeholder(tf.float32, [None, 1])
cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=y))
train_step = tf.train.GradientDescentOptimizer(0.5).minimize(cross_entropy)
sess = tf.InteractiveSession()
tf.global_variables_initializer().run()
for i in range(0, 1000):
train_step.run(feed_dict={x: data, y_: labels})
correct_prediction = tf.equal(y, y_)
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))
print(sess.run(accuracy, feed_dict={x: data, y_: labels}))
这是数据集:
444444,0,0,0.9993089149965446,0,0,0.000691085003455425,0,0,0,0,0,0
当模型训练时,上面显示的y数据减少,并且在1000次迭代后达到-1000。
导致模型训练失败的原因是什么?
答案 0 :(得分:1)
您的准确性检查预测的浮点数是否与您期望的值完全相等。使用您制作的网络这是一项非常困难的任务(尽管您可能有机会因为您的数据过多)。
为了获得更好的结果: - 将精度定义为高于/低于某个值(接近1或接近0)。 - 标准化您的输入数据,我不知道您输入的范围,但444444是一个用作输入的重要值,并且很难训练可以处理这些值的权重。
另外:尝试添加一些健全性检查。例如:您的模型预测的输出是什么? (y.eval)您在培训网络时的交叉熵是多少? (sess.run([准确性,交叉熵],feed_dict = {x:数据,y_:标签})
祝你好运!