我是tensorflow的新手,想要训练一个逻辑分类模型。
# Set model weights
W = tf.Variable(tf.zeros([30, 16]))
b = tf.Variable(tf.zeros([16]))
train_X, train_Y, X, Y = input('train.csv')
#construct model
pred = model(X, W, b)
# Minimize error using cross entropy
cost = tf.reduce_mean(-tf.reduce_sum(Y*tf.log(pred), reduction_indices=1))
# Gradient Descent
learning_rate = 0.1
#optimizer = tf.train.AdamOptimizer(learning_rate).minimize(cost)
optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost)
# Initializing the variables
init = tf.initialize_all_variables()
get_ipython().magic(u'matplotlib inline')
import collections
import matplotlib.pyplot as plt
training_epochs = 200
batch_size = 300
train_X, train_Y, X, Y = input('train.csv')
acc = []
x = tf.placeholder(tf.float32, [None, 30])
y = tf.placeholder(tf.float32, [None, 16])
with tf.Session() as sess:
sess.run(init)
# Training cycle
for epoch in range(training_epochs):
avg_cost = 0.0
#print(type(y_train[0][0]))
print(type(train_X))
print(type(train_X[0][0]))
print X
_, c = sess.run([optimizer, cost], feed_dict = {x: train_X, y: train_Y})
payf_dict方法不起作用,抱怨:
InvalidArgumentError:您必须为占位符张量提供值 ' Placeholder_54'用dtype float [[Node:Placeholder_54 = Placeholderdtype = DT_FLOAT,shape = [], _device =" / job:localhost / replica:0 / task:0 / cpu:0"]]由op u' Placeholder_54':
引起
我检查数据类型,以获取训练要素数据X:
train_X type: <type 'numpy.ndarray'>
train_X[0][0]: <type 'numpy.float32'>
train_X size: (300, 30)
place_holder info : Tensor("Placeholder_56:0", shape=(?, 30), dtype=float32)
我不知道为什么抱怨。希望某人可以提供帮助,谢谢
答案 0 :(得分:3)
从错误消息中,缺少占位符的名称 - 'Placeholder_54'
- 是可疑的,因为这表明在当前的解释器会话中至少创建了54个占位符。
没有足够的细节可以肯定地说,但我有一些怀疑。您是否在同一个解释器会话中多次运行相同的代码(例如,使用IPython / Jupyter或Python shell)?假设是这种情况,我怀疑你的cost
张量取决于先前执行该代码时创建的占位符。
的确,您的代码会在构建模型的其余部分之后创建两个tf.placeholder()
张量x
和y
,因此看起来可能是:
缺少的占位符是在以前执行此代码时创建的,或
input()
函数在内部调用tf.placeholder()
,这些占位符(可能是张量X
和Y
?)是您应该提供的。
答案 1 :(得分:1)
我认为我遇到了类似的错误。看来您的图上没有这些张量的x,y,您创建了具有相同名称的占位符,但这并不意味着您在图中使用了这些名称。
以下是我的问题的链接(我回答了自己的问题。):link
使用它来获取图形中的所有张量(非常有用):
[n.name for n in tf.get_default_graph().as_graph_def().node]
答案 2 :(得分:0)
显示model()的代码 - 我敢打赌它定义了两个占位符:X是placeholder_56,那么placeholder_54来自哪里?
然后将模型x,y传递给feed_dict,删除x,y全局占位符,一切都会起作用:)
答案 3 :(得分:0)
也许您可以尝试添加图形with tf.Graph().as_default():
以避免在运行jupyter notebook或ipython时重新定义占位符。