我想乘以2个张量,所以我在Keras中使用了lambda层,并使用目标2个张量作为lambda层的输入,如下所示:
def get_col_att(tensors):
for i in range(num_samples):
global t
t=tf.assign(t,i)
x = tf.nn.embedding_lookup(tensors[0], t)
print("tensors[1]:",tensors[1])
y = tf.nn.embedding_lookup(tensors[1], t)
print("x shape",x.shape,"y shape",y.shape)
ab=tf.transpose(y)
Ecol=tf.reshape(tf.tensordot(x,ab,axes=1),[1,M,C])
if i==0:
all_col_attention=tf.Variable(initial_value=Ecol)
else:
all_col_attention=tf.concat([all_col_attention,Ecol],0)
print("all_col_attention",all_col_attention)
return all_col_attention
total_alpha_sel_np=Lambda(get_col_att)([Hq,cols_last_hidden])
但是它给出了以下错误
Input 'ref' passed int32 expected ref type while building NodeDef
我发现错误在哪里,并且在下一行
all_col_attention=tf.Variable(initial_value=Ecol)
也是因为Ecol 所以我用y(2-d)以及tensor1代替了Ecol(3-d)。它适用于张量[1],但不适用于y。以下是张量的形状
x shape (13, 80) y shape (12, 80)
tf.tensordot(x,ab,axes=1) Tensor("lambda_42/Reshape:0", shape=(1, 13, 12), dtype=float32)
x shape (13, 80) y shape (12, 80)
tf.tensordot(x,ab,axes=1) Tensor("lambda_42/Reshape_2:0", shape=(1, 13, 12), dtype=float32)
x shape (13, 80) y shape (12, 80)
tf.tensordot(x,ab,axes=1) Tensor("lambda_42/Reshape_4:0", shape=(1, 13, 12), dtype=float32)
all_col_attention Tensor("lambda_42/concat_1:0", shape=(3, 13, 12), dtype=float32)
x shape (13, 80) y shape (12, 80)
tf.tensordot(x,ab,axes=1) Tensor("lambda_42/Reshape_6:0", shape=(1, 13, 12), dtype=float32)
请帮助我:-(
答案 0 :(得分:1)
如我所见,问题不在于张量的形状。错误在于lambda层。由于训练图和验证图,Keras的lambda层两次调用了该函数。
构造了两个图。一种训练。另一个用于验证。 您不应该使用一些全局变量来保存一些内部状态。 创建一个自定义层,输出两个张量。