点积的意外数组形状是由2D numpy数组和张量流中的恒定张量引起的。
我正在解决一个问题,即输入X需要先处理,然后再输入我的神经网络模型。预处理涉及许多numpy数组操作,我发现了一些意外的结果。
test1 = tf.constant(np.ones((3,1)),dtype=tf.float32)
test2 = np.ones((8,3,3))
test3 = np.dot(test2[1],test1)
test3.shape
我希望结果是(3,1),但是结果是(3,3)。实际上,无论我将tf.constant设置为什么形状,结果始终为(3,3)。此外,我不想将过程代码中的所有numpy数组都转换为张量。任何意见或想法将不胜感激!