在Google X的教程Colab笔记本(https://github.com/google/TensorNetwork)中,它具有:
# Now we create the network.
a = tn.Node(a_var)
b = tn.Node(b_var)
x_node = tn.Node(input_vec)
a[1] ^ x_node[0]
b[1] ^ x_node[1]
a[2] ^ b[2]
# The TN should now look like this
# | |
# a --- b
# \ /
# x
替换以下内容的一行(不是两行):
Dense(64, activation=tf.nn.swish)
声明:
这两个模型实际上是相同的
1。为什么会一样?
2。为什么下面是错误的?
我的理解将类似于:
x_node[0] ^ a[0] ^ b[0]
(a
和b
的尺寸为2 x 64)替换了Dense(64, activation=tf.nn.swish)
的两行。