更新
sdcbr在他们的答案中指出K.ones_like(T)*a
的作用是生成与上面指定的一次相似的张量,关键点在于它具有正确的batch_size
。为了说明另一个例子,我需要的另一个张量看起来像
C = [ [a1 a2 ... an]
[a1 a2 ... an]
...
[a1 a2 ... an] ]
这里的情况是给定向量[a1 a2 ... an]
与自身连接起来,返回与batch_size
具有相同T
的张量。
原始问题
我正在寻找一种在Keras中构造张量的方法,该张量具有与另一个张量batch_size
相同的T
。一个例子是
A = [ [a a ... a a]
[a a ... a a]
...
[a a ... a a] ]
其中a
在第二个暗处重复n
次,在第一个暗处重复batch_size(T)
。
如果T
有一个已定义的batch_size
,那么以下代码片段就可以正常工作
A = K.constant(np.array([[a]*n]*T.shape[0]))
但是,如果T
是占位符,则T.shape[0]
是None
。可以将张量输入作为输入,但这似乎不够优雅,并为用户错误留出了更多空间。
我将如何生成这种形式的张量?
答案 0 :(得分:1)
您可以使用类似K.ones_like(T)
的东西吗?无论如何处理,T
和A
的形状只有在您向T
喂食时才会完全指定。
类似这样的东西:
import keras.backend as K
import numpy as np
K.clear_session()
T = K.placeholder((None, 100))
A = K.ones_like(T)*5
with K.get_session() as sess:
print(A.eval(feed_dict={T: np.random.rand(1, 100)}))
产生:
[[5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
5. 5. 5. 5.]]
如果您希望A
的行用[0,1,...n-1]
填充,而n
的列数是T
的列数,则可以将tf.multiply
用于按元素乘法。
import keras.backend as K
import tensorflow as tf
import numpy as np
K.clear_session()
T = K.placeholder((None, 100))
A = tf.multiply(K.ones_like(T), K.constant(list(range(T.shape[1]))))
with K.get_session() as sess:
print(A.eval(feed_dict={T: np.random.rand(1, 100)}))
会给你
[[ 0. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17.
18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35.
36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53.
54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71.
72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89.
90. 91. 92. 93. 94. 95. 96. 97. 98. 99.]]
答案 1 :(得分:0)
除上述解决方案外的其他功能。如果使用keras,则需要将tf操作包装到Lambda层中,否则在尝试创建模型时会出现错误-类似于断开连接的图。所以代码看起来像这样
import tensorflow as tf
import tensorflow.keras as keras
from tensorflow.keras.layers import Input, Lambda
from tensorflow.keras.models import Model
dim1 = ...
T = Input(size=(dim1,))
A = Lambda(lambda x: tf.multiply(tf.ones_like(x,dtype='int32'), tf.constant(list(range(dim1)))))(T)
out=Other_Layers(A,T)
model = Model(inputs=[T],outputs=[out])