Keras:构造与给定张量相同批量大小的完整张量

时间:2018-08-10 18:09:31

标签: python keras tensor

更新

sdcbr在他们的答案中指出K.ones_like(T)*a的作用是生成与上面指定的一次相似的张量,关键点在于它具有正确的batch_size。为了说明另一个例子,我需要的另一个张量看起来像

C = [ [a1 a2 ... an]
      [a1 a2 ... an]
      ...
      [a1 a2 ... an] ]

这里的情况是给定向量[a1 a2 ... an]与自身连接起来,返回与batch_size具有相同T的张量。

原始问题

我正在寻找一种在Keras中构造张量的方法,该张量具有与另一个张量batch_size相同的T。一个例子是

A = [ [a a ... a a]
      [a a ... a a]
      ...
      [a a ... a a] ]

其中a在第二个暗处重复n次,在第一个暗处重复batch_size(T)

如果T有一个已定义的batch_size,那么以下代码片段就可以正常工作

A = K.constant(np.array([[a]*n]*T.shape[0]))

但是,如果T是占位符,则T.shape[0]None。可以将张量输入作为输入,但这似乎不够优雅,并为用户错误留出了更多空间。

我将如何生成这种形式的张量?

2 个答案:

答案 0 :(得分:1)

您可以使用类似K.ones_like(T)的东西吗?无论如何处理,TA的形状只有在您向T喂食时才会完全指定。

类似这样的东西:

import keras.backend as K
import numpy as np

K.clear_session()
T = K.placeholder((None, 100))
A = K.ones_like(T)*5

with K.get_session() as sess:
    print(A.eval(feed_dict={T: np.random.rand(1, 100)}))

产生:

[[5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
  5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
  5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
  5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5. 5.
  5. 5. 5. 5.]]

如果您希望A的行用[0,1,...n-1]填充,而n的列数是T的列数,则可以将tf.multiply用于按元素乘法。

import keras.backend as K
import tensorflow as tf
import numpy as np

K.clear_session()
T = K.placeholder((None, 100))
A = tf.multiply(K.ones_like(T), K.constant(list(range(T.shape[1]))))

with K.get_session() as sess:
    print(A.eval(feed_dict={T: np.random.rand(1, 100)}))

会给你

[[ 0.  1.  2.  3.  4.  5.  6.  7.  8.  9. 10. 11. 12. 13. 14. 15. 16. 17.
  18. 19. 20. 21. 22. 23. 24. 25. 26. 27. 28. 29. 30. 31. 32. 33. 34. 35.
  36. 37. 38. 39. 40. 41. 42. 43. 44. 45. 46. 47. 48. 49. 50. 51. 52. 53.
  54. 55. 56. 57. 58. 59. 60. 61. 62. 63. 64. 65. 66. 67. 68. 69. 70. 71.
  72. 73. 74. 75. 76. 77. 78. 79. 80. 81. 82. 83. 84. 85. 86. 87. 88. 89.
  90. 91. 92. 93. 94. 95. 96. 97. 98. 99.]]

答案 1 :(得分:0)

除上述解决方案外的其他功能。如果使用keras,则需要将tf操作包装到Lambda层中,否则在尝试创建模型时会出现错误-类似于断开连接的图。所以代码看起来像这样

import tensorflow as tf
import tensorflow.keras as keras
from tensorflow.keras.layers import Input, Lambda
from tensorflow.keras.models import Model

dim1 = ...

T = Input(size=(dim1,))
A = Lambda(lambda x: tf.multiply(tf.ones_like(x,dtype='int32'), tf.constant(list(range(dim1)))))(T)

out=Other_Layers(A,T)
model = Model(inputs=[T],outputs=[out])