我正在寻找有关Conv1D
层所采用的输入形状的一些说明。假设我有一个部分看起来像这样的模型。
tf.keras.layers.Embedding(vocab_size, embedding_dim, input_length=words_per_sentence),
#128 filters. Window size 5 words at a time.
tf.keras.layers.Conv1D(128, 5, activation='relu'),
嵌入后,每个句子将是一个2D形状的矩阵(words_per_sentence,embedding_dim)。我希望Conv1D只能在1D向量上工作。它也可以在2D矩阵上正常工作吗?如果每个滤波器都是一维矢量,那么我什至无法想象它如何在二维矩阵上进行卷积。 documentation尝试触及主题。但这对我来说还不清楚。