我有一些embedding_vectors
,我需要使用以下new_embeddings
:
new_embeddings = tf.nn.embedding_lookup_sparse(
params=embedding_vectors,
sp_ids=some_ids,
sp_weights=None,
)
问题在于,some_ids
确实很大,并且对于给定的数据二维张量而言,但常数非常稀疏。我的管道包括对其indices
,values
和shape
的评估,我将它们与训练循环中的sparse_placeholder
直接一起使用以填充some_ids
占位符。 / p>
不幸的是,它非常慢。似乎在每个训练步骤中,some_ids
都被转换为密集的张量,这似乎确实是不必要且奇怪的。我对这种转换是否正确,embedding_lookup_sparse
是否还有其他选择?