标签: tensorflow gpu google-cloud-tpu
我有一个短语列表(例如1000)(每个短语包含一个或多个单词)进行编码。 我为每个短语重复使用相同的编码器(例如RNN / Tensor2Tensor /等)(这意味着它们在编码器中共享学习的参数)。 因此,要学习的参数的大小很小,因为它只是单个编码器,但是图形大小变得很大,因为列表很长。 任何人都可以给我一些建议,在这种情况下如何减少内存(我认为这是因为图只是一遍又一遍地重复相同的计算子图(编码器),但那些子图共享参数)? 谢谢。