我有很长的字符串列表,通过分割这样的字符串,可以从中生成字符串列表:
import lorem
sentences = [lorem.text() for i in range(100000)]
split_sentences = [i.split() for i in sentences]
我注意到与split_sentences
相比,sentences
占用了大量内存(近1GB)。我认为这是因为新列表的开销,但是占用的额外内存使我感到惊讶。
这是Python的工作方式吗,还是有减少内存使用的方法?我需要这些列表,否则另一种方法是使用生成器。