我正在构建一个嵌套的defaultdict数据结构,如下所示:
pm.globals.set()
逐行处理大文件时。对于每一行处理,我都会执行以下操作:
mydata = defaultdict(lambda: defaultdict(lambda: defaultdict(
lambda: defaultdict(lambda: defaultdict(lambda: defaultdict(int))))))
在完成文件处理后,我然后遍历嵌套的mydata字典以进行进一步的总结。问题是当文件太大时,字典将占用所有内存,并且变得不可行。您能为我指出一个更好的解决方案吗?