这来自一个bash脚本,看起来它总是会耗尽内存最终...逐渐为它读取的每一行使用更多的内存:
while read line; do
echo $line
done < ./hugefile
是否存在逐行读取文件的路径,这不会占用内存使用量?
我见过another thread承认[对于x的y; do]循环有这个问题,但是解决方法并不适合我逐行读取文件。
显然,我可以将文件分成几部分但是更喜欢优雅的解决方案,它不会在不需要的地方使用内存。内存应该只需要一次保存一行。
那么,如何逐行读取无限大的文件,而不必担心内存?