Bash Script循环读取文件内存不足?

时间:2017-06-03 15:06:09

标签: bash memory while-loop readfile

这来自一个bash脚本,看起来它总是会耗尽内存最终...逐渐为它读取的每一行使用更多的内存:

while read line; do
echo $line
done < ./hugefile

是否存在逐行读取文件的路径,这不会占用内存使用量?

我见过another thread承认[对于x的y; do]循环有这个问题,但是解决方法并不适合我逐行读取文件。

显然,我可以将文件分成几部分但是更喜欢优雅的解决方案,它不会在不需要的地方使用内存。内存应该只需要一次保存一行。

那么,如何逐行读取无限大的文件,而不必担心内存?

0 个答案:

没有答案