使用Node.JS(LTS)读取大文件(>〜10Gb)的最有效方法是什么?

时间:2018-11-25 04:54:32

标签: node.js file memory-mapped-files

使用Node.JS(LTS)读取大文件(>〜10Gb)的最有效方法是什么?

基本上,在当今世界,我需要读取文件内容,将每一行解析为已知的数据结构,执行某些验证,然后将数据结构推入数据库(SQL Server)。我使用C#(内存映射文件)来完成。因为我能够分块(并行)读取文件,所以效果很好。

我计划针对业务用例将解决方案迁移到Node(和MongoDB)。

有任何线索/建议吗?

环境:

我正在使用64位Windows操作系统,基于x64的处理器,8Gigs RAM

1 个答案:

答案 0 :(得分:1)

您要查找的内容通常在node.js中称为

您可以通过处理部分流来读取或写入具有的超大文件。

以下一些链接可以帮助您入门。

Parsing huge logfiles in Node.js - read in line-by-line

Using Node.js to Read Really, Really Large Datasets & Files

Read large text files in nodejs