我正在尝试从一个巨大的文件(800k行)中获取数据,并通过lambda(AWS)将其放入数据库。 为此,我将S3中的xlsx文件作为缓冲区并读取它。
module.exports.getSalesData = new Promise((resolve, reject) => {
getFileFromS3(filename)
.then(function (workbook) {
console.log(workbook.SheetNames[1]); // 'sales'
console.log(workbook.SheetNames); // showing sales as [ 'main', 'sales', 'Sheet1' ]
console.log(Array.isArray(workbook.SheetNames)); // true
console.log(typeof workbook.SheetNames); // Object
console.log(Object.keys(workbook.Sheets)); // [ 'main', 'Sheet1' ] == why 'sales' is not here?
var sheet_name = workbook.SheetNames[1]; // sales tab
var json_sheet = XLSX.utils.sheet_to_json(workbook.Sheets[sheet_name], { raw: true })
resolve(json_sheet)
})
.catch(err => {
console.log('File: ' + filename + ' doesn\'t exists on S3 or you\'re not connected to the internet.');
})
})
问题在于workbook.Sheets
我应该看到[ 'main', 'sales', 'Sheet1' ]
,对吗?
然后我尝试获取行数(已经转换为JSON),如下所示:
getSalesData.then(function (data) {
console.log(data.length + ' rows');
console.log(data[0]);
}).catch(err => console.error(err));
参数data
是上面函数中定义的json_sheet
。
所以对于data.length
(行数),我得到0而不是800k +。
当然,我无法获得data[0]
undefined
。
PS:文件 57.3mb - 不确定是否是原因。
提前感谢您的帮助。
答案 0 :(得分:1)
所以基本上发生的事情是NodeJS无法读取整个文件,因为它崩溃了字符串的NodeJS VM内存限制。
所以我要做的就是像这样增加内存限制:
node --max-old-space-size=2048 services/process/process-sales.js
对于NodeJS,内存将从512MB增加到2048MB / 2GB。
但这只是一个读取大量值的解决方案。
我不建议使用NodeJS来威胁大量这样的数据。而是使用像Pandas这样的库来使用Python,这非常棒。
PS:通过使用nodejs处理数据,我的观点和经验。我不认为nodejs是为它做的。