我要求一个包含150K记录的大文件,但它会导致#String失败'错误。 nodejs/node#3175因为maxBufferSize而说它。请求适用于200条记录,但它是一个外部api,并且要求是立即获取所有记录。[没有分页:(] 有没有办法为此请求设置buffersize?
我已经问过这个问题here
编辑:
request("http://www.site-containing-big-data/api",
function (error, response, body) {
console.log('got something to show');
if(!error && response.statusCode == 200) {
resolve(body);
}else if(error){
reject(error);
}
});
但在toString failed
消息
答案 0 :(得分:0)
解决了它。这是一个xml文件,我试图直接处理它。现在我首先保存一个文件,然后使用xml-stream
逐个处理每个对象。
request.get("http://www.site-containing-big-data/api" )
.on('error', function(errReq) {
console.log('error while reading from big site : ', errReq);
}).on('end', function(){
console.log('got from big site, now processing');
var XmlStream = require('xml-stream') ;
var stream=fs.createReadStream('bigfile.xml');
xml = new XmlStream(stream);
xml.on('endElement: item', function(item) {//item is a node. structure is <items><item></item><item></item></items>
//do something here
});
xml.on('end', function(){
// when processing finished for all objects/items in that file
});
});
})
.pipe(fs.createWriteStream('bigfile.xml'));