我在Node.js中使用读取流时遇到了一个非常奇怪的问题。我正在使用SSH2在我和sftp服务器之间创建一个sftp连接。然后我尝试从sftp流创建一个读取流。从读取流发出的“数据”事件中,我将数据附加到数组。当读取流的'close'事件发生时,我调用Buffer.concat来创建concat,将我检索到的所有数据块连接到一个缓冲区中。这是在堆栈溢出时在此处提出的其他问题中描述的相同技术。例如here。但是,我无法使用我检索的数据。似乎缓冲区的大小比我试图检索的文件小32个字节(从计算检索的数据长度)。这可能与我的SFTP连接有关吗?或者我如何创建我的阅读流?
如果重要,该文件的类型为zip。当我尝试解压缩文件(在node.js中并手动)后,将其读取到缓冲区后,它无法正常工作。
经过调查我发现了:
任何建议表示赞赏!
这是我的代码:
var Client = require('ssh2').Client;
var m_ssh2Credentials = {
host: config.ftpHostName,
port: config.ftpPort,
username: config.ftpUser,
password: config.ftpPassword,
readyTimeout: 20000,
algorithms: { cipher: ["3des-cbc", "aes256-cbc", "aes192-cbc","aes128-cbc"]}
};
...
var conn = new Client();
var dataLength = 0;
conn.on('ready', function() {
conn.sftp(function(err, sftp) {
if (err) {
writeToErrorLog("downloadFile(): Failed to open SFTP connection.");
} else {
writeToLog("downloadFile(): Opened SFTP connection.");
}
var streamErr = "";
var dataLength = 0;
var stream = sftp.createReadStream(config.ftpPath + "/" + m_fileName)
stream.on('data', function(d){
data.push(d);
dataLength += d.length;
});
.on('error', function(e){
streamErr = e;
})
.on('close', function(){
if(streamErr) {
writeToErrorLog("downloadFile(): Error retrieving the file: " + streamErr);
} else {
writeToLog("downloadFile(): No error using read stream.");
m_fileBuffer = Buffer.concat(data, dataLength);
writeToLog("Data length: " + dataLength);
writeToLog("downloadFile(): File saved to buffer.");
}
conn.end();
});
})
})
.on('error', function(err) {
writeToErrorLog("downloadFile(): Error connecting: " + err);
}).connect(m_ssh2Credentials);
答案 0 :(得分:10)
经过大量调查后,我终于意识到在'data'事件中传输的最后几位数据有问题。根据我的理解,它似乎是读取流的实现中的一个错误。通过在SSH2库中使用更简单的函数(open,fstat,read),我能够解决这个问题。这个解决方案适合我。如果其他人遇到同样的问题,想要分享解决方案。
工作代码:
sftp.open(config.ftpPath + "/" + m_fileName, "r", function(err, fd) {
sftp.fstat(fd, function(err, stats) {
var bufferSize = stats.size,
chunkSize = 16384,
buffer = new Buffer(bufferSize),
bytesRead = 0,
errorOccured = false;
while (bytesRead < bufferSize && !errorOccured) {
if ((bytesRead + chunkSize) > bufferSize) {
chunkSize = (bufferSize - bytesRead);
}
sftp.read(fd, buffer, bytesRead, chunkSize, bytesRead, callbackFunc);
bytesRead += chunkSize;
}
var totalBytesRead = 0;
function callbackFunc(err, bytesRead, buf, pos) {
if(err) {
writeToErrorLog("downloadFile(): Error retrieving the file.");
errorOccured = true;
sftp.close(fd);
}
totalBytesRead += bytesRead;
data.push(buf);
if(totalBytesRead === bufferSize) {
m_fileBuffer = Buffer.concat(data);
writeToLog("downloadFile(): File saved to buffer.");
sftp.close(fd);
m_eventEmitter.emit(' downloadFile_Completed ');
}
}
})
});
答案 1 :(得分:3)
如果字节大小(或块大小)不是强制性的,你只需要获取文件,那么猜测有更好的更轻,更快的方式(是的......节点方式!)。这就是我用来复制文件的方式:
function getFile(remoteFile, localFile) {
conn.on('ready', function () {
conn.sftp(function (err, sftp) {
if (err) throw err;
var rstream = sftp.createReadStream(remoteFile);
var wstream = fs.createWriteStream(localFile);
rstream.pipe(wstream);
rstream.on('error', function (err) { // To handle remote file issues
console.log(err.message);
conn.end();
rstream.destroy();
wstream.destroy();
});
rstream.on('end', function () {
conn.end();
});
wstream.on('finish', function () {
console.log(`${remoteFile} has successfully download to ${localFile}!`);
});
});
}).connect(m_ssh2Credentials);
}
作为替代方案,您还可以尝试使用并行读取的sftp.fastGet()
来快速传输文件。 fastGet()
为您提供了一种显示下载进度(如果需要)的方法,除了提供配置并行读取数和块大小的方法。要了解详情,请打开此SFTPStream doc并搜索fastGet
。
这是一个非常快速的代码:
sftp.fastGet(remoteFile, localFile, function (err) {
if (err) throw err;
console.log(`${remoteFile} has successfully download to ${localFile}!`);
}
HIH!