流和S3上传的问题

时间:2013-07-09 03:56:42

标签: javascript node.js amazon-s3 stream

我遇到零字节流问题。我正在调整图像大小并将其作为流上传到S3。如果我将输出管道输出到响应它会正确显示。

// Fetch remote file
var request = http.get('mybigfile.jpg', function(response) {

  // Setup IM convert
  var convert = spawn('convert', ['-', '-strip', '-thumbnail', 600, '-']);

  // Pipe file stream to it
  response.pipe(convert.stdin);

  // Pipe result to browser - works fine
  //convert.stdout.pipe(res);


  // S3 requires headers
  var headers = {
    'content-type': response.headers['content-type'],
    'x-amz-acl': 'public-read'
   };

  // Upload to S3
  var aws = aws2js.load('s3', aws.key, aws.secret);
  aws.setBucket(aws.bucket);
  aws.putStream('thumb.jpg', convert.stdout, false, headers, function(err) {
    if (err) {
      return console.error('Error storing:', err.toString());
    } else {
      // No errors - this shows - but file is 0kb
      console.log(path + ' uploaded to S3');
    }
  }

由于内容长度,我看到有关不使用S3的流的注释。我正在尝试缓冲但到目前为止没有成功。

1 个答案:

答案 0 :(得分:0)

嗯,没有继续流 - 我想我可以使用暂停流或多部分技术上实现这一点,但否则我不认为这是可能的。我最终使用了一个缓冲区。

...
// Pipe file stream to it
response.pipe(convert.stdin);

// Save to buffer
var bufs = [] ;
convert.stdout.on('data', function(chunk) {
  bufs.push(chunk);
});
convert.stdout.on('end', function() {
  var buffer = Buffer.concat(bufs);

// S3 requires headers
...

aws.putBuffer(path, buffer, false, headers, function(err) {
...