将原始图像转换为缓冲区

时间:2017-05-16 13:21:37

标签: node.js image file raspberry-pi buffer

在Raspberry Pi中显然没有简单的方法来流式传输图像。虽然有很多 hacks 可用,但在我的Raspberry Pi Zero中,保持合适的帧速率会有一些麻烦。

我怀疑其中一个主要问题是1st Google solution并且大多数人为每张图片写入/读取SD。到目前为止,我已经从终端读取图像而没有触摸SD:

const out = await exec(`fswebcam -r 640x480 -`);
const img = out[0];
console.log(img);

这在终端上给了我这个:

 ����JFIF``��>CREATOR: gd-jpeg v1.0 (using IJG JPEG v80), default quality
��      

 $.' ",#(7),01444'9=82<.342��C          

还有更多。以前我用缓冲区做了类似的事情:

const file = fs.readFileSync(temp);
console.log(file.toString('base64'));
ctx.socket.emit('frame', { image: true, buffer: file.toString('base64') });

其中file是缓冲区,file.toString('base64')是以下形式的字符串:

/9j/4AAQSkZJRgABAQEAYABgAAD//gA8Q1JFQVRPUjogZ2QtanBlZyB2MS4wICh1c2luZyBJSkcgSlBFRyB2ODApLCBxdWFsaXR5ID0gMTAwCv ...

这有效(但通过SD卡)。所以我的问题是,终端中第一个输出的格式是什么?我怎样才能将它转换为类似于后者的Buffer或String。

1 个答案:

答案 0 :(得分:0)

我最后只是通过管道使用终端将其转换为base64:

fswebcam -r 640x480 - | base64

所以现在我的整个片段是:

// Take a picture in an async way and return it as a base64 encoded string
// Props: https://scottlinux.com/2012/09/01/encode-or-decode-base64-from-the-command-line/
module.exports = async ({ resolution = '640x480', rotate = 0 } = {}) => {
  const query = `fswebcam -r ${resolution} --rotate ${rotate} - | base64`;
  const out = await exec(query, { maxBuffer: 1024 * 1024 });
  return out[0];
};