在Raspberry Pi中显然没有简单的方法来流式传输图像。虽然有很多 hacks 可用,但在我的Raspberry Pi Zero中,保持合适的帧速率会有一些麻烦。
我怀疑其中一个主要问题是1st Google solution并且大多数人为每张图片写入/读取SD。到目前为止,我已经从终端读取图像而没有触摸SD:
const out = await exec(`fswebcam -r 640x480 -`);
const img = out[0];
console.log(img);
这在终端上给了我这个:
����JFIF``��>CREATOR: gd-jpeg v1.0 (using IJG JPEG v80), default quality
��
$.' ",#(7),01444'9=82<.342��C
还有更多。以前我用缓冲区做了类似的事情:
const file = fs.readFileSync(temp);
console.log(file.toString('base64'));
ctx.socket.emit('frame', { image: true, buffer: file.toString('base64') });
其中file
是缓冲区,file.toString('base64')
是以下形式的字符串:
/9j/4AAQSkZJRgABAQEAYABgAAD//gA8Q1JFQVRPUjogZ2QtanBlZyB2MS4wICh1c2luZyBJSkcgSlBFRyB2ODApLCBxdWFsaXR5ID0gMTAwCv ...
这有效(但通过SD卡)。所以我的问题是,终端中第一个输出的格式是什么?我怎样才能将它转换为类似于后者的Buffer或String。
答案 0 :(得分:0)
我最后只是通过管道使用终端将其转换为base64:
fswebcam -r 640x480 - | base64
所以现在我的整个片段是:
// Take a picture in an async way and return it as a base64 encoded string
// Props: https://scottlinux.com/2012/09/01/encode-or-decode-base64-from-the-command-line/
module.exports = async ({ resolution = '640x480', rotate = 0 } = {}) => {
const query = `fswebcam -r ${resolution} --rotate ${rotate} - | base64`;
const out = await exec(query, { maxBuffer: 1024 * 1024 });
return out[0];
};