我正在尝试使用node.js + ffmpeg将音频流式传输到仅使用网络音频API在LAN中连接的浏览器。
不使用元素,因为它添加了自己的8到10秒的缓冲区,我想获得最大的高延迟(最大约1到2秒)。
音频播放成功,但音频非常不连贯且噪音很大。
这是我的node.js(服务器端)文件:
var ws = require('websocket.io'),
server = ws.listen(3000);
var child_process = require("child_process");
var i = 0;
server.on('connection', function (socket)
{
console.log('New client connected');
var ffmpeg = child_process.spawn("ffmpeg",[
"-re","-i",
"A.mp3","-f",
"f32le",
"pipe:1" // Output to STDOUT
]);
ffmpeg.stdout.on('data', function(data)
{
var buff = new Buffer(data);
socket.send(buff.toString('base64'));
});
});
这是我的HTML:
var audioBuffer = null;
var context = null;
window.addEventListener('load', init, false);
function init() {
try {
context = new webkitAudioContext();
} catch(e) {
alert('Web Audio API is not supported in this browser');
}
}
var ws = new WebSocket("ws://localhost:3000/");
ws.onmessage = function(message)
{
var d1 = base64DecToArr(message.data).buffer;
var d2 = new DataView(d1);
var data = new Float32Array(d2.byteLength / Float32Array.BYTES_PER_ELEMENT);
for (var jj = 0; jj < data.length; ++jj)
{
data[jj] = d2.getFloat32(jj * Float32Array.BYTES_PER_ELEMENT, true);
}
var audioBuffer = context.createBuffer(2, data.length, 44100);
audioBuffer.getChannelData(0).set(data);
var source = context.createBufferSource(); // creates a sound source
source.buffer = audioBuffer;
source.connect(context.destination); // connect the source to the context's destination (the speakers)
source.start(0);
};
任何人都可以告知错误吗?
此致 拿烟
答案 0 :(得分:1)
您正在获取数据块,从中创建单独的节点,并根据网络时序启动它们。要使音频听起来正确,缓冲区的播放必须不间断,并且样本精确的时序。你需要从根本上改变你的方法。
我这样做的方法是创建一个ScriptProcessorNode来管理自己的PCM样本缓冲区。在进程中,它将样本读入输出缓冲区。这可以保证音频的流畅播放。
答案 1 :(得分:1)
我得到了它的工作!!
我所要做的就是调整频道数量。
我已将FFMPEG设置为输出单声道音频,它就像一个魅力。这是我的新FFMOEG命令:
var ffmpeg = child_process.spawn("ffmpeg",[
"-re","-i",
"A.mp3",
"-ac","1","-f",
"f32le",
"pipe:1" // Output to STDOUT
]);