如何用新录制的音频覆盖部分网络音频?

时间:2018-11-24 04:25:17

标签: javascript web audio html5-audio web-audio-api

我成功录制了音频,将其存储,然后将其重新加载到Audio对象中,以便在浏览器中播放。

但是,我希望能够录制新的音频,并在特定的时间偏移量将其“拼接”到原始记录中,从该偏移量开始完全替换原始记录的那部分。例如,假设我录制了10秒来自麦克风的音频,随后,我希望用8秒的全新音频“录制”该音频的最后5秒,最后得到一个我可以持久保存的新bufferArray。我花了几个小时研究这个问题,但对于如何做仍然很模糊。如果有人有任何建议,我将不胜感激。

我能找到的最接近的示例包括获取两个缓冲区并尝试将它们连接起来,如this fiddle中所示。但是,在将此小提琴与我的代码以及我需要做的事情联系起来时,我遇到了一些困难。某些帖子提到我需要知道采样率,以相同的采样率创建新缓冲区,并将数据从两个缓冲区复制到新缓冲区中。但是,关于这种技术的工作实例很少,我正竭尽全力试图从MDN文档中找出答案。

这是我现在正在使用的代码。

const saveRecordedAudio = (e) => {
  console.log("Audio data available", e.data);
  const reader = new FileReader();
  reader.addEventListener("loadend", function() {
    // reader.result contains the contents of blob as a typed array
    let bufferArray = reader.result;
    // From: https://stackoverflow.com/questions/9267899/arraybuffer-to-base64-encoded-string
    let base64String = btoa([].reduce.call(new Uint8Array(bufferArray),function(p,c){return p+String.fromCharCode(c)},''));
    // persist base64-encoded audio data on filesystem here.
    storeRecordedAudio(base64String); // defined elsewhere and not shown here for brevity's sake
  });
  reader.readAsArrayBuffer(e.data);

  const audioUrl = window.URL.createObjectURL(e.data);
  // Put the recorded audio data into the browser for playback.
  // From: http://stackoverflow.com/questions/33755524/how-to-load-audio-completely-before-playing (first answer)
  const audioObj = new Audio (audioUrl);
  audioObj.load();

};

const recordAudio = () => {
  navigator.getUserMedia = ( navigator.getUserMedia ||
                             navigator.webkitGetUserMedia ||
                             navigator.mozGetUserMedia ||
                             navigator.msGetUserMedia);
  if (navigator.getUserMedia) {
    navigator.getUserMedia (
      { // constraints - only audio needed for this app
        audio: true
      },
      // Success callback
      function(stream) {
        const mediaRecorder = new MediaRecorder(stream);
        mediaRecorder.ondataavailable = audio.saveRecordedAudio;
      }),
      // fail callback
      function(err) {
        console.log('Could not record.');
      }
   );
  }
};


// I've already fetched a previously recorded audio buffer encoded as
// a base64 string, so place it into an Audio object for playback
const setRecordedAudio => (b64string) => {
  const labeledAudio = 'data:video/webm;base64,' + b64String;
  const audioObj = new Audio(labeledAudio);
  audioObj.load();
};

1 个答案:

答案 0 :(得分:0)

如果我正确地理解了您要尝试做的事情,这是解决此问题的方法:

1-我们应该声明一个blob数组并将数据存储在其中:

var chuncks = [];

2-我们需要知道记录的秒数:

我们应该将start(1000)方法与timeslice参数一起使用,以限制每个Blob中的毫秒数, 在这种情况下,我们知道每个数据块的长度大约为1秒(chunks.length =记录的秒数)。然后使用ondataavailable事件处理程序将数据填充到chunks数组中 是我们的朋友:

mediaRecorder.ondataavailable = function( event ) {
    chunks.push( event.data );
}

现在,我们必须处理简单的Arrays而不是缓冲区数组:-D(在您的示例中,我们应该删除或覆盖最后5个项目,并继续向其中添加斑点)

3-最后,当我们的录音准备就绪(块数组)时:

我们应该使用Blob构造函数将所有成员连接在一起:

new Blob(chunks, {'type' : 'audio/webm;codecs=opus'});

我希望这会有所帮助:-D