我小提琴中的代码试图做的是
播放"标题"声
随后播放身体/主要内容的声音,该声音应该有支持它的背景音轨
最后,播放ou / footer声音
我的需求与这个帖子Mixing two audio buffers, put one on background of another by using web Audio Api略有相似,虽然我不理解该帖子中的所有承诺,但这里有细微差别。但是,我相信我的代码会被一个小小的疏忽所阻碍。到目前为止,我无法测试哪些概述的步骤是成功的,因为对AudioBufferSourceNode.start()
的调用不会在发言人中启动播放行为。
我还检查了处理过的或生成的ArrayBuffers中的数据。它出现在每个点/索引处,数组保持为0(这可能意味着它充满了白噪声,但无论如何都要播放)。 您可能会观察到我有时使用OfflineAudioContext实例。我打算将最终缓冲区传输到一个库,将其导出为MP3格式。
可以在此fiddle找到代码。您可以在方便时使用任何本地托管的音频文件
答案 0 :(得分:1)
首先,您无法在createMediaElementSource
上致电OfflineAudioContext
;你必须使用AudioContext
。其次,您可能只应创建并使用一个AudioContext
。