所以,我正在使用WebAudio API显示来自麦克风的声音流的波形和FFT。
我的问题是,每个数据阵列在特定时刻有多大?例如,查看AnalyserNode
中的getByteTimeDomainData函数。它在文档中说"copies the current waveform, or time-domain, data into a Uint8Array"
。究竟是current waveform
到底是什么?声音输入的最后一秒?当前波形数据的大小是否取决于输入频率?
在其他病房中,更像是接收数据块的流接口,每个块有多大?如果我们每隔100毫秒只获取一次时域数据,我们会错过这些时间之间发生的声音,还是声波缓冲到下一次getByteTimeDomainData
呼叫?
答案 0 :(得分:2)
您可以使用AnalyserNode上的fftSize属性设置大小。是的,你会错过那些时间之间发生的声音" - 如果你需要做类似的事情,请使用ScriptProcessor。