Web Audio API的AudioContext的createDelay函数采用单个float参数,该参数是生成的延迟节点可能的最大延迟:
var AudioContext = window.AudioContext || window.webkitAudioContext;
var audioCtx = new AudioContext();
var synthDelay = audioCtx.createDelay(5.0);
指定最大延迟背后的动机是什么?为什么规范只能保持这种灵活性?减少延迟意味着更少的内存/更快的结果吗?