我开发了一个模型,它使用 AVFoundation 播放多达10个曲目,每个曲目上有多个剪辑。 我仍然不喜欢行为中的表现和声音腐败。
我阅读了 Core Audio 的文档,并尝试了一些示例。 有些只使用 AU Generator ( AudioFilePlayer 子类型)播放1个文件。 正在播放2个文件的示例使用 MultichannelMixer 和自定义缓冲区来呈现音频数据。
我可以使用MultichannelMixer并将多个生成器( AudioFilePlayer )连接到其节点吗? 或者最好的方法是自己渲染数据?
提前致谢!