我正在使用Qt创建一个软合成器。这意味着获得低延迟音频(缓冲区大小约为5-10ms),以便它响应UI控件。
软合成器的组件是:
我基于我自己的spectrum example黑客版本,使用拉模式生成基本波表合成器。
实际上,如果缓冲区小于100毫秒,我会发现毛刺。这对于良好的响应能力来说太长了。
解决方案似乎是多线程的,但我不清楚如何在Qt中构建它。我的直觉是将合成引擎放入自己的线程,但我不清楚
答案 0 :(得分:4)
Qt对你的努力将是零帮助,并且很可能 - 阻碍。低延迟音频是最不重要的,特别是在Windows上,它仍然使用过时的MME API。无论你投入多少线程,它都不会变得更好。
我建议您下载并构建第三方库,我在RTAudio上获得了非常好的结果,它支持不同平台上的大量低延迟后端。您仍然可以将Qt用于GUI。如果需要,您可以轻松地将RTAudio包装在QIODevice
中。
是的,不用说你不应该使用main / GUI线程进行综合。
答案 1 :(得分:2)
让我们概述一些问题。正如其他人所说,Qt给党带来的一点点。低延迟音频不是其多媒体框架的设计目标。
商业软合成器总是被编写为其他音频软件的插件。这种方法的优点是插件的体系结构非常有限,而其他人已经解决了许多硬线程和性能问题。斯坦伯格的VST和Apple的Audio Units是两个明显的例子。两者都能够以毫秒的顺序处理延迟。
在考虑实时系统时,最坏情况下的延迟。在音频的情况下,它在墙上时间内的样本缓冲区的持续时间加上需要的任何开销来适应操作系统执行和完成处理的最坏情况延迟。
编写综合插件时,您实际上只关注两件事:
某处你必须管理软合成参数和参数自动化的调制 - 可能在另一个线程中。
当然,插件通常也有UI,但是它在UI线程上以最低优先级运行,并且应该通过事件处理程序与渲染处理程序完全分离。
如果你坚持编写主机应用程序,那么你应该做几乎所有业内其他人的工作,并使用Steinberg's ASIO图层。
但是,您也可以结帐Juce - 其中包括使用ASIO的插件主机,示例插件以及解决问题所需的所有其他内容。