我正在开发一个应用程序,用户可以录制一些音频(他们的声音)并对其应用视觉效果。我正在使用FMOD处理所有音频并添加音频效果和所有这些。我的问题是有没有处理iOS音频可视化的API?我想到能够录制一些东西,然后让一个“说话的手”对录音有活力。
我还想到能够在录制中显示“可视化”,我知道你可以从FMOD中获取波形信息和东西,但是你如何使用这些数据来创建可视化?
感谢。
答案 0 :(得分:4)
首先要做的事情是:那里没有你想要的图书馆。我认为这只是有点过于具体了。
好消息是这不是很难做到 - 只是让你的头脑在正确的位置。
不要考虑声音,而是考虑其他事情,比如加速度计。如果我想要UIView
移动来响应加速度计,我可以简单地将输出值作为Z轴(在-1和1之间)并在屏幕上转换它的坐标(0到480,例如)。
如果我只是将加速度计测量值直接插入我的转换公式中,它可能会有点不稳定。 UIView
可能会在整个地方反弹。这是因为加速度计测量值可能变化很大。所以也许我可以添加一些简单的过滤器来使测量之间的变化更加渐进。
现在,这与音频有什么关系?实际上,相当一点。例如,如果您将幅度替换为加速度计,您可以使用UIView来响应音频的响度而上下移动。所有你需要做的就是写一些不断发送幅度值的东西给你想要动画的UIView。
然后,您可以通过视图移动或改变其位置/比例以响应某些频率范围(可能是低音)来使您更复杂一些。所以我想也许如果你退后一步,想想你正在尝试制作动画以响应哪些参数,这对你来说可能会变得更容易。