我正在努力实现一些看起来应该很简单的东西:在Mac应用程序中侦听MIDI消息,并使用它们来播放现有AVAudioUnit乐器中的音符。
假设:我需要写我的CoreMIDI客户端关联的MIDIReadBlock(通过MIDIInputPortCreateWithBlock
具有MIDIClientRef)和AUScheduleMIDIEventBlock我可以从我AVAudioUnit的AUAudioUnit获得之间的桥梁(通过scheduleMIDIEventBlock
)。这似乎比它应该更复杂,因为我将使用原始MIDI数据 - 我觉得音频单元必须支持一些易于与CoreMIDI一起使用的MIDI抽象,但我找不到任何相关的例子这个的。也许有一种方法可以将MIDIOutputPortCreate
与AV / AUAudioUnit一起使用?
我正在寻找的是将MIDI输入直接传输到音频单元(理想情况下使用Swift 3)的工作示例,但如果您知道任何相对较新的相关资源,请分享这些链接。这些API的文档稀疏性非常令人沮丧。谢谢!
答案 0 :(得分:0)
在你的MIDIReadBlock循环中通过收到的数据包。根据每个数据包的MIDI状态,将相应的设备事件(例如,注释)发送到audioUnit。
e.g。
osstatus = MusicDeviceMIDIEvent(audioUnit, midiCmd...