swift – 将CoreMIDI输入与AVAudioUnit一起使用
发布时间:2020-12-14 05:30:18 所属栏目:百科 来源:网络整理
导读:我正在尝试实现一些看起来应该很简单的东西:在Mac应用程序中侦听MIDI消息,并使用它们来播放现有AVAudioUnit乐器中的音符. 假设:我需要在与我的CoreMIDI客户端关联的MIDIReadBlock(通过MIDIInputPortCreateWithBlock与MIDIClientRef)和我可以从我的AVAudioU
我正在尝试实现一些看起来应该很简单的东西:在Mac应用程序中侦听MIDI消息,并使用它们来播放现有AVAudioUnit乐器中的音符.
假设:我需要在与我的CoreMIDI客户端关联的MIDIReadBlock(通过MIDIInputPortCreateWithBlock与MIDIClientRef)和我可以从我的AVAudioUnit的AUAudioUnit(通过scheduleMIDIEventBlock)获得的AUScheduleMIDIEventBlock之间建立桥梁.这似乎比它应该更复杂,因为我将使用原始MIDI数据 – 我觉得音频单元必须支持某种类型的MIDI抽象,易于使用CoreMIDI,但我找不到任何相关的例子这个的.也许有一种方法可以将MIDIOutputPortCreate与AV / AUAudioUnit一起使用? 我正在寻找的是一个将MIDI输入直接传输到音频单元(理想情况下使用Swift 3)的工作示例,但如果您知道任何相对较新的相关资源,请分享这些链接.这些API的文档稀疏性非常令人沮丧.谢谢!
在你的MIDIReadBlock循环中通过收到的数据包.根据每个数据包的MIDI状态,将相应的设备事件(例如,注释)发送到audioUnit.
例如 osstatus = MusicDeviceMIDIEvent(audioUnit,midiCmd... (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |