core-audio 相关问题

Core Audio是一种低级API,用于处理Apple的macOS和iOS操作系统中的声音。

Mac 音频软件聚合设备问题

我有一个4输入、4输出的硬件设备和一个8输入、8输出的虚拟设备,我将它们组合成一个聚合设备。我正在使用 SimplyCoreAudio 库来获取通道数。该公司...

回答 1 投票 0

使用自定义渲染过程添加节点到 AUGraph

任何人都知道在 macOS 上的 AUGraph 现有过滤器节点之间添加具有自定义渲染功能的节点的神奇秘诀。无论我使用 AUGraphSetNodeInputCallback 还是 AudioUnitSetPro...

回答 1 投票 0

iOS 模拟器上的 NDI 音频播放很棒,但 iPad 出现故障且断断续续

我正在尝试在 iOS 上实现 NDI 音频接收器。在 iOS 模拟器上听起来很棒,但在 iPad(iPad Air 2?)上有一些卡顿和故障。我很确定这与...

回答 1 投票 0

kAudioDevicePropertyDeviceIsRunningSomewhere 对于 AirPods 等外部设备返回的值不正确

我遇到了 kAudioDevicePropertyDeviceIsRunningSomewhere 未返回无线音频设备(例如 AirPods)的预期值的问题。预期行为是返回 1 wh...

回答 1 投票 0

操作系统状态错误1718449215

我创建了一个iPhone应用程序来录制我们的声音。当我尝试记录时,我在以下语句中收到错误消息。 录音机 = [[ AVAudioRecorder alloc] initWithURL:url 设置:

回答 9 投票 0

iOS 有没有办法将 WebRTC“通话”作为“媒体”声音播放?

我目前正在开发一个使用WebRTC进行直播的应用程序。 但是,建立连接后,WebRTC 默认情况下会被解释为 iOS 设备的呼叫。这意味着很多音频相关...

回答 1 投票 0

使用 Python 集成 Apple Core 音频 API

我已经尝试让这段代码工作好几天了,老实说我不知道如何解决这个错误。该代码的主要目标是能够控制特定应用程序的音频输出......

回答 1 投票 0

AudioQueue回调中AudioQueueGetCurrentTime()获取到的时间戳的含义

我正在开发一个音频项目,并且对 AudioQueueGetCurrentTime() 检索到的时间戳的含义有疑问。 根据苹果开发者文档,以下

回答 1 投票 0

macOS Catalina AudioServer插件安装

CoreAudio/AudioServerPlugIn.h表示.driver插件包必须安装在/Library/Audio/Plug-Ins/HAL/中 但是我不知道有任何文档说明如何使 CoreAudio 引人注目......

回答 2 投票 0

如何将 MIDI 消息编程到 HUI Pro Tools 使用?

我在网上找到了一些规格,但它不适用于 Play。 我试过 const UInt8 noteOn[] = {0x90, 127};但它不起作用。 有谁知道 HUI Pro Tools 的 MIDI 消息用于播放和播放...

回答 3 投票 0

.m4a 文件是否被视为 MIME 类型“audio/m4a”或“audio/mp4”?

我正在尝试将音频上传到 S3,但我有点困惑应该将 MIME 类型声明为什么。我的音频文件是在 iPhone 上录制为 kAudioFormatMPEG4AAC 的 m4a。这可以考虑吗...

回答 4 投票 0

将 AVAudioSinkNode 连接到我的 AVAudioEngine 时崩溃

我尝试使用 AVAudioSourceNode 和 AVAudioSinkNode 获取音频输入(并同时输出)。问题是,即使在

回答 1 投票 0

AirPods 手势不发送 AVAudioApplication 静音状态通知

我有一个 macOS Swift 应用程序,可以从用户的麦克风获取信息。我正在尝试使用 AVAudioApplication 上提供的新 (macOS 14+) API,允许用户使用手势(按...

回答 1 投票 0

使用音频队列服务的示例

我正在寻找使用音频队列服务的示例。 我想使用数学方程创建声音,然后听到它。

回答 3 投票 0

[MyTarget]-Swift.h 没有 MySwiftClass 声明

在 macOS CoreAudio 插件开发中,我尝试从 Objective-C 代码调用 Swift func。但我收到错误: 使用未声明的标识符“MySwiftClass” 我检查了这些。 在 Swift 上添加“@objc”

回答 1 投票 0

我可以发送使用 AVAudioSinkNode 接收到的声音缓冲区以使用 AVAudioSourceNode 进行实时渲染吗?

我正在尝试新的 AVAudioSinkNode 和 AVAudioSourceNode 节点,以便与 AVAudioEngine 一起使用。 在设置方面,与另一篇文章中描述的测试类似,我的接收器节点已附加...

回答 2 投票 0

AudioUnitRender 生成空音频缓冲区

我正在尝试使用音频单元混合来自几个音频源的音频。结构非常简单,我有两个输入,一个混音器音频单元和一个通用输出。问题是缓冲区...

回答 1 投票 0

构建 ADC 核心音频兼容 USB 或 Firewire [已关闭]

我正在寻找有关如何构建兼容 ADC 核心音频以连接到 Mac USB 或 Firewire 的文档。我所找到的只是有关如何在计算编程时处理核心音频的信息......

回答 1 投票 0

如何在Core Audio中设置Splitter Unit

从《学习核心音频》一书中,我学会了如何混合流1(来自麦克风的声音)和流2(语音合成器)然后连接其输出 到输出单元(扬声器)。 现在我尝试记录它......

回答 1 投票 0

React 本机音频可视化

所以我使用react-native-audio包来播放预加载的音频文件并捕获用户录制的音频。我想做的是将音频转换为某种数据以进行可视化......

回答 2 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.