Core Audio是一种低级API,用于处理Apple的macOS和iOS操作系统中的声音。
在 iOS 上将 PCM (CMSampleBufferRef) 编码为 AAC - 如何设置频率和比特率?
我想将 PCM(从 AVCaptureAudioDataOutputSampleBufferDelegate 上线的 CMSampleBufferRef)编码为 AAC。 当第一个 CMSampleBufferRef 到达时,我设置了两者(输入/输出)
我正在尝试使用核心音频获取MacOS中的音频设备列表,但无论出于何种原因,我只能获取输出设备。 我正在 XCode 13 中做一个 Swift UI 项目,我的代码看起来......
我需要为我的项目安装CoreAudio驱动程序。我打开苹果网站,打开此页面并下载存档。然后,当我尝试按照本页上的说明安装它时...
所以已经几个月了。这个故障会持续 20-30 天,然后自动消失,有一天突然出现。 我和 Apple care genius 谈过,他们以故障排除的名义
Coreaudio 每天随机崩溃几次,而且似乎从来没有发生的原因。 我有一台运行 Ventura 13.3.1 的 Mac Studio。除了内置耳机,我没有使用 DAC ...
在以下上下文中,我从 AudioUnitRender 收到错误 -1 oostatus。 我的项目中唯一的主要区别是我还使用远程 I/O 单元进行音频输出。音频输出……
我正在尝试将语音隔离与 Swift 中的语音识别集成在一起。我的目标是让 IOS 内置的语音识别有更好的质量,因为我们都知道它有多不准确,
我正在尝试将语音隔离与 Swift 中的语音识别集成在一起。我的目标是让 IOS 内置的语音识别有更好的质量,因为我们都知道它有多不准确,
我正在将一个 Android 应用程序移植到 iOS,它在 midi 协议中播放一系列音符。 要在 Android 上执行此操作,我打开一个线程,并在其中放置一个 while 循环,该循环会在数字出现时重新启动...
我正在将一个 android 应用程序移植到 iphone,它在 midi 协议中播放一系列音符。 要在 android 上执行此操作,我打开一个线程,并在内部放置一个 while 循环,每当 n...
我们正在为 USB 麦克风开发自定义音频驱动程序,以便对输入音频流进行简单处理 (EQ)(类似于 Windows 的 APO)。我们的代码基于
如何在 swift 中正确地将 .m4a 文件转换为 .caf 文件
我有一个扩展名为 .m4a 的音频文件,我希望将其转换为 .caf 文件。我有一个功能准备就绪并且可以工作。它工作正常但是当通过代码编辑音频时(改变速度,pi ...
如何在 swift 中将 .m4a 音频文件转换为 .caf 文件
我必须将扩展名为 .m4a 的音频文件转换为 .caf。我已经准备好代码并可以正常工作,但是这样做时我只得到了文件的一部分(不完整的 .caf 文件)。 下面的函数用于连接...
在 aurioTouch 示例代码中 performRender 的 inNumberFrames 变为 1
aurioTouch 示例代码在 iOS15 设备上运行正常,但在 iOS16 上,performRender 的 inNumberFrames 始终变为 1。 在 iOS15 上,inNumberFrames 通常是 512 或 1024。有时更小或更大,但 n...
我必须使用帧基方法将视频与音频转换为慢动作。下面的链接是很多的帮助,这是反向AVA资产效率的解决方案,我可以改变时间戳的... ...
目前我正在使用AVAudioEngine从麦克风中获取音频样本,并成功实现了FFT。为了稳定频率值,我还在FFT之前对音频样本实现了汉恩窗口。...
如何设置AVAudioEngine输入输出设备(swiftmacos)
我找了很久,也找不到解决这个问题的方法。我正在寻找一种方法来改变输入输出设备,AVAudioEngine将在macOS上使用。当简单地播放一个 ...
我目前正在阅读一些关于.NET Core Audio API的文档。我看到了两个SDK样本,分别叫做CaptureSharedEventDriven和CaptureSharedTimerDriven,所以,我想知道这两个样本之间有什么区别。
上下文:我正在尝试进行实时音频聊天。我已经整周都在与AVAudioSinkNode一起玩,所以我可以录制音频,但是由于某种原因,每当尝试它时,audioBufferList都是...