AVFoundation框架提供Objective-C和Swift接口,用于在Mac OSX或iOS应用程序中编辑和播放视听媒体。使用此框架的问题应包括此标记。
从 Objective-C 或 Swift 的文档目录中检索音频文件,例如 mp3
我想在用户的文档目录中存储和检索音频文件,例如 MP3。 当我对图像执行此操作时,我可以简单地将文件作为 UIImage 获取。 然而,我正在努力解决什么问题
从 CVPixelBuffer 创建 MTLTexture 进行实时处理的最佳方法
我正在尝试使用 AVFoundation 的 AVCaptureDevice 实时处理视频帧,但无法从 CVPixelBuffer 获取“干净”的 MTLTexture。 AVPlayer 缓冲区似乎没有...
在 Swift/Objective-C 中嵌入另一个视图控制器的视图中的 AVPlayerViewController 控件未显示
我正在尝试在 IOS 应用程序中通过简单的播放/暂停/停止功能来播放音频,而无需启动单独的 avPlayerViewController。 根据这个问题的答案没有办法得到
我是斯威夫特的新手。 这是来自此示例 getting_a_now_playable_app 的代码,位于 AssetPlayer 的 handlePlayerItemChange() 方法中。 Guard let currentIndex = playerItems.firstIndex(其中: { $0 == current...
拍照时崩溃的控制台消息是: [AVCapturePhotoOutput capturePhotoWithSettings:delegate:] 没有活动 并启用视频连接` 我已遵循 Apple 文档...
我有一个视频流应用程序。它能够制作镜像 AirPlay (Apple Tv)。现在我正在尝试添加 Google Chromecast 连接。我添加了按钮,一切正常,正如我所期望的...
如何在 Swift 中将 4k 60 FPS 录制到内部存储?像其他外部应用程序一样,例如 Blackmagic cam
当我尝试以 Pro Res 格式录制 60 FPS 的 4k 或 1080p 素材时,遇到以下异常 AVCaptureMovieFileOutput startRecordingToOutputFileURL:recordingDelegate:] 正在捕获 108...
如何裁剪AVCaptureVideoPreviewLayer?
有一些关于此的帖子,但都已经过时了。此外,我正在使用 SwiftUI,并希望采用可在 SwiftUI 环境中使用的解决方案。我应该先说...
我看过这个问题和这个问题,都无法提供帮助。 我已经尝试过以下方法: - (void)compress:(NSURL *)videoPath finishBlock:(void(^)(id data, BOOL result))blo...
func getImageWithFilter(by filterType: MainViewModel.FilterType, 图像:CIImage) -> CIImage { 保护过滤器类型.filterEnabled, 让过滤器= CIFilter(名称:filterType.rawValue) ...
requestAccessForMediaType 不请求许可
我注意到我的应用程序不请求使用相机的权限。经过一些实验,我发现用于检查权限的代码需要很长时间才能完成。所以我
如何计算AVCaptureDevice的focusPointOfInterest?
如何计算给定 AVCaptureDevice 的 focusPointOfInterest(0,0 和 1,1 之间的 CGPoint 值)? 我一直在关注最新 WWDC 的代码示例,但我真的不明白...
在 iOS 上将音频流编码为 Opus 时出现无效帧大小错误
我正在编写逻辑将音频流编码为 opus(通过网络套接字发送);我不断收到 Invalid frame size: 4800. Must be one of [120, 240, 480, 960, 1920, 2880] 错误: // // 音频管理器。
为什么在使用“builtInDualWideCamera”的 iPad Pro 上“isDepthDataDeliverySupported”返回 false?
我正在尝试使用本次 WWDC 会议中讨论的 AVCamFilter Apple 示例项目来使用双摄像头获取深度数据。该项目具有内置功能,可从双摄像头获取深度数据...
如何从 captureOutput 委托函数获取裁剪后的sampleBuffer 输出?
我有一个占据整个屏幕的视频预览层。 AVCaptureSession() 有一个 AVCaptureVideoDataOutput(),用于记录视频并提供对视频帧的访问以进行处理,以及一个
在 iOS 版 Swift 中,我有一个 AVURLAsset 数组。我通过一个函数将其传递,将视频资源拼接/合并到一个最终视频中。对于每个子视频,我的目标是叠加文本居中......
如何获取YpCbCr8BiPlanar CVPixelBuffer的亮度数据
我尝试获取 CVPixelBuffer 的平均亮度,但在经过几行处理后,该函数因 EXC_BAD_ACCESS 消息而崩溃。 我想我不明白如何使用苹果的 YpCbCr8BiPlanar
iPhone 14/15 Pro/Max 48MP 主摄像头的 AVCaptureSession.Preset.photo 预设是什么?
我的 iPhone iOS 应用程序使用 .builtInWideAngleCamera 和 AVCaptureSession.Preset.photo 配置捕获会话。大多数现代 iPhone 都有 12MP 主摄像头,但是 iPhone 14 Pro 和 15...
如何在 Swift 2 / AVPlayer 中恢复背景音频?
我正在学习 Swift 作为我的第一门编程语言。 我已经努力了好几个小时才能在中断后恢复背景音频播放(例如通话) 应该发生什么: 当...时,音频会继续播放
Swift / MacOS - AVAudioEngineConfigurationChangeNotification 有时在更改输入\输出设备后不会被触发
我想使用 AVAudioEngine 将多个声音输入(包括麦克风输入)混合到文件中。但在发生任何设备更改后,有时 AVAudioEngineConfigurationChangeNotification 将不会发生...