AVFoundation框架提供Objective-C和Swift接口,用于在Mac OSX或iOS应用程序中编辑和播放视听媒体。使用此框架的问题应包括此标记。
AVPlayer 在 macOS SwiftUI 应用程序中加载新剧集后意外自动暂停
我正在使用 SwiftUI 开发一个简化的 macOS 应用程序,该应用程序使用 AVPlayer 播放播客剧集。尽管确保应用程序不会自动播放或自动暂停剧集,但我遇到了一个问题
转换 AVPlayerView for Apple Watch
我在商店里有一个应用程序至少有六个月的时间,它的目标是 iOS,另一个目标是 Apple Watch。两个目标都使用 AVFoundation 播放视频。 我用来播放 vi 的代码...
如何使用 AVAudioFile + AVAudioPlayerNode (swift) 加载/播放 AAC 音频并丢弃文件开头的字节(垃圾字节头)
我有一个大文件,其中包含几个 aac 音频,以“块”的形式(每个音频由一些垃圾字节分隔)。我需要单独加载每个文件(使用开始/偏移字节来选择每个文件
我正在尝试生成库达条形码,但无法使其正常工作。 这是我当前的代码: 导入 SwiftUI 导入VisionKit 导入 CoreImage.CIFilterBuiltins 导入
错误域=AVFoundationErrorDomain代码=-11814“无法录制”
它一直给我错误: 错误域=AVFoundationErrorDomain代码=-11814“无法记录” 我不确定问题是什么?我正在尝试在计数器出现时录制声音...
我正在尝试使用 AVAudioRecorder 从设备的麦克风(在 iOS 下)进行录制。这些例子都很简单,我也遵循同样的方法。但我在尝试时收到错误消息...
用户界面中有一个按钮,按下该按钮会播放简短的问候语。为了测试性能,我无休止地滚动屏幕的轮播。声音说话时一切都很好,但是大约 1 秒后
为什么当计时器达到 0 秒时,我会收到错误代码(( AddInstanceForFactory:没有为 id 注册工厂 F8BB1C28-BAE8-11D6-9C31-00039315CD46 )))...
我正在开发一个应用程序,其中包含播放带有每帧动画的视频的功能。 您可以查看此类功能的示例。 我已经尝试将 CAKeyFrameAnimation 添加到 subla...
问题 我有一个视频,我想将其放置在比视频本身更大的画布中。我使用 AVMutableVideoComposition 工具并通过增加 renderSize 属性来完成此操作。 不管怎样...
是否可以从 AVPlayerViewController 中取消画中画
我正在使用 AVPlayerViewController 并设置了 canStartPictureInPictureAutomaticallyFromInline = true ,它按预期工作。 我想要实现的是,如果在视频播放时打开应用程序......
我有 ViewController,它实现了 AVCaptureVideoDataOutputSampleBufferDelegate 和 AVCaptureDepthDataOutputDelegate 协议。我想收集视频和深度数据。视频数据是你...
Swift - 使用 ZoomFactor 捕获 RAW 图像会使应用程序崩溃
我在使用不同于 1.0 的 ZoomFactor 拍摄 RAW 照片时遇到问题。 事实上,如果我用最小缩放级别拍摄照片,一切都会正常。然而,如果我尝试放大到更接近su...
我可以发送使用 AVAudioSinkNode 接收到的声音缓冲区以使用 AVAudioSourceNode 进行实时渲染吗?
我正在尝试新的 AVAudioSinkNode 和 AVAudioSourceNode 节点,以便与 AVAudioEngine 一起使用。 在设置方面,与另一篇文章中描述的测试类似,我的接收器节点已附加...
我需要为 AVPlayer 实现错误处理。我使用 AVPlayer(url: audioUrl) 创建一个实例,其中 audioUrl 是远程 mp3 文件的 URL。 我订阅这样的通知: 功能
我目前使用 AVAudioRecorder 在应用程序中录制音频。如果应用程序崩溃或录制时发生某些情况,正在录制的文件就会丢失,因此作为替代方案,我尝试使用音频队列
visionOS 的 AVCaptureAudioDataOutput 替代品
我正在尝试在visionOS上获取AVAudioBuffer,但我似乎没有找到一种有效且在visionOS上可用的方法。 VisionOS 上似乎仅提供音频录制功能。有什么想法吗?
我正在尝试使用音频单元混合来自几个音频源的音频。结构非常简单,我有两个输入,一个混音器音频单元和一个通用输出。问题是缓冲区...
-Swift.h 头文件中没有名为“AVCaptureVideoDataOutputSampleBufferDelegate”的类型或协议
我有一个 Objective-C 项目,在其中使用 Swift 脚本和 Obj-C 脚本。 在其中一个 Swift 脚本中,我有一个类: @objc公共类VideoCapture:NSObject,
Swift 如果您在设置中指定非零格式字典,您的委托必须响应选择器 captureOutput:didFinishProcessingPhoto
我下面使用的代码应该拍摄照片,然后将图像转换为 Base64,以便将其发送到服务器。该代码可以拍摄照片,将其转换为 Base64,然后上传...