AVFoundation框架提供Objective-C和Swift接口,用于在Mac OSX或iOS应用程序中编辑和播放视听媒体。使用此框架的问题应包括此标记。
,无论如何,当我运行代码时,我会得到一个使用渐变的冷冻播放器,但是当我尝试播放视频时,它在00:00上播放,并且玩家不会玩任何通行证。
我试图在视图控制器加载个人资料照片后立即获得相机预览,以加载实时视频。 但是,视频一开始没有显示。这是真正的iPhone,而不是
当您打开相机应用程序并从面向前面向前朝向一个或多次,然后返回该应用程序时,视频一开始就不会显示,则视频确实显示。
我的程序需要读取视频元数据,以在录制何时何地查找视频的本地时间创建日期。我该怎么做? 我已经到了:
,但是,创建日期在UTC中。如果我将文件创建日期进行比较:
AVMIDIPlayer
IOS17.4 -iPhone 14 Pro-真实设备 当我尝试实现一个简单的视频仪视图时,我将面临错误: 主线程被“尚未加载的属性”上的同步属性查询阻止(
我如何在iOS应用中抄录一个大音频文件? 我已经成功使用sfspeechRecognizer转录小音频文件。但是我想将语音转录到30分钟的音频文件中的文本中。我想出了这个解决方案,但是它不起作用...
无法从Avurlasset获取HLS视频(.M3U8格式)的视频曲目forAvplayer
我想为视频播放器添加字幕轨道和音轨。因此,我使用avmutableComposition来做到这一点。因此,现在问题是当我为HLS视频创建Avurlasset时,我无法从Avurlasset获得视频曲目。它总是给我0个曲目。我尝试了avurlasset的
我使用Apple的样本播放列表之一将其范围缩小到一个简单的测试用例:
我已经实现了基本的摄像头捕获会话,并从中单击了图像。一切都很好,直到我在自动/开/关模式之间切换闪光灯。我单击第一张照片然后更改闪存模式后,应用程序崩溃了错误:
我正在构建一个应用程序,它应该允许用户将音频过滤器应用于录制的音频,例如混响、增强。 我无法找到有关如何将过滤器应用于文件的任何可行的信息来源
正如问题所示,我需要我的应用程序像大多数音乐播放器一样在后台播放音乐。我试图在网上找到一些东西,但它们不起作用。有人可以看看我的问题吗...
我正在从一堆静态图像创建视频(QuickTime .mov 格式,H.264 编码),并且我想在此过程中添加章节轨道。 视频制作得很好,但我没有检测到......
如何在 iOS 上使用 AVAssetWriter 导出 32 位 WAV 文件?
我尝试导出wav 32位文件,但AVAssetWriter无法添加输入 让设置= [ AVFormatIDKey : kAudioFormatLinearPCM, AVSampleRateKey:44100, ...
无法使用 Objective C 代码读取 CMVideoDimensions 结构
我手头有一个 AVCaptureDevice 对象,想要使用 Objective C 打印 activeFormat.supportedMaxPhotoDimensions (*) 提供的最大支持的照片尺寸。我尝试了