我正在使用RTPLAY使用RTSP通过TCP播放视频流,并且当vq值增加时它会正常播放,但是当只有M-V之前的值增加时它会在5-6秒后停止。
nan M-V: nan fd= 0 aq= 0KB vq= 0KB sq= 0B f=0/0
......
......
Duration: N/A, start: 2.133467, bitrate: N/A
Stream #0:0: Video: h264 (Main), yuvj420p(pc), 1280x1024, 15 fps, 25 tbr, 90k tbn, 30 tbc
[swscaler @ 0x7fd9502403c0] deprecated pixel format used, make sure you did set range correctly
"76.81" M-V: -5.409 fd= 0 aq= 0KB vq= 0KB sq= 0B f=2/2 `
有人可以解释一下这些M-V,fd,aq,vq,f是什么,以及M-V之前的值(“76.81”)?
我有同样的问题,通过查看ffplay
来源发现这个:
av_log(NULL, AV_LOG_INFO,
"%7.2f %s:%7.3f fd=%4d aq=%5dKB vq=%5dKB sq=%5dB f=%"PRId64"/%"PRId64" \r",
get_master_clock(is),
(is->audio_st && is->video_st) ? "A-V" : (is->video_st ? "M-V" : (is->audio_st ? "M-A" : " ")),
av_diff,
is->frame_drops_early + is->frame_drops_late,
aqsize / 1024,
vqsize / 1024,
sqsize,
is->video_st ? is->viddec.avctx->pts_correction_num_faulty_dts : 0,
is->video_st ? is->viddec.avctx->pts_correction_num_faulty_pts : 0)
播放示例视频得到了输出样本:
7.11 A-V: 0.003 fd= 1 aq= 21KB vq= 321KB sq= 0B f=0/0
7.11 (master clock)
是从流/视频开始的时间
A-V (avdiff)
音频和视频时间戳之间的差异
fd
丢弃的帧数
aq
音频框架的大小
vq
视频帧的大小
sq
字幕框大小
f
时间戳纠错率(不是100%肯定)
M-V
,M-A
仅指视频流,仅指音频流。
我想澄清aq, vq
分别是“音频队列大小”和“视频队列大小”,而不是Marware答案中的“音频/视频帧大小”。
很抱歉发布了一个不完整的答案,但这个帖子在谷歌搜索ffmpeg vq
是#1的结果,我希望我的澄清将有助于那些碰巧在这里寻找vq
意味着什么的人。
以下是vq
(视频队列大小)在实际意义上的一些实际(但是利基)示例。
假设您正在使用ffplay来显示来自安全摄像头的视频。在这种特殊情况下,vq
数字(连同相机流带宽)将定义从“实时”到ffplay中看到的图片的延迟。
例如,如果安全摄像机提供高质量的10Mbps流并且vq
大约为300K,则延迟/延迟大约为1/4秒。四分之一秒的延迟几乎无法察觉。
delay (seconds) = vq_number * 8 * 1024 / video_stream_bits_per_second
现在,如果摄像机以2Mbps流速且vq
为1000K(并非罕见),则延迟(延迟)约为4秒。这意味着你现在在ffplay中看到的是四秒钟前发生的事情。
在任何其他情况下 - vq
越多越好。较大的vq
意味着有足够的数据排队(缓冲)以便流畅播放视频。