与GStreamer(也称为Gst)相关的问题,这是一个开源多媒体框架,支持从Linux服务器和Linux桌面系统到大量嵌入式设备的所有功能。
gst-plugins-bad
我有一个原始的H264视频(我知道这是我需要的完全相同的格式),并开发了一个播放它的应用程序。它可以在拉动模式下正确地与AppSRC一起使用(当需要数据时,我从文件中获取新数据并执行Push-Buffer)。
我有一个带有Bookworm Lite的Raspberry Pi,我想使用命令行中的GSTREAMER流式传输互联网广播电台,必须有一些插件可以做到这一点。特别是我想
未定定义的引用`gst_app_sink_pull_sample'
与Gstreamer应用程序汇编有关以下问题。我试图使用以下代码从GSTREAMER管道中检索FrameBuffer的代码。 char* purmage(int* Outlen,
我使用GSTREAMER 1.18.4尝试连接到RTSP Live相机并将流转换为HLS格式。当我成功连接到流并生成
gst-launch-1.0 -v -e rtspsrc protocols=tcp location=rtsp://<rtsp-address>:8554/stream ! queue ! rtph264depay ! h264parse ! mpegtsmux ! hlssink location="%06d.ts" target-duration=5
Gstreamer:appsrc&Multifilesink-滞后输出
i'm是通过AppSRC使用馈送数据并通过MultifileSink输出。这很好。但是,如果数据太多(例如,因为分辨率太高),则输出开始...
GST1.11, 我创建了一个幽灵垫,并确认它正在使用以下 GCHAR *ghost_pad_1_name = null; ghost_pad_1_name =“ myghostpad”; ghost_pad_1 = gst_ghost_pad_new(
我们正在从RPI摄像机中获取H264视频,但无法设置密钥帧间隔。有办法吗?这是我们的命令 libcamera -vid -t -t 0 -inline - -bitrate 2000000-宽度1920年 - 高度1080-弗里姆...
我想使用GSTREAMER包装和流式传输H264视频帧。 UDP方法成功了,但是TCP方法不起作用。我的问题是什么? 这是RTP客户端程序。以下是CO ...
我在GSTREAMER管道中测试计算机视觉元素;我的元素从网络摄像头接收一个实时视频流,并在其上运行一些图像处理代码,并将结果保存到数据库中。当使用调试标志编译时,它还使用一些调试标记更新视频流。对于调试和开发,我还从录制的视频中运行它。