我有一些图片,需要自己开发一个服务器,将这些图片推送到webtrc并在网页上播放。
我可以通过ffmpeg将opencv读取的图像推送到rtmp服务器,但是如何将它们推送到webrtc?
你能帮我看看这个问题吗?
谢谢。
您可以将 GStreamer 用于此用例 - 例如 multifilesrc 作为输入(取决于您的文件流)和 Webrtcbin 作为输出。请注意,无法从命令行使用 Webrtcbin,因此您需要从 Python 应用程序构建和操作管道。