我正在研究如何将我的网络摄像头(在 Linux 中被识别为 /dev/video0)实时流式传输到互联网。我正在尝试使用 ffmpeg,现在以下方法有效:
1.创建ffserver.conf文件
HTTPPort 8090
HTTPBindAddress 0.0.0.0
MaxHTTPConnections 200
MaxClients 100
MaxBandWidth 500000
CustomLog -
<Feed camera.ffm>
File /tmp/camera.ffm
FileMaxSize 200M
</Feed>
<Stream camera.mjpeg>
Feed camera.ffm
Format mpjpeg
VideoFrameRate 15
VideoIntraOnly
VideoBitRate 4096
VideoBufferSize 4096
VideoSize 640x480
VideoQMin 5
VideoQMax 51
NoAudio
Strict -1
</Stream>
2.通过命令运行服务器:
ffserver -f ffserver.conf
3.运行ffmpeg打开摄像头
ffmpeg -f video4linux2 -s 640x480 -r 15 -i /dev/video0 http://localhost:8090/camera.ffm
看起来效果不错。但是,ffmpeg 的官方 wiki 表示 ffserver 已被弃用,但我很难找到让它工作的替代方法(不使用 ffserver)。我还需要 ffserver.conf 文件吗?或者我只需要一些纯 ffmpeg 命令?