在 Linux 上,可以轻松使用音频或视频抓取设备作为 FFmpeg 的输入:
ffmpeg -f oss -i /dev/dsp -f video4linux2 -i /dev/video0 out.flv
今天 kirupa 论坛上有人说他们曾经创建 flash 网络摄像头 netstream 但现在只使用 Linux。那太好了,但是你要怎么做呢?我的意思是在 Linux 中如何同时从网络摄像头抓取数据、输入到 ffmpeg 并输出到播放器。如果不使用 swf 网络摄像头发布器,您可以使用什么来代替?
现在我有一个在 flash cs6 中创建的网络摄像头抓取,它正在工作,但我找不到有关如何在动作脚本中添加网络流的必要说明。