rubberband例子

rubberband例子

是的,这里有一个棘手的 ffmpeg 问题。

在我的应用中,我根据图像帧对视频进行编码,并添加一个 WAV 文件,用于来自同一源但通过不同网络套接字的声音。根据这些图像 + fps(加上减去几秒),WAV 文件的长度并不总是与视频完全相同。

我如何告诉 ffmpeg “拉伸”输入的 WAV 文件以使其与视频的长度相同?

简而言之:images (i) + WAV (w) = final video (v)

length(w) != length (v)...这会导致问题。

下面是我目前正在使用的 ffmpeg 命令示例:

ffmpeg -f image2 -thread_queue_size 512 -framerate 21.5 -i /frames/%d.webp -i videomail_preview.wav -y -acodec aac -strict experiments -ac 1 -vcodec libx264 -crf 16 -preset fast -profile:v baseline -pix_fmt yuv420p -loglevel warning -movflags +faststart videomail_good.mp4 -acodec libvorbis -ac 1 -vcodec libvpx -crf 8 -deadline good -cpu-used 1 -pix_fmt yuv420p -loglevel warning -movflags +faststart videomail_good.webm

这是 ffmpeg 版本及其扩展

ffmpeg 版本 2.8.6-1ubuntu2 版权所有 (c) 2000-2016 FFmpeg 开发人员使用 gcc 5.3.1(Ubuntu 5.3.1-11ubuntu1)构建 20160311 配置:--prefix=/usr --extra-version=1ubuntu2 --build-suffix=-ffmpeg --toolchain=hardened --libdir=/usr/lib/x86_64-linux-gnu --incdir=/usr/include/x86_64-linux-gnu --cc=cc --cxx=g++ --enable-gpl --enable-shared --disable-stripping --disable-decoder=libopenjpeg --disable-decoder=libschroedinger --enable-avresample --enable-avisynth --enable-gnutls --enable-ladspa --enable-libass --enable-libbluray --启用-libbs2b --启用-libcaca --启用-libcdio --启用-libflite --启用-libfontconfig --启用-libfreetype --启用-libfribidi --启用-libgme --启用-libgsm --启用-libmodplug --启用-libmp3lame --启用-libopenjpeg --启用-libopus --启用-libpulse --启用-librtmp --启用-libschroedinger --启用-libshine --启用-libsnappy --启用-libsoxr --启用-libspeex --启用-libssh --启用-libtheora --启用-libtwolame --启用-libvorbis --启用-libvpx --启用-libwavpack --启用-libwebp --启用-libx265 --启用-libxvid --启用-libzvbi --启用-openal --启用-opengl --启用-x11grab --enable-libdc1394 --enable-libiec61883 --enable-libzmq --enable-frei0r --enable-libx264 --enable-libopencv libavutil 54. 31.100 / 54. 31.100 libavcodec 56. 60.100 / 56. 60.100 libavformat 56. 40.101 / 56. 40.101 libavdevice 56. 4.100 / 56. 4.100 libavfilter 5. 40.101 / 5. 40.101 libavresample 2. 1. 0 / 2. 1. 0 libswscale 3. 1.101 / 3. 1.101 libswresample 1. 2.101 / 1. 2.101 libpostproc 53. 3.100 / 53. 3.100

有什么我不知道的建议/技巧吗?

答案1

橡皮筋听起来可能比阿滕波;尤其是对于较大的比率差异。如果你想使用橡皮筋,但你的软件不支持这个过滤器ffmpeg(并且不想编译ffmpeg),然后您可以使用独立rubberband工具

rubberband例子

rubberband -D 12 input.wav output.wav
  • -D<X>, --duration <X>- 拉伸或压缩以使输出文件长度达到 X 秒

参见rubberband -hrubberband命令行实用程序帮助文本了解更多信息。

逐步过程

不幸的是,这不是一个单一的命令。使用此方法,您必须:

  1. 对视频进行编码。
  2. 使用以下方式获取视频时长ffprobe
  3. 用 生成音频rubberband
  4. 将视频和音频混合在一起:

    ffmpeg -i video -i audio -c copy -shortest output
    

补充笔记

  • -movflags +faststart适用于 MP4,但会被 webm muxer 忽略。
  • FFmpeg 2.8.6 版本已过时。建议用户使用当前 git master 分支的版本。最简单的解决方案是下载静态构建,但你可以编译如果你愿意的话。编译将允许你使用橡皮筋滤波器ffmpeg

答案2

FFMPEG 音频过滤器中有 2 个选项可以帮助您:在两种情况下,您都必须手动计算 RATIO=(VIDEO_DURATION/AUDIO_DURATION) 的比例并将其放入命令中。

  1. atempo:使用此过滤器,您可以加快或减慢音频速度。以实现您的目标ffmpeg -f image2 -thread_queue_size 512 -framerate 21.5 -i /frames/%d.webp -i videomail_preview.wav -y -acodec aac -strict experimental -ac 1 -vcodec libx264 -crf 16 -preset fast -profile:v baseline -pix_fmt yuv420p -loglevel warning -movflags +faststart -filter:a "atempo=RATIO" videomail_good.mp4 -acodec libvorbis -ac 1 -vcodec libvpx -crf 8 -deadline good -cpu-used 1 -pix_fmt yuv420p -loglevel warning -movflags +faststart -filter:a "atempo=RATIO" videomail_good.webm重要的提示:atempo 过滤器只能使用 0.5 到 2.0 之间的值。如果需要,您可以通过将多个 atempo 过滤器串联在一起来解决此限制。

  2. rubberband:使用此功能,与过滤器相比,您可以更好地控制音频的拉伸atempo。一个基本命令是:ffmpeg -f image2 -thread_queue_size 512 -framerate 21.5 -i /frames/%d.webp -i videomail_preview.wav -y -acodec aac -strict experimental -ac 1 -vcodec libx264 -crf 16 -preset fast -profile:v baseline -pix_fmt yuv420p -loglevel warning -movflags +faststart -filter:a "rubberband=tempo=RATIO" videomail_good.mp4 -acodec libvorbis -ac 1 -vcodec libvpx -crf 8 -deadline good -cpu-used 1 -pix_fmt yuv420p -loglevel warning -movflags +faststart -filter:a "rubberband=tempo=RATIO" videomail_good.webm。此过滤器有更多选项,例如pitchtransients等等channels

答案3

只需使用

ffmpeg -i input -c:v libx264 -preset veryslow -qp 0 output.mkv

相关内容