我可以从 ogg 文件中嵌入 mp4 文件,并嵌入 srt 文件中的字幕,这要归功于 stack*** 论坛和其他互联网资源,只需两个步骤:
首先创建一个黑色 png 文件作为白色字幕的背景。然后将音频与 1 张图片合并以创建 mp4 文件。
ffmpeg -loop 1 -i 1.png -i input.ogg -shortest output.mp4
在第二轮中,使用该 mp4 文件并将字幕硬嵌入到该文件中。
ffmpeg -i output.mp4 -vf subtitles=input.srt out.mp4
我的下一个目标是将这两个步骤合二为一。互联网上有一些资源,特别是,Linux 字幕 ffmpeg,我从中得到了代码:
ffmpeg -i input.ogg -loop 1 -i 1.png -c:v libx264 -r 24000/1001 -vf "srt='input.srt'" -pix_fmt yuv240p -c:a copy -map 1:v -map 0:a -shortest output.mp4
有错误:
ffmpeg version 4.3.5-0+deb11u1 Copyright (c) 2000-2022 the FFmpeg developers
built with gcc 10 (Debian 10.2.1-6)
configuration: --prefix=/usr --extra-version=0+deb11u1 --toolchain=hardened --libdir=/usr/lib/x86_64-linux-gnu --incdir=/usr/include/x86_64-linux-gnu --arch=amd64 --enable-gpl --disable-stripping --enable-avresample --disable-filter=resample --enable-gnutls --enable-ladspa --enable-libaom --enable-libass --enable-libbluray --enable-libbs2b --enable-libcaca --enable-libcdio --enable-libcodec2 --enable-libdav1d --enable-libflite --enable-libfontconfig --enable-libfreetype --enable-libfribidi --enable-libgme --enable-libgsm --enable-libjack --enable-libmp3lame --enable-libmysofa --enable-libopenjpeg --enable-libopenmpt --enable-libopus --enable-libpulse --enable-librabbitmq --enable-librsvg --enable-librubberband --enable-libshine --enable-libsnappy --enable-libsoxr --enable-libspeex --enable-libsrt --enable-libssh --enable-libtheora --enable-libtwolame --enable-libvidstab --enable-libvorbis --enable-libvpx --enable-libwavpack --enable-libwebp --enable-libx265 --enable-libxml2 --enable-libxvid --enable-libzmq --enable-libzvbi --enable-lv2 --enable-omx --enable-openal --enable-opencl --enable-opengl --enable-sdl2 --enable-pocketsphinx --enable-libmfx --enable-libdc1394 --enable-libdrm --enable-libiec61883 --enable-chromaprint --enable-frei0r --enable-libx264 --enable-shared
libavutil 56. 51.100 / 56. 51.100
libavcodec 58. 91.100 / 58. 91.100
libavformat 58. 45.100 / 58. 45.100
libavdevice 58. 10.100 / 58. 10.100
libavfilter 7. 85.100 / 7. 85.100
libavresample 4. 0. 0 / 4. 0. 0
libswscale 5. 7.100 / 5. 7.100
libswresample 3. 7.100 / 3. 7.100
libpostproc 55. 7.100 / 55. 7.100
Input #0, ogg, from 'input.ogg':
Duration: 00:09:56.73, start: 0.000000, bitrate: 53 kb/s
Stream #0:0: Audio: vorbis, 44100 Hz, mono, fltp, 140 kb/s
Input #1, png_pipe, from '1.png':
Duration: N/A, bitrate: N/A
Stream #1:0: Video: png, rgba(pc), 639x288, 25 fps, 25 tbr, 25 tbn, 25 tbc
File 'output.mp4' already exists. Overwrite? [y/N] y
Stream mapping:
Stream #1:0 -> #0:0 (png (native) -> h264 (libx264))
Stream #0:0 -> #0:1 (copy)
Press [q] to stop, [?] for help
[AVFilterGraph @ 0x5623a8c54480] No such filter: 'srt'
Error reinitializing filters!
Failed to inject frame into filter network: Invalid argument
Error while processing the decoded data for stream #1:0
Conversion failed!
我相信,通过适当地纠正上面的代码行,专家将能够轻松解决所面临的问题。
但我的最终目标仍然超出:由于我的输入内容文件只是一个音频文件,我希望字幕分布在整个屏幕上,而不仅限于屏幕底部。
我在 YouTube 上看过这样的视频,但目前我无法找到这些资源和代码。