使用 wget 与 Streamcloud 以及需要等待的页面

使用 wget 与 Streamcloud 以及需要等待的页面

我是 Bash 脚本的新手,当我听说“wget”时,我决定编写一个脚本,从 streamcloud(或其他)链接下载 .mp4 文件。

我通常这样使用它:

wget -q -O - http://somelink.com | grep keyword

但我遇到的问题是,我从网站获取源代码时,必须等待几秒钟才能“转到视频”,而这显然不是我可以找到 mp4 文件链接的地方。所以我想知道如何获取等待后到达的页面的源代码,您可以在该页面上实际观看视频,并且其源代码包含 mp4 链接(然后我就可以 grep 它了)。

我实际上可以手动获取 mp4 链接,但我只想通过 shell 脚本自动执行它。

非常感谢!任何帮助我都会很感激!

答案1

您需要将 wget 输出保存到文件中,然后查看 html 以了解它们如何实现超时和重定向。可能使用多种技术。例如,最简单的是在 html 的开头添加一行这样的代码:

<meta http-equiv="refresh" content="2;url=http://newurl/"> 

这会让浏览器在 2 秒后转到新的 URL。您需要使用 sed 之类的工具来提取 URL,然后在新的 URL 上再次运行 wget。

更复杂的解决方案涉及 javascript。

相关内容