搜索文件并下载(curl、grep、wget?)

搜索文件并下载(curl、grep、wget?)

我正在尝试使用 curl 和 grep 设置一个命令,以便我在网站上搜索特定模式并下载目标链接。

我已经尝试了无数种方法,使用 curl wget 等等,但都找不到解决方案。我的研究也没有特别的帮助。

所以我想做的是:

搜索网站(http://ci.athion.net/job/FastAsyncWorldEdit/lastStableBuild/)每个以“FastAsyncWorldEdit-bukkit-”开头并以“.jar”结尾的文件,然后将其保存为 whatever.jar

我发现的教程似乎不适用于詹金斯

感谢您的任何帮助!

答案1

据我所知,页面上只有一个符合您条件的 jar 文件。
下面是一个糟糕的一行代码,可以完成这项工作。

wget -c $(curl -s http://ci.athion.net/job/FastAsyncWorldEdit/lastStableBuild/ | tr '=' '\n' | grep FastAsyncWorldEdit-bukkit- | awk -F '"' '{ printf "http://ci.athion.net/job/FastAsyncWorldEdit/lastStableBuild/" $2"\n"}' | grep 'jar$')

答案2

发布页面上有永久链接,可能更简单: https://github.com/boy0001/FastAsyncWorldedit/releases/

此外,awk 将 url 与找到的链接连接起来,但是第二个页面使用绝对路径,因此您不想将它们连接起来:

wget -c $(curl -s http://builds.enginehub.org/job/worldedit/last-successful?br‌​anch=master/ | tr '=' '\n' | grep worldedit-bukkit- | awk -F '"' '{ printf $2"\n"}' | grep 'jar$')

相关内容