我的目标是只下载网站上可用的文件,例如http://pelusa.fis.cinvestav.mx/tmatos/LaSumA/LaSumA2_archivos/NumeRCPs/ansi/index.htm在“通过目录访问:”标题下。我该如何实现我的目的?我不熟悉 wget,而且我不想获取 html 文件,例如,我只想下载该站点上的 *.c 和 *.h 文件。可以吗?我认为下载特定文件类型并保存到所需位置是 wget 提供的功能。
答案1
大多数情况下,使用浏览器(假设是 Firefox)会更方便:因此您需要一种下载管理器:
狐狸蜘蛛(https://addons.mozilla.org/de/firefox/addon/foxyspider/) 对指定类型的文件(文件扩展名)进行递归获取(“嗯,实际上是从整个网站获取你想要的任何文件类型”)。
另请参见 DownThemAll (http://www.downthemall.net/) 可以做到这一点(“DownThemAll 可让您下载网页中包含的所有链接或图像以及更多内容:您可以根据完全可自定义的标准优化您的下载,以仅获取您真正想要的内容。”)。
答案2
这将检索所有.c 和.h 文件:
wget -r -l1 --no-parent -A c,h http://pelusa.fis.cinvestav.mx/tmatos/LaSumA/LaSumA2_archivos/NumeRCPs/ansi/recipes/
结果将是一个目录结构
pelusa.fis.cinvestav.mx/
tmatos/
LaSumA/
LaSumA2_archivos/
NumeRCPs/
ansi/
recipes/
.c 和 .h 文件将位于 recipes/ 中(它不会保存在同一个目标目录中,因为这可能会覆盖文件)。
还有其他工具可能更简单,例如lftp(它比 wget 更好地支持通配符)。
答案3
在 flareget 下载管理器中,您可以使用批量下载器来实现相同的目的。它也支持通配符。在文件菜单中单击批量下载,或者您甚至可以使用导入选项从网站导入链接。