对不起我的英语不好....
我尝试下载这电子书,我尝试了不同的方法获取, 和
wget --domains --no-parent https://www.oreilly.de/german/freebooks/linag3ger
和
wget --domains --no-parent https://www.oreilly.de/german/freebooks/linag3ger/418_LinuxIVZ.html
仅下载该网站的链接。
和,
wget -r https://www.oreilly.de/german/freebooks/linag3ger/418_LinuxIVZ.html
所以,通过递归,下载所有网页......更多为1GB......
我会下载它,稍后将其转换为 PDF,如这里说。
请有人帮助我,谢谢!
答案1
看起来你所要做的就是这样:
wget -np -r -l 2 'https://www.oreilly.de/german/freebooks/linag3ger/'
这将下载 49 个文件,总共 3.7MB。
基本上你需要-r
告诉 wget 递归下载链接。然后-l 2
告诉 wget 不要深入超过 2 层。
答案2
您必须告诉wget
一个标准要下载什么(该文件夹下的任何内容?)以及不下载什么(Wiley 网站的所有其余部分)。
如果您有可用的 GUI,“HTTrack Website Copier”之类的工具可能会简化该任务。