wget 从 XML 站点地图下载所有网页

wget 从 XML 站点地图下载所有网页

我正在尝试将 XML 站点地图文件中的所有链接镜像并下载为静态 html 文件。

我发现以下命令应该可以完成我想要实现的目标,但它实际上并没有下载任何东西:

wget——安静http://www.mydemosite.com/sitemap.xml--输出文档 - | egrep -o "https?://[^<]+" | wget -i -

我在这里找到了这个帖子:

https://stackoverflow.com/questions/17334117/crawl-links-of-sitemap-xml-through-wget-command

所以我的问题是,如何使用 wget 将 XML 站点地图文件中的所有链接镜像并下载为静态 html 文件?

谢谢

相关内容