获取网站所有链接

获取网站所有链接

有没有办法/工具可以获取网站的所有链接?仅获取链接,不寻求创建网站的本地副本/下载。示例 - Superuser 上发布的所有问题的链接。平台 Windows 7、Ubuntu 14.04

答案1

抱歉让您久等了。我已经上传了我的程序这里。

该程序仍处于非常早期的阶段,因此大多数功能还无法使用,但是,它确实可以抓取网站上其他页面的所有链接。

它需要 Java 才能运行,您应该能够双击该文件,然后 UI 应该会加载。在框中SearchW(在 GUI 中)输入网站地址,即http://google.comhttp://bbc.co.uk

然后,您可以复制并粘贴所有打印的链接(我仍然需要实现导出功能,但您暂时可以复制链接)

如果您有任何问题,请告诉我!如果您喜欢它,我会(一旦它处于良好状态)发布一个指向我的 repo 的链接,您可以在其中下载更新的版本。

相关内容