自动浏览网页并下载网站上的过滤链接

自动浏览网页并下载网站上的过滤链接

使用 DownThemAll! 我可以下载给定页面上的所有链接,并且可以对它们进行过滤。

假设网站是 www.google.com,我想抓取所有搜索结果。我设置了一个过滤器:/search?q=

这将抓取该页面上的所有搜索结果(以及一些垃圾链接 - 但这些与此无关)。但我想要所有搜索结果。不仅仅是来自此页面,还包括来自底部列出的所有 Google 页面。我可以指示 DownThemAll! 浏览每个页面并根据该过滤器自动下载吗?

如果不使用 DownThemAll!,那么我该怎么做?

答案1

发现了一个很棒的程序,叫做 imacros,可以与 Firefox、Chrome、IE 配合使用,也可以单独使用。可以轻松自动执行浏览器任务,并且可以通过 javascript 进行增强。

相关内容