httrack 因反爬虫保护而无法下载网站
我正在尝试为无法访问其托管登录信息的人克隆整个网站(出于某些原因我不会详述)并且需要所有内容的本地副本: https://www.cowpatch.com/ 它看起来像是用 wordpress 创建的。 我在 Mac 的终端上使用 httrack。这是我运行的命令: httrack https://www.cowpatch.com/ -O "/Users/abe/websites/cowpatch" 它获取了 index.html,但似乎有某种反爬虫机制阻止它获取网站上的其他页面。下载的所有其他 HTML 页面都显示一条消息,内容如下: 反爬虫保护正在...