需要帮助下载网站上所有可用的 PDF 文件

需要帮助下载网站上所有可用的 PDF 文件

我正在尝试下载整个网站的 PDF 文件,实际上是两个网站:

它们是法语的,这让我很头疼。我尝试使用 wget,运行:

wget -A pdf -m -p -E -k -K -np https://concours-maths-cpge.fr/

我也尝试使用 lynx 按照指导

我尝试使用其他解决方案,例如 DownThemAll(Firefox 插件)

没用,好像这两个网站上没有 PDF 文件。

任何帮助都将受到赞赏。

我同时启动了 Manjaro 和 Windows 10——依赖于操作系统的解决方案没有问题。

答案1

你尝试过这个吗?https://www.freedownloadmanager.org/fr/

似乎它可以从网站下载所有(免费)可用文件,只要您有正确的凭据即可。我猜您需要先进行身份验证。

答案2

虽然我不同意我将要提出的建议,但你总是可以使用HTTTrack 网站复制器。该软件抓取给定的网站,并下载一切,除非您另行指定 - 按文件类型(例如,zip 或 jpg,或 png,或可能是 pdf)。

我觉得这有点过头的原因是它会不断向目标网站发送请求,并可能给另一方(网站)带来问题。但在大多数情况下,它确实有效。

相关内容