wget 可以限制在递归/蜘蛛模式下检索到的页面/链接的数量吗? 2024-6-16 • wget 我使用 wget 来执行以下操作: 递归检索一些网站, 蜘蛛(从网站检索链接) 有时我只想获取某个任意最大值的页面/链接。 到目前为止,我发现 wget 的唯一限制是: 体积(Mb/Kb 等) 目录递归级别 下载速率 可以限制下载链接数吗? 相关内容 如何从远程服务器执行保存在本地系统中的脚本? 我在哪里找到 ./extract.sh 将下载的 YouTube 视频(使用 youtube-dl 下载)转换为仅音频,没有任何损失?[重复] 买者自负 ... Ubuntu 加载失败-黑屏 无法初始化 mon0 接口 ZFS grub-probe 错误,无法获取 /dev/DISK_NAME 的规范路径 如何获取最后安装/卸载的文件系统的名称 删除 Windows 10 MBR 尝试修复 Ubuntu 启动 我们可以在历史命令中找到命令执行的日期和时间吗[重复]