wget

如何查看 URL 中的所有文件?
wget

如何查看 URL 中的所有文件?

有没有办法查看某个下载位置的所有文件? 我可以使用 WGET 从以下位置下载文件:http://download.support.xerox.com/pub/drivers/D95_D110_D125/drivers/win7x64/pt_BR/D95-125CP_5.303.15.0_PS_x64.exe 我无法从下载文件的文件夹中查看文件,因为访问此位置显示 403: http://download.support.xerox.com/pub/drivers/D95_D110_D125/drivers/win7x64/pt_BR/ ...

Admin

挑战:在 PowerShell 中下载、提取 xz 存档
wget

挑战:在 PowerShell 中下载、提取 xz 存档

使用 PowerShell 5.1,如何下载tar.xz档案并提取而不先将其写入磁盘? 所有这些尝试: Invoke-WebRequest https://www.examle.com/archive.tar.xz -UseBasicParsing | 7z x -si (Invoke-WebRequest https://www.examle.com/archive.tar.xz -UseBasicParsing).ToString() | 7z x -si (Invoke-WebRequest https://www.examle.com/archi...

Admin

无法让 wget -np -nH 不下载父目录
wget

无法让 wget -np -nH 不下载父目录

我尝试过 6 次不下载父目录,但都失败了。有人能就我的标记错误给出建议吗? torify wget -r -N --no-parent -R "index.html*" -nHhttp://somewebsite/Dir_a/Dir_b/Dir_c/-P /到我的位置 我只成功删除了根目录,但仍然得到父目录 /Dir_a/Dir_b/ 当我只想要 Dir_c 和里面的所有文件时。 我正在使用 unix、zshell、torify、wget。 是什么赋予了? ...

Admin

为什么 wget 没有从服务器下载新添加的文件?
wget

为什么 wget 没有从服务器下载新添加的文件?

我正在运行两个虚拟机 - 即 VM1 和 VM2。两者都运行 Ubuntu 16.04,并且 VM2 安装了 apache2 Web 服务器。现在在 VM2 服务器中,我复制了一个小型网站的代码。 问题: 从 VM1,我希望能够使用以下方式下载网站内容wget按照设定的时间间隔反复执行。现在它确实可以完美地下载所有网站内容,但是当我将新文件(一个.jpg文件,包含先前图像文件的网站文件夹)添加到文件夹(在 VM2 机器上的网站中)时,然后在 VM1 机器上运行 wget 命令,新文件不是得到下载。 我的 WGET 命令: wget --recurs...

Admin

使用 wget 和 sed 从 html 标题中提取字符串
wget

使用 wget 和 sed 从 html 标题中提取字符串

我有一个类似以下的 html 页面响应: <html> <head> <title>ThisIsFile.zip - Company</title> ... ThisIsFile.zip我尝试仅将名称输出到文件 wget --trust-server-names 'https://blablabla' | sed -E -i 's/<title>(.*) - Company<\/title>/\1/g' > /my/location.txt 但显示为空...我...

Admin

使用 Wget 从列表中下载图像并保留子文件夹
wget

使用 Wget 从列表中下载图像并保留子文件夹

我在文件中有一个链接列表,如下所示: https://xxxxx.com/folder1/xxxx.jpg https://xxxxx.com/folder1/folder2/xxxx.jpg https://xxxxx.com是一个常数 我想在我的服务器中下载其各自文件夹中的所有文件,如下所示:即 /folder1/xxxx.jpg /folder1/folder2/xxxx.jpg 有什么建议 ? ...

Admin

wget 不会忽略 no-follow 属性
wget

wget 不会忽略 no-follow 属性

我正在使用以下命令从网页下载所有文件: wget --recursive "http://example.com" 这有时会导致以下错误: no-follow attribute found in www.example.com. Will not follow any links on this page 根据gnu网站,我必须添加-e robots=off --wait 0.25到我的命令中。 我的最终命令如下所示(我不想要span-hosts): wget --recursive -e robots=off --wait 0.5 "ht...

Admin

wget 中的“黑名单”到底是什么意思?
wget

wget 中的“黑名单”到底是什么意思?

我正在运行以下命令 wget -d -e robots=off --recursive -l 10 -w 6.8 -t 3 -nc --random-wait -T 10 -R "*.js, *.css, *.jsp, *.mp3, *.mp4, *.swf, *.apk, *.pdf, *.css, *.doc, *.docx, *.xls, *.xlsx, *.jpg, *.jpeg, *.gif, *.JPG, *.JPEG, *.png, *.PNG" --server-response http://www.wuli.ac.cn/CN/volum...

Admin

wget 文件获取 neol 转换的文本如何获取正确的文件
wget

wget 文件获取 neol 转换的文本如何获取正确的文件

这是我需要获取的一份作业文件 pg100.txt,可在 https://www.gutenberg.org/cache/epub/100/pg100.txt 我登录到 Linux 机器 ssh user@machine wget https://www.gutenberg.org/cache/epub/100/pg100.txt 我获取了文件,但获取的文件是乱码。我想知道 1) 如何获取正确的文本文件 2) 为什么当我执行 wget 时文本是乱码,它在浏览器中正常打开。我通过 putty 从我的 Windows 10 机器登录到远程服务器 (Cent...

Admin

wget 和 curl 很快停止并且无法下载文件?
wget

wget 和 curl 很快停止并且无法下载文件?

我正在尝试下载https://www.apache.org/dyn/closer.lua/spark/spark-2.4.4/spark-2.4.4-bin-hadoop2.7.tgz 这是最新的 spark 版本。 当我尝试的时候 wget https://www.apache.org/dyn/closer.lua/spark/spark-2.4.4/spark-2.4.4-bin-hadoop2.7.tgz 我明白了 spark-2.4.4-bin-hadoop2 [ <=> ...

Admin

使用 wget 获取包含日文字符的链接将导致 404
wget

使用 wget 获取包含日文字符的链接将导致 404

我在一个网站上使用了 wget,所有文件都下载了,没有错误。具有以下类型链接的页面: website.com/english/apple website.com/english/dog website.com/english/baby 已下载并正常运行。但是其他文件带有链接: website.com/japanese/おと website.com/japanese/ょうき 已下载,并且它们都具有来自站点的默认 404 响应页面。(它并没有真正说 404,它只是说“你输入了错误的链接”) 我尝试使用命令“--restrict-file-nam...

Admin

使用 Wget 下载包含图片的整个网站
wget

使用 Wget 下载包含图片的整个网站

我可以使用以下命令下载除图像之外的完整网站: wget -mk -r --html-extension --no-clobber --continue --mirror --adjust-extension --convert-links --no-cookies mainDomain.com 但是,当我尝试使用以下命令下载托管在不同域上的图像时,仅index.html下载了。 wget -mk -r --html-extension --no-clobber --continue --mirror --adjust-extension --conv...

Admin

获取(仅)标准输出上的 URL 内容
wget

获取(仅)标准输出上的 URL 内容

对于 cron 作业邮件程序,我想要将 URL 的内容发送到标准输出。 两个都, 获得http://example.com-O- 和 卷曲http://example.com>&1 添加我不想看到的额外状态信息。 ...

Admin