提取网站 URL

提取网站 URL

在 Ubuntu 中有没有办法找到网站中的所有目录?

我有一个网站,我想检查该网站的内部链接(目录)。

像这样:

在此处输入图片描述

...

这个网站的问题是,当我输入类似 ubuntu.com/cloud 的内容时,它不会显示子目录。

答案1

打开终端并输入:

sudo apt install lynx  
lynx -dump -listonly -nonumbers "https://www.ubuntu.com/" | uniq -u 

此命令通过将输出重定向到名为 links.txt 的文本文件来改进上一个命令。

lynx -dump "https://www.ubuntu.com/" | awk '/http/{print $2}' | uniq -u > links.txt

答案2

superuser.com 的回答:

wget --spider -r --no-parent http://some.served.dir.ca/
ls -l some.served.dir.ca

不过,有些免费网站可以帮你完成这项工作,并将输出转换为 xml 格式。我建议你也看看其中一个,看看哪种方法更适合你的需求。

编辑OP 附上了一张新的截图

相关内容