除了 httpfs2 之外,有没有其他方法可以在 Linux 中挂载 Web URL?

除了 httpfs2 之外,有没有其他方法可以在 Linux 中挂载 Web URL?

目前我使用 httpfs2 在文件系统中挂载直接 Web URL。例如,需要解压一个 rar 存档,但我的 VPS 上没有足够的空间来下载并解压整个文件(2x 空间)。但是使用 httpfs2 读取速度非常慢,当我尝试使用 wget 下载文件时,我至少能获得 10 MB/秒的速度,而当我尝试复制 httpfs2 挂载的存档时,我在 Midnight Commander 中只能获得 600 KB/秒的速度。我该怎么做才能达到连接允许的几乎相同的速度?

答案1

httpfs2由于 HTTP 开销,使用 无法获得相同的性能。对于 10 MB 的文件,您有大约 100 个请求,每个请求大约需要 100 KB 的数据(来源: wireshark),延迟会降低性能。您可能可以调整 FUSE 以获得更大的块,但它可能会消耗更多内存。

另一种选择是在当前块传输完成之前开始询问下一个块或同时下载多个块,但有些服务器不允许这样做。

一个可能的更简单的解决方案是使用管道,例如:

$ curl http://server/file.tar.gz | tar xzv

相关内容