从 Web URL 压缩文件而不存储在本地磁盘上

从 Web URL 压缩文件而不存储在本地磁盘上

我有一个 http url 列表 http://host.com/url1 http://host.com/url2 http://host.com/url3

每个 url 都指向某个文件

有没有一种方法可以将所有文件压缩为单个 zip 存档,而无需在本地下载文件?我没有找到使用 linux zip 命令执行此操作的方法。它允许有文件列表,但不允许有网址列表

有任何想法吗?

答案1

使用 ksh 例如。

(
  for URL in http://host.com/url1 http://host.com/url2 http://host.com/url3
  do
    wget -O - -q "$URL"
  done
) | gzip -c > mysingle.zip

现在,您已将所有数据压缩到一个文件中,但并不是真正的存档:您无法提取其中一个文件,您需要在循环中添加分隔符。

相关内容