如何分割文件并直接压缩?

如何分割文件并直接压缩?

我有一个 100GB 的文件,我想将其分割成 100 个 1GB 大小的文件(按换行)

例如

split --bytes=1024M /path/to/input /path/to/output

对于生成的 100 个文件,我想要对每个文件应用 gzip/zip。

是否可以使用单个命令?

答案1

使用“--filter”:

split --bytes=1024M --filter='gzip > $FILE.gz' /path/to/input /path/to/output

答案2

使用条件的一行代码是最接近的。

cd /path/to/output && split --bytes=1024M /path/to/input/filename && gzip x*

gzip只有在split成功时才会运行,因为条件&&也位于和之间,cdsplit确保也cd成功。请注意,splitgzip输出到当前目录,而不是能够指定输出目录。如果需要,您可以创建目录:

mkdir -p /path/to/output && cd /path/to/output && split --bytes=1024M /path/to/input/filename && gzip x*

把所有内容重新组合起来:

gunzip /path/to/files/x* && cat /path/to/files/x* > /path/to/dest/filename

答案3

使用此命令和-d选项可以生成数字后缀。

split -d -b 2048m "myDump.dmp" "myDump.dmp.part-" && gzip myDump.dmp.part*

生成的文件:

    myDump.dmp.part-00
    myDump.dmp.part-01
    myDump.dmp.part-02
    ...

答案4

使用 pigz 进行动态压缩的 bash 函数

function splitreads(){

# add this function to your .bashrc or alike
# split large compressed read files into chunks of fixed size
# suffix is a three digit counter starting with 000
# take compressed input and compress output with pigz
# keeps the read-in-pair suffix in outputs
# requires pigz installed or modification to use gzip

usage="# splitreads <reads.fastq.gz> <reads per chunk; default 10000000>\n";
    if [ $# -lt 1 ]; then
        echo;
        echo ${usage};
        return;
    fi;

# threads for pigz (adapt to your needs)
thr=8

input=$1

# extract prefix and read number in pair
# this code is adapted to paired reads
base=$(basename ${input%.f*.gz})
pref=$(basename ${input%_?.f*.gz})
readn="${base#"${base%%_*}"}"

# 10M reads (4 lines each)
binsize=$((${2:-10000000}*4))

# split in bins of ${binsize}
echo "# splitting ${input} in chuncks of $((${binsize}/4)) reads"

cmd="zcat ${input} \
  | split \
    -a 3 \
    -d \
    -l ${binsize} \
    --numeric-suffixes \
    --additional-suffix ${readn} \
    --filter='pigz -p ${thr} > \$FILE.fq.gz' \
    - ${pref}_"

echo "# ${cmd}"
eval ${cmd}
}

相关内容