我有一个 100GB 的文件,我想将其分割成 100 个 1GB 大小的文件(按换行)
例如
split --bytes=1024M /path/to/input /path/to/output
对于生成的 100 个文件,我想要对每个文件应用 gzip/zip。
是否可以使用单个命令?
答案1
使用“--filter”:
split --bytes=1024M --filter='gzip > $FILE.gz' /path/to/input /path/to/output
答案2
使用条件的一行代码是最接近的。
cd /path/to/output && split --bytes=1024M /path/to/input/filename && gzip x*
gzip
只有在split
成功时才会运行,因为条件&&
也位于和之间,cd
以split
确保也cd
成功。请注意,split
和gzip
输出到当前目录,而不是能够指定输出目录。如果需要,您可以创建目录:
mkdir -p /path/to/output && cd /path/to/output && split --bytes=1024M /path/to/input/filename && gzip x*
把所有内容重新组合起来:
gunzip /path/to/files/x* && cat /path/to/files/x* > /path/to/dest/filename
答案3
使用此命令和-d
选项可以生成数字后缀。
split -d -b 2048m "myDump.dmp" "myDump.dmp.part-" && gzip myDump.dmp.part*
生成的文件:
myDump.dmp.part-00
myDump.dmp.part-01
myDump.dmp.part-02
...
答案4
使用 pigz 进行动态压缩的 bash 函数
function splitreads(){
# add this function to your .bashrc or alike
# split large compressed read files into chunks of fixed size
# suffix is a three digit counter starting with 000
# take compressed input and compress output with pigz
# keeps the read-in-pair suffix in outputs
# requires pigz installed or modification to use gzip
usage="# splitreads <reads.fastq.gz> <reads per chunk; default 10000000>\n";
if [ $# -lt 1 ]; then
echo;
echo ${usage};
return;
fi;
# threads for pigz (adapt to your needs)
thr=8
input=$1
# extract prefix and read number in pair
# this code is adapted to paired reads
base=$(basename ${input%.f*.gz})
pref=$(basename ${input%_?.f*.gz})
readn="${base#"${base%%_*}"}"
# 10M reads (4 lines each)
binsize=$((${2:-10000000}*4))
# split in bins of ${binsize}
echo "# splitting ${input} in chuncks of $((${binsize}/4)) reads"
cmd="zcat ${input} \
| split \
-a 3 \
-d \
-l ${binsize} \
--numeric-suffixes \
--additional-suffix ${readn} \
--filter='pigz -p ${thr} > \$FILE.fq.gz' \
- ${pref}_"
echo "# ${cmd}"
eval ${cmd}
}