Ghostscrip 从 PDF 中提取每 n 页

Ghostscrip 从 PDF 中提取每 n 页

我不知道这是否可以做到,我正在学习ghostscript。假设我有多个 PDF 文件,每个文件长度约为 500 页。我可以设置 Ghostscript 从每个文档中提取每 100 页并将每个页面另存为单独的 PDF 文件吗?

所以我有 FileA.pdf,长度为 500 页。所以我现在想要文件A_0001.pdf 文件A_0002.pdf 文件A_0003.pdf 文件A_0004.pdf 文件A_0005.pdf

我已经设法编写了一个脚本,该脚本将根据我的时间间隔拆分文件并合并它们,但我在尝试正确重命名文件时遇到了麻烦。我遇到的问题是在第一个文件完成分割和合并后,它将重命名为文件A_0001.pdf 文件A_0002.pdf 文件A_0003.pdf 文件A_0004.pdf 文件A_0005.pdf

然而问题是一旦它开始 FileB 的进程,它就会这样做文件B_0006.pdf 文件B_0007.pdf我尝试了几种不同的方法,但都失败了,有什么建议吗?有人可以帮忙吗?

    for file in /mnt/bridge/pdfsplit/staging/*.[pP][dD][fF]
do
  echo $file
  #Splits All the Files
  gs -q -dNOPAUSE -sDEVICE=pdfwrite -o tmp_%04d.pdf $file

  #Removes Last File in List; Ghostscript creates a blank file everytime it splits
  find /mnt/bridge/pdfsplit/ -name "tmp*"  | tail -1 | while read filename ; do rm $filename; done

    pageCount=$(find . -name "tmp*" | wc -l)
    documents=$(((pageCount / 998) + (pageCount % 998 > 0)))
    pages=$(((pageCount/documents) + (pageCount % documents > 0 )))

    for ((i=1; i<$pageCount; i++)); do
      list=$(ls -1 tmp* 2>/dev/null | head -$pages)
      count=$(ls -1 tmp* 2>/dev/null| wc -l)
      gs -q -dNOPAUSE -sDEVICE=pdfwrite -o $(basename $file .pdf )_Part_$(printf %04d $i).pdf -dBATCH $list
      rm -f $list
      if [[ $count -eq 0 ]]; then
         echo "Done"
         break
         fi
    done


   #Removes Last File in List; Ghostscript is creating a blank file
   mv *.pdf /mnt/bridge/pdfsplit/splitFiles/
   find /mnt/bridge/pdfsplit/splitFiles/ -name "*.pdf"  | tail -1 | while read filename ; do rm $filename; done

done

答案1

这有帮助吗?

#!/bin/bash

function getChunk {
    #extract a page range
    gs -q -dNOPAUSE -sDEVICE=pdfwrite -sPageList=$1-$2 -o ${3%%.*}_$(printf %04d $4).pdf $3
}

for file in *.pdf; do

    #Use gs to get the page count
    pgs=$(gs -q -dNODISPLAY -c "($file) (r) file runpdfbegin pdfpagecount = quit")

    #specify the number of pages in each chunk as step
    step=10

    #calculate the number of whole chunks 
    chunks=$(( pgs / step))

    #reset all counters between pdfs
    f=0    #first page to extract in chunk
    l=0    #last page to extract in chunk
    i=0    #chunk counter

    #Extract the whole chunks 
    for ((i=0; i<$chunks; i+=1)); do

        #calculate the first and last pages 
        f=$((i*step+1))
        l=$((f+step-1))
        getChunk $f $l $file $i
    done

    #Pick up any part chunk at the end of the file
    f=$((l+1))
    if [ $f -le $pgs ]; then
        getChunk $f $pgs $file $i
    fi
done

我会让你整理命名......

答案2

不带GS

创建 FileA_0001.pdf、FileA_0002.pdf、...、FileA_0100.pdf

for i in $(seq 1 100); do pdftocairo -pdf -f $i -l $i FileA.pdf $(printf 'FileA_%04d.pdf' $i); done

创建 FileA_1.pdf、FileA_2.pdf、...、FileA_100.pdf

pdfseparate -l 100 FileA.pdf FileA_%d.pdf

我最喜欢的是 pdftocairo。根据我的经验,比 gs 更快、更可靠。尝试一下。

相关内容