如何限制并行作业

如何限制并行作业

我有一个包含文件的主机/tmp/hostlist,它需要用户名和密码才能登录,我正在使用 Expect 命令来登录主机并执行命令,并在我的 bash 脚本中如下所示。

)

VAR=$(expect -c "$script")

echo "$VAR" >/tmp/outexp
-----------------

我能够处理并行执行 -

while IFS= read -r i
do
        ( export server_name=`echo $i`;echo "connecting to $i";expect -c 
wait

有没有办法限制没有。一次有多少个主机?例如,假设我在一个文件中有 1000 个主机..并且我想一次在一组 100 个主机中执行以完成 1000 个主机..

答案1

使用 GNU Parallel 你会做类似的事情:

[compute $script]
export script
run_one() {
  i="$1"
  export server_name=`echo $i`
  echo "connecting to $i"
  expect -c "$script"
  echo "Job completed on $i"
  echo "-----------------------------------"
}
export -f run_one

cat "$file" | parallel -j100 run_one '2>&1' >"$log2"

或者:

[compute $script]
export script

cat "$file" |
  parallel -j100 --tag 'i={} expect -c "$script" 2>&1' >"$log2"

答案2

您可以检查有多少作业正在运行并等待它们完成。

这是一个示例脚本:

#!/bin/bash

i=0
while [[ $i -lt 50 ]]; do

    n=$(jobs | grep Running | wc -l)
    if [[ $n -ge 10 ]]; then
        echo "waiting for jobs to finish ($n running)"
        sleep 1
    else
        echo start next $i
        bash -c "sleep $(( $RANDOM % 3 )); echo $i finished" &
        let i+=1
    fi
done
wait

您可以像这样使用它来将并行主机限制为 100 个:

while IFS= read -r i
do
    n=$(jobs | grep Running | wc -l)
    if [[ $n -ge 100 ]]; then
        echo "waiting for jobs to finish ($n running)"
        sleep 1
    else
        ( export server_name=`echo $i`;echo "connecting to $i";expect -c "$script";echo "Job completed on $i";echo "-----------------------------------" ) >> "${log}_${i}" 2>&1 &
    fi
done < "$file"

答案3

我通常使用一种稍微不同的方法,它不依赖于您跟踪生成的子进程的数量,并且只要队列低于最大值,它就会填满

max_jobs=100 # set queue size
while IFS= read -r i; do
  num_jobs=$(pgrep -c -P$$)
  if [[ $num_jobs -ge $max_jobs ]]; then
    wait -n $(pgrep -P$$) # Wait until a any subprocess terminates
  else
    <calling_awesome_script_here> &
  fi
done < "$file"

相关内容