如果一个进程以 0 结果退出,如何退出所有主管进程

如果一个进程以 0 结果退出,如何退出所有主管进程

我像这样用主管运行docker容器:

Dockerfile

CMD ["/run.sh"]

运行

#!/usr/bin/env bash
exec supervisord -n

主管-serf.conf

[group:job]
programs=serf,producer

[program:serf]
command=/start-serf-agent.sh
numprocs=1
autostart=true
autorestart=unexpected
stopasgroup=true
killasgroup=true
stdout_logfile=/dev/stdout
stdout_logfile_maxbytes=0
stderr_logfile=/dev/stderr
stderr_logfile_maxbytes=0

启动-serf-agent.sh

#!/bin/bash
exec serf agent --join=serf:7946 -tag role=producer

主管服务配置文件

[program:producer]
command=/start.sh
numprocs=1
stopasgroup=true
killasgroup=true
stdout_logfile=/dev/stdout
stdout_logfile_maxbytes=0
stderr_logfile=/dev/stderr
stderr_logfile_maxbytes=0

启动脚本

#!/bin/bash
exec /producer --project=${NAME}

生产者停止后我得到了:

producer_1 |     2016/02/29 21:59:50 [INFO] serf: EventMemberLeave: 7c4fbc80af97 172.19.0.2
producer_1 | 2016/02/29 21:59:51 INF    1 stopping
producer_1 | 2016/02/29 21:59:51 INF    1 exiting router
producer_1 | 2016-02-29 21:59:51,281 INFO exited: producer (exit status 0; expected)
producer_1 |     2016/02/29 21:59:51 [INFO] agent: Received event: member-leave

但 serf-agent 使容器保持运行状态。我想在生产者以状态 0 正确完成工作时停止 Docker 容器。我尝试将进程加入一个组,但似乎不起作用。伙计们,我漏掉了什么?请帮帮我!

答案1

我与主管解决了这个问题事件监听器

[program:worker]
command=/start.sh
priority=2
process_name=worker
numprocs=1
stopasgroup=true
killasgroup=true
stdout_logfile=/dev/stdout
stdout_logfile_maxbytes=0
stderr_logfile=/dev/stderr
stderr_logfile_maxbytes=0

[eventlistener:worker_exit]
command=/kill.py
process_name=worker
events=PROCESS_STATE_EXITED

杀死

#!/usr/bin/env python
import sys
import os
import signal

def write_stdout(s):
   sys.stdout.write(s)
   sys.stdout.flush()
def write_stderr(s):
   sys.stderr.write(s)
   sys.stderr.flush()
def main():
   while 1:
       write_stdout('READY\n')
       line = sys.stdin.readline()
       write_stdout('This line kills supervisor: ' + line);
       try:
               pidfile = open('/var/run/supervisord.pid','r')
               pid = int(pidfile.readline());
               os.kill(pid, signal.SIGQUIT)
       except Exception as e:
               write_stdout('Could not kill supervisor: ' + e.strerror + '\n')
       write_stdout('RESULT 2\nOK')
if __name__ == '__main__':
   main()
   import sys
main issue I forgot to point to **process_name**

也是好文章Docker 容器中的进程管理

答案2

这是一个稍微更精简的版本,它使用 shell 脚本而不是 python 脚本,并且还涵盖多个服务,如果任何一个出现故障,就会终止整个主管。

监控配置文件
$ cat /etc/supervisord.conf
[supervisord]
nodaemon=true
loglevel=debug
logfile=/var/log/supervisor/supervisord.log
pidfile=/var/run/supervisord.pid
childlogdir=/var/log/supervisor

[program:service1]
command=/usr/sbin/service1
user=someone
autostart=true
autorestart=true
startsecs=30
process_name=service1

[program:service2]
command=/usr/sbin/service2
user=root
autostart=true
autorestart=true
startsecs=30
process_name=service2

[eventlistener:processes]
command=stop-supervisor.sh
events=PROCESS_STATE_STOPPED, PROCESS_STATE_EXITED, PROCESS_STATE_FATAL
停止supervisor.sh
$ cat stop-supervisor.sh
#!/bin/bash

printf "READY\n";

while read line; do
  echo "Processing Event: $line" >&2;
  kill -3 $(cat "/var/run/supervisord.pid")
done < /dev/stdin

参考

答案3

对于那些不想要单独文件的人。

[supervisord]
loglevel=warn
nodaemon=true

[program:hi]
command=bash -c "echo waiting 5 seconds . . . && sleep 5"
autorestart=false
numprocs=1
startsecs=0
stderr_logfile=/dev/stderr
stderr_logfile_maxbytes=0
stdout_logfile=/dev/stdout
stdout_logfile_maxbytes=0

[eventlistener:processes]
command=bash -c "printf 'READY\n' && while read line; do kill -SIGQUIT $PPID; done < /dev/stdin"
events=PROCESS_STATE_STOPPED,PROCESS_STATE_EXITED,PROCESS_STATE_FATAL

答案4

如果我们想在某些特定服务崩溃时停止 Supervisor,但在其他情况下保持它运行,我们可以使用如下方法:

[program:primary_required]
command=sh -c '/path/to/app start || supervisorctl shutdown'

[program:secondary_required_fire_and_forget]
command=sh -c '/path/to/app migrate || supervisorctl shutdown'
exitcodes=0

[program:non_required_service]
command=service non_required start

使用这种方法,我们可以使用 Supervisor 作为 Docker 入口点,并在某些所需操作失败时在 docker start 上引发错误,如果我们使用依赖容器状态来了解一切是否正常的服务(如 Elastic Beanstalk、Kubernetes 等),这种方法很有用。

这还确保所有已启动的服务将正常关闭而不是终止,并且不会出现任何孤立进程。

这种方法的一个非故意行为可能是,当服务失败时,它会在允许重试之前关闭主管,因此重试不起作用。 在我看来这不是问题。

相关内容