4

import multiprocessing
import schedule


def worker():
     #do some stuff


def sched(argv):
    schedule.every(0.01).minutes.do(worker)          
    while True:
        schedule.run_pending()


processs = []
..
..
p = multiprocessing.Process(target=sched,args)
..
..
processs.append(p)

for p in processs:
    p.terminate()

优雅地杀死进程列表?

如果不是,最简单的方法是什么?

目标是将配置文件重新加载到内存中,所以我想杀死所有子进程并创建其他子进程,后者将读取新的配置文件。

编辑:添加了更多代码来解释我正在运行一个while True循环

编辑:这是@dano建议后的新代码

def get_config(self):
        from ConfigParser import SafeConfigParser
..
        return argv

def sched(self, args, event):
#schedule instruction:
        schedule.every(0.01).minutes.do(self.worker,args)
        while not  event.is_set():
                schedule.run_pending()                                                                    

def dispatch_processs(self, conf):
        processs = []
        event = multiprocessing.Event()

        for conf in self.get_config():
                process = multiprocessing.Process(target=self.sched,args=( i for i in conf), kwargs={'event' : event})
                processs.append((process, event)
return processs

def start_process(self, process):
        process.start()

def gracefull_process(self, process):
        process.join()

def main(self):
        while True:
                processs = self.dispatch_processs(self.get_config())
                print ("%s processes running " % len(processs) )

                for process, event in processs:                                                               

                        self.start_process(process)
                        time.sleep(1)
                        event.set()
                        self.gracefull_process(process)

代码的好处是我可以编辑配置文件,并且该过程也将重新加载其配置。

问题是只有第一个进程运行而其他进程被忽略。

编辑:这救了我的命,在 schedule() 中使用 while True 不是一个好主意,所以我refresh_time改为设置

def sched(self, args, event):

    schedule.every(0.01).minutes.do(self.worker,args)
    for i in range(refresh_time):
            schedule.run_pending() 
            time.sleep(1)

def start_processs(self, processs):
        for p,event in processs:
                if not p.is_alive():
                        p.start()
                time.sleep(1)
                event.set()

        self.gracefull_processs(processs)

def gracefull_processs(self, processs):
        for p,event in processs:
                p.join()
        processs = self.dispatch_processs(self.get_config())
        self.start_processs(processs)

def main(self):

        while True:
                processs = self.dispatch_processs(self.get_config())

                self.start_processs(processs)
                break
        print ("Reloading function main")
        self.main()
4

3 回答 3

6

如果您不介意仅在worker完成所有工作后中止,那么添加一个multiprocessing.Event来处理优雅退出非常简单:

import multiprocessing
import schedule


def worker():
     #do some stuff

def sched(argv, event=None):
    schedule.every(0.01).minutes.do(worker)          
    while not event.is_set():  # Run until we're told to shut down.
        schedule.run_pending()

processes = []
..
..
event = multiprocessing.Event()
p = multiprocessing.Process(target=sched,args, kwargs={'event' : event})
..
..
processes.append((p, event))

# Tell all processes to shut down
for _, event in processes:
    event.set()

# Now actually wait for them to shut down
for p, _ in processes:
    p.join()
于 2014-10-29T15:23:30.450 回答
2

A: 不, .terminate() 和 SIG_* 方法都相当残酷

如您的帖子中所述,需要安排任何流程的优雅结束,而是应该有一些“软信号”层,它允许在两端发送/接收智能信号而不依赖于 O /S 解释(O/S 对当前正在处理的相应工作单元的应用程序级上下文和状态一无所知)。

在此处输入图像描述 您可能想在 >>> https://stackoverflow.com/a/25373416/3666197引用的链接中阅读有关这种软信令方法的信息

于 2014-10-29T12:04:51.247 回答
0

不,根据您自己对优雅的定义,它不会终止进程 - 除非您采取一些额外的步骤。

假设您使用的是 unix 系统(因为您提到过scp),向子进程terminate发送信号。SIGTERM您可以在子进程中捕获此信号,并采取相应措施(等待scp完成):

import signal

def on_terminate(signum, stack):
    wait_for_current_scp_operation()

signal.signal(signal.SIGTERM, on_terminate)

这是关于处理和发送信号的教程

于 2014-10-29T11:18:00.113 回答