6

类似的问题(但答案对我不起作用):如何取消使用 concurrent.futures.ProcessPoolExecutor 运行的长时间运行的子进程?

与上面链接的问题和提供的解决方案不同,在我的情况下,计算本身相当长(受 CPU 限制)并且不能循环运行以检查是否发生了某些事件。

以下代码的简化版本:

import asyncio
import concurrent.futures as futures
import time

class Simulator:
    def __init__(self):
        self._loop = None
        self._lmz_executor = None
        self._tasks = []
        self._max_execution_time = time.monotonic() + 60
        self._long_running_tasks = []

    def initialise(self):
        # Initialise the main asyncio loop
        self._loop = asyncio.get_event_loop()
        self._loop.set_default_executor(
            futures.ThreadPoolExecutor(max_workers=3))

        # Run separate processes of long computation task
        self._lmz_executor = futures.ProcessPoolExecutor(max_workers=3)

    def run(self):
        self._tasks.extend(
            [self.bot_reasoning_loop(bot_id) for bot_id in [1, 2, 3]]
        )

        try:
            # Gather bot reasoner tasks
            _reasoner_tasks = asyncio.gather(*self._tasks)
            # Send the reasoner tasks to main monitor task
            asyncio.gather(self.sample_main_loop(_reasoner_tasks))
            self._loop.run_forever()
        except KeyboardInterrupt:
            pass
        finally:
            self._loop.close()

    async def sample_main_loop(self, reasoner_tasks):
        """This is the main monitor task"""
        await asyncio.wait_for(reasoner_tasks, None)
        for task in self._long_running_tasks:
            try:
                await asyncio.wait_for(task, 10)
            except asyncio.TimeoutError:
                print("Oops. Some long operation timed out.")
                task.cancel()  # Doesn't cancel and has no effect
                task.set_result(None)  # Doesn't seem to have an effect

        self._lmz_executor.shutdown()
        self._loop.stop()
        print('And now I am done. Yay!')

    async def bot_reasoning_loop(self, bot):
        import math

        _exec_count = 0
        _sleepy_time = 15
        _max_runs = math.floor(self._max_execution_time / _sleepy_time)

        self._long_running_tasks.append(
            self._loop.run_in_executor(
                    self._lmz_executor, really_long_process, _sleepy_time))

        while time.monotonic() < self._max_execution_time:
            print("Bot#{}: thinking for {}s. Run {}/{}".format(
                    bot, _sleepy_time, _exec_count, _max_runs))
            await asyncio.sleep(_sleepy_time)
            _exec_count += 1

        print("Bot#{} Finished Thinking".format(bot))

def really_long_process(sleepy_time):
    print("I am a really long computation.....")
    _large_val = 9729379273492397293479237492734 ** 344323
    print("I finally computed this large value: {}".format(_large_val))

if __name__ == "__main__":
    sim = Simulator()
    sim.initialise()
    sim.run()

这个想法是有一个主模拟循环运行和监控三个机器人线程。然后,这些机器人线程中的每一个都会执行一些推理,但也会使用 启动一个非常长的后台进程ProcessPoolExecutor,这可能最终会运行更长的阈值/最大执行时间来对事物进行推理。

.cancel()正如您在上面的代码中看到的,我在发生超时时尝试执行这些任务。虽然这并没有真正取消实际的计算,但它一直在后台发生,并且asyncio循环不会终止,直到所有长时间运行的计算完成之后。

如何在方法中终止如此长时间运行的 CPU 密集型计算?

其他类似的 SO 问题,但不一定相关或有帮助:

  1. asyncio:是否可以取消由 Executor 运行的未来?
  2. 如果单个异步任务超过 Python 中的阈值时间,如何在多处理中终止单个异步任务
  3. Python中带有工作池的异步多处理:超时后如何继续?
4

1 回答 1

7

如何在方法中终止如此长时间运行的 CPU 密集型计算?

您尝试的方法不起作用,因为返回的期货ProcessPoolExecutor不可取消。尽管 asynciorun_in_executor 尝试传播取消,但一旦任务开始执行,它就会被忽略。Future.cancel

没有根本原因。与线程不同,进程可以安全地终止,因此完全有可能ProcessPoolExecutor.submit返回cancel终止相应进程的未来。Asyncio 协程具有明确定义的取消语义,并且可以自动使用它。不幸的是,ProcessPoolExecutor.submit返回一个常规的concurrent.futures.Future,它假定底层执行器的最小公分母,并将运行的未来视为不可触及。

因此,要取消在子流程中执行的任务,就必须ProcessPoolExecutor完全规避并管理自己的流程。挑战在于如何在不重新实现一半的情况下做到这一点multiprocessing。标准库提供的一个选项是(ab)multiprocessing.Pool用于此目的,因为它支持可靠地关闭工作进程。ACancellablePool可以按如下方式工作:

  • 与其生成固定数量的进程,不如生成固定数量的 1-worker 池。
  • 从 asyncio 协程将任务分配给池。如果协程在另一个进程中等待任务完成时被取消,则终止单进程池并创建一个新的。
  • 由于一切都是从单个异步线程协调的,因此不必担心竞争条件,例如意外杀死已经开始执行另一个任务的进程。(如果要支持取消,则需要防止这种情况ProcessPoolExecutor。)

这是该想法的示例实现:

import asyncio
import multiprocessing

class CancellablePool:
    def __init__(self, max_workers=3):
        self._free = {self._new_pool() for _ in range(max_workers)}
        self._working = set()
        self._change = asyncio.Event()

    def _new_pool(self):
        return multiprocessing.Pool(1)

    async def apply(self, fn, *args):
        """
        Like multiprocessing.Pool.apply_async, but:
         * is an asyncio coroutine
         * terminates the process if cancelled
        """
        while not self._free:
            await self._change.wait()
            self._change.clear()
        pool = usable_pool = self._free.pop()
        self._working.add(pool)

        loop = asyncio.get_event_loop()
        fut = loop.create_future()
        def _on_done(obj):
            loop.call_soon_threadsafe(fut.set_result, obj)
        def _on_err(err):
            loop.call_soon_threadsafe(fut.set_exception, err)
        pool.apply_async(fn, args, callback=_on_done, error_callback=_on_err)

        try:
            return await fut
        except asyncio.CancelledError:
            pool.terminate()
            usable_pool = self._new_pool()
        finally:
            self._working.remove(pool)
            self._free.add(usable_pool)
            self._change.set()

    def shutdown(self):
        for p in self._working | self._free:
            p.terminate()
        self._free.clear()

显示取消的简约测试用例:

def really_long_process():
    print("I am a really long computation.....")
    large_val = 9729379273492397293479237492734 ** 344323
    print("I finally computed this large value: {}".format(large_val))

async def main():
    loop = asyncio.get_event_loop()
    pool = CancellablePool()

    tasks = [loop.create_task(pool.apply(really_long_process))
             for _ in range(5)]
    for t in tasks:
        try:
            await asyncio.wait_for(t, 1)
        except asyncio.TimeoutError:
            print('task timed out and cancelled')
    pool.shutdown()

asyncio.get_event_loop().run_until_complete(main())

请注意 CPU 使用率如何从未超过 3 个内核,以及它如何在接近测试结束时开始下降,这表明进程正在按预期终止。

要将其应用于问题中的代码,请创建self._lmz_executor一个实例CancellablePool并将其更改self._loop.run_in_executor(...)self._loop.create_task(self._lmz_executor.apply(...)).

于 2018-10-22T22:04:41.230 回答