24

问题

我已经将一个长时间运行的任务分割成逻辑子任务,所以我可以在每个子任务完成时报告它的结果。但是,我正在尝试报告一项实际上永远不会完成的任务的结果(而是在执行过程中产生价值),并且正在努力使用我现有的解决方案来做到这一点。

背景

我正在为我编写的一些 Python 程序构建一个 Web 界面。用户可以通过 Web 表单提交作业,然后返回查看作业的进度。

假设我有两个函数,每个函数都通过单独的表单访问:

  • med_func: 执行大约需要 1 分钟,结果被传递给render(),这会产生额外的数据。
  • long_func: 返回一个生成器。每个yield需要 30 分钟,并且应该报告给用户。有这么多的产量,我们可以认为这个迭代器是无限的(仅在撤销时终止)。

代码,当前实现

使用med_func,我报告结果如下:

在提交表单时,我将一个保存AsyncResultDjango 会话

    task_result = med_func.apply_async([form], link=render.s())
    request.session["task_result"] = task_result

结果页面的 Django 视图访问 this AsyncResult。任务完成后,结果将保存到一个对象中,该对象作为上下文传递给 Django 模板。

def results(request):
    """ Serve (possibly incomplete) results of a session's latest run. """
    session = request.session

    try:  # Load most recent task
        task_result = session["task_result"]
    except KeyError:  # Already cleared, or doesn't exist
        if "results" not in session:
            session["status"] = "No job submitted"
    else:  # Extract data from Asynchronous Tasks
        session["status"] = task_result.status
        if task_result.ready():
            session["results"] = task_result.get()
            render_task = task_result.children[0]

            # Decorate with rendering results
            session["render_status"] = render_task.status
            if render_task.ready():
                session["results"].render_output = render_task.get()
                del(request.session["task_result"])  # Don't need any more

    return render_to_response('results.html', request.session)

此解决方案仅在函数实际终止时才有效。我无法将 的逻辑子任务链接在一起long_func,因为yields 的数量未知(循环的每次迭代long_func可能不会产生结果)。

问题

是否有任何明智的方法可以从极其长时间运行的 Celery 任务中访问产生的对象,以便在生成器耗尽之前显示它们?

4

5 回答 5

26

为了让 Celery 知道任务的当前状态是什么,它会在你拥有的任何结果后端设置一些元数据。您可以搭载它来存储其他类型的元数据。

def yielder():
    for i in range(2**100):
        yield i

@task
def report_progress():
    for progress in yielder():
        # set current progress on the task
        report_progress.backend.mark_as_started(
            report_progress.request.id,
            progress=progress)

def view_function(request):
    task_id = request.session['task_id']
    task = AsyncResult(task_id)
    progress = task.info['progress']
    # do something with your current progress

我不会在那里投入大量数据,但它可以很好地跟踪长期运行的任务的进度。

于 2013-06-19T23:59:59.140 回答
13

保罗的回答很棒。作为使用的替代方法,mark_as_started您可以使用Task'supdate_state方法。他们最终会做同样的事情,但名称“update_state”更适合您尝试做的事情。您可以选择定义一个自定义状态,指示您的任务正在进行中(我已将自定义状态命名为“PROGRESS”):

def yielder():
    for i in range(2**100):
        yield i

@task
def report_progress():
    for progress in yielder():
        # set current progress on the task
        report_progress.update_state(state='PROGRESS', meta={'progress': progress})

def view_function(request):
    task_id = request.session['task_id']
    task = AsyncResult(task_id)
    progress = task.info['progress']
    # do something with your current progress
于 2014-08-27T14:48:04.133 回答
6

芹菜部分:

def long_func(*args, **kwargs):
    i = 0
    while True:
        yield i
        do_something_here(*args, **kwargs)
        i += 1


@task()
def test_yield_task(task_id=None, **kwargs):
    the_progress = 0        
    for the_progress in long_func(**kwargs):
        cache.set('celery-task-%s' % task_id, the_progress)

Webclient端,启动任务:

r = test_yield_task.apply_async()
request.session['task_id'] = r.task_id

测试最后产生的值:

   v = cache.get('celery-task-%s' % session.get('task_id'))
   if v:
        do_someting()

如果您不喜欢使用缓存,或者不可能,您可以使用 db、file 或任何其他 celery worker 和服务器端都可以访问的地方。使用缓存是最简单的解决方案,但工作人员和服务器必须使用相同的缓存。

于 2013-06-19T11:03:43.420 回答
4

需要考虑的几个选项:

1 -- 任务组。如果您可以从调用时枚举所有子任务,则可以将组作为一个整体应用——它返回一个 TaskSetResult 对象,您可以使用它来监视整个组的结果,或者组中单个任务的结果-- 当你需要检查状态时,根据需要查询这个。

2——回调。如果您无法枚举所有子任务(或者即使您可以!),您可以定义一个网络挂钩/回调,这是任务的最后一步——在任务的其余部分完成时调用。该钩子将针对您应用程序中的 URI,该 URI 摄取结果并通过 DB 或应用程序内部 API 使其可用。

这些的一些组合可以解决您的挑战。

于 2013-06-19T17:33:25.600 回答
3

另请参阅来自 Instagram 工程师的这个很棒的 PyCon preso。

http://blogs.vmware.com/vfabric/2013/04/how-instagram-feeds-work-celery-and-rabbitmq.html

在视频标记 16:00,他讨论了他们如何构建长长的子任务列表。

于 2013-06-20T13:50:18.027 回答