在我的本地机器上,脚本运行良好,但在云中它一直是 500。这是一个 cron 任务,所以我不介意它是否需要 5 分钟......
< 类 'google.appengine.runtime.DeadlineExceededError' >:
知道是否可以增加超时时间吗?
谢谢,瑞
在我的本地机器上,脚本运行良好,但在云中它一直是 500。这是一个 cron 任务,所以我不介意它是否需要 5 分钟......
< 类 'google.appengine.runtime.DeadlineExceededError' >:
知道是否可以增加超时时间吗?
谢谢,瑞
您不能超过 30 秒,但您可以通过使用任务队列来间接增加超时 - 并编写逐步迭代数据集并处理它的任务。每个这样的任务运行当然应该符合超时限制。
更具体地说,您可以使用数据存储查询游标在同一位置恢复处理:
http://code.google.com/intl/pl/appengine/docs/python/datastore/queriesandindexes.html#Query_Cursors
在 SDK 1.3.1 中首次引入:
http://googleappengine.blogspot.com/2010/02/app-engine-sdk-131-include-major.html
数据库查询超时的确切规则很复杂,但似乎一个查询不能超过大约 2 分钟,而一个批处理不能超过大约 30 秒。这是一些将作业分解为多个查询的代码,使用游标来避免这些超时。
def make_query(start_cursor):
query = Foo()
if start_cursor:
query.with_cursor(start_cursor)
return query
batch_size = 1000
start_cursor = None
while True:
query = make_query(start_cursor)
results_fetched = 0
for resource in query.run(limit = batch_size):
results_fetched += 1
# Do something
if results_fetched == batch_size:
start_cursor = query.cursor()
break
else:
break
下面是我用来解决这个问题的代码,将一个大查询分解成多个小查询。我使用这个google.appengine.ext.ndb
库——我不知道下面的代码是否需要它才能工作。
(如果您不使用 ndb,请考虑切换到它。它是 db 库的改进版本,迁移到它很容易。有关更多信息,请参阅https://developers.google.com/appengine/docs/python/新数据库。)
from google.appengine.datastore.datastore_query import Cursor
def ProcessAll():
curs = Cursor()
while True:
records, curs, more = MyEntity.query().fetch_page(5000, start_cursor=curs)
for record in records:
# Run your custom business logic on record.
RunMyBusinessLogic(record)
if more and curs:
# There are more records; do nothing here so we enter the
# loop again above and run the query one more time.
pass
else:
# No more records to fetch; break out of the loop and finish.
break