是否可以增加Google App Engine中的响应超时?

时间:2010-06-01 21:19:41

标签: python google-app-engine exception timeout cron-task

在我的本地计算机上,脚本运行正常,但在云端它一直运行500。这是一个cron任务,所以我真的不介意它是否需要5分钟...

< class'google.appengine.runtime.DeadlineExceededError'>:

是否有可能增加超时?

谢谢, 瑞

3 个答案:

答案 0 :(得分:9)

你不能超过30秒,但你可以通过使用任务队列间接增加超时 - 并编写逐步遍历数据集并处理它的任务。每个这样的任务运行当然应该符合超时限制。

修改

更具体地说,您可以使用数据存储区查询游标在同一位置继续处理:

http://code.google.com/intl/pl/appengine/docs/python/datastore/queriesandindexes.html#Query_Cursors

首先在SDK 1.3.1中介绍:

http://googleappengine.blogspot.com/2010/02/app-engine-sdk-131-including-major.html

答案 1 :(得分:7)

数据库查询超时的确切规则很复杂,但似乎查询的生存时间不能超过2分钟,并且批处理的生存时间不能超过30秒。下面是一些将作业分解为多个查询的代码,使用游标来避免这些超时。

def make_query(start_cursor):
  query = Foo()

  if start_cursor:
    query.with_cursor(start_cursor)

  return query

batch_size = 1000
start_cursor = None

while True:
  query = make_query(start_cursor)
  results_fetched = 0

  for resource in query.run(limit = batch_size):
    results_fetched += 1

    # Do something

    if results_fetched == batch_size:
      start_cursor = query.cursor()
      break
  else:
    break

答案 2 :(得分:1)

下面是我用来解决这个问题的代码,将一个大型查询分解为多个小型查询。我使用google.appengine.ext.ndb库 - 我不知道下面的代码是否需要它才能工作。

(如果你没有使用ndb,请考虑切换到它。它是db库的改进版本,并且很容易迁移到它。有关更多信息,请参阅https://developers.google.com/appengine/docs/python/ndb。)

from google.appengine.datastore.datastore_query import Cursor

def ProcessAll():
  curs = Cursor()
  while True:
    records, curs, more = MyEntity.query().fetch_page(5000, start_cursor=curs)
    for record in records:
      # Run your custom business logic on record.
      RunMyBusinessLogic(record)
    if more and curs:
      # There are more records; do nothing here so we enter the 
      # loop again above and run the query one more time.
      pass
    else:
      # No more records to fetch; break out of the loop and finish.
      break