我正在构建一个工具,该工具可以从其他数据库中获取数据,进行转换并将其存储在我自己的数据库中。我正在从APScheduler迁移到Celery,但是遇到了以下问题:
我使用称为JobRecords
的类来存储作业的运行时间,是否成功以及遇到的错误。我用这个来知道更新条目不要太过早,尤其是因为有些表有数百万行。
由于所有作业的系统都相同,因此我从celery Task
对象创建了一个子类。我确保作业在Flask应用程序上下文中执行,并且获取该作业成功完成的最新时间。我还要确保为now
注册一个值,以避免在查询数据库和添加作业记录之间出现计时问题。
class RecordedTask(Task):
"""
Task sublass that uses JobRecords to get the last run date
and add new JobRecords on completion
"""
now: datetime = None
ignore_result = True
_session: scoped_session = None
success: bool = True
info: dict = None
@property
def session(self) -> Session:
"""Making sure we have one global session instance"""
if self._session is None:
from app.extensions import db
self._session = db.session
return self._session
def __call__(self, *args, **kwargs):
from app.models import JobRecord
kwargs['last_run'] = (
self.session.query(func.max(JobRecord.run_at_))
.filter(JobRecord.job_id == self.name, JobRecord.success)
.first()
)[0] or datetime.min
self.now = kwargs['now'] = datetime.utcnow()
with app.app_context():
super(RecordedTask, self).__call__(*args, **kwargs)
def on_failure(self, exc, task_id, args: list, kwargs: dict, einfo):
self.session.rollback()
self.success = False
self.info = dict(
args=args,
kwargs=kwargs,
error=exc.args,
exc=format_exception(exc.__class__, exc, exc.__traceback__),
)
app.logger.error(f"Error executing job '{self.name}': {exc}")
def on_success(self, retval, task_id, args: list, kwargs: dict):
app.logger.info(f"Executed job '{self.name}' successfully, adding JobRecord")
for entry in self.to_trigger:
if len(entry) == 2:
job, kwargs = entry
else:
job, = entry
kwargs = {}
app.logger.info(f"Scheduling job '{job}'")
current_celery_app.signature(job, **kwargs).delay()
def after_return(self, *args, **kwargs):
from app.models import JobRecord
record = JobRecord(
job_id=self.name,
run_at_=self.now,
info=self.info,
success=self.success
)
self.session.add(record)
self.session.commit()
self.session.remove()
我添加了一个工作示例来更新名为Location
的模型,但与此类似,还有很多工作。
@celery.task(bind=True, name="update_locations")
def update_locations(self, last_run: datetime = datetime.min, **_):
"""Get the locations from the external database and check for updates"""
locations: List[ExternalLocation] = ExternalLocation.query.filter(
ExternalLocation.updated_at_ >= last_run
).order_by(ExternalLocation.id).all()
app.logger.info(f"ExternalLocation: collected {len(locations)} updated locations")
for update_location in locations:
existing_location: Location = Location.query.filter(
Location.external_id == update_location.id
).first()
if existing_location is None:
self.session.add(Location.from_worker(update_location))
else:
existing_location.update_from_worker(update_location)
问题是,当我运行此作业时,Location
对象没有与JobRecord
一起提交,因此仅创建后者。如果我使用调试器进行跟踪,则Location.query.count()
将在函数内部返回正确的值,但是一旦它进入on_success
回调,它将返回0,并且self._session.new
返回一个空字典
我已经尝试过将会话添加为一个属性,以确保它在任何地方都是相同的实例,但是问题仍然存在。也许是由于scoped_session
而成为Flask-SQLAlchemy
与它有关吗?
很抱歉,我需要尝试剥离尽可能多的代码。欢迎任何帮助!
答案 0 :(得分:0)
我发现罪魁祸首是scoped_session
和Flask应用上下文的结合。像任何上下文管理器一样,运行代码with app.app_context()
会在离开时触发__exit__
函数,从而导致清除ScopedRegistry
(存储scoped_session
的地方)。然后,创建了一个新会话,将JobRecords
添加到该会话,并提交了该会话。因此,这些位置将不会写入数据库。
有两种可能的解决方案。如果您不在任务中的其他文件中进行会话,则可以将会话属性添加到任务中。这样,您就可以完全避免scoped_session
,并且可以在您的after_return
函数中进行清理。
@property
def session(self):
if self._session is None:
from dashboard.extensions import db
self._session = db.create_session(options={})()
return self._session
但是,我也通过from extensions import db
访问了模型定义文件中的会话。因此,我使用了两个不同的会话。我最终使用了app.app_context().push()
而不是contextmanager,因此避免了__exit__
函数
app.app_context().push()
super(RecordedTask, self).__call__(*args, **kwargs)