我有一个由两个连续的批处理作业组成的数据流管道。第一批成功完成,但第二批没有开始。
我已经使用嵌入式H2 DB启动了Dataflow服务器。我已经通过 application.properties 将Spring Batch指向了相同的H2实例。在完成管道的第一步之后,我可以在同一数据库实例中看到批处理执行日志。
我的 composited-task-runner 应用程序似乎正确地获取了Dataflow的数据源。我可以看到它是从Dataflow服务器继承而来的,道具显示在仪表板的任务执行部分中。
日志中没有错误。仅记录成功执行第一批的日志条目。
我的TASK_EXECUTION条目:
可能是什么问题?为什么第一步需要在TASK_EXECUTION表中有两个条目?按照task_name的名称-这些条目仅属于第一步。
答案 0 :(得分:0)
我能够通过使用Spring Initialzr重新构建批处理任务来解决此问题。最初,我试图将spring-cloud-task-app-starters用作我的工作基础,并且可能这不是构建Dataflow任务的正确方法。