我目前的情况:
我有 10000条记录作为批次的输入。 根据我的理解,批处理仅用于逐个记录处理。因此,我在批处理步骤中使用dataweave组件转换每个记录(注意:我没有使用任何批处理提交)并将每个记录写入文件。进行逐记录处理的原因是假设在任何特定记录中都存在无效数据,只有该特定记录失败,其余部分将被正确处理。
但在我看到的许多博客中,他们使用带有dataweave组件的 batchcommit(带流媒体)。因此,根据我的理解,所有记录将一次性提供给数据编织,如果一条记录包含无效数据,则所有10000条记录都将失败(在数据编织时)。然后,逐个记录处理的点丢失。 以上假设是正确的还是我错误的思考方式?
这就是我没有使用批量提交的原因。
现在,正如我所说,我将每条记录发送到一个文件。实际上,我确实要求将每条记录发送到 5个不同的CSV文件。所以,目前我在 BatchStep 中使用 Scatter-Gather 组件将其发送到五个不同的路线。
因为,你可以看到图像。输入阶段提供10000条记录的集合。每条记录将使用Scatter-Gather发送到5条路线。
是,我使用的方法很好,或者可以遵循任何更好的设计?
此外,我已经创建了第二个批处理步骤,以捕获仅失败的错误。但是,使用当前的设计,我无法捕获失败的记录。
答案 0 :(得分:4)
上述假设是正确的还是我错误的想法?
简而言之,是的,你在想错误的方法。用例子阅读我的loooong解释,了解原因,希望你会欣赏它。
另外,我创建了第二批处理步骤,仅捕获FAILEDRECORDS。 但是,使用当前的设计,我无法捕获失败的记录。
您可能忘记在批处理作业上设置max-failed-records = "-1"
(无限制)。默认值为0,第一个失败的记录批次将返回,不执行后续步骤。
是,我使用的方法很好,或者任何更好的设计都可以 接着??
我认为,如果性能对您来说是必不可少的,那么您就无法应对按顺序执行此操作所产生的开销。 相反,你可以放慢一点,在5个不同的步骤中执行此操作是有意义的,你将失去并行性,但你可以更好地控制失败的记录,特别是如果使用批量提交。
我认为通过一个例子解释它是如何工作的最佳方式。
考虑以下情况:
您的批处理配置为max-failed-records = "-1"
(无限制)。
<batch:job name="batch_testBatch" max-failed-records="-1">
在这个过程中,我们输入一个由6个字符串组成的集合。
<batch:input>
<set-payload value="#[['record1','record2','record3','record4','record5','record6']]" doc:name="Set Payload"/>
</batch:input>
处理由3个步骤组成“ 第一步只是记录处理,第二步将执行记录并在record3上抛出异常以模拟故障。
<batch:step name="Batch_Step">
<logger message="-- processing #[payload] in step 1 --" level="INFO" doc:name="Logger"/>
</batch:step>
<batch:step name="Batch_Step2">
<logger message="-- processing #[payload] in step 2 --" level="INFO" doc:name="Logger"/>
<scripting:transformer doc:name="Groovy">
<scripting:script engine="Groovy"><![CDATA[
if(payload=="record3"){
throw new java.lang.Exception();
}
payload;
]]>
</scripting:script>
</scripting:transformer>
</batch:step>
第三步将仅包含提交计数值为2的提交。
<batch:step name="Batch_Step3">
<batch:commit size="2" doc:name="Batch Commit">
<logger message="-- committing #[payload] --" level="INFO" doc:name="Logger"/>
</batch:commit>
</batch:step>
现在,您可以关注我执行此批处理:
开始时,第一步将处理所有6条记录,登录控制台将如下所示:
-- processing record1 in step 1 --
-- processing record2 in step 1 --
-- processing record3 in step 1 --
-- processing record4 in step 1 --
-- processing record5 in step 1 --
-- processing record6 in step 1 --
Step Batch_Step finished processing all records for instance d8660590-ca74-11e5-ab57-6cd020524153 of job batch_testBatch
现在事情会更有意思,第2步记录3会失败,因为我们显式抛出异常但是尽管如此,步骤将继续处理其他记录,这里的日志将如何。
-- processing record1 in step 2 --
-- processing record2 in step 2 --
-- processing record3 in step 2 --
com.mulesoft.module.batch.DefaultBatchStep: Found exception processing record on step ...
Stacktrace
....
-- processing record4 in step 2 --
-- processing record5 in step 2 --
-- processing record6 in step 2 --
Step Batch_Step2 finished processing all records for instance d8660590-ca74-11e5-ab57-6cd020524153 of job batch_testBatch
此时,尽管此步骤记录失败,批处理仍将继续,因为参数max-failed-records
设置为-1
(无限制),而不是默认值0。
此时所有成功的记录都将传递给第3步,这是因为默认情况下,某个步骤的accept-policy
参数设置为NO_FAILURES
。 (其他可能的值为ALL
和ONLY_FAILURES
)。
现在,包含计数等于2的提交阶段的step3将逐个提交记录:
-- committing [record1, record2] --
-- committing [record4, record5] --
Step: Step Batch_Step3 finished processing all records for instance d8660590-ca74-11e5-ab57-6cd020524153 of job batch_testBatch
-- committing [record6] --
正如您所看到的,这证实了失败的记录3未传递到下一步,因此未提交。
从这个例子开始,我认为你可以想象并测试更复杂的场景,例如在提交之后,你可以有另一个步骤来处理失败的记录,以便知道管理员和失败的邮件。 您可以随时使用外部存储来存储有关记录的更多高级信息,您可以在my answer to this other question中阅读。
希望这有帮助