请允许有人向我解释任何陷阱或缺点"使用批量更新插入" Pentaho Kettle Table输出或更新步骤的选项?我的一个观点是,如果提交大小设置为1000,并且如果这1000个记录中的任何一个未能插入/更新,那么整批1000个记录将从更新到该表中被省略。我不知道它的真或假,目前我无法自己测试。
如果未启用此选项并仍继续使用更高的提交大小,相同的1000,该怎么办?
答案 0 :(得分:1)
它实际上只是数据库提交大小。最佳做法是将其设置在介于100和100之间的范围内。 2000年。
如果你把它做得太小,你会减慢你的转换速度,同样如果你把它变大,它会减慢转换速度,甚至会耗尽内存。你需要玩这个尺寸,因为它真的只是反复试验。
就错误而言,一旦错误至少在4.1
中达到错误的一条记录,你的转换就会失败