我有一个问题。我正在加载一个非常大的表,其中包含1.5亿条记录的现有数据,这些数据将继续增加,每天增加100万条记录。几天后ETL开始失败即使在跑了24小时之后。在DFT中,我们有源查询提取100万条记录,这些记录是针对具有1.5亿条记录的目的地表进行查找,以检查新记录。它失败了,因为LOOKUP无法保存1.5亿条记录的数据。我已经尝试将LOOKUP更改为Merge Join但没有成功。您能否建议替代设计成功加载大表中的数据。而且,我无法减少目标表的大小。我已经在所有必需的列上有索引。希望我能解释这个场景。