我有一个python实现流数据到大查询,它类似于docs的例子,在每个任务中我得到一个"加载1行进入..."但是当查询表时我每天只有30-35行(表按日分区)但是我平均有25k的请求流到表的数据。在寻找"得到" api称它显示我像800行ant缓冲区,但是这样花了4天时间我在4天前看不到我的数据。
答案 0 :(得分:2)
当您调用tabledata.insertAll时,是否为每一行提供重复数据删除insertId?如果您为所有插入的行重复使用相同的insertId,您将观察到与此类似的行为。