在表的批量更新期间SQL查询速度很慢

时间:2017-06-09 12:27:48

标签: postgresql postgresql-9.3

我有一个大约250K记录的postgresql表。它每小时更新一次。但是,整个表将被删除并添加新记录。 (批量工作)。

我无法控制这个过程。在事务删除/重新加载表上的查询时,基本上锁定/挂起直到作业完成。这项工作大约需要一分钟才能完成。我们有实时用户查看此数据(具有时间滑块的地图上的空间数据)。他们很容易识别丢失的记录。

在更新期间,是否有任何关于这60个左右的第二次查询时间可以做的事情。我已经考虑过加载到第二个表中,删除原始文件并将第二个重命名为原始文件,但这会带来更多的错误机会。是否有任何设置只能按原样获取数据,而不一定要查找数据的一致视图 基本上只是寻找如何处理这种情况的想法。 我正在运行postgresql 9.3.1 谢谢

0 个答案:

没有答案