我们有一个包含450,000行和90列的表格。 当我们从表中执行一个简单的Select *时,我们会遇到GC Overhead问题并且该过程失败。
表格大小为140 - 160 MB
SELECT pg_size_pretty(pg_total_relation_size('mytable'));
我们有一个字段的索引,但我们的查询中没有WHERE子句,所以我不确定这是否有帮助。
我们正在尝试查询10K记录的批量大小。它失败了。奇怪的是,如果我们将批量大小从10K减少到10(是10),它仍会产生相同的GC开销误差。
以下是Postgresql端的配置(我们使用的是AWS RDS)
temp_buffer = 8MB
shared_buffers = 32768 (recommended size is 393216 (25% of our maximum memory which is 1.5TB))
work_mem = 4MB (default engine)
effective_cache_size = 16384 (where as the default seems to be 4GB according to documentation)*
我可以在数据库表级别进行哪种优化来实现此功能?