我想重新考虑我们的生产数据库解决方案。我们使用straigth forward和oldschool方法,使用单个Max DB数据库。
我们不会存储大量数据。最大的数据库大约是100GB。表行数约为4-6百万行。
到目前为止,这没什么特别的。问题从创建数据的那一刻开始。
我们有很多用户'在这些情况下,硬件模块会定期将数据发送到服务器,然后处理并存储在各种表中。
我们目前有不同的场景,其中模块在一天的特定时间发送其数据,其中例如必须一次处理例如5000-10000个模块的数据。这花了很多时间。还有一个模块不断发送数据的地方,这里我们每秒都有大量的查询信息。
PostgreSQL适合这种治疗吗?
Postgres是否提供任何功能来平衡此负载可能是几个数据节点,还是我必须使用Postgres-XL用于此类用例?
我们假设我们面临越来越多的模块将数据发送到我们的数据库。因此,我们需要一种解决方案来减少每个数据块写入数据库所需的时间。
例如,我们目前需要45分钟来同时处理近3500个模块的数据。这是不可接受的。
PostgreSQL是否适合进行我的研究?