一次处理更多插入的想法

时间:2016-04-29 06:55:19

标签: php mysql mongodb architecture redis

我正在使用 PHP MySql 进行预订网站,其中我将获得大量插入单个插入的数据。意味着如果我一次得到1000个预订,我会很慢。那么我想将这些数据转储到 MongoDb 并运行任务以保存在 MySql 中。我也可以使用 Redis 来缓存大多数查看过的数据。

现在我直接插入db。

请建议任何人对此有任何想法/建议。

1 个答案:

答案 0 :(得分:2)

在纯插入术语中,真的很难超越MySQL ......它是那里最快的纯追加引擎之一(它一直刷到磁盘上)。

1000行是MySQL插入性能中没有的。如果你完全落后,减少二级索引的数量。

这是一个非常有用的基准:https://www.percona.com/blog/2012/05/16/benchmarking-single-row-insert-performance-on-amazon-ec2/,每秒显示10,000-25,000个插入单个插入。

这是另一个比较MySQL和MongoDB:DB with best inserts/sec performance?