使用查询将TB级大小的json或csv文件加载到mySql的最快方法?

时间:2018-08-26 18:57:58

标签: mysql csv import

我有一个TB级的json数据,有近200+百万行。我想通过尽可能的并行化以最快的方式将此数据加载到mysql中。我试图通过将json转换为csv文件来尝试加载DATA LOCAL INFILE。 ..但是它也要花费很多时间...还有更好的选择吗?

0 个答案:

没有答案