MySQL:用于导入巨大文件的BigDump的替代品

时间:2017-05-02 16:17:30

标签: mysql

我正在尝试将40GB的.sql文件导入到新的MySQL数据库中。 BigDump还有其他选择吗?大约30分钟后,连接在BigDump上超时。理想情况下,我可以找到一种具有某种进度条的解决方案。

谢谢!

1 个答案:

答案 0 :(得分:1)

1)将1个文件拆分为N行(通常我建议100,000),这将创建(文件/ N中的总行数)文件。

2)创建一个没有索引的新表。

3)运行for循环bash脚本,在自己的事务中单独加载每个文件。

4)必要时添加索引

5)删除/重命名您要替换的现有表,并将新表重命名为生产(如有必要)。

此选项有很多原因,即它可以帮助快速找到问题(例如意外跳过的行),快速了解负载的有效性,并加载负载以避免大量单个交易,从而失败。

我从未使用BigDump,但我猜测它会做类似的事情。

类似的问与答:Copying 3B rows in SQL Table?