我正在尝试将40GB的.sql文件导入到新的MySQL数据库中。 BigDump还有其他选择吗?大约30分钟后,连接在BigDump上超时。理想情况下,我可以找到一种具有某种进度条的解决方案。
谢谢!
答案 0 :(得分:1)
1)将1个文件拆分为N行(通常我建议100,000),这将创建(文件/ N中的总行数)文件。
2)创建一个没有索引的新表。
3)运行for循环bash脚本,在自己的事务中单独加载每个文件。
4)必要时添加索引
5)删除/重命名您要替换的现有表,并将新表重命名为生产(如有必要)。
此选项有很多原因,即它可以帮助快速找到问题(例如意外跳过的行),快速了解负载的有效性,并加载负载以避免大量单个交易,从而失败。
我从未使用BigDump,但我猜测它会做类似的事情。