我有一个需要导入的巨大mysql转储,我设法通过表插入拆分3gig文件,其中一个表插入是600MB,我想将其拆分为100 MB文件。所以我的问题是:是否有一个脚本或简单的方法将600MB INSERT语句拆分成多个100MB插入而无需打开文件(因为这会杀死我的电脑)。
我尝试过SQLDumpSplitter,但这没有帮助。
这就是我不能只运行600MB文件的原因:
MYSQL import response 'killed'
请帮忙
答案 0 :(得分:2)
在Linux上,分割文件的最简单方法是split -l N
- 每行分成N
行。
在Windows上,我对HxD运气很好 - 它适用于大文件。
答案 1 :(得分:1)
您可以在Textpad软件上轻松打开1GB的文件。使用此软件打开文件并根据需要拆分查询。
下载TextPad软件的链接TextPad