我在MySQL官方论坛上问过这个问题,但没有运气,所以我会在这里试试。
原帖: http://forums.mysql.com/read.php?28,498593,498593#msg-498593
我正在尝试创建一个维基百科副本,我差不多完成了,但是最大的文件存在问题。
维基百科提供数据库转储供下载,因此每个人都可以创建维基百科的副本。
您可以在此处找到示例文件: http://dumps.wikimedia.org/enwiki/20091103/
我已经导入了几乎所有这些但是我遇到了最大的一个(pagelinks)。我导入它将近五天,然后我不得不停止导入。我认为由于我的MySQL服务器的设置,导入很慢,但我不知道应该改变什么。我在一台机器上使用标准的Ubuntu MySQL配置,具有不错的处理器和4 GB的RAM。有人可以帮助我为我的系统配置合适的配置吗?我尝试从网络上为大型服务器进行相同的配置,但结果是我的服务器由于套接字错误而无法启动,我不得不从头开始...
如果可以的话,请查看一些转储,因为我认为问题与它们的构建方式有关,因为一些较小的文件需要很长时间才导入,而一些较大的文件是在几个文件中导入的分钟。
答案 0 :(得分:0)
这是一个针对非常快速导入非常大的mysql数据库的项目:https://github.com/homer6/import-geoip-data。好。 300 MB不是那么大但它仍然很有趣。通常要导入一个.sql文件,我写的是:
mysql -p -h DBSERVER dbname [tablename] < dbfile.sql
也许您可以将大文件拆分成更小的表格?