大型CSV文件导入phpmyadmin-再次-其他答案不起作用

时间:2019-02-21 06:46:16

标签: import phpmyadmin

好吧,我尝试了几件事,但似乎没有任何效果。我已将最大文件大小设置为750M,并在php.ini中添加了执行时间。我已经将自动提交设置为0。并且我已经使用了:

  

LOAD DATA INFILE'YOUR_FILE_COMPLETE_PATH'到表tbl_name
  以','封闭的字段,以'\ r \ n'终止的行

它没有用。我得到:

  

已插入0行。 (查询花费了0.0002秒。)

当我在phpmyadmin中使用导入表单时,它会超时(即使在php.ini中将其设置为5000),并且一次只能添加约3,000行(不适用于具有273,000行的文件。

有什么建议吗?

1 个答案:

答案 0 :(得分:0)

由于内存和带宽不足,使用phpMyAdmin进行导入时会遇到问题,如果您尝试增加PHP配置信息,也许可以导入数据,但将面临中断。我可以建议3种选择:

1)使用BigDump,它是此类作业的库。

2)将数据转换为.sql并使用Mysql dump导入:

mysql -u username -p database_name < file.sql

3)您也可以使用mysqlimport导入CSV:

mysqlimport --ignore-lines=1 \
            --fields-terminated-by=, \
            --local -u root \
            -p Database \
             TableName.csv