从.csv的MySQL数据导入在9000条记录处停止?

时间:2018-11-24 17:11:00

标签: mysql excel database csv mysql-workbench

我有一个奇怪的问题。 我的MySQL表导入向导在9000条记录(总共45000条记录)处停止了.csv文件的导入。 我已经用notepad ++打开.csv,以查看文件中是否有任何隐藏的字符,以便取消导入,但是什么也没有。 Stops the import at the marked line Here is a picture of the table import wizard

您是否知道导入.csv是否有任何限制? 或者还有什么可能导致这种情况发生?

2 个答案:

答案 0 :(得分:-1)

文件的编码是什么? (utf8 / cp866等),然后检查文件换行符。 如果我是你,我将尝试从控制台导入。

赞:

 LOAD DATA LOCAL INFILE  
'c:/temp/some-file.csv'
INTO TABLE your_awesome_table  
FIELDS TERMINATED BY ',' 
ENCLOSED BY '"'
LINES TERMINATED BY '\n'
IGNORE 1 ROWS
(field_1,field_2 , field_3);

答案 1 :(得分:-1)

可能的问题:

  1. 也许问题是需要RAM空间,因为前8999行运行良好,对吗?但是有时候程序会停止。

  2. 也许第9000行的csv文件的字符或值不正确,程序无法解释它。

  3. csv文件可能已损坏。