我正在使用Python来逐行保存数据......但这非常慢!
CSV包含 7000万行,而我的脚本我可以每秒存储1千行。
这是我的脚本的样子
reader = csv.reader(open('test_results.csv', 'r'))
for row in reader:
TestResult(type=row[0], name=row[1], result=row[2]).save()
我认为对于测试我可能不得不考虑MySQL或PostgreSQL。
有任何想法或提示吗?这是我第一次处理如此庞大的数据量。 :)
答案 0 :(得分:4)
对于MySQL导入:
mysqlimport [options] db_name textfile1 [textfile2 ...]
对于SQLite3导入:
答案 1 :(得分:3)
我不知道这是否会产生足够大的差异,但由于你正在处理Django ORM,我可以提出以下建议:
如果您发现自己使用客户端 - 服务器DBMS,这些建议可能会产生更大的差异。