我逐行读取文件,并使用实体框架将此数据插入到DB中。阅读速度很慢。该文件几乎有6百万行,我需要增加读取文件的性能。它是这个文件中的单词词典,我需要在数据库表中插入这些单词。以下是该文件的几行。
390201
ТАТАМИ NOUN,inan,neut,Fixd sing,nomn
ТАТАМИ NOUN,inan,neut,Fixd sing,gent
ТАТАМИ NOUN,inan,neut,Fixd sing,datv
ТАТАМИ NOUN,inan,neut,Fixd sing,accs
ТАТАМИ NOUN,inan,neut,Fixd sing,ablt
ТАsing,gent
ОРИГАМИ NOUN,inan,neut,Fixd ТАМИ NOUN,inan,neut,Fixd sing,loct
ТАТАМИ NOUN,inan,neut,Fixd plur,nomn
ТАТАМИ NOUN,inan,neut,Fixd plur,gent
ТАТАМИ NOUN,inan,neut,Fixd plur,datv
ТАТАМИ NOUN,inan,neut,Fixd plur,accs
ТАТАМИ NOUN,inan,neut,Fixd plur,ablt
ТАТАМИ NOUN,inan,neut,Fixd plur,loct
390202
ОРИГАМИ NOUN,inan,neut,Fixd sing,nomn
ОРИГАМИ NOUN,inan,neut,Fixd sing,datv
ОРИГАМИ NOUN,inan,neut,Fixd sing,accs
ОРИГАМИ NOUN,inan,neut,Fixd sing,ablt
ОРИГАМИ NOUN,inan,neut,Fixd sing,loct
ОРИГАМИ NOUN,inan,neut,Fixd plur,nomn
ОРИГАМИ NOUN,inan,neut,Fixd plur,gent
ОРИГАМИ NOUN,inan,neut,Fixd plur,datv
ОРИГАМИ NOUN,inan,neut,Fixd plur,accs
我解析该文件的代码如下:
public static void parseFileFromToSegment(int beginId, int endId)
{
using (var db = new Context())
{
string theWordFromFile;
string wordData;
int wordIdFromFile = 1;
int tempWordId;
IEnumerable<string> allFileLines = File.ReadLines(fileName);
allFileLines = allFileLines.SkipWhile(n => n != beginId.ToString());
foreach (string line in allFileLines)
{
if (string.IsNullOrEmpty(line))
continue;
if (!string.IsNullOrEmpty(line) && Int32.TryParse(line, out tempWordId))
{
if (tempWordId < beginId)
{
continue;
}
if (tempWordId > endId)
break;
wordIdFromFile = tempWordId;
if (wordIdFromFile % 100 == 0)
Console.WriteLine("Current id - " + wordIdFromFile);
continue;
}
theWordFromFile = line.Substring(0, line.IndexOf('\t'));
wordData = line.Substring(line.IndexOf('\t')).Trim();
TheWord theWord = new TheWord { WordFormId = wordIdFromFile, word = theWordFromFile, word_form_data = wordData };
db.TheWords.Add(theWord);
}
db.SaveChanges();
Console.WriteLine("saved");
}
}
因此阅读速度非常慢。我该怎么做才能提高性能?谢谢
答案 0 :(得分:3)
文件读取速度不慢。它是数据库插入。
您可以使用带有DataAdapter
的纯ADO.NET来插入行(using batching)或SQLBulkCopy
类(example)。
答案 1 :(得分:3)
阅读所有评论,似乎你每隔20.000“ids”调用parseFileFromToSegment
,这可能(根据你的示例文本)每个id都有很多行。
所以你打电话给你的parseFileFromToSegment
并这样做:
IEnumerable<string> allFileLines = File.ReadLines(fileName);
allFileLines = allFileLines.SkipWhile(n => n != beginId.ToString());
每次调用:从一开始就读取,每次调用时都可能有数百万条已读取的行。
尝试只调用一次该调用并查看它是否更快,如果您想批量保存每个'n'个记录,那么这样做,不要每次迭代打开并读取[可能]整个文件'n'