在.NET中处理大型csv的最有效方法

时间:2013-01-15 16:47:10

标签: c# .net vb.net search csv

原谅我的愚蠢,但我只是需要一些指导,我找不到另一个问题来回答这个问题。我有一个相当大的csv文件(约300k行),我需要确定给定的输入,csv中的任何行是否以该输入开头。我按字母顺序对csv进行了排序,但我不知道:

1)如何处理csv中的行 - 我应该将其作为列表/集合读取,还是使用OLEDB,嵌入式数据库或其他东西?

2)如何从字母顺序列表中有效地找到某些东西(使用它进行排序以加快速度的事实,而不是搜索整个列表)

10 个答案:

答案 0 :(得分:9)

你没有提供足够的细节来给你一个具体的答案,但......


如果CSV文件经常更改,则使用OLEDB并根据您的输入更改SQL查询。

string sql = @"SELECT * FROM [" + fileName + "] WHERE Column1 LIKE 'blah%'";
using(OleDbConnection connection = new OleDbConnection(
          @"Provider=Microsoft.Jet.OLEDB.4.0;Data Source=" + fileDirectoryPath + 
          ";Extended Properties=\"Text;HDR=" + hasHeaderRow + "\""))

如果CSV文件没有经常更改并且您对它运行了很多“查询”,请将其加载到内存中并每次快速搜索。

如果您希望搜索与列完全匹配,请使用字典,其中键是您要匹配的列,值是行数据。

Dictionary<long, string> Rows = new Dictionar<long, string>();
...
if(Rows.ContainsKey(search)) ...

如果你想让你的搜索成为像StartsWith这样的部分匹配,那么就有1个数组包含你的可搜索数据(即:第一列)和另一个包含行数据的列表或数组。然后使用C#内置的二进制搜索http://msdn.microsoft.com/en-us/library/2cy9f6wb.aspx

string[] SortedSearchables = new string[];
List<string> SortedRows = new List<string>();
...
string result = null;
int foundIdx = Array.BinarySearch<string>(SortedSearchables, searchTerm);
if(foundIdx < 0) {
    foundIdx = ~foundIdx;
    if(foundIdx < SortedRows.Count && SortedSearchables[foundIdx].StartsWith(searchTerm)) {
        result = SortedRows[foundIdx];
    }
} else {
    result = SortedRows[foundIdx];
}

注意代码是在浏览器窗口中编写的,可能包含语法错误,因为它未经过测试。

答案 1 :(得分:5)

如果您每次运行程序只执行一次,这似乎相当快。 (根据以下评论更新为使用StreamReader而不是FileStream)

    static string FindRecordBinary(string search, string fileName)
    {
        using (StreamReader fs = new StreamReader(fileName))
        {
            long min = 0; // TODO: What about header row?
            long max = fs.BaseStream.Length;
            while (min <= max)
            {
                long mid = (min + max) / 2;
                fs.BaseStream.Position = mid;

                fs.DiscardBufferedData();
                if (mid != 0) fs.ReadLine();
                string line = fs.ReadLine();
                if (line == null) { min = mid+1; continue; }

                int compareResult;
                if (line.Length > search.Length)
                    compareResult = String.Compare(
                        line, 0, search, 0, search.Length, false );
                else
                    compareResult = String.Compare(line, search);

                if (0 == compareResult) return line;
                else if (compareResult > 0) max = mid-1;
                else min = mid+1;
            }
        }
        return null;
    }

对于600,000记录测试文件(50 megs),这在0.007秒内运行。相比之下,文件扫描平均超过半秒,具体取决于记录的位置。 (100倍的差异)

显然,如果你不止一次这样做,缓存就会加快速度。一种简单的部分缓存方法是保持StreamReader打开并重新使用它,每次只重置min和max。这样可以节省你在内存中存储50兆的时间。

编辑:添加了knaki02的建议修复程序。

答案 2 :(得分:4)

如果您可以将数据缓存在内存中,并且只需要在一个主键列上搜索列表,我建议将数据作为Dictionary对象存储在内存中。 Dictionary类将数据作为键/值对存储在哈希表中。您可以使用主键列作为字典中的键,然后使用其余列作为字典中的值。在哈希表中按键查找项目通常非常快。

例如,您可以将数据加载到字典中,如下所示:

Dictionary<string, string[]> data = new Dictionary<string, string[]>();
using (TextFieldParser parser = new TextFieldParser("C:\test.csv"))
{
    parser.TextFieldType = FieldType.Delimited;
    parser.SetDelimiters(",");
    while (!parser.EndOfData)
    {
        try
        {
            string[] fields = parser.ReadFields();
            data[fields[0]] = fields;
        }
        catch (MalformedLineException ex)
        {
            // ...
        }
    }
}

然后你可以得到任何项目的数据,如:

string fields[] = data["key I'm looking for"];

答案 3 :(得分:3)

鉴于CSV已排序 - 如果您可以将整个内容加载到内存中(如果您需要执行的唯一处理是每行上的.StartsWith()) - 您可以使用Binary search进行异常处理快速搜索。

也许是这样的(没有测试!):

var csv = File.ReadAllLines(@"c:\file.csv").ToList();
var exists = csv.BinarySearch("StringToFind", new StartsWithComparer());

...

public class StartsWithComparer: IComparer<string>
{
    public int Compare(string x, string y)
    {
        if(x.StartsWith(y))
            return 0;
        else
            return x.CompareTo(y);
    }
}

答案 4 :(得分:1)

如果您的文件在内存中(例如,因为您进行了排序)并将其保存为字符串(行)数组,那么您可以使用简单的二分搜索方法。您可以从CodeReview上的此问题的代码开始,只需将比较器更改为使用string而不是int,并仅检查每行的开头。

如果您每次都必须重新阅读该文件,因为它可能会被更改或者被其他程序保存/排序,那么最简单的算法就是最好的算法:

using (var stream = File.OpenText(path))
{
    // Replace this with you comparison, CSV splitting
    if (stream.ReadLine().StartsWith("..."))
    {
        // The file contains the line with required input
    }
}

当然你每次读取内存中的整个文件(使用LINQ或List<T>.BinarySearch()),但这远非最佳(你&#39 ;即使您可能需要检查几行,也会读取所有内容),文件本身甚至可能太大。

如果您真的需要更多内容而且由于排序而没有将文件存储在内存中(但您应该配置文件您的实际效果与您的要求相比)实现更好的搜索算法,例如Boyer-Moore algorithm

答案 5 :(得分:1)

OP表示真的只需要基于线路进行搜索。

然后问题就是将这些行留在记忆中。

如果1 k行然后是300 mb的内存 如果一行是1 meg,那么300 gb的内存。

Stream.Readline将具有较低的内存配置文件
由于它已经过排序,因此一旦大于,就可以停止查看。

如果你把它放在内存中,那就简单了

List<String> 

LINQ会起作用。
LINQ不够智能,无法利用排序,但300K仍然会很快。

BinarySearch将利用排序。

答案 6 :(得分:1)

我快速写了这篇文章,可以改进......

定义列号:

private enum CsvCols
{
    PupilReference = 0,
    PupilName = 1,
    PupilSurname = 2,
    PupilHouse = 3,
    PupilYear = 4,
}

定义模型

public class ImportModel
{
    public string PupilReference { get; set; }
    public string PupilName { get; set; }
    public string PupilSurname { get; set; }
    public string PupilHouse { get; set; }
    public string PupilYear { get; set; }
}

导入并填充模型列表:

  var rows = File.ReadLines(csvfilePath).Select(p => p.Split(',')).Skip(1).ToArray();

    var pupils = rows.Select(x => new ImportModel
    {
        PupilReference = x[(int) CsvCols.PupilReference],
        PupilName = x[(int) CsvCols.PupilName],
        PupilSurname = x[(int) CsvCols.PupilSurname],
        PupilHouse = x[(int) CsvCols.PupilHouse],
        PupilYear = x[(int) CsvCols.PupilYear],

    }).ToList();

返回强类型对象列表

答案 7 :(得分:0)

尝试免费CSV Reader。无需一遍又一遍地发明轮子;)

1)如果您不需要存储结果,只需迭代CSV - 处理每一行并忘记它。如果您需要反复处理所有行,请将它们存储在列表或词典中(当然还有一个好的键)

2)尝试像这样的通用扩展方法

var list = new List<string>() { "a", "b", "c" };
string oneA = list.FirstOrDefault(entry => !string.IsNullOrEmpty(entry) && entry.ToLowerInvariant().StartsWidth("a"));
IEnumerable<string> allAs = list.Where(entry => !string.IsNullOrEmpty(entry) && entry.ToLowerInvariant().StartsWidth("a"));

答案 8 :(得分:0)

这是我的VB.net代码。它适用于报价合格的CSV,因此对于常规CSV,请将Let n = P.Split(New Char() {""","""})更改为Let n = P.Split(New Char() {","})

Dim path as String = "C:\linqpad\Patient.txt"
Dim pat = System.IO.File.ReadAllLines(path)
Dim Patz = From P in pat _
    Let n = P.Split(New Char() {""","""}) _
    Order by n(5) _
    Select New With {
        .Doc =n(1), _
        .Loc = n(3), _
        .Chart = n(5), _
        .PatientID= n(31), _
        .Title = n(13), _
        .FirstName = n(9), _
        .MiddleName = n(11), _
        .LastName = n(7), 
        .StatusID = n(41) _
        }
Patz.dump

答案 9 :(得分:0)

通常我会建议找一个专用的CSV解析器(如thisthis)。但是,我在你的问题中注意到这一行:

  

我需要确定给定的输入,csv中的任何一行是否都以该输入开头。

这告诉我在确定之前花费解析CSV数据的计算机时间是浪费时间。你只需要代码来简单地匹配文本的文本,你可以通过字符串比较来做到这一点,就像其他任何东西一样容易。

此外,您提到数据已排序。这应该可以让你加速极大地 ......但你需要知道,要利用这一点,你需要编写自己的代码来对低级文件流进行搜索调用。这将是到目前为止您的最佳效果,但它到目前为止需要最初的工作和维护。

我推荐一种基于工程的方法,您可以在其中设置性能目标,构建相对简单的方法,并根据该目标衡量结果。特别是,从上面发布的第二个链接开始。 CSV读取器一次只能将一条记录加载到内存中,因此它应该运行得相当好,并且很容易上手。构建使用该阅读器的东西,并测量结果。 如果他们达到目标,那就停在那里。

如果它们不符合您的目标,请调整链接中的代码,以便在读取每一行时首先进行字符串比较(在打扰解析csv数据之前),并且只进行解析csv的工作匹配的行。这应该会更好,但只有在第一个选项不符合您的目标时才能完成工作。准备就绪后,再次测量性能。

最后,如果您仍然无法达到性能目标,我们就会编写低级代码,使用搜索调用对您的文件流进行二进制搜索。这可能是你能做到的最好的,性能方面的,但它会非常混乱且容易出错的代码,所以如果你绝对不能通过前面的步骤实现目标,你只想去这里

请记住,性能是一项功能,就像您需要评估相对于实际设计目标的该功能构建方式所需的任何其他功能一样。 “尽快”不是一个合理的设计目标。像“在0.25秒内响应用户搜索”之类的东西是一个真正的设计目标,如果更简单但更慢的代码仍然符合该目标,那么你需要停在那里。