我正在使用C#并将数据写入csv文件(供进一步使用)。然而,我的文件已经发展成大规模,我必须转置它们。什么是最简单的方法。在任何程序?
吉尔
答案 0 :(得分:2)
按复杂程度递增的顺序(以及处理大文件的能力增加顺序):
List<Int64>
。然后迭代所有行,每行:寻找保存的位置,将一个单元格复制到输出,保存新位置。重复直到用完列(所有行都到达换行符)。
最终评论:您可以通过使用C ++(或任何具有适当指针支持的语言),内存映射文件和指针而不是文件偏移来挤出更多性能。
答案 1 :(得分:0)
这取决于。你是从数据库中得到这些吗?您可以使用MySql import语句。 http://dev.mysql.com/doc/refman/5.1/en/load-data.html
或者你可以使用can循环数据使用streamwriter对象将其添加到文件流中。
StreamWriter sw = new StreamWriter('pathtofile');
foreach(String[] value in lstValueList){
String something = value[1] + "," + value[2];
sw.WriteLine(something);
}
答案 2 :(得分:0)
我在python中写了一个小概念验证脚本。我承认它有问题,可能会有一些性能改进,但它会做到这一点。我针对40x40文件运行它并获得了预期的结果。我开始针对更像你的示例数据集运行它,我花了太长时间等待。
path = mkdtemp()
try :
with open('/home/user/big-csv', 'rb') as instream:
reader = csv.reader(instream)
for i, row in enumerate(reader):
for j, field in enumerate(row):
with open(join(path, 'new row {0:0>2}'.format(j)), 'ab') as new_row_stream:
contents = [ '{0},'.format(field) ]
new_row_stream.writelines(contents)
print 'read row {0:0>2}'.format(i)
with open('/home/user/transpose-csv', 'wb') as outstream:
files = glob(join(path, '*'))
files.sort()
for filename in files:
with open(filename, 'rb') as row_file:
contents = row_file.readlines()
outstream.writelines(contents + [ '\n' ])
finally:
print "done"
rmtree(path)