我正在使用 C# 并将我的数据写入 csv 文件(以供进一步使用)。但是,我的文件已经变得很大,我必须转置它们。最简单的方法是什么。在任何程序中?
吉尔
按照复杂性的增加顺序(以及处理大文件的能力顺序增加):
List<Int64>
. 然后遍历所有行,对于每一行:寻找保存的位置,将一个单元格复制到输出,保存新位置。重复直到用完列(所有行都到达换行符)。
Final comment: You might squeeze out more performance by using C++ (or any language with proper pointer support), memory-mapped files, and pointers instead of file offsets.
这真的取决于。你是从数据库中得到这些吗?您可以使用 MySql 导入语句。 http://dev.mysql.com/doc/refman/5.1/en/load-data.html
或者,您可以使用可以循环遍历数据,使用 streamwriter 对象将其添加到文件流中。
StreamWriter sw = new StreamWriter('pathtofile');
foreach(String[] value in lstValueList){
String something = value[1] + "," + value[2];
sw.WriteLine(something);
}
我在这里用 python 写了一个小的概念验证脚本。我承认它有问题,并且可能需要进行一些性能改进,但它会做到的。我对一个 40x40 的文件运行它并得到了想要的结果。我开始针对更像您的示例数据集的东西运行它,我等待的时间太长了。
path = mkdtemp()
try :
with open('/home/user/big-csv', 'rb') as instream:
reader = csv.reader(instream)
for i, row in enumerate(reader):
for j, field in enumerate(row):
with open(join(path, 'new row {0:0>2}'.format(j)), 'ab') as new_row_stream:
contents = [ '{0},'.format(field) ]
new_row_stream.writelines(contents)
print 'read row {0:0>2}'.format(i)
with open('/home/user/transpose-csv', 'wb') as outstream:
files = glob(join(path, '*'))
files.sort()
for filename in files:
with open(filename, 'rb') as row_file:
contents = row_file.readlines()
outstream.writelines(contents + [ '\n' ])
finally:
print "done"
rmtree(path)