我有一个预处理数据的算法。它适用于 *.arff 格式。arff 填充。我有一个类属性,其中有 arff 文件的结构。在一个字符串中,我记录了属性的名称、它可以采用的值以及它们的出现。用数值记录最小最大平均值和标准偏差。对于小文件,它工作得很好,但对于大文件,它非常非常慢。该文件可以超过 10 GB。
我尝试了很多选项 - MemoryMapped Filles、BufferedStream。我认为问题在于长时间的预处理,但我不知道如何让它更快。我尝试了线程,但我不知道如何。
private void readDataArff()
{
string line = "";
using (StreamReader file = new StreamReader(openFileDialog1.FileName))
{
string[] data;
while ((line = file.ReadLine()) != null)
{
if ((line.Contains('%')) || (line.Contains('@')) || (line.Contains("") && (!line.Contains(','))))
continue; //skip header
data = line.Split(',');
for (int j = 0; j < attrList.Count; j++)//
{
attrList[j].FilePath = openFileDialog1.FileName;
attrList[j].Index = j;
if (attrList[j].Type1 == "STRING")
{
foreach (var item in attrList[j].Values)
{
if (item.Name == data[j])
{
item.Count += 1;
break;
}
}
}
else if ((attrList[j].Type1 == "REAL" && (line != "") && (!line.Contains('@'))) ||
(attrList[j].Type1 == "REAL" && (line != "") && (!line.Contains('@'))))
{
if ((data[j] == "?") || (data[j] == "") || (data[j] == " "))
continue;
attrList[j].Count += 1;
attrList[j].Sum = double.Parse(data[j]) + attrList[j].Sum;
double tmp = double.Parse(data[j]);
if (attrList[j].Max < tmp)
attrList[j].Max = tmp;
if (attrList[j].Min > tmp)
attrList[j].Min = tmp;
}
}
}
}