0

所以我一直在为一个项目编写一段旧代码。我已经设法针对 64 位使用对其进行了优化。但是只有1个问题。使用 XmlSerializer.Deserialize 时它会中断,因为输入文本/反序列化数据太大。(溢出/超过 2gb int 限制)。

我试图找到解决方法,但没有任何答案有帮助。

这是有问题的代码。

if (File.Exists(dir + "/" + fileName))
{
    string XmlString = File.ReadAllText(dir + "/" + fileName, Encoding.UTF8);
    BXML_LIST deserialized;
    using (MemoryStream input = new MemoryStream(Encoding.UTF8.GetBytes(XmlString)))
    {
        using (XmlTextReader xmlTextReader = new XmlTextReader(input))
        {
            xmlTextReader.Normalization = false;
            XmlSerializer xmlSerializer = new XmlSerializer(typeof(BXML_LIST));
            deserialized = (BXML_LIST)xmlSerializer.Deserialize(xmlTextReader);
        }
    }
    xml_list.Add(deserialized);
}

在这里提出了许多问题之后,我认为我可以使用一种方法来“拆分”xml文件(同时保持相同类型的BXML_LIST)然后反序列化它并完成:将它组合以匹配它的原始内容以避免出现溢出错误时反序列化整个文件。

问题是,我不知道如何实现这一点。任何帮助或指导都会很棒!

// 编辑 1:

我从另一个站点找到了一段代码,不知道它是否是组合拆分的 xml 文件的可靠方法:

var xml1 = XDocument.Load("file1.xml");
var xml2 = XDocument.Load("file2.xml");
//Combine and remove duplicates
var combinedUnique = xml1.Descendants("AllNodes")
                          .Union(xml2.Descendants("AllNodes"));
//Combine and keep duplicates
var combinedWithDups = xml1.Descendants("AllNodes")
                           .Concat(xml2.Descendants("AllNodes"));
4

1 回答 1

1

你的代码让我毛骨悚然,你在用完内存方面效率很低。

string XmlString = File.ReadAllText- 在这里您第一次将整个文件加载到内存中。

Encoding.UTF8.GetBytes(XmlString)- 在这里,您第二次为相同的数据花费内存。

new MemoryStream(...)- 在这里,您第三次为相同的数据花费内存。

xmlSerializer.Deserialize- 这里,内存再次用于反序列化数据。但是没有办法摆脱它。


像这样写

using (XmlReader xmlReader = XmlReader.Create(dir + "/" + fileName))
{
    XmlSerializer xmlSerializer = new XmlSerializer(typeof(BXML_LIST));
    deserialized = (BXML_LIST)xmlSerializer.Deserialize(xmlReader);
}

在这种情况下,将使用流中的部分xmlSerializer从文件中读取数据。xmlReader

也许,这可能足以解决您的问题。

于 2020-12-13T04:33:52.337 回答