0

我有非常大的 JSON 文件用于解析和管理。我的 JSON 文件包含这样的结构

[
{"id": "11040548","key1":"keyValue1","key2":"keyValue2","key3":"keyValue3","key4":"keyValue4","key5":"keyValue5","key6":"keyValue6","key7":"keyValue7","key8":"keyValue8","key9":"keyValue9","key10":"keyValue10","key11":"keyValue11","key12":"keyValue12","key13":"keyValue13","key14":"keyValue14","key15":"keyValue15"
},
{"id": "11040549","key1":"keyValue1","key2":"keyValue2","key3":"keyValue3","key4":"keyValue4","key5":"keyValue5","key6":"keyValue6","key7":"keyValue7","key8":"keyValue8","key9":"keyValue9","key10":"keyValue10","key11":"keyValue11","key12":"keyValue12","key13":"keyValue13","key14":"keyValue14","key15":"keyValue15"
},
....
{"id": "11040548","key1":"keyValue1","key2":"keyValue2","key3":"keyValue3","key4":"keyValue4","key5":"keyValue5","key6":"keyValue6","key7":"keyValue7","key8":"keyValue8","key9":"keyValue9","key10":"keyValue10","key11":"keyValue11","key12":"keyValue12","key13":"keyValue13","key14":"keyValue14","key15":"keyValue15"
}
]

我的 JSON 文件包含来自新闻网站的主题数据,几乎每天这个 JSON 文件都会急剧增加。

为了解析我使用的那个文件

URL urlLinkSource = new URL(OUTBOX_URL);
urlLinkSourceReader = new BufferedReader(new InputStreamReader(
                        urlLinkSource.openStream(), "UTF-8"));
ObjectMapper mapper = new ObjectMapper();
List<DataContainerList> DataContainerListData = mapper.readValue(urlLinkSourceReader,new TypeReference<List<DataContainerList>>() { }); //DataContainerList contains id, key1, key2, key3..key15

我的问题是我想在这一行加载

List<DataContainerList> DataContainerListData = mapper.readValue(urlLinkSourceReader,new TypeReference<List<DataContainerList>>() { }); 

只有 JSON 对象的范围 - 只是前十个对象,只是后十个对象 - 因为我需要在分页模式下在我的应用程序中显示 10 条新闻(一直我知道我需要显示的 10 条的索引)。加载 10 000 个对象并仅迭代其中的前 10 个对象,这完全是愚蠢的。所以我的问题是如何以类似的方式加载:

List<DataContainerList> DataContainerListData = mapper.readValue(urlLinkSourceReader,new TypeReference<List<DataContainerList>>() { }); 

仅具有索引 FROM -TO 的对象(例如从 30 到 40)而不加载整个 JSON 文件中的所有对象?

问候

4

1 回答 1

1

如果你想的话,这取决于你所说的“使用索引加载对象”的意思

读取所有内容,但只绑定一个子列表 这种情况下的解决方案是读取完整的流并仅绑定这些索引中的值。您可以使用 jacksons 流 api 并自己做。解析流使用计数器来跟踪实际索引,然后仅绑定到您需要的 POJO。但是,如果您的文件很大并且是实时完成的,这不是一个好的解决方案。

只读那些索引之间的数据

如果您的文件很大并且性能很重要,您应该这样做。与其拥有一个大文件,不如通过将您的 json 数组拆分为与您的范围匹配的多个文件来进行分页,然后将特定文件内容反序列化到您的数组中。

希望这可以帮助...

于 2013-03-06T17:21:31.323 回答