在尝试使用 mongoDB 并发现它不适用于大于 16 mega 的文档之后。
我需要找到加载大型复杂 json 文件的方法(我猜是内存)。
并通过(我猜)像 jsoniq 这样的查询处理器将其转换为我的需要,但我对其他解决方案持开放态度。
这里的关键是我没有改变主 json 的内容。而且我不在乎使用哪种编程语言
,
但我只想找到正确快速地完成它的方法。
问问题
225 次
2 回答
1
我认为杰克逊图书馆可以帮助你。其官方网站声明了以下功能:
杰克逊是:
1) 流式传输(读、写)
2) FAST(比任何其他 Java json 解析器和数据绑定器都要快)
3) 功能强大(通用 JDK 类以及任何 Java bean 类、Collection、Map 或 Enum 的完整数据绑定)
4)零依赖(不依赖JDK以外的其他包)
5)开源(LGPL或AL)
6) 完全符合
7) 极其可配置
用 Java 编写的 JSON 处理器(JSON 解析器 + JSON 生成器)。除了基本的 JSON 读/写(解析、生成)之外,它还提供了完整的基于节点的树模型,以及完整的 OJM(Object/Json Mapper)数据绑定功能。
于 2013-01-02T13:17:34.833 回答
0
Zorba 也可以为这种用例提供帮助。
它是一个支持 XQuery 和 JSONiq 的开源内存引擎。它可以使用所有类型的输入,包括来自本地文件系统、来自 Web 或来自其他来源的 JSON。
它通常用于命令行,但由于它是开源的(C++),它也可以在其他环境中进行适配和集成。
为了完整起见,还提供了其他 JSONiq 实现,例如 Xidel。最后,XQuery 在其 3.1 版中进行了扩展以支持 JSON,因此许多 XQuery 引擎(Saxon,...)也有资格操作 JSON。
于 2016-08-26T14:49:03.090 回答