问题标签 [json4s]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
scala - SBT & Json4s 序列化 Joda Time:如何访问 .ext 包?
在我的 Scala Spray.io 应用程序中,我想将一些 JodaLocalTime
和LocalDate
对象转换为 JSON。这显然是通过将来自 Json4s 的 JodaTime 支持添加到DefaultFormats
以下内容来完成的:
但由于某种原因,我无法访问包ext
:object ext is not a member of package org.json4s
. 任何想法为什么会发生这种情况?
我很清楚加载依赖项的方式可能存在一些问题。我将此行添加到我的build.sbt
:
scala - Scala替换列表中的对象
我在 scala 中有一个 JValues 列表,格式如下:
[{ id: "foo" values: {...}}, {}]
我想浏览列表,如果 id 等于某个值,则替换这些值。在Java中,我有这段代码
} }
我将如何在 Scala 中执行此操作?
scala - json4s xpath 报告 java.lang.NoSuchMethodError
我遵循了https://github.com/json4s/json4s的“ XPath + HOFs ”部分的示例,下面是我的源代码:
没有编译错误,但在运行时出现以下错误:
有人可以帮我解决这个问题吗?
===程序是怎么调用的===我用gradle运行上面的代码,下面是build.gradle文件(依赖是其他程序需要的):
我运行以下命令来调用程序:
scala - 是否可以将 json4s 3.2.11 与 Spark 1.3.0 一起使用?
Spark对json4s 3.2.10有依赖,但是这个版本有几个bug,我需要使用3.2.11。我在 build.sbt 中添加了 json4s-native 3.2.11 依赖,一切都编译得很好。但是当我提交我的 JAR 时,它为我提供了 3.2.10。
构建.sbt
插件.sbt
App1.scala
sbt 0.13.7 + sbt 组装 0.13.0 斯卡拉 2.10.4
有没有办法强制使用 3.2.11 版本?
json - json4s jackson - 如何使用注释忽略字段
我正在使用 json4s-jackson(版本 3.2.11)。
我正在尝试使用注释(如jackson java版本)忽略字段。
这是示例:
以下代码不起作用。
scala - json4s 中的自动类型提示解析
假设我有一个类层次结构,如:
目前在我的序列化代码中,我必须使用这个:
但我非常喜欢这样的东西:
你会如何解决这个问题?
scala - 使用 json4s 解析 JSON 时引发不可序列化的异常
我在尝试在我的 spark 作业中解析 json 时遇到了问题。我正在使用spark 1.1.0
,json4s
和Cassandra Spark Connector
. 抛出的异常是:
java.io.NotSerializableException: org.json4s.DefaultFormats
检查 DefaultFormats 伴随对象,并通过这个堆栈问题,很明显 DefaultFormats 不能被序列化。现在的问题是该怎么做。
我可以看到这张票显然通过添加关键字瞬态在 spark 代码库中解决了这个问题,但我不确定如何或在何处将其应用于我的案例。解决方案是否只在执行程序上实例化 DefaultFormats 类,以避免一起序列化?人们正在使用另一个用于 scala/spark 的 JSON 解析库吗?我最初尝试单独使用 jackson,但遇到了一些我无法轻松解决的注释错误,并且 json4s 开箱即用。这是我的代码:
我在 checkUa 函数中进行 json 解析。我试着让 count 变得懒惰,希望它能以某种方式延迟执行,但它没有效果。也许在 checkUA 中移动隐式 val?非常感谢任何建议。
java - JSON4s找不到带有spark的构造函数
我在尝试在我的 spark 作业中解析 json 时遇到了问题。我正在使用带有 DSE 4.6 的 spark 1.1.0、json4s 和 Cassandra Spark 连接器。抛出的异常是:
我的代码如下所示:
我使用:load
将文件加载到 REPL 中,然后调用该run
函数。parseJson
据我所知,故障发生在功能中。我已经尝试了很多方法来尝试让它发挥作用。从类似的帖子中,我确保我的案例类位于文件的顶层。我尝试将案例类定义编译到一个 jar 中,并像这样将 jar 包括在内:/usr/bin/dse spark --jars case_classes.jar
我试过像这样将它们添加到conf中:sc.getConf.setJars(Seq("/home/ubuntu/case_classes.jar"))
仍然是同样的错误。我应该把我所有的代码编译成一个jar吗?这是火花问题还是 JSON4s 问题?任何帮助都表示赞赏。
scala - Java Pojo 的 json4s(反)序列化
我正在开发一个 Scala/Spray/Akka 系统,我们需要在该系统上将对象序列化和反序列化为 json,用于 REST 接口或持久化模型。
一些模型对象是 Java POJO 的。我们使用 Json4s 作为序列化器,但它似乎缺乏对 POJO 的支持。当序列化为 json 时,我可以通过实现 CustomSerializer 来克服这个限制。但是,当反序列化 Json4s 尝试执行它自己的反射魔法时,会导致“找不到 ScalaSig for class ...”异常。永远不会调用自定义序列化程序。
我在 Github 上创建了一个小项目来复制这个问题。有谁知道如何解决这个问题?有没有人有类似的问题?
json4s (nr 228)也报告了该问题。