问题标签 [scalikejdbc]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
2 回答
1085 浏览

scala - ScalikeJDBC,原始 SQL 无法映射或返回有效结果集

我将此发布到 scalikejdbc 用户组,并且还应该交叉发布到 github 问题。

我在文档示例中看到了对表运行原始查询的示例,我正在尝试使用以下代码获取 IndexEntry 列表,并且在执行查询并在控制台中返回结果时,我没有得到任何回报在地图(rs => ...部分。

相关代码在这里 - 当我在 intellij 的调试器中运行它时,结果为“Vector”大小 = 0。感谢您的任何指导。我做错了什么,希望它是一个简单的疏忽。

我已经尝试了 scalikejdc 的其他变体 - withSql { queryDSL } 和整个位作为具有完整语法支持的 SQL 插值。第一个和最后一个总是针对 mysql 服务器执行,它返回 57 行(小数据库),中间抛出 NPE,老实说,我很高兴解决中间的第二个问题。我在 .map 的某个地方有问题,我试图让它只返回地图,但它总是导致一个空列表。

谢谢,希望没有语法错误复制到 SO。

哦,FWIW,configureDb 只是手动设置一个连接池,因为数据库名称和服务器在 sbt 测试、开发、测试和产品之间可能会有很大差异。目前这不是我的问题,否则我会看到“ConnectionPool('default') not initialized”或类似的。

0 投票
1 回答
2549 浏览

postgresql - postgresql jdbc,pgobject 可用类型,数组类型

我使用带有 jdbc 驱动程序 9.4.1208.jre7 和 scalikejdbc 包装器的 postgresql 9.5

我的桌子是:

我可以使用 org.postgresql.util.PGobject 插入 json 值:

我也想插入数组。我怎样才能做到这一点?我认为这会起作用:

但这给了我例外:org.postgresql.util.PSQLException: Unknown type ARRAY

可能是我错过了 smth 但我找不到关于 PGObject 类的好文档。我认为 PGObject 类是为像我这样的目的而设计的,但它的行为并不像预期的那样

POSTGRES 有很多类型,不仅是数组,还有日期、日期时间、日期范围、时间戳范围等。我相信应该有对应类型的类型名称。

0 投票
1 回答
548 浏览

scala - 规模化jdbc。在不显式依赖 Scalikejdbc 和会话的情况下管理事务

正如我从 Scalikejdbc 的文档中了解到的那样,如果我想要进行交易,我需要通过会话。像这样:

而那件事让我明确地依赖于 Scalikejdbc。我不想在我的领域特征中依赖 Scalike。我想要的是这样的:

有没有办法进行交易并且不依赖会话和类签名中的scalike?

0 投票
1 回答
669 浏览

scala - scalikejdbc,为批量插入返回生成的 id

我想在执行批量插入时获取所有生成的 id。我使用 scalikejdbc 2.3.5。这有可能吗?在文档中找不到任何内容

0 投票
1 回答
294 浏览

scala - 从案例类中提取 DDL

我正在尝试使用 scalikejdbc(试图从 Slick 迁移),并且我坚持从实体创建我的模式(阅读:案例类)。

似乎使用 SQLSyntaxSupport 可能是朝着正确方向迈出的一步,例如

但无法弄清楚下一步。

我正在寻找的是与[逆向工程]中描述的工具相反的东西:http: //scalikejdbc.org/documentation/reverse-engineering.html

任何帮助/想法,特别是文档相关部分的说明,将不胜感激

0 投票
1 回答
1010 浏览

postgresql - Spark Scala DataFrame Single Row conversion to JSON for PostrgeSQL Insertion

With a DataFrame called lastTail, I can iterate like this:

This outputs "something like" (with redaction): root |-- fileGid: string (nullable = true) |-- eventStruct: struct (nullable = false) | |-- eventIndex: integer (nullable = true) | |-- eventGid: string (nullable = true) | |-- eventType: string (nullable = true) |-- revisionStruct: struct (nullable = false) | |-- eventIndex: integer (nullable = true) | |-- eventGid: string (nullable = true) | |-- eventType: string (nullable = true)

and (with just one iteration item - redacted, but hopefully with good enough syntax as well)

**** class org.apache.spark.sql.catalyst.expressions.GenericRowWithSchema 12345 Schema: StructType(StructField(fileGid,StringType,true), StructField(eventStruct,StructType(StructField(eventIndex,IntegerType,true), StructField(eventGid,StringType,true), StructField(eventType,StringType,true)), StructField(revisionStruct,StructType(StructField(eventIndex,IntegerType,true), StructField(eventGid,StringType,true), StructField(eventType,StringType,true), StructField(editIndex,IntegerType,true)),false)) String: [12345,[1,4,edit],[1,4,revision]] Seqnce: WrappedArray(12345, [1,4,edit], [1,4,revision])

Note: I doing the part like val metric = iter.sum on https://github.com/koeninger/kafka-exactly-once/blob/master/src/main/scala/example/TransactionalPerPartition.scala, but with DataFrames instead. I am also following "Design Patterns for using foreachRDD" seen at http://spark.apache.org/docs/latest/streaming-programming-guide.html#performance-tuning.

How can I convert this org.apache.spark.sql.catalyst.expressions.GenericRowWithSchema (see https://github.com/apache/spark/blob/master/sql/catalyst/src/main/scala/org/apache/spark/sql/catalyst/expressions/rows.scala) iteration item into a something that is easily written (JSON or ...? - I'm open) into PostgreSQL. (If not JSON, please suggest how to read this value back into a DataFrame for use at another point.)

0 投票
0 回答
363 浏览

scalikejdbc - Tinyint 不像布尔值

我有一个现有的 mysql 数据库,我想用 scalikejdbc 进行查询。数据库对 [-1,3] 范围内的小值使用可为空的 tinyint。

如何查询该值?似乎可行的唯一方法是将其视为不反映所有值的布尔值。

如果我尝试将其视为 byte 或 int 或者我得到一个运行时异常

0 投票
1 回答
13547 浏览

scala - Spark Scala 从 rdd.foreachPartition 获取数据

我有一些这样的代码:

代码输出(经过大量编辑)如下:

问题 1:如何使 lastRevs 值采用有用的格式,例如 JSON 字符串/null 或 Some / None 之类的选项?

问题 2:我的偏好:是否有另一种方法可以获取类似 RDD 格式(而不是迭代器格式)的分区数据?

来自http://spark.apache.org/docs/latest/streaming-programming-guide.html#performance-tuning

问题 3:获取数据的方法是否我正在使用理智的方法(假设我正在关注上面的链接)?(撇开现在这是一个 scalikejdbc 系统 JDBC 的事实不谈。这将是一个键,这个原型以外的某种类型的值存储。)

0 投票
0 回答
565 浏览

sql - 如何使用 ScalikeJDBC 编写 SELECT DISTINCT 查询?

如何SELECT DISTINCT field FROM ...使用ScalikeJDBC查询 DSL 编写查询?

0 投票
1 回答
1001 浏览

scala - 使用 scalikejdbc 2.4.1 在单元测试中未初始化连接池

使用带有 scalikejdbc 2.4.1、scalikejdbc-config2.4.1 的 specs2 运行单元测试时出现问题这是我的代码:

这是日志:

从前两行可以看出,scalikejdbc 找到了数据库的配置,但是无法初始化连接池。你有什么主意吗?谢谢。