问题标签 [scalikejdbc]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
scala - ScalikeJDBC,原始 SQL 无法映射或返回有效结果集
我将此发布到 scalikejdbc 用户组,并且还应该交叉发布到 github 问题。
我在文档示例中看到了对表运行原始查询的示例,我正在尝试使用以下代码获取 IndexEntry 列表,并且在执行查询并在控制台中返回结果时,我没有得到任何回报在地图(rs => ...部分。
相关代码在这里 - 当我在 intellij 的调试器中运行它时,结果为“Vector”大小 = 0。感谢您的任何指导。我做错了什么,希望它是一个简单的疏忽。
我已经尝试了 scalikejdc 的其他变体 - withSql { queryDSL } 和整个位作为具有完整语法支持的 SQL 插值。第一个和最后一个总是针对 mysql 服务器执行,它返回 57 行(小数据库),中间抛出 NPE,老实说,我很高兴解决中间的第二个问题。我在 .map 的某个地方有问题,我试图让它只返回地图,但它总是导致一个空列表。
谢谢,希望没有语法错误复制到 SO。
哦,FWIW,configureDb 只是手动设置一个连接池,因为数据库名称和服务器在 sbt 测试、开发、测试和产品之间可能会有很大差异。目前这不是我的问题,否则我会看到“ConnectionPool('default') not initialized”或类似的。
postgresql - postgresql jdbc,pgobject 可用类型,数组类型
我使用带有 jdbc 驱动程序 9.4.1208.jre7 和 scalikejdbc 包装器的 postgresql 9.5
我的桌子是:
我可以使用 org.postgresql.util.PGobject 插入 json 值:
我也想插入数组。我怎样才能做到这一点?我认为这会起作用:
但这给了我例外:org.postgresql.util.PSQLException: Unknown type ARRAY
可能是我错过了 smth 但我找不到关于 PGObject 类的好文档。我认为 PGObject 类是为像我这样的目的而设计的,但它的行为并不像预期的那样
POSTGRES 有很多类型,不仅是数组,还有日期、日期时间、日期范围、时间戳范围等。我相信应该有对应类型的类型名称。
scala - 规模化jdbc。在不显式依赖 Scalikejdbc 和会话的情况下管理事务
正如我从 Scalikejdbc 的文档中了解到的那样,如果我想要进行交易,我需要通过会话。像这样:
而那件事让我明确地依赖于 Scalikejdbc。我不想在我的领域特征中依赖 Scalike。我想要的是这样的:
有没有办法进行交易并且不依赖会话和类签名中的scalike?
scala - scalikejdbc,为批量插入返回生成的 id
我想在执行批量插入时获取所有生成的 id。我使用 scalikejdbc 2.3.5。这有可能吗?在文档中找不到任何内容
scala - 从案例类中提取 DDL
我正在尝试使用 scalikejdbc(试图从 Slick 迁移),并且我坚持从实体创建我的模式(阅读:案例类)。
似乎使用 SQLSyntaxSupport 可能是朝着正确方向迈出的一步,例如
但无法弄清楚下一步。
我正在寻找的是与[逆向工程]中描述的工具相反的东西:http: //scalikejdbc.org/documentation/reverse-engineering.html
任何帮助/想法,特别是文档相关部分的说明,将不胜感激
postgresql - Spark Scala DataFrame Single Row conversion to JSON for PostrgeSQL Insertion
With a DataFrame called lastTail
, I can iterate like this:
This outputs "something like" (with redaction):
root
|-- fileGid: string (nullable = true)
|-- eventStruct: struct (nullable = false)
| |-- eventIndex: integer (nullable = true)
| |-- eventGid: string (nullable = true)
| |-- eventType: string (nullable = true)
|-- revisionStruct: struct (nullable = false)
| |-- eventIndex: integer (nullable = true)
| |-- eventGid: string (nullable = true)
| |-- eventType: string (nullable = true)
and (with just one iteration item - redacted, but hopefully with good enough syntax as well)
****
class org.apache.spark.sql.catalyst.expressions.GenericRowWithSchema
12345
Schema: StructType(StructField(fileGid,StringType,true), StructField(eventStruct,StructType(StructField(eventIndex,IntegerType,true), StructField(eventGid,StringType,true), StructField(eventType,StringType,true)), StructField(revisionStruct,StructType(StructField(eventIndex,IntegerType,true), StructField(eventGid,StringType,true), StructField(eventType,StringType,true), StructField(editIndex,IntegerType,true)),false))
String: [12345,[1,4,edit],[1,4,revision]]
Seqnce: WrappedArray(12345, [1,4,edit], [1,4,revision])
Note: I doing the part like val metric = iter.sum
on https://github.com/koeninger/kafka-exactly-once/blob/master/src/main/scala/example/TransactionalPerPartition.scala, but with DataFrames instead. I am also following "Design Patterns for using foreachRDD" seen at http://spark.apache.org/docs/latest/streaming-programming-guide.html#performance-tuning.
How can I convert this org.apache.spark.sql.catalyst.expressions.GenericRowWithSchema (see https://github.com/apache/spark/blob/master/sql/catalyst/src/main/scala/org/apache/spark/sql/catalyst/expressions/rows.scala) iteration item into a something that is easily written (JSON or ...? - I'm open) into PostgreSQL. (If not JSON, please suggest how to read this value back into a DataFrame for use at another point.)
scalikejdbc - Tinyint 不像布尔值
我有一个现有的 mysql 数据库,我想用 scalikejdbc 进行查询。数据库对 [-1,3] 范围内的小值使用可为空的 tinyint。
如何查询该值?似乎可行的唯一方法是将其视为不反映所有值的布尔值。
如果我尝试将其视为 byte 或 int 或者我得到一个运行时异常
scala - Spark Scala 从 rdd.foreachPartition 获取数据
我有一些这样的代码:
代码输出(经过大量编辑)如下:
问题 1:如何使 lastRevs 值采用有用的格式,例如 JSON 字符串/null 或 Some / None 之类的选项?
问题 2:我的偏好:是否有另一种方法可以获取类似 RDD 格式(而不是迭代器格式)的分区数据?
来自http://spark.apache.org/docs/latest/streaming-programming-guide.html#performance-tuning
问题 3:获取数据的方法是否我正在使用理智的方法(假设我正在关注上面的链接)?(撇开现在这是一个 scalikejdbc 系统 JDBC 的事实不谈。这将是一个键,这个原型以外的某种类型的值存储。)
sql - 如何使用 ScalikeJDBC 编写 SELECT DISTINCT 查询?
如何SELECT DISTINCT field FROM ...
使用ScalikeJDBC
查询 DSL 编写查询?
scala - 使用 scalikejdbc 2.4.1 在单元测试中未初始化连接池
使用带有 scalikejdbc 2.4.1、scalikejdbc-config2.4.1 的 specs2 运行单元测试时出现问题这是我的代码:
这是日志:
从前两行可以看出,scalikejdbc 找到了数据库的配置,但是无法初始化连接池。你有什么主意吗?谢谢。