问题标签 [snappydata]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - Snappy:如何快速压缩文件?
我收到一个文件,我需要压缩这个文件并将压缩文件的文件名作为参数传递给另一个方法。
如何快速压缩此文件并获取压缩文件的文件名?
谢谢!
snappydata - 从第 1000 条到第 1010 条查询 SnappyData 记录
SnappyData 中是否有任何使用 sql 的分页功能?例如,一个表中有 10000 条记录。我们可以查询“从 1000 到 1010 获取 10 个条目”吗?我们需要它来支持REST API 中的分页功能。
snappydata - snappystore - 虚拟机正在退出 - 关闭分布式系统
snappystore - VM 正在退出 - 关闭分布式系统 org.apache.spark.SparkContext - 从关闭挂钩调用 stop() oejetty.server.ServerConnector - 停止 ServerConnector@244e619a{HTTP/1.1}{0.0.0.0:4040} 错误 oaspark。 scheduler.LiveListenerBus - 监听器 SparkContextListener 抛出异常 com.pivotal.gemfirexd.internal.impl.jdbc.EmbedSQLException: GemFireXD 系统关闭。在 com.pivotal.gemfirexd.internal.impl.jdbc.SQLExceptionFactory40.getSQLException(SQLExceptionFactory40.java:124) 在 com.pivotal.gemfirexd.internal.impl.jdbc.Util.newEmbedSQLException(Util.java:110) 在 com.pivotal .gemfirexd.internal.impl.jdbc.Util.newEmbedSQLException(Util.java:122) 在 com.pivotal.gemfirexd.internal.engine.fabricservice.FabricServiceImpl.stopNoSync(FabricServiceImpl.java:402) 在 com.pivotal。
gemfire - 如何使用 localhost 以外的任何主机设置 SnappyData 集群?
当我设置 snappydata 集群时,所有定位器、服务和线索都在同一台机器上运行,并且主机名被指定为“localhost”——然后我可以看到服务出现了。当我用实际主机名替换 localhost 时使用相同的设置,然后它会不断要求 ssh 登录,并且在提供有效密码后,我也没有看到任何错误并且服务没有出现。
row - SnappyData 每行 TTL
是否可以每行设置 TTL。这意味着当 TTL 过去时,该行将被自动删除。TTL 可以在同一个表中的每一行都不同。
谢谢!
hikaricp - 快速数据的 spring.datasource.driver-class-name
嗨,我想将 hikariCP 与 snappy 数据一起使用。不想让 GemFire 介于两者之间。快速数据如何直接实现。
我尝试了正在工作的 com.pivotal.gemfirexd.jdbc.ClientDriver,但 com.pivotal.snappydata.jdbc.ClientDriver 操作系统不工作。
snappydata - 如何更改 SnappyData 表的 TTL 值?
如何更改 SnappyData 表的 TTL 值?
例如:如果我创建 TTL = 60 秒的表:
如果需要,我以后如何更改 TTL 值?
snappydata - 在 Snappy-shell/snappy-sql 中创建的表不显示智能连接器模式 | 爪哇
sparkcontext 创建如下
读取快速数据
作业提交如下
作业正在连接到 snappydata,日志如下
在集群模式下初始化 SnappyData:智能连接器模式:sc = org.apache.spark.SparkContext@164d01ba, url = jdbc:snappydata://localhost[1527]/
但是由于找不到表而失败。这是指向不同的存储,列出了不同的表
如果使用 snappy 的 sparksubmit 提交相同的作业。按预期工作。唯一的变化是提交工作是
kerberos - 如何将 SnappyData 与 Kerberos 集成
对于企业使用,我们需要为 SnappyData 集成 Kerberos。你有这样做的文件吗?
谢谢
caching - 使用 SnappyData 的直读缓存
我们可以有通读缓存行为吗?这意味着应用程序将向 SnappyData 发出 sql 查询,然后 SnappyData 将检查数据是否在缓存中(在 SnappyData 中)。如果是,它将返回数据。如果不是,SnappyData 会将其从数据存储区带入缓存。后端数据存储可以是任何与 sql 兼容的数据存储。这样,应用程序只需要与 SnappyData 对话,应用程序不需要与底层数据存储对话。
谢谢