问题标签 [spark-cloudant]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
scala - 为什么 Spark 项目中的 sbt 组装失败并显示“请通过提供 sparkVersion 和 sparkComponents 添加任何 Spark 依赖项”?
我在一个 sbt 管理的具有spark-cloudant
依赖关系的 Spark 项目上工作。代码可在 GitHub (on spark-cloudant-compile-issue
branch)上找到。
我已将以下行添加到build.sbt
:
所以build.sbt
看起来如下:
当我执行时,sbt assembly
我收到以下错误:
apache-spark - 由 %AddJar 加载的 Spark-cloudant 包 1.6.4 不会被笔记本使用
我正在尝试将最新的 spark-cloudant 包与笔记本一起使用:
哪个输出:
其次是:
哪个输出:
连接器是 1.6.3。我的笔记本是:
我试过重新启动内核,但没有帮助。
其他调试信息:
更新
我尝试了以下方法:
不幸的是,这不起作用 - 1.6.3 仍在使用中。
更新 2
在上面的代码中,tilda 似乎没有解析到我的 HOME 文件夹。
请参阅工作解决方案的答案。
apache-spark - Spark Cloudant 错误:“没有保存任何内容,因为记录数为 0!”
我使用的是 spark-cloudant 库 1.6.3,该库默认与 spark 服务一起安装。
我正在尝试将一些数据保存到 Cloudant:
但是,我遇到了错误:
我知道有数据,因为我也将其保存到文件中:
cloudant - 在 DSX 中转换传感器标签数据
我正在努力将现有的数据科学体验 (DSX) 配方转换为使用来自连接的传感器标签设备的数据。然而,该设备的移动应用程序将数据作为字符串而不是数字发送 - 这导致计算 Z 分数的 DSX 配方阻塞。数据来自用作 Watson IoT Platform 的历史数据库的 cloudant 数据库,所以我不能简单地在那里重新格式化它。有没有一种简单的方法来转换 DSX 笔记本中的数据?
data-science-experience - DSX Notebook 中未找到 com.cloudant.spark 数据源
我正在尝试按照https://developer.ibm.com/clouddataservices/docs/ibm-data-science-experience/docs/load-and-filter-cloudant-data-with-spark/使用 Spark 加载 cloudant 数据. 我有一个带有 Spark 2.1 的 Scala 2.11(也适用于 Spark 2.0)笔记本,其中包含以下代码:
尝试执行该单元仅以
名称:java.lang.ClassNotFoundException 消息:未能找到数据源:com.cloudant.spark。请在http://spark.apache.org/third-party-projects.html找到包 StackTrace:在 org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:569) 在 org.apache.spark.sql.execution.datasources.DataSource.providingClass$lzycompute(DataSource.scala:86 ) 在 org.apache.spark.sql.execution.datasources.DataSource.resolveRelation(DataSource.scala:325) 在 org.apache.spark.sql.execution.datasources.DataSource.providingClass(DataSource.scala:86) 在 org. org.apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:135) 处的 apache.spark.sql.DataFrameReader.load(DataFrameReader.scala:152) ... 42 已删除 原因:java.lang.ClassNotFoundException: com .cloudant.spark.DefaultSource 在 scala.reflect.internal.util.AbstractFileClassLoader.findClass(AbstractFileClassLoader.scala:62) 在 java.lang.ClassLoader.loadClassHelper(ClassLoader.java:844) 在 java.lang。ClassLoader.loadClass(ClassLoader.java:823) at java.lang.ClassLoader.loadClass(ClassLoader.java:803) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25$$anonfun$apply$13。 apply(DataSource.scala:554) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25$$anonfun$apply$13.apply(DataSource.scala:554) at scala.util.Try$.apply (Try.scala:192) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25.apply(DataSource.scala:554) at org.apache.spark.sql.execution.datasources.DataSource$$ anonfun$25.apply(DataSource.scala:554) at scala.util.Try.orElse(Try.scala:84) at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:554)execution.datasources.DataSource$$anonfun$25$$anonfun$apply$13.apply(DataSource.scala:554) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25$$anonfun$apply$13.apply (DataSource.scala:554) at scala.util.Try$.apply(Try.scala:192) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25.apply(DataSource.scala:554)在 org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25.apply(DataSource.scala:554) 在 scala.util.Try.orElse(Try.scala:84) 在 org.apache.spark.sql .execution.datasources.DataSource$.lookupDataSource(DataSource.scala:554)execution.datasources.DataSource$$anonfun$25$$anonfun$apply$13.apply(DataSource.scala:554) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25$$anonfun$apply$13.apply (DataSource.scala:554) at scala.util.Try$.apply(Try.scala:192) at org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25.apply(DataSource.scala:554)在 org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25.apply(DataSource.scala:554) 在 scala.util.Try.orElse(Try.scala:84) 在 org.apache.spark.sql .execution.datasources.DataSource$.lookupDataSource(DataSource.scala:554)192) 在 org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25.apply(DataSource.scala:554) 在 org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25.apply( DataSource.scala:554) at scala.util.Try.orElse(Try.scala:84) at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:554)192) 在 org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25.apply(DataSource.scala:554) 在 org.apache.spark.sql.execution.datasources.DataSource$$anonfun$25.apply( DataSource.scala:554) at scala.util.Try.orElse(Try.scala:84) at org.apache.spark.sql.execution.datasources.DataSource$.lookupDataSource(DataSource.scala:554)
如何克服此错误并连接到我的 Cloudant 数据库?
python - 使用 spark.sql 和 Cloudant 计算偏度
我对以下代码有问题:
meanTemperature
并且sdTemperature
工作正常,但使用上述查询我收到以下错误:
有人知道如何解决这个问题吗?