问题标签 [dbconnect]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
pyspark - Pycharm中的错误:错误SparkContext:无法添加dependencies.jar
我正在使用 pycharm 在 dbconnect conda enviromemnet 中运行代码,我成功运行了一些代码。但是然后运行一个更大的项目,希望它可以在远程数据块集群上运行,但是即使我在项目中有一个依赖文件,我也会收到这个有线错误,为什么我会收到这个错误?错误出现在输出的末尾,我收到所有 jar 的此错误,但我只发布第一个。
r - R teradata DBI:dbConnect() 错误:TimedOut:尝试连接到 Teradata 服务器时未收到响应
我将提出并回答这个问题,因为我花了比我愿意承认的时间更多的时间来寻找答案并且找不到答案。我安装了 Teradata ODBC 驱动程序 16.20。在 ODBC 数据源管理器中,我添加了一个数据源。我将其命名为 teradata,输入要连接的 Teradata 服务器的名称以及用于身份验证的用户名和密码。当我尝试在 RStudio 中运行以下代码时:
我会收到一个错误:
apache-spark - DB Connect 和工作区笔记本返回不同的结果
我正在使用 DB Connect 9.1.9。我的集群版本是单节点的 9.1LTS(用于测试目的)。
我的数据作为增量表存储在 S3 上。
运行以下:
当我使用 DB Connect 运行它时,我得到:31。当我在 Databricks 工作区上运行它时:462。
当然你不能检查那个数字,我只是想找出我们为什么会有差异。
如果我删除 runDate 上的条件,我在两个平台上都有很好的结果。所以我推断这是“runDate”错误,但我找不到原因。
架构:
我在两个平台上也有相同的解释计划。
我是否错过了有关时间戳使用的某些内容?
更新 1:有趣的是,当我将 count()spark.sql("SELECT count(*) ...")
直接放入其中时,我仍然有 31 行。这可能是 db-connect 将查询转换为集群的方式。