问题标签 [simba]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
jdbc - 增加个人帐户中的范围以访问源自 Google 表格的 Bigquery 表
我正在使用带有 Simba JDBC 连接的 Data Grip,当我尝试访问源自 Google 表格的 Bigquery 表时,它给了我下面提供的错误。如果我从大查询 UI 运行,这可以正常工作。此外,如果我使用此表信息创建一个新表,我可以从 Data Grip 进行查询。
我正在使用我的个人帐户使用 gcloud auth 进行身份验证。有没有办法增加我的个人帐户的范围以获得必要的权限来读取来自谷歌表格而不使用服务帐户的 bigquery 表?
Error Message: Failed to read the spreadsheet. Error code: PERMISSION_DENIED
r - Simba Athena ODBC:无法使用 SQLGetPrivateProfileString 函数
这很奇怪,我想建立一个从 RStudio 到我在 AWS Athena 中的实例的连接。
我unixodbc
用作驱动程序管理器,并通过使用isql -v 'Simba Athena'
. 但是,当我在 RStudio 中测试连接时...
...它给了我错误Error: nanodbc/nanodbc.cpp:1021: 00000: [Simba][ODBC] (11560) Unable to locate SQLGetPrivateProfileString function.
。关于它的任何线索,我有点卡住了。
sql - 使用 Simba ODBC 驱动程序连接到 Athena - 长字符串转换为文本问题
我们最近开始AWS
Data Lake
使用Athena
. 我们连接到Athena
using a LinkedServer
in SQL
which 与 using 一起ODBC
使用Simba Driver
。
我们面临的问题是,只要有任何string
超过Athena
4000 个字符的字符,驱动程序就会将其转换为Text
对象,当我们从中读取时SSIS
无法转换为标准数据类型,例如nvarchar
.
一个简单的选择是开始使用Text
as DataType 但Text
已弃用且不得使用。
有没有人遇到过类似的问题。很高兴根据需要提供任何信息。
我看到以下消息 -
An OLE DB record is available. Description: "OLE DB provider "MSDASQL" for linked server "AWS-Test-DataLake-EU-West-1" returned message "Requested conversion is not supported.".".
c# - Simba ODBC 连接到增量表并使用 .Net C# 从增量格式表中读取数据
我正在尝试通过 simba odbc 驱动程序使用 c# 从增量格式表中读取数据。增量格式表示例:https ://docs.delta.io/latest/quick-start.html#-create-a-table&language-python
已按照https://www.simba.com/products/Spark/doc/ODBC_InstallGuide/mac/content/odbc/configuring/drivermanager.htm中的说明下载并配置了 simba odbc
完成此配置后,我能够成功连接到 spark thrift 服务器。但是,我无法从增量格式表中读取数据。
错误消息是:
powerquery - 详细信息 ODBC:错误 [HY000] [Simba][BigQuery] (115) 操作超时。民意调查工作
尝试为查询创建新视觉对象时遇到问题(来源是 Google BigQuery)。
我正在使用一个类似的查询,它已经在工作(但有一个额外的过滤器),这使得新查询需要更长的时间。
它运行大约 10 分钟,并返回此错误消息:
详细信息:“ODBC:错误 [HY000] [Simba][BigQuery] (115) 操作超时.PollJob”
所以加了一个时间限制参数:“connect timeout=10000”,但是也不管用。
driver={Simba ODBC Driver for Google BigQuery};oauthmechanism=1;refreshtoken=TOKEN;catalog=mm-datamart-kd;connect timeout=10000
如果有人收到错误消息或对此错误消息有解决方案。如果您能给我您的建议,我将不胜感激。
谢谢!
java - 使用 Spring Java 应用程序中的 JDBC 驱动程序连接到 Athena
我正在尝试通过 Java Spring Web 应用程序中的最新(2.16)JDBC 驱动程序 jar 连接到 Athena。该应用程序还连接到 S3 以在那里上传文件。当 s3 客户端的 bean 在添加 Athena JDBC jar 时被实例化时,我看到了这个异常。
我尝试按照本文中的建议将 aws-java-sdk-core 升级到 1.11.793 和最新的 1.11.998,但它没有帮助 java.lang.SecurityException AWSCredentialsProvider 签名者信息不匹配
这是我面临的确切问题 - Athena JDBC 驱动程序版本 2.0.15 与核心 AWS SDK 不兼容?
apache-spark - 通过 Simba JDBC 的 Databricks Spark 连接问题
我正在尝试通过 Simba JDBC(Databricks 推荐方式)从 PERL 代码连接 Spark Databricks。对于参考,这是 JDBC 驱动程序:https ://databricks-bi-artifacts.s3.us-east-2.amazonaws.com/simbaspark -drivers/jdbc/2.6.17/SimbaSparkJDBC42-2.6.17.1021.zip
到目前为止,我设法设置了 PERL 和所有与 PERL 相关的模块配置,下面的问题与我坚信的 PERL 无关。
我有下面的代码试图连接 Spark Databricks。注意:密码中的“replaceme”是databricks 个人访问令牌。
我以 SIMBA 驱动程序连接到 SPARK THRIFT 服务器作为身份验证问题结束了以下问题和错误。
记录器记录在 Java 堆栈跟踪下方:
另外根据 SIMBA JDBC 连接器文档,我尝试了 NO 身份验证模式,用户名、用户名/密码都没有工作。
所以想知道传输层中的身份验证问题在哪里。注意我已经创建了令牌,并在启动 jdbc:spark call 时在密码部分提到了这一点。
google-bigquery - Spotfire - Biquery - Simba JDBC
我找不到以下问题的答案。上周我一直在使用 BigQuery 连接器测试Spotfire 。我正在使用Simba JDBC 驱动程序。每次将数据导入内存约 1 分钟。这要归功于BigQuery Storage API实施⚡</p>
我无法理解的是以下两点:
- 哪个版本的 Simba Driver 和 Spotfire 启用了这种高吞吐量功能?
- 我可以配置此功能吗?在连接字符串中添加EnableHighThroughputAPI=1会切换 BQ 存储 API 的使用。在 Spotfire 中,将此参数从 1 更改为 0 没有任何区别 - 始终使用 Storage API。它是否被 Spotfire 在内部覆盖?
专家的见解将不胜感激 - 我找不到关于此的文档(我使用的是 11.2.0 HF002 和 simba jdbc42)。
谢谢!
python - 使用 python 和 Azure AD 通过 odbc 连接到 Azure Databricks
您能否给我一些说明或资源(因为我找不到任何可能指向正确方向的东西)以及如何使用 odbc(python simba 驱动程序)和 Azure AD 服务主体连接到 Azure Databricks 的信息证书?
我已经尝试过使用这种连接:
不幸的是,我收到以下错误:[Simba][DSI] 尝试检索键“DSCurlRecvError”的错误消息时发生错误。
我可以使用我自己的个人令牌和带有 UID 和 PWD 的 AuthMech=3 连接到 databricks 平台,但这不是可取的。
感谢您的任何提示。