1

在 SAP HANA Vora 1.2 开发版中:我已经配置了 Spark 控制器并启动了服务器。然后我运行 spark-shell 并创建了一个新表。在 SAP HANA Studio 中,我现在可以在其中看到我创建的文件夹“spark_velocity”和“table001”。当我尝试使用“添加为虚拟表”选项添加此表我的 HANA 文件夹时,我收到一个错误:

SAP DBTech JDBC:[476]:无效的远程对象名称:无法检索 SparkSQL.spark_velocity.SparkSQL.spark_velocity.table001 的远程元数据:第 0 行第 0 列(位置 0)

这是完整的例外:

com.sap.db.jdbc.exceptions.JDBCDriverException: SAP DBTech JDBC: [476]: invalid remote object name: Unable to retrieve remote metadata for SparkSQL.spark_velocity.SparkSQL.spark_velocity.table001: line 0 col 0 (at pos 0)
    at com.sap.db.jdbc.exceptions.SQLExceptionSapDB.createException(SQLExceptionSapDB.java:345)
    at com.sap.db.jdbc.exceptions.SQLExceptionSapDB.generateDatabaseException(SQLExceptionSapDB.java:185)
    at com.sap.db.jdbc.packet.ReplyPacket.buildExceptionChain(ReplyPacket.java:102)
    at com.sap.db.jdbc.ConnectionSapDB.execute(ConnectionSapDB.java:1031)
    at com.sap.db.jdbc.ConnectionSapDB.execute(ConnectionSapDB.java:820)
    at com.sap.db.jdbc.StatementSapDB.sendCommand(StatementSapDB.java:898)
    at com.sap.db.jdbc.StatementSapDB.sendSQL(StatementSapDB.java:947)
    at com.sap.db.jdbc.StatementSapDB.execute(StatementSapDB.java:256)
    at com.sap.db.jdbc.StatementSapDB.executeUpdate(StatementSapDB.java:417)
    at com.sap.db.jdbc.trace.Statement.executeUpdate(Statement.java:218)
    at com.sap.ndb.studio.federation.services.ds.impl.sql.FederationSQLService.executeUpdate(FederationSQLService.java:212)
    at com.sap.ndb.studio.federation.services.ds.impl.sql.FederationSQLService.createProxyTable(FederationSQLService.java:1156)
    at com.sap.ndb.studio.federation.services.ds.impl.sql.DataProvisioningService.createProxyTable(DataProvisioningService.java:421)
    at com.sap.ndb.studio.federation.catalog.job.AddAsProxyJob.run(AddAsProxyJob.java:135)
    at org.eclipse.core.internal.jobs.Worker.run(Worker.java:55)
4

1 回答 1

0

当使用不兼容的版本时,我已经看到了这个问题。使用 Vora 1.2,您需要 Spark Controller 1.5 Patch 5 (HANASPARKCTRL00P_5-70001262.RPM) 和 HANA SPS11。还要确保使用 Vora1.2 数据源 jar (spark-sap-datasources-1.2.33-assembly.jar) 配置 Spark 控制器。

于 2016-05-05T23:00:51.680 回答