1

我们已设法使用 Spark (odbc) 连接器从 Azure 数据工厂到我们的 Azure Databricks 集群建立有效连接。在表列表中,我们确实得到了预期的列表,但是在查询特定表时,我们得到了异常。

错误 [HY000] [Microsoft][Hardy] (35) 来自服务器的错误:错误代码:'0' 错误消息:'com.databricks.backend.daemon.data.common.InvalidMountException:使用路径 xxxx 解析路径 xxxx 时出错在 '/mnt/xxxx'.'.. 挂载内。活动 ID:050ac7b5-3e3f-4c8f-bcd1-106b158231f3

在我们的案例中,存储在 Azure Data Lake 2 中的 Databrick 表和装载的 parquet 文件与上述异常有关。任何建议如何解决这个问题?

附言。从 Power BI 桌面连接时出现相同的错误。

谢谢巴特

4

1 回答 1

0

在您安装湖的配置中,您可以添加此设置:

"fs.azure.createRemoteFileSystemDuringInitialization": "true"

我没有尝试过您的确切情况-但是这使用Databricks-Connect为我解决了类似的问题。

于 2019-03-12T10:12:24.260 回答