我想了解为什么我的 ACL 权限在 Databricks 中无法正常工作。
场景:我有 2 个用户。一个对 FileSystem 和具有完全权限的人。其他没有任何权限。
我尝试使用 2 种不同的方法在数据块中安装 Gen2 文件系统。
configs = {"fs.azure.account.auth.type": "OAuth", "fs.azure.account.oauth.provider.type": "org.apache.hadoop.fs.azurebfs.oauth2.ClientCredsTokenProvider", "fs.azure.account.oauth2.client.id": clientid, "fs.azure.account.oauth2.client.secret": credential, "fs.azure.account.oauth2.client.endpoint": refresh_url} dbutils.fs.mount( source = "abfss://xyz@abc.dfs.core.windows.net/", mount_point = "/mnt/xyz", extra_configs = configs)
并使用直通 2。
configs = {
"fs.azure.account.auth.type": "CustomAccessToken",
"fs.azure.account.custom.token.provider.class": spark.conf.get("spark.databricks.passthrough.adls.gen2.tokenProviderClassName")
}
dbutils.fs.mount(
source = "abfss://xyz@abc.dfs.core.windows.net/",
mount_point = "/mnt/xyz",
extra_configs = configs)
都挂载文件系统。但是当我使用:
dbfs.fs.ls("/mnt/xyz")
它显示对 datalake 没有权限的用户的所有内容文件/文件夹。
如果有人能解释我出了什么问题,我会很高兴。
谢谢