鉴于我在 Azure 存储中有一个 Delta 表:
wasbs://mycontainer@myawesomestorage.blob.core.windows.net/mydata
这可从我的 Databricks 环境中获得。我现在希望通过全局表获得这些数据,自动加载到所有集群并在“数据”部分中可见。
我可以通过复制轻松做到这一点:
spark.read\
.load("wasbs://mycontainer@myawesomestorage.blob.core.windows.net/mydata")\
.write.saveAsTable("my_new_table")
但这很昂贵,我需要偶尔运行它(但是结构化流会有所帮助)。但是是否可以直接将源注册为全局表,而不必复制所有文件?