跟着这个https://docs.databricks.com/notebooks/package-cells.html
在社区版 - 最新版本 Spark 3.x:
A.1。根据示例创建带有对象的包。
A2。在不同单元格中的同一笔记本中运行,无需重新启动集群。没有问题,运行良好。
package x.y.z
object Utils {
val aNumber = 5 // works!
def functionThatWillWork(a: Int): Int = a + 1
}
import x.y.z.Utils
Utils.functionThatWillWork(Utils.aNumber)
B.1。在没有重新启动集群的情况下在不同的笔记本中运行它。错误。
import x.y.z.Utils
Utils.functionThatWillWork(Utils.aNumber)
C.1。重新启动集群。运行导入。错误。
import x.y.z.Utils
Utils.functionThatWillWork(Utils.aNumber)
问题
这是社区版的问题吗?不这么认为,但不能放置它。观察结果与官方文档相矛盾。