1

跟着这个https://docs.databricks.com/notebooks/package-cells.html

在社区版 - 最新版本 Spark 3.x

A.1。根据示例创建带有对象的包。

A2。在不同单元格中的同一笔记本中运行,无需重新启动集群。没有问题,运行良好

package x.y.z
object Utils {
  val aNumber = 5 // works!
  def functionThatWillWork(a: Int): Int = a + 1
}

import x.y.z.Utils
Utils.functionThatWillWork(Utils.aNumber)

B.1。在没有重新启动集群的情况下在不同的笔记本中运行它。错误

import x.y.z.Utils
Utils.functionThatWillWork(Utils.aNumber)

C.1。重新启动集群。运行导入。错误

import x.y.z.Utils
Utils.functionThatWillWork(Utils.aNumber)

问题

这是社区版的问题吗?不这么认为,但不能放置它。观察结果与官方文档相矛盾。

4

0 回答 0