我是使用Databricks.com中的 Notebook 和 Cluster 学习 Spark 和 Scala 的新手,这是我加载文件的非常简单的代码:
import sys.process._
val localpath="file:/tmp/myfile.json"
dbutils.fs.mkdirs("dbfs:/datasets/")
dbutils.fs.cp(localpath, "dbfs:/datasets/")
但我得到这样的错误:
java.io.FileNotFoundException:文件文件:/tmp/myfile.json 不存在。
在 org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:402)
在 org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:255)
在 com.databricks.backend.daemon.dbutils.FSUtils$.cp(DBUtilsCore.scala:82)
在 com.databricks.dbutils_v1.impl.DbfsUtilsImpl.cp(DbfsUtilsImpl.scala:40)
我正在使用 Mac,并且我已确保该文件存在于此绝对路径中,这是火花错误吗?谢谢!