我不明白我哪里错了。尽管dbutils.fs.head('/FileStore/tables/flights_small.csv')
给了我正确的结果。
问问题
141 次
1 回答
1
您正在使用 DataBricks Community Edition,因为DBR >= 7.0 的怪癖,您无法从您的路径中读取。
我通常只有一个类似下面新命令的命令来解决这个问题,并以编程方式将 te 文件带到可访问的临时文件夹:
%fs cp /FileStore/tables/flights_small.csv file:/tmp/flights_small.csv
然后简单地阅读它:
pd.read_csv('file:/tmp/flights_small.csv')
考虑到社区版中的此类怪癖(集群启动时间长),我通常使用Google Colab在浏览器笔记本中进行业余爱好。
您也可以在 Google Colab 上运行 pyspark
!pip install pyspark
from pyspark.sql import SparkSession
spark = SparkSession.builder\
.master("local")\
.appName("Colab")\
.config('spark.ui.port', '4050')\
.getOrCreate()
于 2021-08-30T13:06:08.593 回答