当我执行 pd.read_parquet("/dbfs/XX/XX/agg.parquet") 以访问 databricks 的 dbfs 中名为 agg 的镶木地板文件时,它返回 'IsADirectoryError'。尽管当我使用 dbutils 列出该文件时,该文件显示为一个文件夹,但我认为 Spark 可以将其作为文件读取,因此它适用于 spark 读取。pandas read_parquet 模块似乎使用了 fastparquet 后端,所以 fastparquet 可能是它引发错误的原因吗?