我想将一个 Spark DataFrame 从 AWS SageMaker 保存到 S3。在笔记本中,我跑了
myDF.write.mode('overwrite').parquet("s3a://my-bucket/dir/dir2/")
我明白了
Py4JJavaError:调用 o326.parquet 时出错。:java.lang.RuntimeException:java.lang.ClassNotFoundException:在org.apache的org.apache.hadoop.conf.Configuration.getClass(Configuration.java:2195)中找不到类org.apache.hadoop.fs.s3native.NativeS3FileSystem .hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:2654) 在 org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2667) 在 org.apache.hadoop.fs.FileSystem.access$200(FileSystem. java:94) 在 org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2703) 在 org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2685) 在 org.apache .hadoop.fs.FileSystem.get(FileSystem.java:373) 在 org.apache.hadoop.fs.Path.getFileSystem(Path.java:295) 在 org.apache.spark.sql.execution.datasources.DataSource。
我应该如何在笔记本中正确执行?非常感谢!