我正在尝试使用这行代码在 Hadoop HDFS 中编写:
Files.write(Paths.get("hdfs:////localhost:9000/user/cloudera/trial/"+ "cat.txt","miao miao!".getBytes());
Spark 应用程序给了我这个例外:
java.nio.file.NoSuchFileException: hdfs:/quickstart.cloudera:9000/user/cloudera/trial/cat2
我正在解释,它给出了一个错误,因为在 "hdfs:" 之后只有一个斜杠。
我记得我已经使用 java.nio.Files 方法在 HDFS 中写入,所以我会排除这是问题所在。
我应该怎么做才能防止这种异常?
编辑:导入部分
import java.io.File;
import java.nio.file.Files;
import java.nio.file.Paths;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;