-2

嗨,我已经在 cloudera vm 4.2.1 p 中的 java 中实现了我的平均字数,我已经转换为 Jar 文件并运行了命令:hadoop jar averagewordlength.jar stubs.AvgWordLength Shakespeare wordleng

下一步:我已正确运行莎士比亚,但无法运行我的文件(我创建的文件:newfile)。它抛出一个异常:

线程“主”org.apache.hadoop.mapreduce.lib.input.InvalidInputException 中的异常:输入路径不存在:org.apache.hadoop.mapreduce 处的 hdfs://0.0.0.0:8020/user/training/newfile。 lib.input.FileInputFormat.listStatus(FileInputFormat.java:231) at org.apache.hadoop.mapreduce.lib.input.FileInputFormat.getSplits(FileInputFormat.java:248) at org.apache.hadoop.mapred.JobClient.writeNewSplits( JobClient.java:1064) 在 org.apache.hadoop.mapred.JobClient.writeSplits(JobClient.java:1081) 在 org.apache.hadoop.mapred.JobClient.access$600(JobClient.java:174) 在 org.apache。 hadoop.mapred.JobClient$2.run(JobClient.java:993) at org.apache.hadoop.mapred.JobClient$2.run(JobClient.java:946) at java.security.AccessController.doPrivileged(Native Method) at javax。 security.auth.Subject.doAs(Subject.java:396) 在 org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1408) 在 org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java)

请指导粘贴新文件以检查我的解决方案的路径。

4

2 回答 2

0

似乎您的 Hadoop 配置不正确。

hdfs://0.0.0.0不是有效地址

cloudera vm 4.2.1 ? 尝试下载更新的 CDH 5.x VM

于 2017-02-03T07:50:19.330 回答
0

I got it by command

hadoop fs -put localpath

于 2017-02-03T19:37:39.760 回答