1

在配置单元上运行一个简单的选择查询时,我遇到了这个奇怪的错误

java.lang.IllegalArgumentException: Wrong FS: file://usr/lib/hive/lib/CustomUDFint.jar, expected: file:///
    at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:410)
    at org.apache.hadoop.fs.RawLocalFileSystem.pathToFile(RawLocalFileSystem.java:56)
    at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:379)
    at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:251)
    at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:207)

在谷歌搜索中,我发现所有提到表位置的配置单元元数据指向某个错误位置的链接。

为什么会这样?以及我该如何解决?

谢谢,

4

2 回答 2

2

请确保 HADOOP_HOME 设置为正确的值?您使用的是哪个 Hadoop 版本?尝试通过 Hive shell 设置 NN 的位置,看看是否有帮助:

hive -hiveconf fs.default.name=localhost

根据您的配置更改本地主机。

于 2013-07-10T04:04:24.140 回答
1

刚刚遇到同样的问题,在我的 pom.xml 中我需要添加依赖项

<dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-hdfs</artifactId>
</dependency>
于 2015-06-30T17:57:28.133 回答