我在 Windows PC 上安装了 R 2.15.2。Hadoop 和 Hive 在另一台 PC 上。我将 RHive 及其依赖项加载到 R 中。现在我正在尝试连接到 Hive。
> Sys.setenv(HIVE_HOME="/home/hadoop/hive-0.7.0-cdh3u0")
> Sys.setenv(HADOOP_HOME="/home/hadoop/hadoop-0.20.2-cdh3u0")
> library(RHive)
> rhive.env(ALL=TRUE)
Hive 主目录:/home/hadoop/hive-0.7.0-cdh3u0
Hadoop 主目录:/home/hadoop/hive-0.7.0-cdh3u0
Hadoop 配置目录:
No RServe
Disconnected HiveServer 和 HDFS
RHive 库列表
C:/Program Files /R/R-2.15.2/library/RHive/java/rhive_udf.jar /home/hadoop/hive-0.7.0-cdh3u0/conf
> rhive.init()
[1] “HADOOP 没有 slaves 文件。所以你应该在调用 rhive.connect() 时传递 hosts 参数。”
.jnew("org/apache/hadoop/conf/Configuration") 中的错误:java.lang.ClassNotFoundException
另外:警告消息:
在文件中(文件,“rt”):无法打开文件'/home/hadoop/hadoop- 0.20.2-cdh3u0/conf/slaves':没有这样的文件或目录
> rhive.connect(hdfsurl="hdfs://212.63.135.149:9000/")
.jnew("org/apache/hadoop/conf/Configuration") 中的错误:java.lang.ClassNotFoundException
结果是连接错误!
甚至尝试过
rhive.connect(host = "212.63.135.149", port = 10000, hdfsurl="hdfs://212.63.135.149:9000/")
,但没有用。