2

全部,

我正在尝试使用 R 中的 RJDBC 、 rJava 和 DBI 包从位于远程 linux 机器上的 mapr hive/hadoop 集群中的大型 hive 表中提取数据。

我在连接到 hive 集群时没有任何问题。我试图从中提取数据的表 1 的大小为 500M(百万)行 x 16 列。

这是代码:

options(java.parameters = "-Xmx32g" )

library(RJDBC)
library(DBI)
library(rJava)

hive_dir <- "/opt/mapr/hive/hive-0.13/lib"
.jinit()
.jaddClassPath(paste(hive_dir,"hadoop-0.20.2-core.jar", sep="/"))
.jaddClassPath(c(list.files("/opt/mapr/hadoop/hadoop-0.20.2/lib",pattern="jar$",full.names=T),
                 list.files("/opt/mapr/hive/hive-0.13/lib",pattern="jar$",full.names=T),
                 list.files("/mapr/hadoop-dir/user/userid/lib",pattern="jar$",full.names=T)))
drv <- JDBC("org.apache.hive.jdbc.HiveDriver","hive-jdbc-0.13.0-mapr-1504.jar",identifier.quote="`")


hive.master <- "xx.xxx.xxx.xxx:10000"
url.dbc <-  paste0("jdbc:hive2://", hive.master)
conn = dbConnect(drv, url.dbc, "user1", "xxxxxxxx")

dbSendUpdate(conn, "set hive.resultset.use.unique.column.names=false")

df <- dbGetQuery(conn, "select *  from dbname.table1 limit 1000000 ") # basically 1 million rows

以上工作完美, df data.frame 包含我想要的内容。但是,如果我从最后一个代码段中删除限制,则会收到错误消息:

df <- dbGetQuery(conn, "select *  from dbname.table1 ")

错误:

Error in .verify.JDBC.result(r, "Unable to retrieve JDBC result set for ",  :    Unable to retrieve JDBC result set for select *  from dbname.table1  (Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask)

我用谷歌搜索了错误的最后一部分,Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask并试图将这 2 个语句放在 之前dbGetQuery,但无法摆脱错误。

dbSendUpdate(conn, "SET hive.auto.convert.join=false")
dbSendUpdate(conn, "SET hive.auto.convert.join.noconditionaltask=false")

当我从我的选择语句中删除限制时,有人知道为什么我会收到错误吗?它甚至可以在有限制的情况下处理 1.2 亿行,但需要很长时间。在这一点上,所花费的时间对我来说不是问题。

4

0 回答 0