0

我想使用“sqoop create-hive-table”在 Hive 中创建一个表模式。我的数据库是 Oracle Database 10g Enterprise Edition 10.2.0.4.0,我使用 sqoop-1.2.0-cdh3u0 和 hive-0.7.0-cdh3u0。之后要在 Hive 表上加载的数据已经在 HDFS 上,我更愿意让 sqoop 和 hive 自动创建表元数据,而不是手动创建它并在之后加载数据。

这是我执行的命令:

$ sqoop create-hive-table --connect jdbc:oracle:thin:@//dbserver:1521/masterdb
        --username myuser --table DBFUNC1.R1_EVOLUTION
        --fields-terminated-by ',' -P

我收到以下错误:

11/05/12 11:33:11 INFO hive.HiveImport:将上传的数据加载到 Hive

11/05/12 11:33:12 INFO manager.OracleManager: 时区已设置为 GMT 11/05/12

11:33:12 INFO manager.SqlManager:执行 SQL 语句:SELECT t.* FROM BFUNC1.R1_EVOLUTION t WHERE 1=0

2012 年 11 月 5 日 11:33:14 信息 hive.HiveImport:Hive 历史文件=/tmp/edjatsay/hive_job_log_edjatsay_201105121133_1466429457.txt

2012 年 11 月 5 日 11:33:14 信息 hive.HiveImport:失败:解析错误:第 1:58 行不匹配输入“)”在列规范中需要标识符

11/05/12 11:33:14 信息 hive.HiveImport:

2012 年 11 月 5 日 11:33:14 错误 tool.CreateHiveTableTool:运行创建表作业时遇到 IOException:java.io.IOException:Hive 以状态 11 退出

这是数据库中表的架构:

SQL> describe BFUNC1.R1_EVOLUTION;

OWNER_ID          NOT NULL NUMBER(38)    
AI_CODE           NOT NULL CHAR(3) 
TA_NUMBER         NOT NULL NUMBER(38)   
RULE              NOT NULL CHAR(4)
F_CLASS           NOT NULL CHAR(8)      
EVOLUTION_ID      NOT NULL NUMBER(38)
CREATION_MODIFID   NUMBER(38)
DISC_MODIFID       NUMBER(38)

CREATION_DATETIME   CHAR(19)
ENDED_DATETIME      CHAR(19)
EVOLUTION_STATE     CHAR(1)     

在此先感谢您的帮助。

4

2 回答 2

2

我终于通过使用带有“--hive-import”选项的 sqoop 导入表的单行来解决了这个问题。这是我使用的命令:

$ sqoop import --connect jdbc:oracle:thin:@//dbserver:1521/masterdb --username myuser --table DBFUNC1.R1_EVOLUTION --where 'rownum=1' --verbose -P

接下来,我只是删除了之前导入的单行,并手动加载了我在 HDFS 上已有的数据。这样做的目的是让 Hive 猜测并自动创建元数据。我为了能够在通用脚本中执行整个过程。

于 2011-05-23T08:34:13.860 回答
0

下面是我在项目中使用的 sqoop 导入查询:

oracle_connection.txt 将包含连接信息。

sqoop --options-file  oracle_connection.txt \
--table $DATABASE.$TABLENAME \
-m $NUMMAPPERS  \
--where "$CONDITION" \
--hive-import \
--map-column-hive "$COLLIST" \
--create-hive-table \
--hive-drop-import-delims \
--split-by $SPLITBYCOLUMN  \
--hive-table $HIVEDATABASE.$TABLENAME \
--bindir sqoop_hive_rxhome/bindir/ \
--outdir sqoop_hive_rxhome/outdir 
于 2017-11-29T20:37:53.980 回答