0

我正在尝试使用带有 SQOOP 插件的 Pentaho Kettle Job 从 ORACLE 导出表并将其导入 HDFS。

我正在使用 cloudera CDH4 (4.2) 演示 VM 并使用演示 VM 附带的 Hadoop jar 和 Sqoop jar。

我看到 org.apache.hadoop.ipc.CURRENT_VERSION 的版本设置为 7。有一件事,我无法弄清楚这里的客户是谁,我如何检查版本?在这种情况下,Sqoop 是客户端吗?

任何建议都会非常有帮助。

原因:org.apache.hadoop.ipc.RemoteException:服务器 IPC 版本 7 无法与 org.apache.hadoop.ipc.Client.call(Client.java:740) 处 org.apache.hadoop.ipc 的客户端版本 3 通信.RPC$Invoker.invoke(RPC.java:220) at org.apache.hadoop.mapred.$Proxy23.getProtocolVersion(Unknown Source) at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359) at org.apache.hadoop.mapred.JobClient.createRPCProxy(JobClient.java:429) 在 org.apache.hadoop.mapred.JobClient.init(JobClient.java:423) 在 org.apache.hadoop.mapred.JobClient.(JobClient .java:410) 在 org.apache.hadoop.mapreduce.Job.(Job.java:50) 在 org.apache.sqoop.mapreduce.ImportJobBase.runImport(ImportJobBase.java:188) 在 org.apache.sqoop.manager .SqlManager.importTable(SqlManager.java:413) 在 org.apache.sqoop.manager.OracleManager.importTable(OracleManager.java:380) 在 org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:380) 在 org.apache.sqoop.tool.ImportTool.run(ImportTool.java:453)

4

1 回答 1

0

看起来像一些版本不匹配的问题。试试这个,看看它是否有帮助:

将 $PDI_HOME/libext/bigdata/ 目录中的 hadoop-*-core.jar 替换为 CDH4 附带的那个。

于 2013-06-30T05:08:14.133 回答