我正在尝试使用SQOOP插件进行Pentaho Kettle Job从ORACLE导出表并将其导入HDFS。
我正在使用cloudera CDH4(4.2)演示VM并使用演示VM附带的Hadoop jar和Sqoop jar。
我看到org.apache.hadoop.ipc.CURRENT_VERSION的版本设置为7.有一点,我在这里无法弄清楚,谁是这里的客户端,我该如何查看版本?在这种情况下,Sqoop是客户吗?
任何建议都会非常有用。
引起:org.apache.hadoop.ipc.RemoteException:服务器IPC版本7无法与客户端版本3通信 在org.apache.hadoop.ipc.Client.call(Client.java:740) 在org.apache.hadoop.ipc.RPC $ Invoker.invoke(RPC.java:220) 在org.apache.hadoop.mapred。$ Proxy23.getProtocolVersion(未知来源) 在org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359) 在org.apache.hadoop.mapred.JobClient.createRPCProxy(JobClient.java:429) 在org.apache.hadoop.mapred.JobClient.init(JobClient.java:423) 在org.apache.hadoop.mapred.JobClient。(JobClient.java:410) 在org.apache.hadoop.mapreduce.Job。(Job.java:50) 在org.apache.sqoop.mapreduce.ImportJobBase.runImport(ImportJobBase.java:188) 在org.apache.sqoop.manager.SqlManager.importTable(SqlManager.java:413) 在org.apache.sqoop.manager.OracleManager.importTable(OracleManager.java:380) 在org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:380) 在org.apache.sqoop.tool.ImportTool.run(ImportTool.java:453)
答案 0 :(得分:0)
看起来有些版本不匹配问题。试试这个,看看它是否有帮助:
将$ PDI_HOME / libext / bigdata /目录中的hadoop - * - core.jar替换为CDH4附带的目录。