从Windows运行时出现Phoenix CsvBulkLoadTool错误

时间:2017-09-06 11:51:39

标签: java maven hadoop hbase phoenix

我想使用Java中的CsvBulkLoadTool将csv数据文件放到HBase表中。

HBase和Phoenix正在Ubuntu VM上运行。

当我从Windows运行CsvBulkLoadTool.run()时,我得到下一个异常:

java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename.

顺便说一下,当我在Ubuntu VM上运行我的示例应用程序java -jar时,我得到了nex异常:

java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar

其中/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar是Ubuntu vm上的实际jar文件位置。

我使用了来自hereCsvBulkLoadTool个样本。

此外,当我使用普通的JDBC连接并通过Phoenix填充表时 - 一切正常。

1 个答案:

答案 0 :(得分:0)

CSVBulkloadTool应该以{{1​​}}运行。

所以我应该跑: hadoop jar