我想使用Java中的CsvBulkLoadTool
将csv数据文件放到HBase表中。
HBase和Phoenix正在Ubuntu VM上运行。
当我从Windows运行CsvBulkLoadTool.run()
时,我得到下一个异常:
java.lang.IllegalArgumentException: Pathname /C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar from hdfs://vm:9000/C:/Users/My_User/.m2/repository/org/apache/htrace/htrace-core/3.1.0-incubating/htrace-core-3.1.0-incubating.jar is not a valid DFS filename.
顺便说一下,当我在Ubuntu VM上运行我的示例应用程序java -jar
时,我得到了nex异常:
java.io.FileNotFoundException: File does not exist: hdfs://vm:9000/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
其中/usr/local/phoenix-samples-1.0-SNAPSHOT-jar-with-dependencies.jar
是Ubuntu vm上的实际jar文件位置。
我使用了来自here的CsvBulkLoadTool
个样本。
此外,当我使用普通的JDBC连接并通过Phoenix填充表时 - 一切正常。
答案 0 :(得分:0)
CSVBulkloadTool应该以{{1}}运行。
所以我应该跑:
hadoop jar