我刚开始使用Pentaho's HDFS VFS并且对这个项目了解不多。 我试图从外部位置读取我的Hadoop配置文件。这似乎适用于除hdfs-site.xml之外的所有文件。尝试通过Pentaho HDFS VFS项目与HDFS通信时,VFS层发生故障。我的直觉告诉我,pentaho正在通过一些环境变量或其他外部指针读取此文件,但我似乎无法在其源代码中找到它。当我手动将hdfs-site.xml文件放在已编译的war文件中时,一切正常,但这对我来说是不够的,因为我需要将此文件放在外部位置,以便其他进程可以更改。
之前是否有人处理此问题?有人可以告诉我如何告诉pentaho从哪里挑选这个文件?
由于
答案 0 :(得分:0)
您是否可以提供更多信息?你在谈论由pentaho发行的VFS api吗?
答案 1 :(得分:0)
所以我想办法让pentaho hdfs工作,你需要做的就是将hdfs-site.xml添加到你的类路径中。 我在启动jar文件时这样做了:
java -jar start.jar --lib = / etc / hadoop / conf.cloudera.yarn1
/etc/hadoop/conf.cloudera.yarn1是hdfs-site.xml所在的目录。