如何让Eclipse识别最新的Hadoop库?

时间:2012-07-13 14:23:34

标签: java eclipse hadoop mapreduce hdfs

这个问题更像是一个Eclipse问题,但那些使用Hadoop的人可能知道答案。

去年,我在Eclipse中编写了一些Hadoop MapReduce作业。要访问我需要编译代码的库和包,我在Apache网站(http://wiki.apache.org/hadoop/EclipsePlugIn)上安装了一个Eclipse插件。不幸的是,该插件与最新版本的Hadoop(2.0.0-alpha版本)不兼容。我想知道是否有人在过去几个月内完成了编写Hadoop工作的任何工作,并且知道如何让Eclipse识别最新的Hadoop(2.0.0-alpha)软件包。

该插件仍适用于Hadoop 0.20.203.0,但我希望能够使用最新版本。

我在Windows中运行Eclipse。我尝试右键单击项目名称,转到Properties然后转到Java Build Path,最后选择Add External JARs 我添加了hadoop-2.0.0-alpha/share/hadoop目录和子目录中的所有JAR。起初,我认为这有用,但是当我尝试使用Hadoop 2.0.0-alpha API独有的方法和构造函数时,代码无法编译。它识别的库肯定比Hadoop 0.20.203.0更新,但不像Hadoop当前的alpha版本那么新。

有谁知道如何解决这个问题?

0 个答案:

没有答案