Hadoop 1.0.4分布式缓存错误

时间:2013-05-30 06:44:37

标签: hadoop mapreduce

我正在MapReduce中构建日志分析程序。我正在使用MaxMind GeoIP数据。现在我想将GeoIP数据放入分布式缓存中。我在eclipse中开发我的应用程序。这就是我正在做的事情

Job job = new Job();        
DistributedCache.addCacheFile(new URI(args[3]), job.getConfiguration());

其中args [3]将有路径。

我在这里使用它

protected void setup(Context context) {
    try {
        //String dbfile = "GeoIP//GeoIPCountry.dat";

        org.apache.hadoop.conf.Configuration conf =  context.getConfiguration();

        Path[] dbfile = DistributedCache.getLocalCacheFiles(conf); 

        // GEOIP_MEMORY_CACHE - load database into memory, faster
        // performance but uses more memory, Increase the JVM heap Size
        cl = new LookupService(dbfile.toString(), LookupService.GEOIP_MEMORY_CACHE);

    } catch (Exception e) {
        System.err.println("Error opening GeoIP data file.");
        System.err.println(e);
        System.exit(2);
    }
}

但是在跑步的过程中我遇到了以下错误

Exception in thread "main" java.lang.Error: Unresolved compilation problem: 
The method addCacheFile(URI, Configuration) in the type DistributedCache is not applicable for the arguments (URI, Configuration)

我无法弄清楚出了什么问题。请帮忙

1 个答案:

答案 0 :(得分:2)

它找错了班级:

The method addCacheFile(URI, Configuration) in the type DistributedCache is not applicable for the arguments (URI, Configuration)

检查URIConfiguration类的导入。

根据documentation,它们应为java.net.URIorg.apache.hadoop.conf.Configuration

我想你可能搞砸了jdk中的javax.security.auth.login.Configuration类。那不应该在这里使用。