HDFS数据节点没有开始使用kerberos

时间:2012-08-23 12:19:57

标签: authentication hadoop kerberos hdfs

我已经为apache hdfs添加了kerberos身份验证,namenode启动并运行但是我无法启动datanode,因为这个异常:

2012-08-23 17:05:45,648 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.lang.RuntimeException: Cannot start secure cluster without privileged resources.
    at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:324)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:299)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1582)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1521)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1539)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1665)
    at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1682)

我在fedora 16上使用apache hadoop版本1.0.1而不是cloudera版本,jsvc文件也存在于libexec下。

有人可以帮我解决这个问题。

谢谢, -Chhavi

1 个答案:

答案 0 :(得分:1)

我遇到了异常,必须从安全集群的根目录启动数据节点。