我在我的mac机器上创建了虚拟盒,ubuntu 14.04LTS环境。 在ubuntu的虚拟框中,我创建了三个lxc容器的集群。一个用于主站,另一个用于从站。
在master上,我已使用以下链接http://archive.cloudera.com/cm5/installer/latest/cloudera-manager-installer.bin
开始安装CDH5我还在/ etc / hosts中进行了必要的更改,包括FQDN和主机名。还创建了名为“ubuntu”的无密码用户。
在设置CDH5时,在安装过程中我经常遇到数据节点上的跟随错误。最大锁定内存大小:dfs.datanode.max.locked.memory为922746880字节,大于datanode可用的RLIMIT_MEMLOCK ulimit 65536字节。
Exception in secureMain: java.lang.RuntimeException: Cannot start datanode because the configured max locked memory size (dfs.datanode.max.locked.memory) of 922746880 bytes is more than the datanode's available RLIMIT_MEMLOCK ulimit of 65536 bytes.
at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:1050)
at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:411)
at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2297)
at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2184)
at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2231)
at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2407)
at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:2431)
答案 0 :(得分:0)
Krunal,
这个解决方案对你来说可能会很晚,但也许它可以帮助其他人,所以在这里。确保您的ulimit设置正确。但如果是配置问题。
:转到:
/run/cloudera-scm-agent/process/
找到最新的配置目录, 在这种情况下:
1016-hdfs-DATANODE
在此目录中搜索参数:
grep -rnw . -e "dfs.datanode.max.locked.memory"
./hdfs-site.xml:163: <name>dfs.datanode.max.locked.memory</name>
并将值编辑为他所期望的值(65536)
答案 1 :(得分:0)