ganglia生成了太多rrd文件&无法自动删除

时间:2016-01-20 06:50:46

标签: hadoop ganglia

我正在使用ganglia 3.7.2来监控hadoop(2.6.0-cdh5.4.0)集群(7台服务器),并且我在hadoop&上启用了metrics2。 HBase的; 我在一台服务器上安装了gmetad,在yum的其他服务器上安装了gmond; 一开始,显示器运行得很好,我可以在神经节网页上看到正常的显示器数据,但问题是: 几个小时后,rrd文件太多,所以我必须为路径/ var / lib / ganglia / rrds制作符号链接,几天后,rrd文件占用了近1TB的磁盘空间,并且网页无法显示显示器数据,任何人都知道如何解决这个问题?

gmond config(使用单通道):

globals {
daemonize = yes
setuid = yes
user = ganglia
debug_level = 0
max_udp_msg_len = 1472
mute = no
deaf = no
allow_extra_data = yes
host_dmax = 86400 /*secs. Expires (removes from web interface) hosts in 1 day */
host_tmax = 20 /*secs */
cleanup_threshold = 300 /*secs */
gexec = no
send_metadata_interval = 60 /*secs */
}

1 个答案:

答案 0 :(得分:0)

解决了这个问题,我做了以下事情:

  1. 将默认rrd规则更改为:
    RRA“RRA:AVERAGE:0.5:1:256”“RRA:AVERAGE:0.5:24:512”“RRA:平均:0.5:168:512”“RRA:平均:0.5:672:512”“RRA:平均: 0.5:5760:1024"

  2. 关闭hadoop metric2的datanode.sink和nodemanager.sink;

  3. 参考:http://www.perzl.org/ganglia/bestpractices.html##Best_Practices_Ganglia_Sampling