我们正在使用Splunk App for Infrastructure(SAI)使用Apache Hadoop plugin分析从SignalFx收集的hadoop集群节点。
我们已尝试将{@ 1}}或write_http
插件配置为将收集的数据发送到Splunk。
从指标中提取自定义write_splunk
时,我们遇到了一个问题。
对于所有我们可以在收集的插件中配置的指标,我们不仅需要“静态”维度:
dimension
,但也要发送“动态”维度,例如:<Plugin write_splunk>
...
Dimension "key1:value1"
</Plugin>
,id
,user
,name
,queue
和其他{ 3}},总共超过10个维度。
如果我们使用state
插件,则会遇到另一个问题所述的提取维度的问题:
Cluster Applications API
当我们使用write_http
插件时,我们的write_splunk
如下所示:
metric_name
从收集的插件中获取的apache_hadoop.[id:application_1555643048019_55088,user:hive,queue:root.project_name,state:FINISHED].gauge.hadoop.resource.manager.apps.allocatedMB
维度似乎已添加到度量标准名称。类似于statsd如何为plugin_instance
添加尺寸。
我们想像这样提取维度表单指标:
metric_name
我们尝试使用以下配置提取How to extract custom dimensions from plugin_instance when we are using collectd?中所述的尺寸:
app_id=application_1555643048019_55088
user=hive
queue=root.project_name
state=FINISHED
它对我们不起作用。
您能提供一些建议如何在索引时间内从Splunk App for Infrastructure的指标中提取自定义维度吗?