我使用SUM-Aggregation计算服务进程的持续时间。执行过程的每个步骤都将在调用Id。
下保存在Elasticsearch中这是我监控的内容:
Duration of Request-Processing for ID #123 (calling service #1)
Duration of Server-Response for ID #123 (calling service #1)
**Complete Duration for ID #123**
Duration of Request-Processing for ID #124 (calling service #1)
Duration of Server-Response for ID #124 (calling service #1)
**Complete duration for ID #124**
过滤器:
{
"from" : 0, "size" :0,
"query" : {
"filtered" : {
"query" : { "match_all" : {}},
"filter" : {
"term" : {
"callingId" : "123",
}
}
}
},
"aggs" : {
"total_duration" : { "sum" : { "field" : "duration" } },
"max_duration":{"max": {"field":"duration"}},
"min_duration":{"min":{"field":"duration"}}
}
}
}
这将返回整个过程的持续时间,并告诉我哪个部分过程最快,哪个部分最慢。
接下来,我想通过serviceId计算所有已完成流程的平均持续时间。在这种情况下,我只关心每项服务的总持续时间,所以我可以来这些服务。
如何从我的total_durations中创建平均值,最小值和最大值?
编辑:我添加了一些示例数据,希望您能使用它。
CALL1:
{
"callerId":"U1",
"operation":"Initialize",
"status":"INITIALIZED",
"duration":1,
"serviceId":"1"
}
{
"callerId":"U1",
"operation":"Calculate",
"status":"STARTED",
"duration":1,
"serviceId":"1"
}
{
"callerId":"U1",
"operation":"Finish",
"status":"FINISHED",
"duration":1200,
"serviceId":"1"
}
sum: 1202
CALL2:
{
"callerId":"U2",
"operation":"Initialize",
"status":"INITIALIZED",
"duration":2,
"serviceId":"1"
}
{
"callerId":"U2",
"operation":"Calculate",
"status":"STARTED",
"duration":1,
"serviceId":"1"
}
{
"callerId":"U2",
"operation":"Finish",
"status":"FINISHED",
"duration":1030,
"serviceId":"1"
}
sum: 1033
服务ID#1的所有服务呼叫的聚合 这就是我想要计算的:
Max: 1202
Min: 1033
AVG: 1116
答案 0 :(得分:3)
有点复杂,但在这里(因为this type of aggregation只有1.4):
{
"query": {
"filtered": {
"query": {
"match_all": {}
},
"filter": {
"term": {
"serviceId": 1
}
}
}
},
"aggs": {
"executionTimes": {
"scripted_metric": {
"init_script": "_agg['values'] = new java.util.HashMap();",
"map_script": "if (_agg.values[doc['callerId'].value]==null) {_agg.values[doc['callerId'].value]=doc['duration'].value;} else {_agg.values[doc['callerId'].value].add(doc['duration'].value);}",
"combine_script":"someHashMap = new java.util.HashMap();for(x in _agg.values.keySet()) {value=_agg.values[x]; sum=0; for(y in value) {sum+=y}; someHashMap.put(x,sum)}; return someHashMap;",
"reduce_script": "finalArray = []; finalMap = new java.util.HashMap(); for(map in _aggs){for(x in map.keySet()){if(finalMap.containsKey(x)){value=finalMap.get(x);finalMap.put(x,value+map.get(x));} else {finalMap.put(x,map.get(x))}}}; finalAvgValue=0; finalMaxValue=-1; finalMinValue=-1; for(key in finalMap.keySet()){currentValue=finalMap.get(key);finalAvgValue+=currentValue; if(finalMinValue<0){finalMinValue=currentValue} else if(finalMinValue>currentValue){finalMinValue=currentValue}; if(currentValue>finalMaxValue) {finalMaxValue=currentValue}}; finalArray.add(finalMaxValue); finalArray.add(finalMinValue); finalArray.add(finalAvgValue/finalMap.size()); return finalArray",
"lang": "groovy"
}
}
}
}
另外,我并不是说这是最好的方法,但只有我能找到的方法。另外,我并不是说解决方案处于最佳状态。可能,它可能会被清理和改进。不过,我想表明它是可能的。但请记住,它可以在1.4中找到。
该方法的基本思想是使用脚本构建一个数据结构,该结构应该包含您需要的信息,并根据scripted metric aggregation在不同的步骤中计算。此外,仅对一个serviceId
执行聚合。如果你想为所有serviceIds做这个,我想你可能想要重新考虑一下脚本中的数据结构。
对于上面的查询以及您提供的确切数据,输出为:
{
"took": 3,
"timed_out": false,
"_shards": {
"total": 5,
"successful": 5,
"failed": 0
},
"hits": {
"total": 6,
"max_score": 0,
"hits": []
},
"aggregations": {
"executionTimes": {
"value": [
1202,
1033,
"1117.5"
]
}
}
}
根据value
中的脚本,数组reduce_script
中的值的顺序为[max,min,avg]。
答案 1 :(得分:2)
即将推出的版本2.0.0中将会有一项名为&#34; Reducers &#34;的新功能。 Reducers允许您计算聚合的聚合。
相关文章: https://github.com/elasticsearch/elasticsearch/issues/8110