如何对日志文件执行计算

时间:2009-03-04 23:07:21

标签: parsing shell awk gawk

我有一个看起来像这样:

I, [2009-03-04T15:03:25.502546 #17925]  INFO -- : [8541, 931, 0, 0]
I, [2009-03-04T15:03:26.094855 #17925]  INFO -- : [8545, 6678, 0, 0]
I, [2009-03-04T15:03:26.353079 #17925]  INFO -- : [5448, 1598, 185, 0]
I, [2009-03-04T15:03:26.360148 #17925]  INFO -- : [8555, 1747, 0, 0]
I, [2009-03-04T15:03:26.367523 #17925]  INFO -- : [7630, 278, 0, 0]
I, [2009-03-04T15:03:26.375845 #17925]  INFO -- : [7640, 286, 0, 0]
I, [2009-03-04T15:03:26.562425 #17925]  INFO -- : [5721, 896, 0, 0]
I, [2009-03-04T15:03:30.951336 #17925]  INFO -- : [8551, 4752, 1587, 1]
I, [2009-03-04T15:03:30.960007 #17925]  INFO -- : [5709, 5295, 0, 0]
I, [2009-03-04T15:03:30.966612 #17925]  INFO -- : [7252, 4928, 0, 0]
I, [2009-03-04T15:03:30.974251 #17925]  INFO -- : [8561, 4883, 1, 0]
I, [2009-03-04T15:03:31.230426 #17925]  INFO -- : [8563, 3866, 250, 0]
I, [2009-03-04T15:03:31.236830 #17925]  INFO -- : [8567, 4122, 0, 0]
I, [2009-03-04T15:03:32.056901 #17925]  INFO -- : [5696, 5902, 526, 1]
I, [2009-03-04T15:03:32.086004 #17925]  INFO -- : [5805, 793, 0, 0]
I, [2009-03-04T15:03:32.110039 #17925]  INFO -- : [5786, 818, 0, 0]
I, [2009-03-04T15:03:32.131433 #17925]  INFO -- : [5777, 840, 0, 0]

我想创建一个shell脚本来计算括号中的第2和第3个字段的平均值(在上一个示例中为8400)。一个更棘手的问题:只有当最后一个字段不是0时,是否可以得到第3个字段的平均值?

我知道我可以使用Ruby或其他语言来创建脚本,但我想在Bash中执行此操作。关于如何创建这样一个脚本的资源或提示的任何好建议都会有所帮助。

4 个答案:

答案 0 :(得分:6)

使用bashawk

  

cat file | sed -ne 's:^.*INFO.*\[\([0-9, ]*\)\][ \r]*$:\1:p' | awk -F ' *, *' '{ sum2 += $2 ; sum3 += $3 } END { if (NR>0) printf "avg2=%.2f, avg3=%.2f\n", sum2/NR, sum3/NR }'

示例输出(原始数据):

  

avg2=2859.59, avg3=149.94

当然,您不需要使用cat,它包含在那里是为了易读性并说明输入数据可以来自任何管道的事实;如果您必须对现有文件进行操作,请直接运行sed -ne '...' file | ...


修改

如果您可以访问gawk(GNU awk),则可以按照以下方式消除对sed的需求:

  

cat file | gawk '{ if(match($0, /.*INFO.*\[([0-9, ]*)\][ \r]*$/, a)) { cnt++; split(a[1], b, / *, */); sum2+=b[2]; sum3+=b[3] } } END { if (cnt>0) printf "avg2=%.2f, avg3=%.2f\n", sum2/cnt, sum3/cnt }'

同样的评论。 cat适用。

一点解释:

  • sed仅打印出与正则表达式匹配的行(-n ... :p组合)(包含INFO的行后跟行尾的方括号之间的数字,空格和逗号的任意组合,允许用于尾随空格和CR);如果任何此类行匹配,则仅在打印前保留方括号(\1之间的对应于正则表达式中\(...\)之间的内容)(:p
    • sed将输出如下所示的行:8541, 931, 0, 0
  • awk使用逗号包围0或更多空格(-F ' *, *')作为字段分隔符; $1对应第一列(例如8541),$2对应第二列等。缺少的列计为值0
    • 最后,awk将累加器sum2等除以处理的记录数NR
  • gawk一次性做所有事情;它将首先测试每一行是否与上一个示例中传递给sed的相同正则表达式匹配(除了与sed不同之外,awk不需要\。圆括号界定区域或利益)。如果该行匹配,则圆括号之间的内容最终在[1]中,然后我们使用相同的分隔符(由任意数量的空格包围的逗号)进行拆分并使用它来累积。我介绍了cnt而不是继续使用NR,因为处理的记录数NR可能大于相关记录的实际数量(cnt),如果不是所有行都是INFO ... [...comma-separated-numbers...]形式的sed|awk形式,因为sed保证传递给awk的所有行都是相关的。{/ li>

答案 1 :(得分:1)

在这里发布我通过IM粘贴给你的回复,只是因为它让我尝试StackOverflow:)

# replace $2 with the column you want to avg; 
awk '{ print $2 }' | perl -ne 'END{ printf "%.2f\n", $total/$n }; chomp; $total+= $_; $n++' < log

答案 2 :(得分:0)

Solaris 上使用 nawk / usr / xpg4 / bin / awk

awk -F'[],]' 'END { 
  print s/NR, t/ct 
  }  
{ 
  s += $(NF-3) 
  if ($(NF-1)) {
    t += $(NF-2)
    ct++
    }
  }' infile

答案 3 :(得分:0)

使用Python

logfile= open( "somelogfile.log", "r" )
sum2, count2= 0, 0
sum3, count3= 0, 0
for line in logfile:
    # find right-most brackets
    _, bracket, fieldtext = line.rpartition('[')
    datatext, bracket, _ = fieldtext.partition(']')
    # split fields and convert to integers
    data = map( int, datatext.split(',') )
    # compute sums and counts
    sum2 += data[1]
    count2 += 1
    if data[3] != 0:
        sum3 += data[2]
        count3 += 1
logfile.close()

print sum2, count2, float(sum2)/count2
print sum3, count3, float(sum3)/count3