我有一个看起来像这样:
I, [2009-03-04T15:03:25.502546 #17925] INFO -- : [8541, 931, 0, 0]
I, [2009-03-04T15:03:26.094855 #17925] INFO -- : [8545, 6678, 0, 0]
I, [2009-03-04T15:03:26.353079 #17925] INFO -- : [5448, 1598, 185, 0]
I, [2009-03-04T15:03:26.360148 #17925] INFO -- : [8555, 1747, 0, 0]
I, [2009-03-04T15:03:26.367523 #17925] INFO -- : [7630, 278, 0, 0]
I, [2009-03-04T15:03:26.375845 #17925] INFO -- : [7640, 286, 0, 0]
I, [2009-03-04T15:03:26.562425 #17925] INFO -- : [5721, 896, 0, 0]
I, [2009-03-04T15:03:30.951336 #17925] INFO -- : [8551, 4752, 1587, 1]
I, [2009-03-04T15:03:30.960007 #17925] INFO -- : [5709, 5295, 0, 0]
I, [2009-03-04T15:03:30.966612 #17925] INFO -- : [7252, 4928, 0, 0]
I, [2009-03-04T15:03:30.974251 #17925] INFO -- : [8561, 4883, 1, 0]
I, [2009-03-04T15:03:31.230426 #17925] INFO -- : [8563, 3866, 250, 0]
I, [2009-03-04T15:03:31.236830 #17925] INFO -- : [8567, 4122, 0, 0]
I, [2009-03-04T15:03:32.056901 #17925] INFO -- : [5696, 5902, 526, 1]
I, [2009-03-04T15:03:32.086004 #17925] INFO -- : [5805, 793, 0, 0]
I, [2009-03-04T15:03:32.110039 #17925] INFO -- : [5786, 818, 0, 0]
I, [2009-03-04T15:03:32.131433 #17925] INFO -- : [5777, 840, 0, 0]
我想创建一个shell脚本来计算括号中的第2和第3个字段的平均值(在上一个示例中为840
和0
)。一个更棘手的问题:只有当最后一个字段不是0
时,是否可以得到第3个字段的平均值?
我知道我可以使用Ruby
或其他语言来创建脚本,但我想在Bash
中执行此操作。关于如何创建这样一个脚本的资源或提示的任何好建议都会有所帮助。
答案 0 :(得分:6)
使用bash
和awk
:
cat file | sed -ne 's:^.*INFO.*\[\([0-9, ]*\)\][ \r]*$:\1:p' | awk -F ' *, *' '{ sum2 += $2 ; sum3 += $3 } END { if (NR>0) printf "avg2=%.2f, avg3=%.2f\n", sum2/NR, sum3/NR }'
示例输出(原始数据):
avg2=2859.59, avg3=149.94
当然,您不需要使用cat
,它包含在那里是为了易读性并说明输入数据可以来自任何管道的事实;如果您必须对现有文件进行操作,请直接运行sed -ne '...' file | ...
。
修改强>
如果您可以访问gawk
(GNU awk),则可以按照以下方式消除对sed
的需求:
cat file | gawk '{ if(match($0, /.*INFO.*\[([0-9, ]*)\][ \r]*$/, a)) { cnt++; split(a[1], b, / *, */); sum2+=b[2]; sum3+=b[3] } } END { if (cnt>0) printf "avg2=%.2f, avg3=%.2f\n", sum2/cnt, sum3/cnt }'
同样的评论。 cat
适用。
一点解释:
sed
仅打印出与正则表达式匹配的行(-n ... :p
组合)(包含INFO的行后跟行尾的方括号之间的数字,空格和逗号的任意组合,允许用于尾随空格和CR);如果任何此类行匹配,则仅在打印前保留方括号(\1
之间的对应于正则表达式中\(...\)
之间的内容)(:p
)
8541, 931, 0, 0
awk
使用逗号包围0或更多空格(-F ' *, *'
)作为字段分隔符; $1
对应第一列(例如8541),$2
对应第二列等。缺少的列计为值0
awk
将累加器sum2
等除以处理的记录数NR
gawk
一次性做所有事情;它将首先测试每一行是否与上一个示例中传递给sed
的相同正则表达式匹配(除了与sed
不同之外,awk
不需要\
。圆括号界定区域或利益)。如果该行匹配,则圆括号之间的内容最终在[1]中,然后我们使用相同的分隔符(由任意数量的空格包围的逗号)进行拆分并使用它来累积。我介绍了cnt
而不是继续使用NR
,因为处理的记录数NR
可能大于相关记录的实际数量(cnt
),如果不是所有行都是INFO ... [...comma-separated-numbers...]
形式的sed|awk
形式,因为sed
保证传递给awk
的所有行都是相关的。{/ li>
答案 1 :(得分:1)
在这里发布我通过IM粘贴给你的回复,只是因为它让我尝试StackOverflow:)
# replace $2 with the column you want to avg;
awk '{ print $2 }' | perl -ne 'END{ printf "%.2f\n", $total/$n }; chomp; $total+= $_; $n++' < log
答案 2 :(得分:0)
在 Solaris 上使用 nawk 或 / usr / xpg4 / bin / awk 。
awk -F'[],]' 'END {
print s/NR, t/ct
}
{
s += $(NF-3)
if ($(NF-1)) {
t += $(NF-2)
ct++
}
}' infile
答案 3 :(得分:0)
使用Python
logfile= open( "somelogfile.log", "r" )
sum2, count2= 0, 0
sum3, count3= 0, 0
for line in logfile:
# find right-most brackets
_, bracket, fieldtext = line.rpartition('[')
datatext, bracket, _ = fieldtext.partition(']')
# split fields and convert to integers
data = map( int, datatext.split(',') )
# compute sums and counts
sum2 += data[1]
count2 += 1
if data[3] != 0:
sum3 += data[2]
count3 += 1
logfile.close()
print sum2, count2, float(sum2)/count2
print sum3, count3, float(sum3)/count3