Web服务器日志分析器(例如Urchin)经常显示许多“会话”。会话定义为个人在有限的连续时间段内进行的一系列页面访问/点击。尝试使用IP地址识别这些段,并且通常是用户代理和操作系统等补充信息,以及会话超时阈值,例如15或30分钟。
对于某些网站和应用程序,用户可以使用cookie登录和/或跟踪,这意味着服务器可以准确地知道会话何时开始。我不是在谈论这个问题,而是在网络服务器不跟踪它们的时候启发式地推断会话(“session reconstruction”)。
我可以写一些代码,例如在Python中尝试根据上面提到的标准重建会话,但我宁愿不重新发明轮子。我正在查看大小约为400K行的日志文件,因此我必须小心使用可扩展算法。
我的目标是从日志文件中提取唯一IP地址列表,并为每个IP地址提供从该日志推断出的会话数。绝对的精确度和准确性是不必要的...非常好的估计是可以的。
新的请求被放入现有的 会话如果两个条件有效:
- IP地址和用户代理与已经发出的请求相同 插入会话,
- 请求在最后一次之后不到十五分钟完成 请求插入。
理论上编写一个Python程序来构建字典(由IP键控)字典(由用户代理键控),其价值是一对是简单的:(会话数,最新会话的最新请求)
但我宁愿尝试使用现有的实现,如果可用的话,因为否则我可能会花费大量时间调整性能。
仅供参考,以免有人要求输入样本,这里是我们日志文件的一行(已消毒):
#Fields: date time s-ip cs-method cs-uri-stem cs-uri-query s-port cs-username c-ip cs(User-Agent) cs(Referer) sc-status sc-substatus sc-win32-status
2010-09-21 23:59:59 215.51.1.119 GET /graphics/foo.gif - 80 - 128.123.114.141 Mozilla/5.0+(Windows;+U;+Windows+NT+5.1;+en-US;+rv:1.9.2)+Gecko/20100115+Firefox/3.6+(.NET+CLR+3.5.30729) http://www.mysite.org/blarg.htm 200 0 0
答案 0 :(得分:2)
好的,在没有任何其他答案的情况下,这是我的Python实现。我不是Python专家。欢迎提出改进建议。
#!/usr/bin/env python
"""Reconstruct sessions: Take a space-delimited web server access log
including IP addresses, timestamps, and User Agent,
and output a list of the IPs, and the number of inferred sessions for each."""
## Input looks like:
# Fields: date time s-ip cs-method cs-uri-stem cs-uri-query s-port cs-username c-ip cs(User-Agent) cs(Referer) sc-status sc-substatus sc-win32-status
# 2010-09-21 23:59:59 172.21.1.119 GET /graphics/foo.gif - 80 - 128.123.114.141 Mozilla/5.0+(Windows;+U;+Windows+NT+5.1;+en-US;+rv:1.9.2)+Gecko/20100115+Firefox/3.6+(.NET+CLR+3.5.30729) http://www.site.org//baz.htm 200 0 0
import datetime
import operator
infileName = "ex100922.log"
outfileName = "visitor-ips.csv"
ipDict = {}
def inputRecords():
infile = open(infileName, "r")
recordsRead = 0
progressThreshold = 100
sessionTimeout = datetime.timedelta(minutes=30)
for line in infile:
if (line[0] == '#'):
continue
else:
recordsRead += 1
fields = line.split()
# print "line of %d records: %s\n" % (len(fields), line)
if (recordsRead >= progressThreshold):
print "Read %d records" % recordsRead
progressThreshold *= 2
# http://www.dblab.ntua.gr/persdl2007/papers/72.pdf
# "a new request is put in an existing session if two conditions are valid:
# * the IP address and the user-agent are the same of the requests already
# inserted in the session,
# * the request is done less than fifteen minutes after the last request inserted."
theDate, theTime = fields[0], fields[1]
newRequestTime = datetime.datetime.strptime(theDate + " " + theTime, "%Y-%m-%d %H:%M:%S")
ipAddr, userAgent = fields[8], fields[9]
if ipAddr not in ipDict:
ipDict[ipAddr] = {userAgent: [1, newRequestTime]}
else:
if userAgent not in ipDict[ipAddr]:
ipDict[ipAddr][userAgent] = [1, newRequestTime]
else:
ipdipaua = ipDict[ipAddr][userAgent]
if newRequestTime - ipdipaua[1] >= sessionTimeout:
ipdipaua[0] += 1
ipdipaua[1] = newRequestTime
infile.close()
return recordsRead
def outputSessions():
outfile = open(outfileName, "w")
outfile.write("#Fields: IPAddr Sessions\n")
recordsWritten = len(ipDict)
# ipDict[ip] is { userAgent1: [numSessions, lastTimeStamp], ... }
for ip, val in ipDict.iteritems():
# TODO: sum over on all keys' values [(v, k) for (k, v) in d.iteritems()].
totalSessions = reduce(operator.add, [v2[0] for v2 in val.itervalues()])
outfile.write("%s\t%d\n" % (ip, totalSessions))
outfile.close()
return recordsWritten
recordsRead = inputRecords()
recordsWritten = outputSessions()
print "Finished session reconstruction: read %d records, wrote %d\n" % (recordsRead, recordsWritten)
更新:输入和处理342K记录并写入21K记录需要39秒。这对我的目的而言足够快。显然,3/4的时间花费在strptime()
!