我在生产机器上几次遇到问题,无论出于何种原因,AWS log agent都变得不同步,并开始疯狂地将以下错误消息写入日志文件
2018-09-03 17:51:17,251 - cwlogs.push.reader - WARNING - 18880 - Thread-333 - Fall back to previous event time: {'timestamp': 1535992848000, 'start_position': 12956454L, 'end_position': 12956574L}, previousEventTime: 1535992848000, reason: timestamp could not be parsed from message.
2018-09-03 17:51:17,251 - cwlogs.push.reader - WARNING - 18880 - Thread-333 - Fall back to previous event time: {'timestamp': 1535992848000, 'start_position': 12956574L, 'end_position': 12956705L}, previousEventTime: 1535992848000, reason: timestamp could not be parsed from message.
...以每毫秒10的节奏,因此每秒10k日志条目(即仅一小时即可完成约3,600万行代码,考虑到行大小,这不足为奇,我仅获得几GB的日志几个小时...
任何人都有相同的问题,并且有一些解释/解决方案来解决此错误?
我不知道这是否相关,但是其他一些错误导致我的DD达到其inode上限,因此在依赖于编写新文件的许多应用程序和进程上,我可能会遇到很多错误……足以使awslogs代理疯狂吗?
答案 0 :(得分:0)
也许这会有所帮助,但不确定,但是我看到的是同一件事,并且意识到这很可能是由于Java异常,与配置中的时间戳不匹配的sic多行条目所致。我添加了multi_line_start_pattern = {datetime_format},这似乎有所帮助。我发现此链接是一个很好的参考资源:https://docs.aws.amazon.com/AmazonCloudWatch/latest/logs/AgentReference.html
HTH, JP