我正在使用fluentd读取传入的日志文件,并根据字段将其内容分开。但是每次我添加新的日志文件时,fluentd都会从头开始重新读取整个日志文件。似乎pos_file参数不起作用。 以下是我的配置代码。
<source>
@type tail
format multiline
format_firstline /TID:/
format1 /(?<TenantID>TID: \[-1\].*)$/
multiline_flush_interval 1s
path /home/charith/Documents/fdConfig/wso2carbon.log.2019-07-14
pos_file /home/charith/Documents/fdConfig/TestEnv/posfile
tag test
#rotate_wait 5
read_from_head true
#refresh_interval 60
#enable_stat_watcher false
</source>
<filter test>
@type record_modifier
#enable_ruby true
#auto_typecast true
<record>
datefield ${record['TenantID'][(/(^(?!(TID: \\[-1\\]\\[\\] \[)))*(?<date>([0-9]{4})-([0-9]{1,2})-([0-9]{1,2}))/)]}
</record>
</filter>
<match test>
@type file
path /home/charith/Documents/fdConfig/TestEnv/${datefield}
format single_value
message_key TenantID
<buffer datefield>
@type memory
flush_at_shutdown true
flush_mode interval
flush_interval 3s
</buffer>
append true
</match>