Python - 从经常更新的远程日志文件中读取

时间:2016-10-27 14:09:49

标签: linux logfile

我有一个在远程网络设备(F5 bigip)上不断写入的日志文件。我有一个Linux跳转站,我可以从那里获取该日志文件并解析它。我确实找到了一个可以实现“tail -f”的解决方案但我不能使用nice或类似的方法来保持我的脚本在我注销后运行。我能做的就是运行一个cronjob并每隔5分钟复制一次文件。我可以处理我下载的文件,但下次复制它时会包含很多常用数据,那么我该如何处理新的?欢迎任何帮助或支持!

1 个答案:

答案 0 :(得分:0)

针对您的问题的两种可能的(非python)解决方案。如果您想在注销后在您的计算机上运行脚本,请将nohup&结合使用,如下所示:

nohup my_program & > /dev/null

在linux机器上,您可以使用

提取两个文件之间的差异

grep -Fxv -f old.txt new.txt > dif.txt

如果文件很大,这可能会很慢。 dif.txt文件只包含新内容,可以由您的程序进行检查。也可能有一个涉及diff的解决方案。