我有一个在远程网络设备(F5 bigip)上不断写入的日志文件。我有一个Linux跳转站,我可以从那里获取该日志文件并解析它。我确实找到了一个可以实现“tail -f”的解决方案但我不能使用nice或类似的方法来保持我的脚本在我注销后运行。我能做的就是运行一个cronjob并每隔5分钟复制一次文件。我可以处理我下载的文件,但下次复制它时会包含很多常用数据,那么我该如何处理新的?欢迎任何帮助或支持!
答案 0 :(得分:0)
针对您的问题的两种可能的(非python)解决方案。如果您想在注销后在您的计算机上运行脚本,请将nohup
与&
结合使用,如下所示:
nohup my_program & > /dev/null
在linux机器上,您可以使用
提取两个文件之间的差异 grep -Fxv -f old.txt new.txt > dif.txt
如果文件很大,这可能会很慢。 dif.txt文件只包含新内容,可以由您的程序进行检查。也可能有一个涉及diff
的解决方案。