集群环境下logback无法压缩日志文件在哪的问题

版权声明:本文为博主原创文章遵循 版权协议,转载请附上原文出处链接和本声明

异常容错机制,如果kafka服务宕机,输出到本地文件,可用其他方式重新加载local中的数据记录;
效率比对下:也可以尝试直接用kafka客户端写入到kafka中,手动针对异常做容错(如,写入文件)



版权声明:本文为博主原创文章遵循 版权协议,转载请附上原文出处链接和本声明

昨天突然发现,项目的日志没有按照设置中的基于时间进行滚动分割刚开始以为配置有问题,于是在网上各种查找参考别人的配置,最后发现跟其它人是一样的但是就是不能进行文件分割,这就非常不科学了配置如下

 

偶然间在一篇文章上看到,logback的按时间的分包策略是通过fileNamePattern标签中%d来进行推断的于是去翻了一下官方文档,果然如此如下

到此问题找到了,我的路径是
 
路径中有两个%d,他按第一个推断是按月分割,并不是没有生效而且没触发规则。。。
于是接着往下看文档多個%d要怎么处理

官方样例所示,用aux关键字进行标识
 
于此问题解决可以正常按天进行分割,按月进行文件归档

logback配置如上面这样maxHistory是30,但没到30天日志就被删除了,请问这是为什么有没有人知道?

我要回帖

更多关于 日志文件 的文章

 

随机推荐