使用 Spark 日志写入 Spark 应用程序 ID

时间:2021-06-07 04:47:52

标签: apache-spark yarn log4j2

我已经研究了 1 个月,但找不到好的解决方案。默认 Spark 日志不包含应用程序 ID。

默认日志包含 - "time":,"date":,"level":,"thread":,"message"

我尝试自定义 log4j 属性,但找不到方法。我是大数据领域的新手。

我的默认 log4j.properties 文件是

log4j.rootLogger=${hadoop.root.logger}
hadoop.root.logger=INFO,console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{2}: %m%n

有人知道解决办法吗?感谢您的帮助,即使是很小的帮助。

0 个答案:

没有答案
相关问题