spark使用log4j登录到HDFS

时间:2015-09-08 16:34:31

标签: hadoop logging apache-spark log4j hdfs

我有一个spark应用程序,有没有办法使用log4j登录HDFS而不需要使用flume appender? (我不是专家,但因为我不需要使用Flume记录很多看起来像是一种过度杀伤)

欢迎提出建议

1 个答案:

答案 0 :(得分:0)

所以,关键是日志已经保存在HDFS中,由纱线聚合器,你可以让他们这样做

yarn logs --applicationId application_1441635924531_0065 | less

当你启动spark-submit时,shell上会出现applicationId编号。