查找Spark应用程序已停止的原因

时间:2018-10-25 15:09:57

标签: apache-spark

我的 Spark 应用有时由于HDFS failureOutOfMemoryError之类的问题或其他一些问题而停止。

我知道我们可以定期存储历史服务器的数据,但这可能会影响空间和性能。

我希望在历史记录服务器中仅记录相关的错误消息(而不是所有的INFO消息)。

是否可以控制历史记录服务器将打印哪些消息?

1 个答案:

答案 0 :(得分:1)

您可以设置此属性

log4j.logger.org.apache.spark.deploy.history=ERROR

log4j.properties文件中的