标签: apache-spark spark-streaming
我有一个连续运行的Spark应用程序,它从Kafka读取消息并进行一些处理。有没有办法聚合"应用程序日志" ?
AFAIK,只有在SparkContext被销毁时才会发生日志聚合。
答案 0 :(得分:0)
您是否尝试过日志的标准YARN命令?
纱线日志-applicationId some-id