标签: hadoop apache-spark yarn spark-hive
我正在研究spark,我希望通过清除所有以前的失败/完成作业来清除我的火花主UI。我无法弄清楚如何做到这一点?我尝试从hdfs删除日志,但作业条目仍显示在UI上。
答案 0 :(得分:0)
您需要重新启动主Spark过程。 从spark的sbin目录, 运行./stop-master.sh和./start-master.sh 它应该修复。
sbin
./stop-master.sh
./start-master.sh