标签: apache-spark hive
你好,我正在使用Hive 2.3.0和spark版本2.0.2,当我试图从hive控制台在Spark上运行Hive命令时, 工作陷入困境,我必须手动杀死它。
以下是Spark worker Log中的错误消息。你能告诉我我做错了吗?
INFO worker.Worker:Executor app-20171114093447-0000 / 0以状态KILLED exitStatus 143结束
答案 0 :(得分:0)
我能够通过在Spark中配置正确的EventLog目录来修复它。