在Spark / YARN上运行分布式应用程序时,出现以下错误,该错误杀死了执行程序,并最终杀死了整个应用程序:
#
# A fatal error has been detected by the Java Runtime Environment:
#
# SIGSEGV (0xb) at pc=0x00007f4f85ab41b1, pid=3309, tid=0x00007f4f90a4e700
#
# JRE version: Java(TM) SE Runtime Environment (8.0_112-b15) (build 1.8.0_112-b15)
# Java VM: Java HotSpot(TM) 64-Bit Server VM (25.112-b15 mixed mode linux-amd64 compressed oops)
# Problematic frame:
# C [libSalience6.so+0x7631b1] lxaArrayTrie::Get(std::string const&) const+0x71
#
# Core dump written. Default location: /data/hadoop/yarn/local/usercache/koverse/appcache/application_1537930191769_0049/container_e08_1537930191769_0049_01_000016/core or core.3309
#
# An error report file with more information is saved as:
# /data/hadoop/yarn/local/usercache/koverse/appcache/application_1537930191769_0049/container_e08_1537930191769_0049_01_000016/hs_err_pid3309.log
#
# If you would like to submit a bug report, please visit:
# http://bugreport.java.com/bugreport/crash.jsp
# The crash happened outside the Java Virtual Machine in native code.
# See problematic frame for where to report the bug.
#
libSalience6.so中存在分段错误。到目前为止一切顺利!
但是核心转储文件或日志文件都不在它们所说的位置。
此错误发生在群集的slv004上,因此纱线应用程序目录
/data/hadoop/yarn/local/usercache/koverse/appcache/application_1537930191769_0049
存在于该节点上。但是容器目录不存在,并且find
未检测到日志文件。
这个日志文件可能在哪里?
答案 0 :(得分:1)
您可能已启用日志聚合。如果是这种情况,日志文件将以TFile格式保存在HDFS中。
您可以使用Application history server
检查这些日志。默认情况下,可以在端口8188
上访问此Web应用程序。
答案 1 :(得分:0)
尝试一下
yarn logs -applicationId application_1537930191769_0049