我在使用Jupyter笔记本的HDInsight中使用spark。我正在使用%% configure" magic"导入包。每次包裹出现问题时,火花都会因错误而崩溃:
由于致命错误导致代码失败:状态' shutting_down'不 会议支持..
或
代码由于致命错误而失败:会话28意外 达到最终状态'死亡'见日志:
通常问题是我错误地输入了包的名称,所以经过几次尝试我就可以解决它。现在我尝试导入spark-streaming-eventhubs_2.11并且我认为我的名字是正确的,但我仍然收到错误。我查看了各种日志,但仍然无法找到显示任何相关信息的日志。知道如何排除类似错误吗?
%%configure -f
{ "conf": {"spark.jars.packages": "com.microsoft.azure:spark-streaming-eventhubs_2.11:2.0.5" }}
其他信息:我跑的时候
spark-shell --conf spark.jars.packages=com.microsoft.azure:spark-streaming-eventhubs_2.11:2.0.5
shell启动正常,并下载包
答案 0 :(得分:1)
我终于能够找到包含错误的日志文件。有两个日志文件可能很有趣
在我的HDInsight群集上,我通过使用SSH连接到其中一个Head节点并在此路径下载文件(此日志不包含有用信息)找到了livy日志:
/var/log/livy/livy-livy-server.out
实际错误发生在可从YarnUI访问的纱线日志文件中。在HDInsight Azure门户中,转到"群集仪表板" - > " Yarn",找到您的会话(KILLED状态),点击" Logs"在表格中,找到"日志类型:stderr",单击"单击此处查看完整日志"。
我的问题是Spark-streaming_2.11和Livy之间的一个依赖项之间的Scala版本不兼容。这应该是固定Livy 0.4。更多信息here