在Databricks中使用Spark群集出现“发送到群集”问题

时间:2019-04-08 15:31:53

标签: apache-spark databricks

我想在Databricks笔记本中运行一个单元,但是我收到消息“ Send to cluster”(发送到群集)没有结束。我之前没有问题就跑过同一个牢房。我重新启动了群集,但遇到了同样的问题。

enter image description here

此外,我使用不同的代码进行了测试,并且遇到了相同的问题: enter image description here

2 个答案:

答案 0 :(得分:0)

除了Marat所说的那样,创建一个新集群,还要为集群提供适当的资源-可能比您现在提供的更多。

答案 1 :(得分:0)

我能够建立一个像print(“ hello”)这样的小工作表框架,它又回来了。转到问题所在的工作表单元格。分离。转到群集并确保其已停止。转到工作表,并在停留点上方插入一行。然后将其附加到群集。

键入print(“ Hello”)(python),然后按运行。看看是否可以立即恢复。

如果是这样,当它回来时,请尝试运行问题单元格,该单元格应该是下面的下一个单元格。

在尝试之前: A)停止并重新启动群集。 B)切换到其他集群 C)创建一个新集群。

但是它只是停留在“发送到群集”状态,并且一直停留了几个小时。看看是否有帮助。如果有人还有其他适合他们的选择,请在此处链接。谢谢!