一次运行全部时,PySpark代码不起作用

时间:2018-12-14 12:11:52

标签: pyspark

我对PySpark非常陌生。我已经在Jupyter中编写了tfidf转换脚本。当我逐个单元地运行它时,即像标记化,去除停用词,阻止词干一样,它运行良好,并且诸如showcollect之类的任何操作都可以正常工作。但是,一次运行所有单元时,它运行正确。但是,当使用

采取措施时失败
ERROR:root:Exception while sending command.
Traceback (most recent call last):
  File "/home/idap_user/spark2/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py", line 1159, in send_command
    raise Py4JNetworkError("Answer from Java side is empty")
py4j.protocol.Py4JNetworkError: Answer from Java side is empty

而且,要花很长时间才能抛出错误。

为什么会这样?任何帮助表示赞赏。预先感谢。

0 个答案:

没有答案