标签: python apache-spark pyspark
我正在使用有思想的顶篷来启动与python集成的spark。当我执行一个创建rdd并执行一个简单的count函数时,出现了一个火花异常:Python worker无法重新连接。
此问题的根本原因是什么,如何解决?