标签: apache-spark pyspark
我已经在系统上安装了spark,并且我使用了spark-shell一段时间,并且运行良好。但是最近我尝试在系统上安装python 3.7的情况下运行pyspark,它给了我错误:
OSError: [WinError 10049] The requested address is not valid in its context
我在Windows 7(64位)上使用spark 2.3.1。我应该怎么做才能解决这个问题?
Pyspark Error