运行flask org.apache.spark.SparkException错误时出现此问题

时间:2018-08-30 13:35:58

标签: python apache-spark flask

实际上,我正在使用Flask作为RESTful Web服务来提供机器学习模型,并且我正在使用spark库。 spark代码可以正常工作,但是当我在工作中添加flask时,出现此错误

File "C:/spark/spark/bin/rec.py", line 25, in <module> .config("spark.some.config.option", "some-value") \ org.apache.spark.SparkException: Only one SparkContext may be running in this JVM (see SPARK-2243). To ignore this error, set spark.driver.allowMultipleContexts = true.

这是spark的配置代码:

spark = SparkSession.builder \
        .master("local") \
        .appName("Word Count") \
        .config("spark.some.config.option", "some-value") \
        .getOrCreate()

这是flask的代码:

> @app.route("/")

def hello():

    return ("hello")



if __name__ == '__main__':

    app.run(port=8080,debug=True)

我不知道是什么问题

0 个答案:

没有答案