如何覆盖保存的PySpark ML模型

时间:2019-01-21 12:27:30

标签: python apache-spark pyspark save apache-spark-ml

我正在尝试覆盖Spark ML Logistic回归模型,但是它不起作用。

尝试:

lr_model.write.overwrite().save(input_dict["config"]`["save_model_path"])

lr_model.write.overwrite.save(input_dict["config"]["save_model_path"])

这有效(如果我不想覆盖):

lr_model.save(input_dict["config"]["save_model_path"])

错误:

  

[2019-01-21] [04:57:44] [错误]-的163行的AttributeError   “功能”对象没有属性“覆盖”:“功能”对象具有   没有属性“覆盖”

     

[2019-01-21] [04:57:44] [错误]-“函数”对象没有属性   “覆盖”

     

[2019-01-21] [04:57:44] [错误]-追溯(最近一次通话):   运行AttributeError:“功能”对象中的文件“”,第163行   没有属性“覆盖”

该怎么办?

0 个答案:

没有答案