尽管savemode设置为覆盖,但无法保存Spark Dataframe

时间:2015-07-06 16:19:17

标签: java apache-spark

虽然我使用savemode saveAsTable调用了方法,但我遇到了无法使用方法'overwrite'保存我的spark数据帧的问题。 因此,抛出异常的原因是:

  

'AlreadyExistingException'

必须抓住哪个。这对我没有任何意义。我的第一个直觉是开发人员想要告诉你一个已经存在的表将被覆盖,但是如果你已经打算覆盖现有的内容,为什么还要捕获异常?!

任何人都可以解释为什么你会强迫devs捕获异常,如果那是你打算成为异常的目的吗?注意抛出的异常不是运行时异常。

0 个答案:

没有答案