标签: java apache-spark
虽然我使用savemode saveAsTable调用了方法,但我遇到了无法使用方法'overwrite'保存我的spark数据帧的问题。 因此,抛出异常的原因是:
saveAsTable
'overwrite'
'AlreadyExistingException'
必须抓住哪个。这对我没有任何意义。我的第一个直觉是开发人员想要告诉你一个已经存在的表将被覆盖,但是如果你已经打算覆盖现有的内容,为什么还要捕获异常?!
任何人都可以解释为什么你会强迫devs捕获异常,如果那是你打算成为异常的目的吗?注意抛出的异常不是运行时异常。