在从配置单元中删除托管表时,不会从hdfs中删除其关联文件(在azure-databricks上)。我收到以下错误:
[Simba] SparkJDBCDriver错误正在处理查询/语句。错误代码:0,SQL状态:org.apache.spark.sql.AnalysisException:无法创建托管表(“ schema” .`XXXXX`)。关联的位置('dbfs:/user/hive/warehouse/schema.db/XXXXX)已经存在
此问题是间歇性发生的。寻找解决方案。
答案 0 :(得分:0)
我已经开始尝试了。去年还好,然后我认为存储附件出了点问题。可能在后台进行的改进会导致出现问题(PaaS!)作为一种保护措施,我手动删除了直接路径,并删除了表,直到我对正在发生的事情有一个不错的解释或获得支持电话为止。
使用
QVariant
尽管要小心!走错了路,可能很悲惨!