标签: hive pyspark apache-spark-sql hiveql pyspark-sql
事务管理器不是ACID,因此我在这里显然不能使用ACID事务操作。我尝试使用“插入覆盖”,它仅在托管表上起作用,而不在外部表上起作用。
有没有可能通过Pyspark做到这一点?
PS:配置单元表由生产中的作业加载。我们需要手动更新几行。该表存储在AWS S3中