标签: amazon-web-services apache-spark pyspark amazon-redshift
我正在尝试编写一个PySpark脚本,使用Databricks的spark-redshift库将一些数据插入到Redshift中的表中,并删除一些旧数据来代替它。有没有办法使用Spark直接从Redshift中删除数据?就像执行直接更新Redshift表的Spark SQL语句一样? 我知道Redshift使用Postgres而Spark使用Hive,但我需要每天运行此查询并使用支持PySpark的新AWS Glue,我想知道是否有办法在PySpark中执行此操作
PySpark
spark-redshift