如何使用Spark / PySpark删除雪花目标表

时间:2019-12-10 08:49:10

标签: apache-spark hadoop pyspark apache-spark-sql snowflake-data-warehouse

我正在尝试删除使用Databricks平台中的Pyspark创建的目标雪花表。

任何人,我都找不到任何解决方案。

1 个答案:

答案 0 :(得分:1)

除了查询外,还使用Utils对象的runQuery()方法执行DDL / DML SQL语句,例如:

var sfOptions = Map(
    "sfURL" -> "<account_name>.snowflakecomputing.com",
    "sfAccount" -> "<account_name>",
    "sfUser" -> "<user_name>",
    "sfPassword" -> "<password>",
    "sfDatabase" -> "<database>",
    "sfSchema" -> "<schema>",
    "sfWarehouse" -> "<warehouse>",
    )
Utils.runQuery(sfOptions, "DROP TABLE MY_TABLE")

Snowflake DDL spark