如何从Databricks群集运行SQL语句

时间:2019-04-08 19:56:45

标签: sql-server azure databricks azure-databricks

我有一个处理各种表的Azure Databricks群集,然后作为最后一步,我将这些表推送到Azure SQL Server中以供其他进程使用。我在数据块中有一个看起来像这样的单元:

def generate_connection():
  jdbcUsername = dbutils.secrets.get(scope = "Azure-Key-Vault-Scope", key = "AzureSqlUserName")
  jdbcPassword = dbutils.secrets.get(scope = "Azure-Key-Vault-Scope", key = "AzureSqlPassword")
  connectionProperties = {
    "user" : jdbcUsername,
    "password" : jdbcPassword,
    "driver" : "com.microsoft.sqlserver.jdbc.SQLServerDriver"
  }
  return connectionProperties

def generate_url():
  jdbcHostname = dbutils.secrets.get(scope = "Azure-Key-Vault-Scope", key = "AzureSqlHostName")
  jdbcDatabase = dbutils.secrets.get(scope = "Azure-Key-Vault-Scope", key = "AzureSqlDatabase")
  jdbcPort = 1433
  return "jdbc:sqlserver://{0}:{1};database={2}".format(jdbcHostname, jdbcPort, jdbcDatabase)


def persist_table(table, sql_table, mode):
  jdbcUrl = generate_url();
  connectionProperties = generate_connection()
  table.write.jdbc(jdbcUrl, sql_table, properties=connectionProperties, mode=mode)

persist_table(spark.table("Sales.OpenOrders"), "Sales.OpenOrders", "overwrite")
persist_table(spark.table("Sales.Orders"), "Sales.Orders", "overwrite")

这按预期工作。我的问题是Orders表很大,每天只有一小部分行可以更改,所以我要做的就是将覆盖模式更改为追加模式,并将数据帧从整个表格到可能已更改的行。所有这些我都知道如何足够容易地完成,但是我想做的是对Azure SQL数据库运行一个简单的SQL语句,以删除已经存在的行,以便将它们可能已更改的行插入回去。

我想针对

之类的Azure SQL数据库运行一条SQL语句
Delete From Sales.Orders Where CreateDate >= '01/01/2019'

2 个答案:

答案 0 :(得分:0)

您需要使用pyodbc库。您可以连接并使用sql语句。

import pyodbc

conn = pyodbc.connect( 'DRIVER={ODBC Driver 17 for SQL Server};'
                       'SERVER=mydatabe.database.azure.net;'
                       'DATABASE=AdventureWorks;UID=jonnyFast;'
                       'PWD=MyPassword')

# Example doing a simple execute
conn.execute('INSERT INTO Bob (Bob1, Bob2) VALUES (?, ?)', ('A', 'B'))

不幸的是,让它在数据块上运行有点痛苦。我不久前写了一篇博客文章,应该会有所帮助。 https://datathirst.net/blog/2018/10/12/executing-sql-server-stored-procedures-on-databricks-pyspark

答案 1 :(得分:0)

我想分享我的发现。

1)pyodbc-我向Microsoft技术支持咨询,得到的答案如下:

####========================================================
### cell 1: install pyodbc
####========================================================
%sh
curl https://packages.microsoft.com/keys/microsoft.asc | apt-key add -
curl https://packages.microsoft.com/config/ubuntu/16.04/prod.list > /etc/apt/sources.list.d/mssql-release.list
apt-get update
ACCEPT_EULA=Y apt-get install msodbcsql17
apt-get -y install unixodbc-dev
sudo apt-get install python3-pip -y
pip3 install --upgrade pyodbc

####========================================================
### cell 2: connect
####========================================================
import pyodbc

conn = pyodbc.connect( 'DRIVER={ODBC Driver 17 for SQL Server};'
                       'SERVER=xxxxx.database.windows.net;'
                       'DATABASE=xxxxx;UID=xxxxx;'
                       'PWD=xxxxx')

####========================================================
### cell 3: create table
####========================================================
conn.execute('CREATE TABLE dbo.Bob (Bob1 VARCHAR(30), Bob2 VARCHAR(30))')

####========================================================
### cell 4: insert into table
####========================================================
conn.execute('INSERT INTO dbo.Bob (Bob1, Bob2) VALUES (?, ?)', ('A', 'B'))

注意: a)运行时:6.2(Scala 2.11,Spark 2.4.4) b)此运行时版本仅支持Python3。

2)Spark connector for Azure SQL Database and SQL Server-在谷歌搜索安装pyodbc的解决方案时,我找到了这个。我更喜欢这一点,并且将尝试一下。