如何从pyspark

时间:2018-07-24 09:29:40

标签: python sql-server pyspark

我正在使用jdbc中的pyspark连接到SQL Server。要将表转换为数据框,我使用以下查询。

query="SELECT * FROM tablename"

df=sqlContext.read.format("jdbc").options(url="jdbc:sqlserver://{servername};database={dbname};user={uid};password={pwd}", dbtable=query).load()

现在,我需要连接到存储过程并使用相同的JDBC。我找到了有关pyodbc的一些答案,但仅由于SQL Server和pyspark配置中的某些问题,我才希望将其与JDBC结合使用。

Stored procedure = exec name "a","b"

我该如何实现?

0 个答案:

没有答案