Apache Spark-SQL Server连接没有合适的驱动程序

时间:2018-12-05 12:10:12

标签: java sql-server apache-spark jupyter-notebook

我在Jupyter笔记本中使用Spark时遇到问题。当我执行以下代码时

import findspark
findspark.init()
from pyspark.sql import SparkSession
spark = SparkSession.builder.config("spark.driver.CLASSPATH","mssql-jdbc-7.0.0.jre10.jar").appName("d").getOrCreate()
jdbcDF = spark.read.format("jdbc").option("url", "jdbc:sqlserver://xxx:xxxx;databaseName=dbname").option("dbtable", "dbTable").option("user", "ab.cd").option("password", "ab.cd").load()

我收到此错误:

  

java.sql.SQLException:没有合适的驱动程序

我已将CLASSPATH添加到我的环境中,如下所示。

C:\Program Files\Microsoft JDBC Driver 7.0 for SQL Server\sqljdbc_7.0.jar 

有人可以帮助我吗?

谢谢。

0 个答案:

没有答案