我在Jupyter笔记本中使用Spark时遇到问题。当我执行以下代码时
import findspark
findspark.init()
from pyspark.sql import SparkSession
spark = SparkSession.builder.config("spark.driver.CLASSPATH","mssql-jdbc-7.0.0.jre10.jar").appName("d").getOrCreate()
jdbcDF = spark.read.format("jdbc").option("url", "jdbc:sqlserver://xxx:xxxx;databaseName=dbname").option("dbtable", "dbTable").option("user", "ab.cd").option("password", "ab.cd").load()
我收到此错误:
java.sql.SQLException:没有合适的驱动程序
我已将CLASSPATH添加到我的环境中,如下所示。
C:\Program Files\Microsoft JDBC Driver 7.0 for SQL Server\sqljdbc_7.0.jar
有人可以帮助我吗?
谢谢。