我正在尝试从SQL Server读取数据以使用Spark进行处理。我正在使用Zeppelin编写我的scala命令。我从来没有从事过Java,Spark或Zeppelin的工作,所以我很难找出问题所在。
我在机器上安装了spark,由于可以成功进入spark-shell,因此一切似乎都可以正常工作。我已经通过Docker安装了Zeppelin,它似乎也可以正常工作,因为我可以创建一个新的笔记本并运行“ sc”,并且可以看到已打印出SparkContext类型。
现在,我想从SQL Server中读取数据。我打算使用azure-sqldb-spark connector,但不确定如何使用。我试图将其作为解释器添加到Zeppelin,但不确定所需的属性是什么以及如何使用它。
这是我到目前为止所做的。
以下是属性:
我正在指定对jar文件的依赖性,
我尝试过一些属性,但是没有运气。我什至不确定这是否是正确的方法。
我正在尝试运行以下查询,但遇到合适的驱动程序却找不到问题。