如何在Spark和Zepplin中使用SQL JDBC驱动程序

时间:2018-10-01 03:09:12

标签: sql-server scala apache-spark apache-zeppelin

我正在尝试从SQL Server读取数据以使用Spark进行处理。我正在使用Zeppelin编写我的scala命令。我从来没有从事过Java,Spark或Zeppelin的工作,所以我很难找出问题所在。

我在机器上安装了spark,由于可以成功进入spark-shell,因此一切似乎都可以正常工作。我已经通过Docker安装了Zeppelin,它似乎也可以正常工作,因为我可以创建一个新的笔记本并运行“ sc”,并且可以看到已打印出SparkContext类型。

现在,我想从SQL Server中读取数据。我打算使用azure-sqldb-spark connector,但不确定如何使用。我试图将其作为解释器添加到Zeppelin,但不确定所需的属性是什么以及如何使用它。

这是我到目前为止所做的。

  1. 从GitHub存储库下载了jar文件。 (由于无法显示清单文件,我无法在我的机器上运行它)
  2. 将此jar文件复制到运行齐柏林飞艇的容器中
  3. 试图在齐柏林飞艇中创建口译员

以下是属性:

enter image description here

我正在指定对jar文件的依赖性,

enter image description here

我尝试过一些属性,但是没有运气。我什至不确定这是否是正确的方法。

我正在尝试运行以下查询,但遇到合适的驱动程序却找不到问题。

enter image description here

0 个答案:

没有答案