我正在docker上使用jupyter笔记本 在我的spark conf文件夹(/ usr / local / spark / conf)中,我有hive-site.xml
<configuration>
<property>
<name>hive.metastore.uris</name>
<value>thrift://metastore-uri:9083</value>
</property>
</configuration
当我使用R笔记本时,以下代码可以正常工作并连接到远程配置单元metastore
library(SparkR)
as <- sparkR.session("local[*]")
sql("show tables")
但是当我在scala笔记本中运行时,以下代码
val sqlContext = new org.apache.spark.sql.SQLContext(sc);
sqlContext.sql("show tables").show
它在本地启动元存储,并且不显示数据
任何提示?