Spark制作本地Metastore而不是将数据存储在实际的mysql Metastore中

时间:2015-06-26 06:04:17

标签: apache-spark apache-spark-sql metastore

我已经将火花与蜂巢,hadoop与sbt build一体化 sbt / sbt -Pyarn -Phadoop-2.6 -Dhadoop-2.6.0 -Phive -Phive-thriftserver assembly sbt / sbt -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver test

但是当我使用sparkSQL创建表时,它不会在本地mysql metastore db中创建任何表。它正在其他地方创造。此外,我已将hive-site.xml文件包含在spark的conf目录中。

0 个答案:

没有答案