我已经将火花与蜂巢,hadoop与sbt build一体化 sbt / sbt -Pyarn -Phadoop-2.6 -Dhadoop-2.6.0 -Phive -Phive-thriftserver assembly sbt / sbt -Pyarn -Phadoop-2.6 -Phive -Phive-thriftserver test
但是当我使用sparkSQL创建表时,它不会在本地mysql metastore db中创建任何表。它正在其他地方创造。此外,我已将hive-site.xml文件包含在spark的conf目录中。