Spark:无法从hive表

时间:2017-02-20 16:38:25

标签: hadoop apache-spark hive metastore hivecontext

我创建了一个maven项目pom.xml

<spark.version>1.3.0</spark.version>
<dependencies>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.11</artifactId>
        <version>${spark.version}</version>
        <exclusions>
            <exclusion>
                <groupId>org.scala-lang</groupId>
                <artifactId>scala-library</artifactId>
            </exclusion>
        </exclusions>
    </dependency>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-sql_2.11</artifactId>
        <version>${spark.version}</version>
    </dependency>
    <!-- <dependency>
        <groupId>mysql</groupId>
        <artifactId>mysql-connector-java</artifactId>
        <version>5.1.6</version>
    </dependency> -->
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-hive_2.11</artifactId>
        <version>${spark.version}</version>
    </dependency>

</dependencies>

我的班级正在从蜂巢表中读取数据:

import org.apache.spark.sql.SQLContext
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.sql.hive.HiveContext
import org.apache.spark.sql.DataFrame

class SparkHive {
  def createTable = {
    val conf = new SparkConf().setMaster("local").setAppName("My First spark app")
    val sparkCtxt = new SparkContext(conf)
    val hiveContext = new HiveContext(sparkCtxt)
    hiveContext.setConf("hive.metastore.uris", "thrift://127.0.0.1:9083")
    val table = hiveContext.sql("select * from test")
    table.show()
    val gpData = table.groupBy("col1")
    println(gpData.max("col2").show())
  }
}

我使用spark来从hive metatore中的表中读取数据,但是遇到了一个非常奇怪的问题。

我有两个问题如下所述:

问题1。如果我使用<spark.version>1.3.0</spark.version> spark能够找到hive表,并且能够在此行的帮助下在控制台上打印数据

val table = hiveContext.sql("select * from test")
table.show()

但如果我按照示例中所示进行过滤或分组,则无法找到col1并抛出异常,如下所示

Exception in thread "main" java.util.NoSuchElementException: key not found: col1#0

所以问题是为什么如果数据框能够找到该表那么为什么它不让我按列进行分组以及如何解决这个问题?

问题2。如果我使用<spark.version>1.6.0</spark.version>那么spark甚至无法找到hive Metastore中存在的表,那么现在为什么会出现这种情况???

环境:CLOUDERA QUICKSTART VM 5.8.0

2 个答案:

答案 0 :(得分:1)

他们唯一的技巧就是将hive-site.xml放在classpath中。

答案 1 :(得分:0)

试试这个: -

def createTable = {
    val conf = new SparkConf().setMaster("local").setAppName("My First spark app")
    val sparkCtxt = new SparkContext(conf)
    val hiveContext = new HiveContext(sparkCtxt)
    hiveContext.setConf("hive.metastore.uris", "thrift://127.0.0.1:9083")
    val table = hiveContext.sql("select * from test")
    table.show()
    table.registerTempTable("table")
    val gpData = hiveContext.sql("select max(col2) from table group by col1")
    println(gpData.show())
  }
}