import spark.implicits._未使用

时间:2016-09-28 21:23:00

标签: scala apache-spark apache-spark-sql spark-dataframe

我有一个我使用以下代码

创建的数据框
val SomeCsv = spark.read.option("header", "true").
  csv(conf.getString("data.path.Somecsv")).toDF()

我有一个看起来像这样的函数(到目前为止什么都不做)。

def cleanUp(data: sql.DataFrame): sql.DataFrame = {
  data.map({
    doc =>
      (
        doc

        )
  })
}

在编译时因错误而中断:

"无法找到存储在数据集中的类型的编码器。导入spark.implicits支持原始类型(Int,String等)和产品类型(case类)._"

我已根据其他帖子的建议设置了import语句。

val spark = SparkSession.builder...etc
import spark.implicits._

导入语句被IntelliJ标记为未使用

我猜是

1。)csv加载代码使用的是一些对象而不是基元的编码器。

2.)和/或我需要在函数语句中指定数据帧的数据类型,就像使用RDD一样?我在Spark文档中找不到任何相关信息。

修改

如果我改为使用

val SomeOtherCsv = SomeCsv.map(t => t(0) + "foobar")

import语句触发,一切编译得很好。我现在的问题是,相同数据的方法版本(上面)仍然会中断。

EDIT2

这是MCVE

import org.apache.spark._
import org.apache.spark.SparkContext
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql._/*statement unused*/
import com.typesafe.config.ConfigFactory

object main {
  def main(args: Array[String]) = {
    /*load spark conf*/
    val sparkConf = new SparkConf().setAppName("main")
    val sc = new SparkContext(sparkConf)
    /*load configure tool*/
    val conf = ConfigFactory.load()
    /*load spark session*/
    val spark = SparkSession.builder.
      master("local")
      .appName("tester")
      .getOrCreate()
    import spark.implicits._/* is used for val ProcessedGenomeCsv but not testFunction*/
    /*load genome csv as dataframe, conf.getString points to application.conf which contains a local directory for the csv file*/
    val GenomeCsv = spark.read.option("header", "true").
      csv(conf.getString("data.path.genomecsv")).toDF()
    /*cleans up segment names in csv so the can be matched to amino data*/
    def testFunctionOne(data: sql.DataFrame): sql.DataFrame = {/* breaks with import spark.implicits._ error, error points to next line "data.map"*/
      data.map({
        doc =>
          (
            doc

            )
      })
    }
    val ProcessedGenomeCsv = GenomeCsv.map(t => t(12) + "foobar")/* breaks when adding sqlContext and sqlContext.implicits._, is fine otherwise*/
    val FunctionProcessedGenomCsv = testFunctionOne(GenomeCsv)
    ProcessedGenomeCsv.take(1).foreach(println)
    FunctionProcessedGenomCsv.take(1).foreach(println)
  }
}

1 个答案:

答案 0 :(得分:0)

你想要sqlContext.implicits ._

你想在创建sqlContext之后声明它(它已经在spark-shell中为你创建了,但不是在spark-submit中创建的)

你希望它看起来像这样:

object Driver {
    def main(args: Array[String]):Unit = {
        val spark_conf =
          new SparkConf()
            .set("spark.serializer", "org.apache.spark.serializer.KryoSerializer")
            .setAppName("Spark Tika HDFS")
        val sc = new SparkContext(spark_conf)

        import sqlContext.implicits._

        val df = ....

    }
}