无法在scala类中访问sparkcontext

时间:2019-09-12 11:05:56

标签: scala apache-spark

即使导入了EdlUpdateConf,我也无法从scla类EdlUpdate访问sc和hc。

我得到的错误消息是“找不到值:sc”

package com.omega.edl.update.base

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.sql.hive.HiveContext

object EdlUpdateConf {


  val conf = new SparkConf()
  .setAppName("EDLUpdateSparkJob")
   .set("spark.network.timeout","1000")

   val sc = new SparkContext(conf)
   val hc = new HiveContext(sc)

}

我正在尝试在以下scala类中访问sc和hc

   package com.omega.edl.update.process

   import com.omega.edl.update.base.{EdlUpdateConf}

   class EdlUpdate extends Serializable {


    def runProject() : Unit = {

     sc.

    }
   }

请帮助解决此语法错误

1 个答案:

答案 0 :(得分:2)

您的导入语句不正确。

import com.omega.edl.update.base.{EdlUpdateConf}
//Use below imports
import com.omega.edl.update.base.EdlUpdateConf.sc
import com.omega.edl.update.base.EdlUpdateConf.hc
import com.omega.edl.update.base.EdlUpdateConf.conf
//or
import com.omega.edl.update.base.EdlUpdateConf._