Sparl SQL - Value show不是Unit的成员

时间:2018-03-02 18:51:37

标签: apache-spark apache-spark-sql spark-dataframe

我有以下错误不是单位成员,代码如下:

我创建了DataFrame的两个jdbc DataSource

val df_emp = spark.read.format("jdbc").option("url", "jdbc:oracle:thin:XXXXXX/XXXXXX@XXXXXX:1521:XXXXXX").option("driver", "oracle.jdbc.driver.OracleDriver").option("dbtable", "hr.employees").load()
val df_dep = spark.read.format("jdbc").option("url", "jdbc:oracle:thin:XXXXXX/XXXXXX@XXXXXX:1521:XXXXXX").option("driver", "oracle.jdbc.driver.OracleDriver").option("dbtable", "hr.departments").load()

然后我创建了两个创建的DataFrame视图:

df_emp.createOrReplaceTempView("employees")        
df_dep.createOrReplaceTempView("departments")

使用spark.sql我在val sql_join_empdep中执行两个已创建视图的连接并显示结果:

val sql_join_empdep = spark.sql("SELECT emp.employee_id, emp.first_name, emp.last_name, dep.department_name, dep.department_id from employees emp inner join departments dep on emp.department_id = dep.department_id")

//但它会引发以下错误:

sql_join_empdep.show()
  <console>:30: error: value show is not a member of Unit
    sql_join_empdep.show()
  • 什么是单位?
  • 当我使用spark.sql执行sql查询来创建sql_join_empdep时,此变量的类型是什么(sql_join_empdep)?

我认为这可能是一个概念错误。

0 个答案:

没有答案