我有以下错误不是单位成员,代码如下:
我创建了DataFrame
的两个jdbc DataSource
:
val df_emp = spark.read.format("jdbc").option("url", "jdbc:oracle:thin:XXXXXX/XXXXXX@XXXXXX:1521:XXXXXX").option("driver", "oracle.jdbc.driver.OracleDriver").option("dbtable", "hr.employees").load()
val df_dep = spark.read.format("jdbc").option("url", "jdbc:oracle:thin:XXXXXX/XXXXXX@XXXXXX:1521:XXXXXX").option("driver", "oracle.jdbc.driver.OracleDriver").option("dbtable", "hr.departments").load()
然后我创建了两个创建的DataFrame视图:
df_emp.createOrReplaceTempView("employees")
df_dep.createOrReplaceTempView("departments")
使用spark.sql
我在val sql_join_empdep
中执行两个已创建视图的连接并显示结果:
val sql_join_empdep = spark.sql("SELECT emp.employee_id, emp.first_name, emp.last_name, dep.department_name, dep.department_id from employees emp inner join departments dep on emp.department_id = dep.department_id")
//但它会引发以下错误:
sql_join_empdep.show()
<console>:30: error: value show is not a member of Unit
sql_join_empdep.show()
spark.sql
执行sql查询来创建sql_join_empdep
时,此变量的类型是什么(sql_join_empdep)? 我认为这可能是一个概念错误。