将数据加载到Spark失败

时间:2018-07-23 15:50:24

标签: scala apache-spark

我正在尝试将数据加载到Spark进行以下相同的处理:

18/07/23 17:28:31 INFO ParseDriver: Parsing command: select * from table.database_name 18/07/23 17:28:31 INFO ParseDriver: Parse Completed org.apache.spark.sql.AnalysisException: Table not found: `table`.`database_name`; line 1 pos xx
        at org.apache.spark.sql.catalyst.analysis.package$AnalysisErrorAt.failAnalysis(package.scala:42)
        at org.apache.spark.sql.catalyst.analysis.CheckAnalysis$$anonfun$checkAnalysis$1.apply(CheckAnalysis.scala:54)
        at org.apache.spark.sql.catalyst.analysis.CheckAnalysis$$anonfun$checkAnalysis$1.apply(CheckAnalysis.scala:50) 
.......................................................

我收到以下错误:

val df = hiveObj.sql("show tables in d_dmzud10trac01").show()

但是,当我运行以下命令时,它运行良好(我可以看到显示的表的列表):

{{1}}

为什么我仍然收到此错误?

0 个答案:

没有答案