Python-Spark-HiveContext-找不到表格

时间:2018-12-08 14:17:02

标签: python apache-spark hive

我正在使用带有Spark 1.6.0的VM,并且正在尝试使用Hive中的dat创建数据框。

我在默认数据库中有2个表,但是当我尝试使用Spark显示所有表时,我没有得到任何结果:

sqlContext.sql("show tables").collect()
[]
sqlContext.sql("show databases").collect()
[Row(result=u'default')]

我的Hive表是直接在默认数据库的Hive上创建的:

CREATE TABLE team
(id INT, sports STRING, players INT)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ","
LOCATION "/user/cloudera/data/sports";

为什么我看不到我的桌子?

谢谢!

1 个答案:

答案 0 :(得分:1)

您应该将hive-site.xml文件复制到spark conf目录。