如何在PySpark 1.6中使用HiveContext列出所有数据库

时间:2019-06-24 10:47:06

标签: apache-spark pyspark-sql apache-spark-1.6 hivecontext

我正在尝试在Spark 1.6中使用HiveContext列出所有数据库,但它仅提供了默认数据库。

from pyspark import SparkContext
from pyspark.sql import SQLContext
sc = SparkContext.getOrCreate()
from pyspark.sql import HiveContext
sqlContext = HiveContext(sc)
sqlContext.sql("SHOW DATABASES").show()
+-------------+
|       result|
+-------------+
|      default|
+-------------+

1 个答案:

答案 0 :(得分:0)

在Spark <2.0中,在SHOW DATABASES中调用sql是正确的方法。

在Spark 2.0或更高版本中,您应该使用pyspark.sql.catalog.Catalog.listDatabases

spark.catalog.listDatabases()

如果您没有看到预期的数据库,则通常意味着以下两种情况之一: