标签: sql apache-spark hiveql hivecontext
我正在尝试在spark中使用hivecontext。以下语句正常运行:
from pyspark.sql import HiveContext sqlContext = HiveContext(sc)
但是,当我运行以下声明时,
sqlContext.sql("CREATE TABLE IF NOT EXISTS src (key INT, value STRING)")
我收到以下错误:
Java Package对象不可调用
可能是什么问题?