Spark SQL临时表名称格式限制?

时间:2016-01-12 02:48:15

标签: apache-spark apache-spark-sql

Spark SQL中允许的临时表名称格式是否有限制?我问这个是因为我使用的时候:

json_RDD.registerTempTable("tweet_data")
trends_data=hiveCtx.sql("SELECT * FROM tweet_data")

我获得了以下例外:

/opt/spark-1.4.1/python/lib/py4j-0.8.2.1-src.zip/py4j/protocol.py in get_return_value(answer, gateway_client, target_id, name)
298                 raise Py4JJavaError(
299                     'An error occurred while calling {0}{1}{2}.\n'.

但是当我使用

json_RDD.registerTempTable("tweets")
trends_data=hiveCtx.sql("SELECT * FROM tweets")

它工作正常。我正在使用PySpark,Spark的版本是1.4.1

1 个答案:

答案 0 :(得分:2)

我刚刚在Scala(Spark 1.6)中重新尝试过您的示例,并且在这两种情况下都没有遇到任何错误。

对表名称的唯一限制是点,如果表名中有点(。),请用反引号(`)引用表名。

检查here了解详情。