无法在spark中使用hive支持创建sql上下文

时间:2016-10-30 23:13:45

标签: hadoop apache-spark hive

火花1.6

在我运行spark-shell时在/ etc / spark / conf下创建一个软链接后,它不会创建带有hive支持的sql上下文 错误---“本机snappy库不可用:显示此版本的hadoop没有snappysupport”。

请告知可以在这做什么?

我正在尝试使用hive支持创建sql上下文但无法这样做。

1 个答案:

答案 0 :(得分:1)

您可以使用sqlContext访问Hive表。