标签: hadoop apache-spark hive
火花1.6
在我运行spark-shell时在/ etc / spark / conf下创建一个软链接后,它不会创建带有hive支持的sql上下文 错误---“本机snappy库不可用:显示此版本的hadoop没有snappysupport”。
请告知可以在这做什么?
我正在尝试使用hive支持创建sql上下文但无法这样做。
答案 0 :(得分:1)
您可以使用sqlContext访问Hive表。
sqlContext