错误:将pyspark数据帧写入Habse时

时间:2020-03-30 01:08:36

标签: apache-spark pyspark hbase pyspark-sql

我正在尝试将pyspark数据帧写入Hbase。面对错误。

集群上的Spark和Hbase版本是:

火花版本:2.4.0 Hbase版本:1.4.8

提交火花

 spark-submit --jars /tmp/hbase-spark-1.0.0.jar   --packages com.hortonworks:shc-core:1.1.1-2.1-s_2.11 --repositories http://repo.hortonworks.com/content/groups/public/ --files /etc/hbase/conf/hbase-site.xml to_hbase.py

错误:

enter image description here

任何帮助将不胜感激!

1 个答案:

答案 0 :(得分:0)

这是一个已知问题-在spark2.4中使用spark-habse-connector(shc)。
@dhananjay_patka修复了问题。

检查:SHC With spark 2.4 his fix