如何使用Pyspark在Phoenix表中删除行?

时间:2019-08-06 13:14:29

标签: pyspark hbase phoenix

使用Pyspark,我可以毫无问题地将&upsert(更新/插入)行读入Phoenix。

但是无法使用Pyspark在Phoenix中删除行。

读取凤凰表

 df= spark.read \
   .format("org.apache.phoenix.spark") \
   .option("table", "schemaName.tableName") \
   .option("zkUrl", "19x.xxx.xxx.xxx:2181") \
   .load()

写凤凰表

 df.write
   .format("org.apache.phoenix.spark") \
   .mode("overwrite") \
   .option("table", tableName) \
   .option("zkUrl", zkUrl ) \
   .save()

尝试了以下选项“删除”,但没有运气:

 sql="delete from schema.tableName"
 df = sqlContext.read.format('jdbc')\
   .options(driver="org.apache.phoenix.jdbc.PhoenixDriver",       
   url='jdbc:phoenix:19x.xxx.0.8:2181', dbtable=sql).load()

错误:

Py4JJavaError:调用o520.load时发生错误。 :org.apache.phoenix.exception.PhoenixParserException:错误601(42P00):语法错误。在第1行第16列遇到“删除”。

Pyspark不支持删除,有人可以确认吗?

0 个答案:

没有答案