使用Pyspark,我可以毫无问题地将&upsert(更新/插入)行读入Phoenix。
df= spark.read \
.format("org.apache.phoenix.spark") \
.option("table", "schemaName.tableName") \
.option("zkUrl", "19x.xxx.xxx.xxx:2181") \
.load()
df.write
.format("org.apache.phoenix.spark") \
.mode("overwrite") \
.option("table", tableName) \
.option("zkUrl", zkUrl ) \
.save()
sql="delete from schema.tableName"
df = sqlContext.read.format('jdbc')\
.options(driver="org.apache.phoenix.jdbc.PhoenixDriver",
url='jdbc:phoenix:19x.xxx.0.8:2181', dbtable=sql).load()
错误:
Py4JJavaError:调用o520.load时发生错误。 :org.apache.phoenix.exception.PhoenixParserException:错误601(42P00):语法错误。在第1行第16列遇到“删除”。
Pyspark不支持删除,有人可以确认吗?