错误KeyProviderCache:找不到具有密钥[dfs.encryption.key.provider.uri]的uri以创建keyProvider

时间:2018-09-05 07:13:00

标签: apache-spark hadoop hive pyspark

将数据插入到蜂巢表中时出现错误,但是数据已成功插入表中。

act = sqlContext.createDataFrame(df,schema)

act.createOrReplaceTempView("act_view")

sqlContext.sql("insert into table project_defect.biweb_t_activity select * from act_view")

给我以下错误:

  

KeyProviderCache:找不到具有密钥[dfs.encryption.key.provider.uri]的uri以创建keyProvider

我正在使用Hortonworks Platform,如果有人遇到此问题,请提出建议。

0 个答案:

没有答案