无法访问pyspark中的默认数据库

时间:2017-09-15 04:51:55

标签: hive pyspark

当我尝试执行下面的代码

时,我遇到异常
Node.start :"bar@192.168.0.2" 
Node.set_cookie :cookie_name

我使用的是Cloudera VM版本5.10,Spark版本1.6.0。

1 个答案:

答案 0 :(得分:0)

此异常的解决方案

  1. 使用sudo rm -R /etc/spar/conf/hive.xml
  2. 删除了链接的文件
  3. 再次使用sudo ln -s /etc/hive/conf/hive-site.xml /etc/spark/conf/hive-site.xml
  4. 关联文件