IndexError:导入findspark.init时,列表索引超出范围

时间:2020-02-11 20:28:12

标签: apache-spark

当我尝试导入时,我的jupyter笔记本中出现以下错误IndexError: list index out of range

import findspark
findspark.init()

我知道此link中已经存在答案(因此它不是重复的),但是,当我运行which spark-shell时,输出为:/opt/anaconda3/bin/spark-shell,它为我提供了目录和所以我跑了:

import findspark
findspark.init('/opt/anaconda3/bin/spark-shell')

我得到同样的错误。我该如何解决?谢谢。

1 个答案:

答案 0 :(得分:0)

它想要火花回家,而不是可执行文件。您可能应该有一个环境变量internal override func viewDidLoad() { super.viewDidLoad() exampleView.translatesAutoresizingMaskIntoConstraints = false view.addSubview(exampleView) NSLayoutConstraint.activate( [exampleView.topAnchor.constraint(equalTo: view.topAnchor), exampleView.leftAnchor.constraint(equalTo: view.leftAnchor), exampleView.rightAnchor.constraint(equalTo: view.rightAnchor), exampleView.bottomAnchor.constraint(equalTo: view.bottomAnchor)] ) } ,有吗?

如果没有,请尝试运行其中之一:

$SPARK_HOME

这将向您显示Spark Home的实际bin文件夹在哪里。您只需将路径的一部分用于init。

我认为,如果稍后再设置ls -la /opt/anaconda3/bin/spark-shell readlink -f /opt/anaconda3/bin/spark-shell ,则无需指定路径即可查找火花运行。