当我尝试导入时,我的jupyter笔记本中出现以下错误IndexError: list index out of range
import findspark
findspark.init()
我知道此link中已经存在答案(因此它不是重复的),但是,当我运行which spark-shell
时,输出为:/opt/anaconda3/bin/spark-shell
,它为我提供了目录和所以我跑了:
import findspark
findspark.init('/opt/anaconda3/bin/spark-shell')
我得到同样的错误。我该如何解决?谢谢。
答案 0 :(得分:0)
它想要火花回家,而不是可执行文件。您可能应该有一个环境变量internal override func viewDidLoad() {
super.viewDidLoad()
exampleView.translatesAutoresizingMaskIntoConstraints = false
view.addSubview(exampleView)
NSLayoutConstraint.activate(
[exampleView.topAnchor.constraint(equalTo: view.topAnchor),
exampleView.leftAnchor.constraint(equalTo: view.leftAnchor),
exampleView.rightAnchor.constraint(equalTo: view.rightAnchor),
exampleView.bottomAnchor.constraint(equalTo: view.bottomAnchor)]
)
}
,有吗?
如果没有,请尝试运行其中之一:
$SPARK_HOME
这将向您显示Spark Home的实际bin文件夹在哪里。您只需将路径的一部分用于init。
我认为,如果稍后再设置ls -la /opt/anaconda3/bin/spark-shell
readlink -f /opt/anaconda3/bin/spark-shell
,则无需指定路径即可查找火花运行。