当我尝试运行IBM Bluemix上为Apache Spark服务提供的一个示例时,我收到以下错误:
NameErrorTraceback (most recent call last)
<ipython-input-5-7de9805c358e> in <module>()
----> 1 set_hadoop_config(credentials_1)
<ipython-input-2-e790e4773aec> in set_hadoop_config(credentials)
1 def set_hadoop_config(credentials):
2 prefix = "fs.swift.service." + credentials['name']
----> 3 hconf = sc._jsc.hadoopConfiguration()
4 hconf.set(prefix + ".auth.url", credentials['auth_url']+'/v3/auth/tokens')
5 hconf.set(prefix + ".auth.endpoint.prefix", "endpoints")
NameError: global name 'sc' is not defined
我正在使用数据源选项板上的insert to code选项加载一个简单的CSV文件。但是,生成的凭据中没有“name”属性。
credentials['name']
不在我点击插入代码后生成的键值对中。
我想知道是否有任何其他方式来加载数据或此问题是IBM Bluemix问题。
答案 0 :(得分:0)
您遇到了Bluemix问题。 sc
变量默认定义,持有SparkContext。但是如果在Python笔记本内核启动时无法访问Spark主服务器,您会注意到几秒钟的延迟,然后内核出现但sc
未定义。
你的问题已经有两天了(它是否遗漏了其中一个标签?),所以现在应该已经恢复了。再试一次吧。如果失败,请重新启动内核。如果您仍然没有sc
,请联系Bluemix支持,了解Apache Spark服务的问题。