使用reduceByKey 抛出一个int object is not subscriptable error

时间:2021-03-27 19:29:24

标签: apache-spark pyspark rdd

这段代码给了我一个“int object is not subscriptable”错误,尽管它为我的一个朋友工作。错误出现在我尝试使用 reduceByKey 计算平均值的第 4 行。这是为什么?

nonNullRDD = marchRDD.filter(lambda row: row.journal).filter(lambda row: row.abstract)
abstractRDD = nonNullRDD.map(lambda field: (field.journal, field.abstract))
splitRDD = abstractRDD.map(lambda word: (word[0], len(word[1].split(" "))))
groupedRDD = splitRDD.reduceByKey(lambda x, y: (x[0]+y[0], x[1]+y[1])).mapValues(lambda x: x[0]/x[1])

1 个答案:

答案 0 :(得分:1)

reduceByKey 函数中,您提供了一个 lambda 函数,该函数作用于 RDD 的值,该值是 len(word[1].split(" ")) 中的一个整数。您试图对一个整数执行 x[0],这导致了您得到的错误。

我认为 RDD 应该采用 (key, (value, 1)) 形式,这样您的代码的第四行将给出每个键的平均值。为了实现这一点,您可以将第三行中的 lambda 函数更改为:

splitRDD = abstractRDD.map(lambda word: (word[0], (len(word[1].split(" ")), 1)))