作为map中的值列表无法通过Spark中的reduceByKey进行解析

时间:2015-05-08 00:38:10

标签: python apache-spark

我很擅长使用p​​ython在Spark上编码 我的地图输入是一个键值对,输出是一个键值对,其值为浮点列表。 在reducer中,我想在列表中添加相应的值以匹配键。像这样:

    map(lambda <some_pair>: (<some_key>,<list_of_floats>)).reduceByKey(lambda list1,list2: [list1[0]+list2[0],list1[1]+list2[1],list1[2]+list2[2]]).collect()

然而,当我这样做时,我收到错误:

    TypeError: 'float' object has no attribute '__getitem__'

任何想法如何解决这个问题?

0 个答案:

没有答案