在单独的RDD对象上应用lambda函数

时间:2019-02-23 02:49:24

标签: lambda pyspark rdd

我的rdd包含以下值。

rdd_2 = sc.parallelize([('f3.txt', 'of', 0.0),
 ('f3.txt',
  'no',
  0.00023241396735284342),
 ('f3.txt',
  'may',
  0.00042318717429693387),
 ('f3.txt',
  'love',
  0.00036660747046705975),
 ('f3.txt',
  'romantic',
  0.00022935755451437367)])

我希望使用lambda函数用单词('romantic', 'love')过滤此RDD,以使最终输出为:

([('f3.txt', 'of', 0),
 ('f3.txt',
  'no',
  0),
 ('f3.txt',
  'may',
  0),
 ('f3.txt',
  'love',
  1),
 ('f3.txt',
  'romantic',
  1)])

我尝试了以下代码,但出现错误:

querylist = ['romantic', 'love']
q = rdd_2.map(lambda x : x[2]=1 if x[1] not in querylist else x[2]=0)
SyntaxError: invalid syntax

我该怎么办?

1 个答案:

答案 0 :(得分:0)

您不能在lambda函数中分配类似的值。而是返回一个包含修改后值的新对象。

尝试一下:

querylist = ['romantic', 'love']
q = rdd_2.map(lambda x : (x[0], x[1], 1 if x[1] not in querylist else 0))

或等效地;

q = rdd_2.map(lambda x : (x[0], x[1], int(x[1] not in querylist)))