Spark独特的笛卡尔产品对

时间:2016-05-04 12:27:45

标签: python matrix pyspark cartesian

我有这个:

In [1]:a = sc.parallelize([a,b,c])
In [2]:a.cartesian(a).collect()
Out[3]: [(a, a), (a, b), (a, c), (b, a), (c, a), (b, b), (b, c), (c, b), (c, c)]

我想要以下结果:

In [1]:a = sc.parallelize([1,2,3])
In [2]:a.cartesianMoreInteligent(a).collect()
Out[3]: [(a, a), (a, b), (a, c), (b, b), (b, c), (c, c)]

因为我的微积分返回了一个对称矩阵(相关性)。 实现这一目标的最佳方法是什么? (没有循环) a,b和c可以是任何东西,甚至是元组。

1 个答案:

答案 0 :(得分:0)

不确定python语法,但在scala中你可以写:

a.cartesian(a).filter{ case (a,b) => a <= b }.collect()

我的猜测是在python中它会是这样的:

a.cartesian(a).filter(lambda a, b: a <= b).collect()