Spark - scala:随机将RDD /拆分RDD分成两个随机部分

时间:2014-07-21 12:13:05

标签: scala apache-spark rdd

如何获取rdd数组的spark,并将其随机分成两个rdds,这样每个rdd都会包含一部分数据(比方说97%和3%)。

我想要改变名单然后shuffledList.take((0.97*rddList.count).toInt)

但我该如何改变rdd?

或者有更好的方法来拆分列表吗?

2 个答案:

答案 0 :(得分:20)

我找到了一种简单快捷的方法来分割数组:

val Array(f1,f2) = data.randomSplit(Array(0.97, 0.03))

它将使用提供的权重拆分数据。

答案 1 :(得分:6)

您应该使用randomSplit方法:

def randomSplit(weights: Array[Double], seed: Long = Utils.random.nextLong): Array[RDD[T]]

// Randomly splits this RDD with the provided weights.
// weights for splits, will be normalized if they don't sum to 1
// returns split RDDs in an array

这是火花1.0中的implementation

def randomSplit(weights: Array[Double], seed: Long = Utils.random.nextLong): Array[RDD[T]] = {
    val sum = weights.sum
    val normalizedCumWeights = weights.map(_ / sum).scanLeft(0.0d)(_ + _)
    normalizedCumWeights.sliding(2).map { x =>
       new PartitionwiseSampledRDD[T, T](this, new BernoulliSampler[T](x(0), x(1)),seed)
    }.toArray
}