我想比较两个Java8流终端操作reduce()
和collect()
的并行性能。
让我们看看下面的Java8并行流示例:
import java.math.BigInteger;
import java.util.function.BiConsumer;
import java.util.function.Function;
import java.util.function.Supplier;
import java.util.stream.Stream;
import static java.math.BigInteger.ONE;
public class StartMe {
static Function<Long, BigInteger> fac;
static {
fac = x -> x==0? ONE : BigInteger.valueOf(x).multiply(fac.apply(x - 1));
}
static long N = 2000;
static Supplier<BigInteger[]> one() {
BigInteger[] result = new BigInteger[1];
result[0] = ONE;
return () -> result;
}
static BiConsumer<BigInteger[], ? super BigInteger> accumulator() {
return (BigInteger[] ba, BigInteger b) -> {
synchronized (fac) {
ba[0] = ba[0].multiply(b);
}
};
}
static BiConsumer<BigInteger[], BigInteger[]> combiner() {
return (BigInteger[] b1, BigInteger[] b2) -> {};
}
public static void main(String[] args) throws Exception {
long t0 = System.currentTimeMillis();
BigInteger result1 = Stream.iterate(ONE, x -> x.add(ONE)).parallel().limit(N).reduce(ONE, BigInteger::multiply);
long t1 = System.currentTimeMillis();
BigInteger[] result2 = Stream.iterate(ONE, x -> x.add(ONE)).parallel().limit(N).collect(one(), accumulator(), combiner());
long t2 = System.currentTimeMillis();
BigInteger result3 = fac.apply(N);
long t3 = System.currentTimeMillis();
System.out.println("reduce(): deltaT = " + (t1-t0) + "ms, result 1 = " + result1);
System.out.println("collect(): deltaT = " + (t2-t1) + "ms, result 2 = " + result2[0]);
System.out.println("recursive: deltaT = " + (t3-t2) + "ms, result 3 = " + result3);
}
}
它计算n!使用一些 - 不可否认的奇怪;-) - 算法。
然而,表现结果令人惊讶:
reduce(): deltaT = 44ms, result 1 = 3316275...
collect(): deltaT = 22ms, result 2 = 3316275...
recursive: deltaT = 11ms, result 3 = 3316275...
一些评论:
accumulator()
因为它并行访问同一个数组。reduce()
和collect()
会产生相同的效果,但reduce()
比collect()
慢〜2倍,即使collect()
必须同步! 我不希望reduce()
的表现比collect()
的表现差。为什么会这样?
答案 0 :(得分:8)
基本上,您正在测量第一次执行的代码的初始开销。不仅优化器还没有任何工作,你正在测量加载,验证和初始化类的开销。
所以毫无疑问,评估时间会减少,因为每次评估都可以重复使用已经为之前评估加载的类。在一个循环中运行所有三个评估,甚至只是更改顺序将给你一个完全不同的图片。
唯一可预测的结果是简单的递归评估将具有最小的初始开销,因为它不需要加载Stream
API类。
如果您多次或更好地运行代码,请使用复杂的基准测试工具,我猜您会得到与我类似的结果,其中reduce
明显优于collect
,并且确实比单一更快线程方法。
collect
较慢的原因是因为你使用它完全错误。将为每个线程查询Supplier
以获取不同的容器,因此累加器函数不需要任何其他同步。但重要的是组合器函数能够正确地将不同线程的结果容器连接到单个结果中。
正确的方法是:
BigInteger[] result2 = Stream.iterate(ONE, x -> x.add(ONE)).parallel().limit(N)
.collect(()->new BigInteger[]{ONE},
(a,v)->a[0]=a[0].multiply(v), (a,b)->a[0]=a[0].multiply(b[0]));
在我的系统上,其性能与reduce
方法相当。由于使用数组作为可变容器无法改变BigInteger
的不可变性质,因此在此使用collect
没有任何优势,使用reduce
是直截了当的,如上所述,正确使用两种方法时的等效性能。
顺便说一句,我不明白为什么这么多程序员试图创建自引用的lambda表达式。递归函数的直接方法仍然是一种方法:
static BigInteger fac(long x) {
return x==0? ONE : BigInteger.valueOf(x).multiply(fac(x - 1));
}
static final Function<Long, BigInteger> fac=StartMe::fac;
(虽然在您的代码中,您根本不需要Function<Long, BigInteger>
,但只需直接致电fac(long)
。
最后一点,Stream.iterate
和Stream.limit
都非常不适合并行执行。使用具有可预测大小和独立操作的流将显着优于您的解决方案:
BigInteger result4 = LongStream.rangeClosed(1, N).parallel()
.mapToObj(BigInteger::valueOf).reduce(BigInteger::multiply).orElse(ONE);