我开始使用spark并尝试关注SparkPi示例(https://github.com/apache/spark/blob/master/examples/src/main/scala/org/apache/spark/examples/SparkPi.scala)
我无法理解为什么算法中使用的磁盘是开放的。我们不应该使用x x + y y< = 1吗?
这里有一个非常简单的比较代码(https://gist.github.com/mrydzy/1cf0e5c316ef9d6fbd91426b91f1969f)和x x + y y< = 1似乎表现稍好一些 - 但因为差异很小,我将非常感谢您的确认或解释。