摘要
算法进展的动机在实现中似乎并不完全清楚,我想了解其概念的细节。
具体问题
- 是否存在优于元素的相等分区的情况?
- 是否有JIT效应需要考虑使后续分区比其前辈更有效?
到目前为止我的想法
鉴于:进展P(i)= 1024 * 1 + 1024 * 2 + 1024 * 3 ... 1024 * i
- 当P(核心)> 1时,这种设计似乎效率较低。元素数量
- 当每个元件具有非常高的处理成本并且P(芯)>>时,该设计似乎效率低得多。元素数量(例如8个非常复杂的项目)
- 似乎如果集合的大小在处理成可分割之前可用,则可以使用该大小来暗示更优化的分区方案。这是不正确的?如果它是正确的,为什么我们不这样做?
谢谢。