在Robert Sedgewick的书籍算法第四版第200页中,它说“例如,如果你的计算机上有1GB内存(10亿字节),你就不能超过大约3200万个int值。”
我计算后感到困惑: 1,000,000,000字节/ 4字节= 2.5亿
作者如何获得3200万?
这本书描述如下:
答案 0 :(得分:4)
作者已经承认这是本书网站的错误,请参考以下链接: http://algs4.cs.princeton.edu/errata/errata-printing3.php
答案 1 :(得分:3)
1千兆= 1073741824位
1 int = 32位
计算=(1073741824/32)=(32 * 1024 2 )=(32 * 2 20 )= 3200万
如果作者意味着giga 字节,那么答案将是(32 * 8)百万= 2.56亿