我是第一次阅读操作系统课程的学生。在使用请求分页时,我对计算性能降级计算存在疑问。在关于操作系统的Silberschatz一书中,出现了以下几行。 "如果我们采用8毫秒的平均页面错误服务时间和a 内存访问时间为200纳秒,然后是有效访问时间 纳秒是 有效访问时间=(1 - p)x(200)+ p(8毫秒) =(1-p)×200 + p×8.00(1000 = 200 + 7,999,800 x p。 然后,我们看到有效访问时间与其成正比 页面错误率。如果一个访问1,000个导致页面错误,则有效 访问时间是8.2微秒。计算机将被一个因素放慢速度 40因为需求分页! "
他们是如何计算这里的减速?性能下降'和减速相同?
答案 0 :(得分:0)
这完全是荒谬的。它假设一个固定的页面错误率P.这本身是不现实的。该速率是导致页面错误的内存访问的一小部分。
1-P是不会导致页面错误的内存访问的一小部分。
T =(1-P)×200ns + p(8ms)则是存储器访问的平均时间。 扩展 T = 200ns + p(8ms - 200ns) T = 200ns + p(799980ns)
整件事情相当愚蠢。
你真正需要知道的是纳秒是1 /十亿分之一秒。 微秒是1 /千分之一秒。
使用这些数字,内存和磁盘中的访问时间之间存在一百万的差异。