假设我们平均每 20,000,000 条指令有一个页面错误,一条正常指令需要 2 纳秒,而一个页面错误导致指令需要额外的 10 毫秒。考虑到页面错误,平均指令时间是多少?
问问题
678 次
4 回答
2
20,000,000 条指令,其中一条会出现页面错误
因此,20,000,000 条指令将占用
(2 nanoseconds * 20,000,000) + 10 milliseconds
获取结果(这是 20,000,000 条指令的总时间),然后将其除以指令数以获得每条指令的时间。
于 2009-05-25T22:49:34.580 回答
1
考虑到页面错误,平均指令时间是多少?
平均指令时间是总时间除以指令数。
那么:20,000,000 条指令的总时间是多少?
于 2009-05-25T22:50:37.027 回答
0
2.5 纳秒?很简单的算术,我猜。
于 2009-05-25T22:48:40.323 回答
0
如果 20,000,000 条指令中有 1 条导致页面错误,那么您的页面错误率为:
Page Fault Rate = (1/20000000)
然后,您可以计算每条指令的平均时间:
Average Time = (1 - Page Fault Rate) * 2 ns + (Page Fault Rate * 10 ms)
达到 2.5 ns / 指令
于 2009-05-25T23:03:56.703 回答