当我使用算法来解决计算问题时,我经常会体验到通过使用更多内存可以提高速度,并且可以以增加运行时间的代价降低内存使用量,但是我永远不会强迫运行时间和消耗内存的产品低于明显可触及的限制。这与海森堡的不确定性原理正式相似:位置不确定性和粒子动量不确定性的乘积不能小于给定的阈值。
是否存在计算机科学定理,它断言同样的事情?我想应该可以从图灵机理论中得到类似的东西。
答案 0 :(得分:2)
我个人并不熟悉与海森堡的不确定性原则相似的描述,本身,但这听起来与Computational Complexity Theory密切相关。问题可以根据一些固有的,不可简化的复杂性进行分类,我认为这就是你对“运行时间和消耗记忆的产物”的限制所得到的。