在数学中,对于表达分母有平方根的偏见。这来自计算机时代之前,当时您必须手动计算一个表达式,例如1 / sqrt(2),这很烦人,因为sqrt(2)是一个长十进制,您必须在某个时间点将其截止。错误更严重。手动进行等效计算sqrt(2)/ 2容易得多,并且近似sqrt(2)所产生的错误也没有那么糟糕。这种偏见仍在学校中被教授(主要是由于惯性),尽管其理由已不再成立。但是我的问题是,计算机是否在乎(因为它们现在正在为我们进行这些计算)?在一种典型的语言/体系结构中,其中一种计算是否比另一种计算更快/更容易?我猜精度问题仍然存在,但是对于简单的计算,它们是无关紧要的。美元商店的计算器能够计算sqrt(2)的精度比大多数人所需的精度更高,因此,算法上的关注是唯一看起来很重要的问题。