想象一下我写了一个简单的计算器应用程序,它只计算简单的东西,比如
1.5 + 30 + 9755 - 30 - 20000 + 999900.54
我稍微记得使用浮点数时存在一些精度问题。我的计算器应用程序会在什么时候开始产生错误的结果?大多数时候,我只会计算像 1 + 2 - 963422 这样的整数,但有时我可能会输入一个浮点数。我对精度问题将在哪里开始生效没有什么大的线索。只是那双的最后一个数字?像-963419.0000000000003655?或者那会是什么样子?知道如何抓住这些吗?