我正在将sqrt
函数(用于 64 位双精度)从fdlibm 移植到我目前正在使用的模型检查器工具(cbmc)。
作为我工作的一部分,我阅读了很多关于 ieee-754 标准的内容,但我认为我不了解基本操作(包括 sqrt)的精度保证。
测试我的 fdlibm 的 sqrt 端口,我在 64 位双精度上使用 sqrt 得到以下计算:
sqrt(1977061516825203605555216616167125005658976571589721139027150498657494589171970335387417823661417383745964289845929120708819092392090053015474001800648403714048.0) = 44464159913633855548904943164666890000299422761159637702558734139742800916250624.0
(这个案例在我关于精度的测试中打破了一个简单的后置条件;我不确定这个后置条件是否可以通过 IEEE-754 实现)
为了进行比较,几个多精度工具计算如下:
sqrt(1977061516825203605555216616167125005658976571589721139027150498657494589171970335387417823661417383745964289845929120708819092392090053015474001800648403714048.0) =44464159913633852501611468455197640079591886932526256694498106717014555047373210.truncated
可以看到,左边的第 17 个数字是不同的,这意味着如下错误:
3047293474709469249920707535828633381008060627422728245868877413.0
问题 1:允许这么大的错误吗?
标准是说每个基本操作(+、-、*、/、sqrt)都应该在 0.5 ulps 以内,这意味着它应该等于数学上精确的结果,四舍五入到最接近的 fp 表示(wiki 说一些库只保证 1 个 ulp,但目前这并不重要)。
问题 2:这是否意味着,每个基本操作都应该有一个错误 < 2.220446e-16 和 64 位双精度数(机器 epsilon)?
我确实用 x86-32 linux 系统(glibc / eglibc)计算了相同的结果,并得到了与 fdlibm 相同的结果,这让我认为:
- a:我做错了什么(但是如何:
printf
会成为候选人,但我不知道这是否可能是原因) - b:错误/精度在这些库中很常见