问题标签 [underflow]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - java堆栈下溢
我正在完成这项任务,并在 Postfix.eval(Postfix.java:221) 在 Postfix.main(Postfix.爪哇:112)
不知道为什么我查看堆栈并正确写入,我看不出为什么它在 (3*4)/5 时弹出的问题
floating-point - 朴素贝叶斯分类浮点下溢
在朴素贝叶斯中乘以大量概率会导致浮点下溢。
而不是使用上面的公式(导致浮点下溢),使用下面给出的公式是否更可行/更好?还是会截断信息?
postgresql - 错误:值超出范围:下溢
有谁知道如何解决 Postgres 中的以下错误?
错误:值超出范围:下溢上下文:PL/pgSQL 函数 pgnumerics.poisspdf(双精度,双精度)第 1 行分配 PL/pgSQL 函数 pgnumerics.poisscdf(双精度,双精度)第 1 行分配 **** ****** 错误 **********
错误:值超出范围:下溢 SQL 状态:22003 上下文:PL/pgSQL 函数 pgnumerics.poisspdf(双精度,双精度)分配时的第 1 行 PL/pgSQL 函数 pgnumerics.poisscdf(双精度,双精度)分配时的第 1 行
pgnumerics.poisscdf (dp, dp) 函数一直工作到我数据的第 5300 行。我无法确定导致下溢的原因。
这是 poisscdf() 的代码
该函数调用: pgnumerics.poisspdf() -- 函数: pgnumerics.poisspdf(double precision, double precision)
-- DROP FUNCTION pgnumerics.poisspdf(双精度, 双精度);
调用 pgnumerics.gammaln()
首先出错的行是这个数据输入:
任何帮助表示赞赏!
c - 表示程序输出中的浮点下溢
我已经进行了彻底的搜索,但似乎只找到了关于下溢是什么以及它是如何工作的解释,而不是表示它的方法。
长话短说,我正在编写一个程序来试验整数溢出、浮点溢出 (inf) 和下溢——并使用 printf 函数输出这些条件的效果。我在前两个方面取得了成功,但由于浮点下溢,似乎无法成功表示一个次正规数。据我所知,我知道,根据系统处理条件的方式,下溢的症状可能是输出中丢失一个数字,或者四舍五入为零。
为了找到最低的浮点值,我查看了 float.h 头文件。FLT_MIN 出现为 0.000000(因此无法演示导致下溢的操作),并且 DEC32_MIN(我相信它具有最小的标准化正值)一直被编译器标记为“未定义”,尽管 float.h 头文件是包括在内,这是相当令人不安的。之后,我在互联网上搜索了最小可能的归一化非零 32 位浮点值,尝试用各种方式划分它们;但是我的系统似乎仍然以相同的格式表示它,似乎完全避免了下溢。
我知道我要求故意造成错误并准确表示它似乎有些牵强,但这是出于教育目的。
我的系统将浮点数处理为 32 位,双倍为 64 位,长双倍为 128 位。不妨提一下。
问题是; 如何创建具有 float、double 和 long double 类型的下溢并在输出中表示它,因此它明显是下溢错误?
除了答案之外,非常感谢任何有关进一步解释浮点下溢的帮助。我对 C 和整个编程都很陌生。
谢谢,
GS
java - 通用堆栈类中的错误(大多数似乎与下溢输入有关)
这是代码
问题是当我测试所有案例时,我得到了这8 个错误
有什么办法可以解决这些问题吗?任何帮助表示赞赏。
logarithm - 通过在日志空间中工作来避免下溢,您如何评估总和?
我正在使用线性插值,我必须计算:
p' = \lambda_1*p_1 + \lambda_2*p_2 + \lambda_3*p_3
。
但是,p_1、p_2 和 p_3 是联合概率,因此由于下溢而不能表示为浮点数。所以我在日志空间工作,取log2(p_1)
,log2(p_2)
和log2(p_3)
.
鉴于概率的日志,我不太确定如何计算p'
or log2(p')
。如有必要,我还可以计算log2(p_1* \lambda_1)
等。
ubuntu - 在 Linux 机器上运行 Storm-Kafka 拓扑时出现缓冲区下溢问题
我在 linux 服务器上运行一个简单的 kafka-storm 拓扑。在我在本地 Windows 机器上运行之前,一切似乎都运行良好。但是,一旦我将代码移至生产环境并尝试启动风暴拓扑,我就会遇到以下问题:
c - C解释中的浮点下溢
我正在解决处理浮点下溢的 C Primer Plus 练习之一。任务是模拟它。我是这样做的:
结果是
我预计最小浮点值除以二和四的精度较低,但似乎精度还可以,并且没有下溢情况。这怎么可能?我错过了什么?
非常感谢你
r - 在 R 中取数字部分(使用 log 函数重新缩放小数字)
我想使用 log 函数表示以下数字:
这是我在纸上所做的,以及我想在 R 上为任何给定数字自动执行的操作:
但是,我认为在 R 上从log(10^-600) to -600*log(10)
. 因为 R 首先评估内部表达式,然后应用给出的 log 函数而-Inf
不是-1381.511
我的问题是我该如何解决这个问题?我在想也许有一个函数可以让我检索数字的指数部分?同样的问题来自log(2.5e-600) to log(2.5)-600*log(10)
python-2.7 - 使用 tensorflow 缓冲欠载和 ResourceExhausted 错误
我在高中,我正在尝试做一个涉及神经网络的项目。我正在使用 Ubuntu 并尝试使用 tensorflow 进行强化学习,但是当我训练神经网络时,我总是收到很多欠载警告。它们采用ALSA lib pcm.c:7963:(snd_pcm_recover) underrun occurred
. 随着训练的进行,此消息会越来越频繁地打印到屏幕上。最终,我得到一个 ResourceExhaustedError 并且程序终止。这是完整的错误消息:
我研究了这些问题,但没有清楚地知道如何解决它们。我对编程很陌生,所以我不太了解缓冲区和数据读取/写入的工作原理。我对这些错误感到非常困惑。有谁知道我的代码的哪些部分可能导致此问题以及如何解决?感谢您花时间考虑这个问题!
这是我定义神经网络的代码(基于本教程):
这是我训练神经网络的代码: