问题标签 [ieee]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 在android中实现ISO/IEEE 11073-10417标准
我目前正在开发一个应用程序 (Android),它使用一些 BLE 设备来捕获健康数据。我有一个血糖仪,它使用 ISO/IEEE 11073-10417 规范通过 BLE 与智能手机通信。
虽然其他 BLE 设备使用从智能手机发送到设备并返回的 16 字节十六进制字符串(最后使用 CRC 校验和字节),但此 IEEE 标准的文档并未向我提供有关此的信息。如果有人对如何开始工作提出建议,我将非常感激,因为我不知道要花多长时间才能弄清楚这些东西是如何工作的。
android - Android中可用于内存测试的软件测试技术有哪些?
背景:
我已经使用 Eclipse Memory Analyzer Tool 对我的 Android 应用程序进行了内存测试并确定了内存泄漏。
我参考了http://android-developers.blogspot.com/2011/03/memory-analysis-for-android.html
但是,我面临的问题是如何按照 ISO/IEC/IEEE 29119-3:测试文档将其放入适当的测试文档中。
目前的理解:
在涉及 GUI 的测试中,我可以使用等价分区、决策表测试等技术来识别测试用例,例如当用户按下后退按钮时会发生什么等。然后,我将根据这些技术设计测试用例。
如何在 Android 中进行内存测试?任何帮助将不胜感激。谢谢你。
binary - 尝试使用 fortran 读取 wgrid 创建的 ieee 文件。我收到奇怪的条目
我正在尝试读取由 wgrib 创建的二进制 ieee 文件。我有一堆来自 ECMWF 中心的 GRIB 文件,我将它们转换为二进制 ieee。我正在尝试使用 fortran 读取它,但是我无法获得正确的值(网格的行数(Nlon)和列数(Nlat)的巨大值)。以下是我用来从 dos 行创建 ieee 文件的命令:
这些是fortran命令
我也试过
但没有任何改变。使用 open(12,file='IGD01211200012112001.bin',form='unformatted',status='old') 没有任何改进,但如果记得后者在值的左侧和右侧使用一些填充。
我也尝试使用 -little_endian 或 -big_endian 选项,两者都没有任何变化。有什么建议吗?我还尝试将其保存为 bin,使用标志 -bin 而不是 -ieee 但没有任何改变。在 wrib 网站ftp://ftp.cpc.ncep.noaa.gov/wd51we/wgrib/grib2ieee.txt中没有说太多。这里对 wgrib2 http://www.cpc.ncep.noaa.gov/products/wesley/wgrib2/ieee.html说了些什么,但它并没有多大帮助。谢谢。
c# - 将两个短裤转换为 IEEE754 单精度浮点数
我正在使用 Modbus TCP 读取设备的数据。数据主要是存储为两个 16 位值的单精度浮点整数 (IEEE754)。现在我需要将两条短裤转换为浮点数。
一个例子:ushort[] { 17253, 46620 } 的转换应该产生 229.711365。
我认为问题在于设备使用大端,而我正在使用小端的 PC。我目前的做法是:
我希望有一种更短的方法,也许还有一种适用于大端 PC 的方法。
我也不明白为什么这不起作用:
floating-point - 2.0 + 3.0 = 4.0 如何使用基于 IEEE 格式和四舍五入的 5 位浮点表示?
对于这种基于 IEEE 的浮点数表示格式,当舍入到偶数时,我对 2.0 + 3.0 = 4.0 的方式感到困惑。
特别是最后一部分。倒数第二个也有点混乱。
我能解释一下吗?谢谢!
double - 计算“双倍范围”的正确方法是什么?
在 64 位平台中,double 的范围如下:
我遵循IEEE754标准并尝试通过以下等式计算双精度范围,
所以我尝试在64位平台上进行计算,但不确定以下是否正确?
由于偏差为 1024,因此可以通过以下方式计算 double 的最大值:
好像对...
但是当我以同样的方式计算 double 的最小值时
结果不正确......所以我想知道手动计算双精度范围的正确方法是什么。
预先感谢。
types - 标准数据类型
我正在寻找有关数据类型标准化的信息。
以双精度浮点值为例:
标准化: IEEE 754
JavaScript: 数字
爪哇: 双
C#: 双/System.Double
C/C++: double (编译器依赖的实现)
上面的示例说明了不同编程语言中双精度浮点值的实现。我想知道其他常见数据类型是否有任何标准化(例如;ISO、IEEE、ECMA 等),特别是:
- 有符号和无符号 8 位、16 位、32 位和 64 位整数
- 单、双和货币/十进制浮点值
- ascii 和 unicode 字符
- 布尔值
- 细绳
我已经看过ISO/IEC 11404但我没有发现它特别有用
x86 - 在 Intel I7 芯片上,IEEE 754 双重运算相对于彼此的成本是多少?
例如,我想估计一个除法与加法相比要贵多少,英特尔处理器上的 IEEE 754 双倍。我需要它来估计哪些操作可以在特定的内部循环中带来更快的性能。
c - IEEE 单精度浮点格式
为什么双精度格式不简单地将每个字段中的位加倍,而不是仅将小数位加倍?另外,什么是隐藏位,为什么要使用它?
c++ - 通过作弊快速比较大于零的 IEEE 浮点数
我正在一个平台上工作,当将浮点数与零进行比较时,它会出现严重的停顿。作为优化,我看到使用了以下代码:
查看生成的程序集,停顿消失了,功能更高效。
这行得通吗?我很困惑,因为 IEEE 技巧的所有优化都使用 SIGNMASKS 和大量 AND/OR 操作(例如https://www.lomont.org/papers/2005/CompareFloat.pdf )。强制转换为带符号的 int 有帮助吗?在简单的线束中进行测试没有发现任何问题。
任何见解都会很好。