问题标签 [nist]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
random - NIST 的二进制输入文件序列
我已经开发了一个 RNG 程序,现在,我想测试我的数字是否是随机的。因此,我决定使用 NIST 测试套件。
我仍然对输入文件格式感到困惑,他们说:“用户可能希望根据需要构建任意长度的文件。文件应包含二进制序列,存储为由零和一组成的 ASCII 字符,或二进制数据其中每个字节包含 8 位值 0 和 1"
我的 python RNG 程序将逐行返回一个数字序列,如下所示:
如何将它们转换为 NIST 的正确输入文件?
random - 如何在 NIST 测试套件中测试新的随机序列?
我必须使用 NIST 测试套件测试随机序列。我已经下载并运行了数据目录中给出的文件的测试。它工作正常,但是当我尝试在新的随机序列上运行它时,我得到了igmac: UNDERFLOW错误。随机序列在 Matlab 中使用
然后使用保存为.dat文件
我将 bs.dat 复制到数据文件夹中并执行如下测试。有人可以告诉我这里有什么问题吗?
ash@computer:~/Documents/NIST_Test_Original/sts-2.1.2$ ./assess 1000000 GENERATORSELECTION ______________________________________
输入选择:0
输入选择:0
选择测试(0 继续):0
有多少比特流?5
输入文件格式:[0] ASCII - ASCII 0 和 1 的序列 [1] 二进制 - 数据文件中的每个字节包含 8 位数据
选择输入模式:0
security - 威胁风险评估
我必须为我的一位客户进行威胁风险评估。任何人都可以分享一些模板或提供一些关于威胁风险评估需要检查或审计的内容的指示。可适用于云端和本地
gradle - 检索 https://nvd.nist.gov/feeds/json/cve/1.0/nvdcve-1.0-modified.meta 时出错;收到响应码 404
我们在项目中遇到以下错误,这个 URL 什么时候回来?
go - 如何在 NIST P256 golang 实现中计算 p256Zero31?
我们发现有预定义的
在加密/椭圆/p256.go 中。p224.go 有类似的var p224ZeroModP31。每检查来自 p224.go 的参考。在https://www.imperialviolet.org/2010/12/04/ecc.html。我们也无法从减法部分找到“0 mod p”的详细信息。
我们也可以在 openssl 实现中找到这样的定义:https ://github.com/openssl/openssl/blob/master/crypto/ec/ecp_nistp256.c
得到 p256Zero31 的公式是什么?我计算了 0x7ffff * p,它不等于 p256Zero31。0x7ffff * p < p256Zero31 < 0x80000 * p
encryption - 用于蒙特卡洛测试的 AES 验证标准伪代码缺少什么?
我正在尝试在 CBC 模式下使用规定的 AES-128 验证程序,如NIST AESAVS 标准中所定义。测试套件中更重要的部分之一是 Monte Carlo 测试,它提供了一种生成许多 10000 个伪随机测试用例的算法,因此硬编码电路不太可能伪造 AES。其中的算法伪代码似乎对可变范围和定义采取了一些自由,所以我希望有人可以帮助我填写缺失的信息以正确解释这一点。
128 位密钥情况的逐字算法如下:
对于上面的伪代码,从这些初始值开始:
外循环的前三个迭代应该输出:
看起来我们在内部循环之外使用j ,我相信这是混乱的根源。我最初假设这意味着无论密文CT的最终值是什么(CT[999]),这会让我相信下一个外部循环PT[0]的明文被初始化为CT[998]。但是,这种解释与给定的预期输出不匹配。
我还认为,括号在这里可能不是表示值数组,而是表示相对于现在的时间步长。然而,这也使得在循环之外引用j令人困惑。如果循环已过期,那么i或j是当前时间吗?
我在这里错过了一些关键步骤吗?是否有错字(文档中没有勘误表)?
对此事有一些经验的人可以对适当的解释发表评论吗?
c++ - 如何运行我的makefile中的“评估”?
正如您在此 GitHub 存储库中看到的,我从NIST 随机数生成器测试套件下载了一个解决方案,其中包含子目录中的 amakefile
和C
文件。
根据提供的文档的第 96 页,我必须运行make
然后运行assess 100
(或任何其他数字)。我能够成功运行make
,但我似乎无法运行assess 100
,因为它只是说“找不到命令”。我相信它应该显示这个:
我试图通过这个 makefile 教程,但我无法理解发生了什么。我该怎么办?
这是makefile的顶部片段,如果有帮助的话:
tensorflow - How to make Federated Learning datasets 'tff.simulation.datasets.emnist' from LEAF and NIST?
I would like to do an image classification task by Federated Learning. According to [tensorflow tutotial], 1, they download the original NIST dataset and use LEAF to pre-process them. However, in the tutorial, the details are omitted, they just load 'tff.simulation.datasets.emnist' to get eminist_train and emnist_test. Can anyone know the detail from LEAF's outputs (json files) to the accepted train/test datasets? Thanks
security - 用于 Oval 5.11.2 的 OVAL(开放漏洞和评估语言)解释器
我对 Oval 很陌生,正在寻找最新的 Oval 解释器,用于模式版本 5.11.2。
但在链接中我只能找到 5.10.1 版本的椭圆解释器:=> https://sourceforge.net/projects/ovaldi/files/ovaldi/
https://oval.mitre.org/language/interpreter.html链接也没有提到最新的椭圆解释器。
感谢您在这方面提供任何帮助或指导。
random - 这是来自 [NIST SP800-22 Revision 1a.] 的 2.5.8 示例中的印刷错误吗?
我正在阅读论文 NIST SP800-22 Revision 1a,它是关于随机性测试套件的。
这是我找到并阅读的链接。
我在帖子末尾总结了我的问题。下面的描述是我的推论是如何得出的。而且,我还没有发现关于 2.5.8 Example 的错误打印。
2.5.4 测试说明
χ^2 如上式计算。
2.5.8 示例
显示所有变量的示例非常好。但是,遗憾的是,我无法按预期得到 χ^2 = 1.2619656。我认为这是这篇论文的印刷错误。
我认为印刷错误的原因
我有
χ^2 = 1.262580416458114
我仔细检查了我的代码是否与 golang 错误
new(big.Float).SetPrec(500)
我用Wolfram Alpha进行了三次检查,它是在线方程计算器,如下图所示。
问题
我错了吗?
如果我错了,我无法得到准确答案的原因是什么?
(我不认为这是浮点的精度问题或只是简单的错误)如果这是印刷错误,我该如何报告?
或者,小数点后 4 位误差 ,
1.262580416458114 - 1.2619656 = 0.000614...
是否在随机性检验系统的误差范围内?