问题标签 [uint]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
matlab - Julia NetCDF 仅返回 Uint8
我正在从 matlab 迁移到 Julia。使用 julia v 0.4.2 和 Meggart 打包 NetCDF
我正在尝试以与在 matlab 中导入变量相同的方式导入变量:
而且,如果我在 Matlab 上查看变量的内容,我有:输入 24x19 字符和内容:
然而,在朱莉娅,我只得到:
而且我不知道如何使用它或如何恢复有用的数据。你能解释一下吗?
types - What's the differences between a UINT and a WORD with Profinet
I'm developing a project on a Siemens PLC and i'm wondering if I should use a Word or a UINT to store a 16-bit value. Is there any differences between the two?
c# - 日期/日期时间作为包装 api 中的 uint
我正在使用一个没有真正记录的 C++ api 的包装器。一些公开的方法需要 uint 类型的字段(from 和 to)。这些字段实际上是 datefrom 和 dateto,但类型不是这样。我尝试了不同的方法,包括将 datetime 转换为 DOS unsigned int 表示
,但如果不是错误,api函数调用仍然没有返回任何内容。,我还尝试了简单的表示形式:20160101,这是有道理的,但没有成功。有没有一种将日期和时间表示为无符号整数的已知方法?
c - 从 uint_16t 转换后的 uint8_t 值
我必须为学校做一个小作业。我正在用 C 写这个。问题是:
给定
的价值是p[3]
多少?
我做了一些研究,发现这些数字将使用 little-endian 重新输入我的计算机。所以
但是,当我打印时,p[]
我得到
我对此感到非常困惑,谁能告诉我为什么会这样?
go - Are reads and writes for uint8 in golang atomic?
As in the title, are read and write operations regarding uint8, atomic? Logically it must be a single cpu instruction obviously to read and write for a 8 bit variable. But in any case, two cores could simultaneously read and write from the memory, is it possible to create a stale data this way?
c# - 为什么我不能从 uint 中减去一个 int?
我有两个变量。
类型必须保持int
和uint
。但是我不能用它们进行基本的算术运算。
无法将类型“int”隐式转换为“uint”。存在显式转换(您是否缺少演员表?)
所以我每次都必须做这样的事情?
来自 C/C++/Java 背景,这让我很困惑。
我在这里缺少什么吗?
为什么这种行为与提到的其他语言不同?
有更好的选择吗?
我认为这是该语言新手的常见绊脚石。
不,我不依赖下溢。
swift - 如何快速将 UIColor 类型的值转换为 Uint
我得到了这个 UIColor :
我需要在 Uint 中转换。我怎样才能做到这一点?
编辑 :
颜色样式字段需要 Uint
swift - Swift: Why does UInt.max == -1
As the title states, lldb reports the value of UInt.max
to be a UInt
of -1
, which seems highly illogical. Considering that let uint: UInt = -1
doesn't even compile, how is this even possible? I don't see any way to have a negative value of UInt at runtime because the initializer will crash if given a negative value. I want to know the actual maximum value of UInt.