问题标签 [octal]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
java - 如何在java中设置八进制值?
我正在尝试编写以下代码。但它给了我错误,请帮助我。
为什么我不能给变量 018 和 019。我可以给变量值 020 和 021。为什么会这样?这背后的原因是什么请告诉我。
我收到以下错误
hex - 基数 8 到十六进制转换
我只想确认以下答案。
703710 8。
8 不构成数字的一部分。将其转换为十六进制我得到答案 ABCDE。这个对吗?如果是这样,下标/基数 8 的用途是什么,它写在数字 703710 的下方。
scala - Scala 2.10 - 八进制转义已被弃用 - 现在如何惯用八进制?
请参阅 https://issues.scala-lang.org/browse/SI-5205 和 https://github.com/scala/scala-dist/pull/20
前导 0 的八进制转义值已从 scala 中弃用,我没有看到惯用的替代方法。
你现在如何处理scala 2.10中的八进制?
编辑 - unix 权限是八进制的
command-line - 如何从命令行在 UTF-8 字符的打印十进制/八进制/十六进制/UTF-8 表示之间进行转换?
在另一个问题中,有人建议echo -e
使用\0<sequence>
八进制和\x<sequence>
十六进制。例如:
echo -e "\\0302\\0241"
-->¡
有没有一种简单的方法可以从 UTF-8 字符转换为打印的八进制/十六进制序列?
python - 在python中确定一个数字是十进制、十六进制还是八进制
我正在尝试制作一个小程序,它读取一个文件中只有一个数字,然后程序打印出它是十进制、十六进制还是八进制数字,然后显示数字本身。这是我为允许的数字制定的规则:
整数可以明确指定为十进制、二进制、八进制或十六进制形式。所有这些形式都可以以可选符号开头,可以是“+”或“-”,在它和整数的其余部分之间没有分隔字符。
十进制整数可以是单个零或以非零十进制数字开头的一个或多个十进制数字的序列。十进制数字是 0、1、2、3、4、5、6、7、8 和 9。
八进制数以零开头,后跟单个零或以非零八进制数字开头的非空八进制数字序列。八进制数字是 0、1、2、3、4、5、6 或 7 之一。
十六进制数以零开头,后跟大写或小写“x”,以及单个零或非零十六进制数字以及零或多个十六进制数字的序列。十六进制数字包括十进制数字和字母 a、b、c、d、e 和 f 及其大写形式。
注意这个描述必须有多长和多混乱才能确保它是明确的。在任何表示中都不允许使用“前导零”,例如,0x007 是错误的十六进制数,而 007 既是错误的八进制数又是错误的十进制数。
我想我只是在如何让程序弄清楚它是什么数字方面遇到了麻烦。
c - C中按位运算中的不明确十六进制/八进制值
我觉得我错过了一些关于数字系统的基本知识,但我真的对下面的代码感到困惑,我正在尝试使用按位运算符:
它将 077 视为八进制(十六进制 3f)。如果我只输入 77,它会将其视为十进制(十六进制 4d)。如果放 177 ,则将其视为十进制(十六进制 b1)。我指的是 Richie 和 Kernighan 的《C 编程》一书。
请帮忙。
python - 生成无效 JSON 的应用程序
我已经使用烧瓶编写了一个应用程序。应用程序的一部分创建一个字典,然后使用 json.dumps 将字典解析为 json(string)。然后该字符串被存储为 cookie。一切都在开发中运行良好。
我建立了一个生产环境,当上述过程发生时,我无法用 javascript 读取 cookie。检查 cookie 后,我可以看到添加了逗号的 ASCII 八进制字符:\054。
据说我的开发和生产环境之间没有区别。我在生产中确实有一个更新版本的烧瓶,并读到他们改变了 cookie 的存储方式,所以我吹掉了烧瓶 0.10.1 并安装了我的开发环境中的 0.9,但问题仍然存在。
这个逗号被八进制代码替换的任何想法?
bash - 算术误差 - 以 8 为底的计算
我正在执行以下代码。我不确定为什么计算是以八进制进行的?我怎样才能使这段代码更好?
错误
java - 为什么我们需要 (HEX | OCT)_to_DEC 方法?
这可能是一个愚蠢的问题。
当我尝试构建一些方法时,例如“有效地从八进制到十进制”,我被提醒有文字可以完成这项工作。这将是系统方式中最快的、按位的、内置的。
对于八进制,前缀为“0”。
对于十六进制,前缀为“0x”。
参考:https ://en.wikibooks.org/wiki/Java_Programming/Literals
我当然知道这个词prefix
是行不通的。当然我知道符号是针对文字的。但是如果我们真的可以prefix
的话,并且让系统来做原生的转换。不是应该是最有效的吗?
还有,为什么不能?(文字是文字,正如 JLS 所说,不是可接受的答案。)
c - 一个字符如何用包含三个八进制数字的位模式来表示?
来自关于 C 编程语言的 K&R 书的第 2 章(第 2.3 节名为常量):
某些字符可以通过转义序列表示为字符和字符串常量,例如 \n(换行符);这些序列看起来像两个字符,但只代表一个。此外,可以通过以下方式指定任意字节大小的位模式
其中 ooo 是一到三个八进制数字 (0...7) 或
其中 hh 是一个或多个十六进制数字 (0...9, a...f, A...F)。所以我们可以写
让我困惑的部分是以下措辞(强调我的):其中 ooo 是一到三个八进制数字 (0...7)。如果有三个八进制数字,则所需的位数将为 9(每个数字 3),这超出了字符所需的字节长度。当然,我在这里遗漏了一些东西。我错过了什么?