1

在学习编程 8085、8086 和一般微处理器时,我们总是使用十六进制表示。二进制数在计算机中很重要,这没关系。但是这些十六进制数字有多重要呢?有什么历史意义吗?

如果有人也指出一些历史论文,那就太好了。

编辑:

计算机如何处理十六进制数?例如,当输入一个十六进制数时,8085 会发生什么?

4

4 回答 4

6

与十进制相比,十六进制对用于存储数字的各种字节具有更接近的视觉映射。

例如,您可以从十六进制数0x12345678中看出最高有效字节将保留0x12,最低有效字节将保留0x78。十进制等价的 ,305419896不告诉你什么。

从历史的角度来看,值得一提的是,在与现代 16/32 位计算机使用每个字的位数不同的某些旧计算机上工作时,八进制更常用。来自维基百科关于八进制的文章:

当诸如 PDP-8、ICL 1900 和 IBM 大型机等系统使用 12 位、24 位或 36 位字时,八进制开始广泛用于计算。对于这些机器来说,八进制是二进制的理想缩写,因为它们的字长可以被三整除

至于计算机如何处理十六进制数字,到计算机处理它时,用于输入数字的原始基数完全无关紧要。计算机只是处理位和字节。

于 2013-05-13T04:26:29.370 回答
6

十六进制数可以容易地转换为二进制数,反之亦然。

基本上每个必须使用二进制数的人在显示器上都有一张备忘单,上面写着:

0000 = 0
0001 = 1

...

1111 = F

您将一个十六进制数字转换为四个二进制数字。例子:

0x1A5F = 0001 1010 0101 1111

十六进制是以紧凑格式记下二进制数的最简单方法。

于 2013-05-13T21:02:53.297 回答
0

一个重要原因是因为对于人类来说,十六进制比二进制更短且更易于阅读。

于 2013-05-13T01:44:50.290 回答
-1

十六进制数也很容易将数字转换为二进制、八进制和十进制系统。所以主要我们可以使用十六进制形式。

于 2017-02-10T03:08:15.667 回答