我有几个问题:
计算机只使用 1 和 0 来表示数字。那么它如何表示5.512这样的小数点。
计算机不知道我们输入的是 ASCII 值还是只是一个随机二进制文件来处理。在早期,人们习惯于使用十六进制和二进制进行编程。他们将如何在屏幕上输出一个字符。除此之外,计算机如何理解 65(十进制)不是数字而是大写 A?
我有几个问题:
计算机只使用 1 和 0 来表示数字。那么它如何表示5.512这样的小数点。
计算机不知道我们输入的是 ASCII 值还是只是一个随机二进制文件来处理。在早期,人们习惯于使用十六进制和二进制进行编程。他们将如何在屏幕上输出一个字符。除此之外,计算机如何理解 65(十进制)不是数字而是大写 A?
对于您的第一点,请参阅IEEE754-1985 Wikipedia 页面了解一种方法(可能是最常见的)。
对于第二点,您需要意识到值与该值的表示之间存在脱节。一个值可以以一种方式存储并以多种不同的方式进行解释。
例如,八位字节0x30, 0x31
可以表示为0x3031
big-endian 16 位值、0x3130
little-endian 或'0', '1'
ASCII 字符序列中的值。如果将其视为 EBCDIC 或定点值,那将是另一回事。
这一切都取决于您如何解释数据。