从技术上讲,您不能将二进制表示的数字转换为十进制数,因为计算机没有任何存储设施来表示十进制数。
实际上这听起来很荒谬,因为我们总是在处理十进制表示的数字。但是这些十进制表示实际上从未以十进制存储。计算机唯一要做的就是在显示数字时将数字转换为十进制表示。而这种转换与程序构建和库设计有关。
我将给出一个关于 C 语言的小例子。在 C 中,您有有符号和无符号整数变量。当您编写程序时,这些变量用于在内存中存储数字。谁知道他们的标志?编译器。汇编语言有有符号和无符号操作。编译器跟踪所有变量的符号并为有符号和无符号情况生成适当的代码。因此,您的程序在编译时可以完美地处理有符号或无符号整数。
假设您使用一个printf
句子来打印一个整数变量,并且您使用%d
格式转换器以十进制表示形式打印该值。此转换将由printf
C 标准输入输出库中定义的函数处理。该函数从内存中读取变量,使用简单的基本转换算法将二进制表示转换为十进制表示。但是算法的目标是一个字符序列,而不是一个整数。所以这个算法做了两件事,它都将二进制转换为十进制表示;并将位转换为 char 值(或更准确地说是 ASCII 码)。printf
应该知道数字的符号以成功进行转换,并且此信息再次由编译时放置的编译器构造提供。通过使用这些构造printf
可以检查整数是有符号还是无符号,并使用适当的转换方法。
其他编程语言遵循类似的路径。本质上,数字始终以二进制形式存储。编译器/解释器知道有符号或无符号表示,因此是常识。十进制转换仅出于美观的原因进行,转换的目标是字符序列或字符串。