计算机数字转换如何进行?需要多长时间?

计算机数字转换如何进行?需要多长时间?

假设我想将 2 个十进制数相加并将结果打印在屏幕上。例如 12345678 + 343567。我知道这是通过寄存器中的值、逻辑“AND”门等完成的。但我的问题是计算机如何知道这个数字 (12345678) 的二进制表示形式?例如,对于我的微控制器,将值 (8 位) 输入寄存器需要 1 个时钟周期 (135ns),将 R1 添加到 R2 也需要相同的时间。那么,如何才能如此快速地完成呢?将输入的十进制数转换为二进制形式并在 1 个时钟周期内存储在寄存器中。

此外,如果 CPU 使用 IEEE 754 符号,则必须执行更多操作。这可能是一个简单而愚蠢的问题,但我无法理解。有人可以向我解释一下,计算机如何如此快速地知道哪个逻辑门应让电流通过,哪个逻辑门不应让电流通过,从而将十进制数制成二进制表示?

相关内容