K = 1024 的由来是什么?

K = 1024 的由来是什么?

为什么千字节中的字节数会有差异?在一些地方我看到数字 1024 (2 10 ),而在其他地方则是 1000 (并且随着 M、G、T 等的增加,差异会越来越大)。

这并不是关于它应该是 1024 还是 1000 的讨论(尽管您可以在评论中讨论它),而是关于这种情况在何时何地起源和/或变得普遍。

据我所知,Linux 和硬件制造商从不使用 1024 版本。这些以及传闻让我认为 MS-DOS 使这个版本变得普遍,但事实如何呢?

答案1

它可以追溯到相当长的一段时间,并且详细内容在这里看起来,如果有人要责怪 IBM 的话。

再想想,我会责怪美国人,因为他们公然无视国际单位制:P

答案2

一开始,所有计算都是低级的。在低级编程中,“1000”这个数字完全没用,他们需要前缀来表示更大的数字,所以他们重用了 SI 单位。这个领域的每个人都知道这一点,没有混淆。它很好地服务了 30 年,谁知道呢。

这并不是因为他们是美国人,所以他们需要不惜一切代价打破 SI。:-)

我认识的程序员中没有一个会说千字节。他们说千字节,其实就是 1024 字节。算法中充满了 2 的幂。即使在今天,“1000”对程序员来说也是一个毫无用处的数字。

说 kibi 和 mibi 实在是太有趣了,而且会把注意力从主题上转移开。我们很乐意将其赠送给电信和磁盘存储部门 :-)。我会在非程序员可以阅读的用户界面上写上 kibibytes。

答案3

对于技术人员来说,很多情况下使用 1024 = 1K 是正确的,也是有意义的。

对于最终用户来说,通常最好说 1000 = 1k,因为每个人都习惯于以 10 为基础的数字系统。

问题在于界限在哪里。有时营销人员或广告人员在“翻译”或将技术数据和语言适应最终用户方面并不成功。

答案4

1024 并不是罪魁祸首,它确实是一件非常好的事情,因为它是计算机(数字)能够像今天这样快速和高效的原因。由于计算机只使用 2 个值(0,1),因此它消除了模拟系统的困难和复杂性(不准确性)。

如果我们说 1 千字节是 1000 位,那会更复杂,因为 2 的多少次方是 1000?所以即使 1 千字节也是不准确的,因为它会有浮点数或近似值。

但我主要责怪市场营销人员销售 8 GB 的硬盘*,并在小字中添加了这句话

* 1 gigabyte is 1,000,000,000 bytes. 

这真的很遗憾,连接速度也一样,你的 ISP 会说 1.5Mbps,而不是告诉你~150 千字节。这非常具有误导性

相关内容