计算能力的指数增长对于台式计算机来说仍然有效吗?

计算能力的指数增长对于台式计算机来说仍然有效吗?

桌面计算能力的指数增长不再有效了吗?今天,它看起来更像是对数增长。

例如,1990 年代初,典型的台式机 CPU 为 20..50 MIPS(386,486),2000 年为 1000..3000 MIPS(奔腾 III、速龙),但现在只有 10000..40000 MÌPS(四核/双核)。这意味着在 1990 年至 2000 年间,我们看到了 100 倍的增长,但在 2000 年至 2010 年间,每 10 年仅增长 10 倍。

如果我们比较每芯片的 GFLOPS,结果也是如此。1992 年,Intel 486DX 为 0.03 GFLOPS,2000 年,PentiumIII 为 2 GFLOPS,而现在 2010 年,大多数台式机 CPU 的 GFLOPS 为 20..30 GFLOPS。

现在,让我们看看非易失性存储:<1990 年为 40Mbyte> vs. <2000 年为 10Gb> vs. <2010 年为 1000Gb>。因此,每十年增长 1000 倍 vs. 增长 100 倍。

此外,易失性存储:<1990 年为 2Mb> vs. <2000 年为 256Mb> vs. 2010 年为约 2Gb(或更多,但不是 20!)。因此,每十年的增长是 100 倍,而不是 10 倍。

这个经验证据是否意味着桌面计算能力的增长变得更慢?

答案1

嗯,最终是的。

嗯听起来像收益递减规律对比摩尔定律

如果我以经济学家的眼光来看,我会说收益递减定律最终会获胜。它几乎在所有其他人类活动中都取得了胜利。虽然我尊重戈登·摩尔的成就,但他的定律更像是一种战略性商业愿景,只能在有限的时间内适用于电路密度,并不能描述整个世界。收益递减定律的记录更好。

如果我戴上我的 IT 帽子,它就不合适了。因为它每年都变得更大 :-)

危险:这个问题对于主持人来说可能过于推测或引起争议。

答案2

我认为你混淆了“对数”和“指数”。指数增长在对数尺度上显示为一条直线。我还认为你必须将成本纳入“功率”比较中。当你这样做时,你会看到增长继续呈指数增长。

处理器中晶体管的数量每两年翻一番,这原本就是摩尔定律的原意,至今仍是正确的,在可预见的未来也将继续如此。不过,将来某个时候,其他技术很可能会取代晶体管。

晶体管数量

答案3

我对此已经坚持了一段时间,但我还是想提出几点。

您为 2000 年指定的平均 RAM 数量有点偏差,32\64Meg 会更准确,并且这些值与 1990-2000 年和 2000-2010 年的比率大致相同。

通用处理器的 MIPS 和 GFlops 是相当无用的计算能力衡量标准。系统的设计目的并不是最大化这些数字,当然通用桌面系统也不是。

自从我第一次拥有一个带有硬盘的系统以来,大约 35 年的时间里,硬盘容量增加了 20 万倍(从 5M 到 2TB),但由于机械限制,随机访问延迟仅提高了约 10-15 倍,接口带宽仅增加了约 200 倍(从 90 年代早期的 ESDI 的 24 兆比特/秒到 SATA II 的 6Gbps)。不过,SSD 的出现将彻底颠覆这一切。忽略初期问题,人们说 HDD 永远不会取代磁带,但 SSD 提供的延迟改进将从根本上改变未来三年内存储融入系统的方式。HDD 不会消失,但到本世纪中叶,旋转盘片将仅用于很少写入、偶尔读取的长期存储。一旦操作系统设计人员不再需要解决 20 年来一直没有明显变化的 HDD 延迟问题,日常计算体验将会发生巨大的变化。请记住,所有这些都归功于晶体管密度的稳步指数增长,这终于开始使固态存储接近旋转磁盘。

但所有这些都偏离了重点。你无法将现代计算机的效率浓缩为几个指标,然后直接与 20 年前的系统进行比较,也无法做出任何真正有意义的比较。

我要与大家分享的一个指标是,在我的领域,我做了很多服务器整合工作,用数量少得多、本质上“大”的服务器替换大量 3-5 年的旧服务器。我们通常根据负载以 10-15 的比例进行整合,但我可以毫不犹豫地说,我可以将 10 台 5 年的双插槽服务器(中等繁忙程度(利用率约为 50%))与 1 台双插槽(但现在是 8 核)服务器(成本约为 6000 美元)搭配使用,并期望它能够承载所有这些服务器,而不会超过 50% 本身。我们还进行工作站虚拟化工作,我们很乐意将该比例翻倍,而不必太担心。我绝对有信心地说,就任何重要的指标而言,当今的典型系统比同类 4-5 年的旧系统好 10 到 15 倍。更重要的是,我们在完成所有这些工作的同时,每个设备的发热量\功耗都较低,因此,不仅通用计算任务的“红线”性能得到了提升,而且能源效率也在稳步提高。

答案4

这有点取决于你所说的“台式机性能的增长”是什么意思。当然,CPU 的性能仍在不断提高,但它们的整体性能并没有得到充分体现。

缓存就是一个例子 - 虽然您的 CPU 每秒可以处理十亿条指令,但只需 1 个小小的编程异常就可以删除所有缓存,让 CPU 从主 RAM 中获取指令和数据 - 这非常慢(以您的 CPU 标准而言)。因此,除非您能让 CPU 不断“喂饱”数据,否则它只能无所事事、咬着指甲看报纸。您的用户将举起双手惊呼“我买了一台超级新 PC,但它仍然需要很长时间才能完成任务,这该死的东西在干什么”(因为磁盘颠簸,CPU 缓存线在线程之间晃动,北桥在将 RAM 从主内存传输到 CPU L3 缓存时过热)。

然后我们将数据放在网络的另一端......

所以……是的,它们变得更强大了。不,它们仍然和以前一样慢。

相关内容