是否存在一个有意义的计算能力的单一单位度量?

是否存在一个有意义的计算能力的单一单位度量?

在英语 SE 网站上,关于“计算周期,我个人认为正常用法是或者处理器周期

显然,不同的处理器和软件架构会极大地影响以“周期”为单位的任何测量结果的重要性。将 RISC 处理器与 Intel Core i7 的这些值进行比较对我来说毫无意义。

但它让我开始思考。我意识到“计算能力”通常是一个模糊的概念,涉及许多子元素(处理器速度/灵活性、视频/磁盘/内存速度等)。那么,是否存在“粗略”测量的概念,以某种方式平均任何特定机器的所有潜在相关性能指标,以便将其与其他机器进行比较?

答案1

不是。不同类型的架构往往擅长不同的事情 - 例如,GPU 擅长高度并行的任务,而 CPU 则是通用设计。对于 HPC 而言,失败(或 TeraFLOP)通常被使用。历史上常见的替代措施包括并行处理单元 德莱斯通 磨石林帕克

我可能会补充一点,在业余爱好者圈子里也会用到计算圆周率的百万位数字的时间,但这远非科学。

答案2

我和我的朋友不久前就意识到了这个问题的存在,并想出了一个可能最能引人发笑的答案:我们测量计算机能力的标准是它可以同时运行多少个典型应用程序实例而不会停滞或卡住。我们选择的应用程序作为参考:GNU Emacs,因此相应的单位是“GNU”。当然,这个程序对 3D 图形、磁盘带宽(大多数时候)或网络利用率的要求不是太高,但它确实需要相当多的内存和 CPU 能力,所以它似乎是个合理的选择。当时,一台普通的机器在这个范围内的评级约为 1 GNU,所以你可以看出这是很久以前的事了 :)

如今,您可以选择一个可能涵盖更多基础的不同(大型)应用程序:有些人可能会建议使用 Photoshop,或者对于通用用途,Firefox 可能就很好用,或者如果您是软件开发人员,您可能会使用 Eclipse 等。例如,您可以拥有一台 2-Photoshop 机器。

相关内容