我读了很多关于百亿亿次级计算的文章,发现它可能消耗大约 20MW 的功率。是按天、按年还是按秒计算?
请指教。这是我用过的论文。
http://www.cs.utexas.edu/~skeckler/pubs/SC_2014_Exascale.pdf
第 1 页:
实现这一目标的主要挑战之一是功耗,许多 HPC 系统运营商建议将全百亿亿次级系统的功耗限制在 20 兆瓦,以降低拥有成本和新电力输送基础设施成本 [2]
和
http://www.computermachines.org/joe/publications/pdfs/hpca2017_exascale_apu.pdf
第 1 页
预计百亿亿亿次超级计算机将由大约 100,000 个互连的服务器或节点组成,目标功率约为 20MW,拥有足够的内存带宽来支持大规模计算吞吐量,拥有足够的内存容量来执行有意义的问题规模,并且由于硬件或系统故障而导致的用户干预时间平均限制在一周或更长时间内 [3]。
答案1
20MW 是总功率。打开电脑一小时,您就用了 20MWh。要计算成本,请乘以电费,例如 0.10 美元/kWh。
示例来自维基百科:
天河一号A 消耗 4.04 兆瓦 (MW) 的电力。该系统的供电和冷却成本可能相当高,例如,4 兆瓦,每千瓦时 0.10 美元,每小时 400 美元,或每年约 350 万美元。
编辑: 回应下面的评论,瓦特定义为每秒的能量(焦耳)。所以这应该回答你的问题:20MW 等于每秒 20MJ。超级计算机每开机一秒,就会消耗(最多)20 兆焦耳的能量。