使用 QPI 和 FSB 的架构之间可以预期哪些类型的性能改进?

使用 QPI 和 FSB 的架构之间可以预期哪些类型的性能改进?

尽管比较英特尔两款新 i7 处理器,我注意到,除了 L3 缓存大小和 CPU 速度之外,它们之间的唯一区别是其中一个具有 QuickPath Interconnect,这似乎解释了两者之间巨大的价格差异(600 美元 vs 1000 美元)。我对购物建议不感兴趣,但我确实想知道 QPI 的优势是什么。

我读了维基百科文章我理解 QPI 本质上取代了前端总线。文章说第一个 QPI 实现实现了当代 FSB 吞吐量的两倍,但尚不清楚吞吐量的增加是否会导致实际情况下的性能提升。

我知道更快的 FSB 可以实现更快的处理器和内存,因此从理论上讲,用更快的 FSB(QPI)替换 FSB 也可以实现更快的处理器和内存。但是,我还没有看到任何迹象表明有明显更快的组件只能与 QPI 一起使用。换句话说,快速的 FSB 似乎“足够好”全部意图和目的。

对于那些不想向我推销产品的人来说,FSB 是否仍被视为瓶颈?如果是,那么 QPI 何时能提供比 FSB 更好的性能?QPI 显然不像 FSB 那样用于内存访问;这有什么影响?

编辑:我正在寻找一个答案,可以说“当游戏和与视频卡的通信成为瓶颈时,您会看到 X 类改进。当执行编译等 CPU 密集型操作时,除非它也是内存密集型操作,否则您可能看不到任何效果”或类似的东西。在人为情况下的理论最大值和性能没有用,在特定硬件和特定任务(如 Crysis 中的第一个加载屏幕)下给出的确切性能增益百分比也没有用 :P。请找到一个折衷方案!当然,您可以使用特定的测试结果来支持概括。

如果你能解决同样的问题,将获得巨额加分超传输

答案1

QuickPath 架构至少通过三种方式增加了物理处理器、内存和 I/O 之间的带宽:

  • 内存控制器从芯片组移到 CPU,缩短了从每个处理器到 RAM 的路径,并防止数据通过中央共享芯片组来回传输到内存。
  • 处理器上添加了连接/路径,以便在它们之间直接传递数据,再次消除了通过中央芯片组在 CPU 之间共享数据的数据行程。
  • 现在有多条路径通往芯片组,可以将您连接到其他 I/O。

这些连接被称为快速通道互连 (QPI),比传统的 FSB 连接短得多、宽得多、快得多。

QPA 的网状(点对点)架构还将允许未来实现极大的可扩展性,而不会出现单个 FSB 过载的瓶颈。

“什么时候我才能看到改善?”

您应该注意到,在 CPU 之间、与系统内存之间以及与系统 I/O 之间传递数据的任何事物的性能都有所提升。YMMV。:)

请参阅此处以获得有关此内容的最佳信息。

答案2

QPI是Intel随core i系列处理器推出的一项新的IO互连技术。

QPI 的作用类似于带有处理器互连附加功能的 IO 总线。现在,既然您希望 QPI 的性能优于 FSB,那么我可以说 QPI 与 FSB 相比确实非常出色。早期架构中内存位于处理器本地,这意味着数据驻留在内存芯片中;并且芯片与特定处理器距离较近,在电气上更接近处理器。现在有了 FSB,情况就不同了。数据可以在处理器之间更快、更高效地移动。您可以从每个处理器到每个处理器建立专用链接。这足以使集群连接起来,但如果集群完全连接(每个处理器都连接到其他处理器),这确实会有所帮助。

如需观看英特尔视频,请点击这里. 请参阅英特尔的入门白皮书这里

综上所述,可以说 QPI 极大地提高了多处理器 PC 的性能。即使在单处理器 PC 中,QPI 也能增强 IO。

相关内容