我一直认为它是每个控制器通道,并且如果我的主板上有 4xSATA 3.0Gb/s 端口,那么我应该有 12.0Gb/s 的潜在带宽。但是,经过一番搜索后,我发现了相互矛盾的信息,表明如果我将 4xSATA 驱动器连接到我的主板并同时使用它们,每个驱动器将只获得 3.0Gb/s /4 = 768 Mb/s 的最大带宽。所以我想澄清一下我的理解。
附带问题:还有其他需要注意的 HDD/SSD 带宽瓶颈吗?(非常欢迎提供已回答问题的链接)
答案1
这个问题有点难以回答,
它取决于每个控制器,但控制器所在的位置和所用的控制器将影响最大总吞吐量。如果您使用某些旧的板载控制器或使用 PCI 或 PCIEx1 的附加控制器,则除了额外空间之外,您永远不会看到任何明显的好处。如果您使用中等板载控制器(例如总吞吐量约为 4.5Gb 的 Intel ICH9H),您将看到微不足道的收益。要获得任何值得注意的收益,您需要运行基于硬件的 RAID 控制器,该控制器连接到 PCIEx4 或更高版本。
例如,我家用服务器上的主驱动器在 Windows 7 性能评级中排名 5.9,我的 4 驱动器 raid 5 由 4 个与主启动驱动器相同的驱动器组成,具有备份启动分区,当我从该分区启动时,我看到了收益,但评级仅提高到 6.4。这是使用前面提到的 ICH9H。
我的恢复工作站使用基于 PCIEx16 的控制器运行类似的阵列,并获得了 7.9 的评分。底线是,每个驱动器 3Gb/s,具体取决于控制器所在通道的限制。控制器的总线更好 = 通过跨通道分布获得更好的最大速度。一旦总线最大化,您只会看到驱动器规格的边际改善,例如更好的寻道时间。
答案2
这是每个连接器的带宽,但其他因素也会限制您的最大带宽。例如,英特尔的 ICH9 芯片组的最大吞吐量约为 600 MB/s。在 Google 上搜索有关在 RAID 中运行 SSD 的信息,结果显示组合带宽超过单个端口的带宽,因此结论显而易见。
答案3
基本上,它是每个控制器的。还有其他复杂之处和细微差别,但我稍后会介绍它们。