将 HP gen 5 SAS 磁盘阵列笼连接到第三方(3ware,LSI)控制器?

将 HP gen 5 SAS 磁盘阵列笼连接到第三方(3ware,LSI)控制器?

我有一台 ML350 G5,我想重新利用它以节省资金。我想安装 FreeNAS,但据我所知,它 (ZFS) 与主板上的 HP e200i 卡配合得不好。我想以便宜的价格购买一张优质的二手 pcie x4 / x8 RAID 卡并将其直接连接到背板,这样我就可以继续使用 LFF 笼来安装驱动器。

背板似乎使用了 2ea 4 通道 SAS 电缆,两端都有 sff-8484 连接器 - 我可以断开一根电缆并使用分支电缆重新路由到我的附加 RAID 卡吗?在我看来,这将允许我将笼子电气分成两半 - 3 个驱动器使用 e200i,3 个驱动器使用新卡。

我不知道 RAID 背板或 HP 背​​板包含多少逻辑。我不知道它是“愚蠢”的组件,只负责从 HD 到 RAID 控制器的电气连接,还是“智能”的组件,执行逻辑功能,基本上使其具有专有兼容性。

你怎么看?谢谢!

答案1

如果我处理该型号/年份的服务器(大约 2005-2008 年),我可能会使用现有的设置...几点:

  • G5 ML350 中的 6 磁盘 3.5 英寸背板是一个哑组件。没有内置 RAID 逻辑或 SAS 扩展。
  • 您可以将此背板和笼子连接到任何RAID 控制器或 SAS HBA,前提是您使用正确的电缆。背板侧为 SFF-8484,控制器侧可能为 SFF-8087(如果您使用较新的控制器)。
  • 这是旧硬件,因此请了解 PCIe 插槽、SAS 带宽(3.0Gbps)的限制
  • 如果您使用 SATA 驱动器,并且使用周期正确的 HP Smart Array 控制器(E200i、P400、P800),则每个磁盘的链接速度将限制在 1.5Gbps。

我会做什么?

  • 我会放弃 FreeNAS。这不是一个好的解决方案,而且你会失去一些 HP ProLiant 平台监控功能. FreeNAS 下的磁盘 ZFS 格式是有点古怪,也是...FreeNAS 已经成为一些人的素材什么鬼ServerFault 问题
  • 相反,ZFS-on-Linux 或利用它的设备包会是更好的选择。查看免费的社区版广达存储或者泽塔库

最后,对于这种规模的硬件,使用现有的 HP Smart Array E200i 控制器是有意义的。

  • 如果您采用以 ZFS 为中心的操作系统和支持 JBOD 的控制器或 HBA 的方法,则必须为操作系统以及数据分配磁盘。这可能会浪费磁盘空间。如果您使用磁盘分区或切片来处理此问题,您的 ZFS 配置将变得极其复杂和紧张。
  • E200i 是一款功能强大的控制器,您将享受写入缓存的好处(如果 RAID 电池存在且状态良好)。
  • 如果你确实想使用 ZFS,你可以这样做在硬件 RAID 控制器之上。我一直这样做是为了提供一些 ZFS 功能(快照、压缩等),同时仍然具有硬件阵列监控的简便性和灵活性。
  • HP Smart Array 控制器可以配置为从一组磁盘(“阵列”)提供多个逻辑驱动器(块设备)。在下面的示例中,我在 ML350 G5 服务器中配置了 E200i,该服务器有 4 个 500GB SATA 磁盘,以提供 72GB OS 驱动器以及 240GB 和 200GB 驱动器,用作单独的 ZFS zpools。

    Smart Array E200i in Slot 0 (Embedded)    (sn: QT8CMP3716     )
    
    Internal Drive Cage at Port 1I, Box 1, OK
    
    Internal Drive Cage at Port 2I, Box 1, OK
    array A (SATA, Unused Space: 0  MB)
    
    
      logicaldrive 1 (72.0 GB, RAID 1+0, OK)
      logicaldrive 2 (240.0 GB, RAID 1+0, OK)
      logicaldrive 3 (200.0 GB, RAID 1+0, OK)
    
      physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 500 GB, OK)
      physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK)
      physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 500 GB, OK)
      physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SATA, 500 GB, OK)
    

zpool 状态输出

  pool: vol1
 state: ONLINE
  scan: scrub repaired 0 in 1h33m with 0 errors on Thu Jan  1 09:19:21 2015
config:

    NAME                                       STATE     READ WRITE CKSUM
    vol1                                       ONLINE       0     0     0
      cciss-3600508b1001037313620202020200007  ONLINE       0     0     0

errors: No known data errors

  pool: vol2
 state: ONLINE
  scan: scrub repaired 0 in 2h3m with 0 errors on Thu Jan  1 09:49:35 2015
config:

    NAME        STATE     READ WRITE CKSUM
    vol2        ONLINE       0     0     0
      cciss-4542300b6103731362020202067830007      ONLINE       0     0     0

相关内容