zfs-arc

ZFS ARC dnode 大小 > dnode 最大大小
zfs-arc

ZFS ARC dnode 大小 > dnode 最大大小

我复制了一个红迪网帖子这问了我的问题但尚未得到答复: 过去几周我一直在修改一个工具来监控 ZFS 使用情况和统计​​数据。当我弄清楚它告诉我什么时,它鼓励我更多地了解 ZFS。我完成了几乎所有这些工作后,只有在了解了我所做的事情和原因之后才进行调整。 一件事让我难住了,警告说 dnode_size 不应大于 arc_dnode_limit*0.9 $ grep dnode /proc/spl/kstat/zfs/arcstats dnode_size 4 334416720 arc_dnode_limit ...

Admin

两个 SSD 具有相同的名称 by-id
zfs-arc

两个 SSD 具有相同的名称 by-id

有一个单磁盘 ZFS 池。现在我想将另一个 SSD 添加到池中并创建镜像。池池 池:数据池 状态: 在线 扫描:擦洗在 2022 年 2 月 13 日星期日 00:24:04 00:00:03 修复了 0B,有 0 个错误 配置: 名称 状态 读写 CKSUM 数据池在线 0 0 0 USB-WDC_WDS_100T2B0A-00SM50_98765432100C-0:0 在线 0 0 0 当我按 id 查看磁盘时 ls -l /dev/disk/by-id 总计 0 .... lrwxrwxr...

Admin

预热 ZFS 缓存 - 强制文件进入 l2arc
zfs-arc

预热 ZFS 缓存 - 强制文件进入 l2arc

目前我使用: while true; do cat file >/dev/null echo 3 | sudo tee /proc/sys/vm/drop_caches done 预热 ZFS 的 l2arc。当我看到访问主要来自缓存磁盘时,就完成了。 但我觉得这样做很愚蠢。 有没有办法告诉 ZFS:“嘿,您能将此文件放入 l2arc 吗?” 我不想将文件锁定在 l2arc 中。我只想在运行上述命令后将其放入 l2arc 中,就像在 l2arc 中一样。 ...

Admin

如何保持Linux页面缓存最小化?
zfs-arc

如何保持Linux页面缓存最小化?

我想设置 Debian 系统,其中 ZFS 作为主文件系统,一些作为辅助文件系统(ntfs、ext2/4)。当我从非 ZFS 文件系统读取/写入时,页面缓存将增长并迫使 zfs arc 缩小。我不想要这种行为。如何保持Linux页面缓存最小化? /proc/sys/vm/dirty_* 仅用于控制脏缓存。 /proc/sys/vm/vfs_cache_Pressure 用于某些内容(我不记得正确的名称),但不用于页面缓存。 ...

Admin

ZFS ARC内存调整
zfs-arc

ZFS ARC内存调整

最近我们正在尝试在运行 256RAM 内存的机器上调整 ZFS。 我们当前的 ARC ZFS 内存变量最大为 255Gb,最小为 64Mb。 我们面临的一个主要问题是,在高峰时段,工作流程因内存不足而中止。 (有几个流程需要高达 55G 内存) 当尝试将最大值限制为 4G 时,我们面临性能下降的问题。 输出 uname -a SunOS xxxxx 5.11 11.1 sun4v sparc sun4v Publisher: solaris Version: 0.5.11...

Admin