我目前正在尝试在两个独立的 Windows Server 2012 Datacenter 版 hyper-v 主机上使用数据重复数据删除。在其中一个主机上,我尝试删除仍然每 5 分钟左右重新同步一次的副本。在另一个主机上,我已使用 powershell 脚本在大约 15 台服务器(4 TB 数据)上停止重新同步,并将它们移动到我已启用重复数据删除的卷的根目录。
现在,出于某种原因,它可以处理我放入其中的任何东西,除了副本 VHD 映像。它只是跳过它们。
我放了 50GB 的模板和 iso,效果很好,我像这样启动重复数据删除:
Start-DedupeJob -Full -Path R: -Type Optimization
它通常运行良好,但我使用它的真正原因是减少存储副本 VHD 快照所需的空间。我希望能够让 hyper-v 主机重新同步 VHD 并进行重复数据删除,但如果我必须删除同步,然后进行重复数据删除,然后取消优化以重新同步或对我来说没问题的事情,我可以直接编写脚本,但现在在任何情况下我都无法让它们对副本 vhd 进行重复数据删除!!!这让我发疯了!
任何建议或意见都将不胜感激。
更新:
我有两个 VHD,一个来自模板,另一个是另一台 Hyper-V 服务器主机上的另一个虚拟机上的 1.6 TB 数据驱动器的副本映像。
我已将所有文件属性和权限(包括所有权)匹配为相同。唯一的问题是,与重复数据删除配合使用的文件被标记为属性 APL,而未执行重复数据删除的文件只是属性 A - 我不确定 P 和 L 是什么,我不相信我可以用 attrib.exe 设置它。
太疯狂了 - 没有任何副本 vhd 可以进行重复数据删除!
更新:
我用来优化 vhd 的脚本是
$vhds = Get-ChildItem -Recurse | ? {$_.extension -match "vhd"}
foreach ($vhd in $vhds) {
Mount-VHD -Path $vhd.fullname -Verbose -ReadOnly
Optimize-VHD -path $vhd.fullname -Verbose -Mode Retrim
Dismount-VHD -path $vhd.fullname -Verbose
}
我运行了该程序,发现重复数据删除过程需要更长的时间才能完成,但复制 VHD 仍然没有进行重复数据删除。这对我来说很奇怪 - 我希望如果有什么东西将文件标记为“打开”,那么在运行 optimize-vhd 后它就不会再这样了。有问题的 VHD 已经有一段时间没有被写入了。我使用这个脚本关闭主机上的重新同步以停止写入:
$vmlist = get-vm * | where {$_.replicationstate -eq "replicating" -and $_.state -eq "Running"}
foreach ($vm in $vmlist) {
$vmname = $vm.name
set-vmreplication -vmname $vmname -AutoResynchronizeEnabled $false
}
答案1
我怀疑您的副本 VHD 要么不断使用写锁打开,要么写入过于频繁而无法被 MinimumFileAgeDays 设置覆盖(默认为 5 天,可以设置为最低 0 Set-Dedupvolume <Drive>: -MinimumFileAgeDays 0
)。
顺便一提,文档明确声明这样的配置“不受支持”:
不支持的配置
不断打开或更改文件
对于长时间打开且不断变化或具有高 I/O 要求的文件(例如,在 Hyper-V 主机上运行的虚拟机、实时 SQL Server 数据库或活动的 VDI 会话),不支持重复数据删除。
可以将重复数据删除设置为处理 0 天前的文件,系统将继续按预期运行,但不会处理以独占方式打开的文件。对不断写入或将在不久的将来写入的文件进行重复数据删除并不是对服务器资源的良好利用。如果将默认最小文件年龄设置调整为 0,请测试重复数据删除是否不会因数据更改而不断被撤消。
重复数据删除不会处理持续且专门打开以进行写入操作的文件。这意味着,除非优化作业尝试处理符合您选择的重复数据删除策略设置的文件时关闭该文件,否则您将不会获得任何重复数据删除节省。
因此还包含以下建议:
不适合进行重复数据删除的候选对象:
- Hyper-V 主机
- VDI VHD
- 微软
- 运行 SQL Server 或 Exchange Server 的服务器
- 文件大小接近或大于 1 TB
看起来有点像你正在寻找的是在线的重复数据删除是指在将数据写入磁盘时对其进行重复数据删除。这是一些更复杂的 SAN 解决方案(包括 Nexenta 的 SMB 目标产品)的功能,但硅片成本相当高 - 您需要一台功能强大的机器,并且很多的 RAM 才能使在线重复数据删除顺利运行。
答案2
我有同样的问题。通过阅读此博客,您提到的属性将我引导至以下 MS 网站……愚蠢的重新解析属性使 Dedup 跳过副本 vhd。
重复数据删除会跳过以下文件:
系统状态文件
加密文件
具有扩展属性的文件
大小小于 32 KB 的文件
重新解析点(不是数据重复数据删除重新解析点)
http://msdn.microsoft.com/en-us/library/windows/desktop/hh769303(v=vs.85).aspx