fdupes

如何在 Bash 中查找来自不同基本文件夹的重复文件?
fdupes

如何在 Bash 中查找来自不同基本文件夹的重复文件?

我知道fdupes,它可以从我提供的各个目录中找到重复的文件: fdupes -r <directoryA> <directoryB> <...> 但这似乎是“把所有文件都扔进同一个篮子”,所以如果我提供两个目录,/aaa例如/bbb,它不仅找到在/aaa 和 /bbb,但也重复之内 /aaa,并重复之内 /bbb。 有什么方法可以查找重复项之间两个目录,但不在同一个基目录中? 我最常用的用例是aaa包含少量文件和bbb成千上万个文件,并且我希望能够丢弃aaa所有文件。因此,搜索重复项之内bbb完全是浪费精力/时间。 ...

Admin

仅对具有特定名称的文件夹使用 Fdupes 比较校验和吗?
fdupes

仅对具有特定名称的文件夹使用 Fdupes 比较校验和吗?

让我在不考虑任何背景的情况下写这篇文章,希望尽可能简单。 也许最简单的描述方式是: 在 /shoots/*/ 中搜索所有名为“copy 1”、“copy 2”、“copy 3”的文件夹 列出所有文件夹 在每个文件夹上运行“fdupes -d -n”,不是递归' 根据 @infixed 之前的回答,我对此采取了更实际的方法 (比较相对于彼此路径的校验和的文件吗?)。注意:我不太了解Linux。以下命令很可能是错误的。 cd /volume1/Modelshoots/shoots/ ls // 列出 /shoots/ 内的所有文件夹 cd /...

Admin

比较相对于彼此路径的校验和的文件吗?
fdupes

比较相对于彼此路径的校验和的文件吗?

我把所有摄影文件的多个备份合并在一起,发现很多文件都有多个副本。并非所有文件都是副本,有些是经过 Photoshop 处理的。现在我注意到“fdupes”可以帮助我识别重复文件并删除每个文件。 现在有一个问题.. 假设我有这个文件夹结构: /Photoshoot X copy 1/* /Photoshoot X copy 1/selection/* /Photoshoot X copy 2/* /Photoshoot X copy 2/selection/* 中的许多文件(如果不是全部的话)copy 2都是 中的文件的副本copy 1。这些文件可...

Admin

fdupes 如何保存第二个文件
fdupes

fdupes 如何保存第二个文件

当使用 fdupes 时,我可以保留列表中的第二个文件吗? 命令 fpupes-N-r。 保留列表中的第一个文件,但我需要保存第二个文件。我有大约 2000 个重复文件,并在提示符中为每个 2 输入 使用以下命令运行 fdupes-d-r: 太难了.. ...

Admin

在另一个目录中查找重复的文件
fdupes

在另一个目录中查找重复的文件

我有一个名为的文件:f{number}.ext 在另一个目录中存在一个目录列表: 001 002 003 .... 每个目录都包含一个文件列表: f001.分机 f002.分机 ... 每个目录中的文件名都重复,但这些是不同的文件。我需要f{number}.ext在引用的目录列表中找到此文件()并获取根目录名称(例如003),或者如果找不到该文件则打印一条消息。 我可以用于fdupes这个操作吗? ...

Admin

如何检查文件夹 A 中的每个文件是否存在于文件夹 B 中?
fdupes

如何检查文件夹 A 中的每个文件是否存在于文件夹 B 中?

我正在重新组织硬盘上的某些文件,并且有一个文件夹的旧副本,我想要做的是确保文件夹 A(旧副本)中的每个文件都存在于文件夹 B 中。每个文件夹至少包含 200 个文件,其中大多数可能是重复的。 警告:我不能只检查文件名,还必须确保它们具有相同的内容(à la fdupes)。 我检查了手册页,看fdupes是否有办法进行逆操作(即找出哪些文件不我尝试了多种方法(例如,尝试查找任何副本)但却一无所获,即使该功能存在,我仍然有一些文件只存在于文件夹 B 中。 这两个问题类似,但仅限于 Windows,因此没有太大帮助: 如何找到文件夹 A 中不存在但文件...

Admin

如何删除 fdupes -rd 实例中的所有文件?
fdupes

如何删除 fdupes -rd 实例中的所有文件?

我跑 fdupes -rd /home/masi/Documents/ 我在许多文件夹中从我的旧编辑器(OSX 的 TexPad)中获取了我不需要的文件: [1] /home/masi/Documents/.texpadtmp/pirkanmaa.out [2] /home/masi/Documents/.texpadtmp/pirkanmaa2.out [3] /home/masi/Documents/.texpadtmp/pirkanmaa3.out Set 258 of 2664, preserve files [1 - 3, all]: 3...

Admin

使用“fdupes”和选项“--recurse”时跳过 .app 文件夹
fdupes

使用“fdupes”和选项“--recurse”时跳过 .app 文件夹

我正在使用fdupes选项打印某个文件夹中的重复文件列表--recurse。 然而,由于我使用的是 macOS,递归过程将 Mac 应用程序(似乎是以 结尾的文件夹.app)视为文件夹并运行到它们中,从而在重复文件上产生大量不需要的额外信息。有什么方法可以跳过此类文件夹吗? ...

Admin

查找重复文件,但指定要保留的目录
fdupes

查找重复文件,但指定要保留的目录

我正在努力整理公司共享驱动器,并希望删除重复项。是否有重复查找程序允许您指定要删除哪个目录的重复项? 我希望能够这样做:fdupes -rdN some_Folder master_folder以便它优先将重复项保留在一个文件夹中而不是另一个文件夹中。 这涉及数千个文件,因此手动操作并不是一个真正的选择。如果 rdfind 的结果文件是执行此操作的唯一方法,那么使用该文件的最佳方法是什么? ...

Admin

如何从两个不同的目录中删除重复的文件?
fdupes

如何从两个不同的目录中删除重复的文件?

我想从两个目录中删除重复的文件。目录和文件的结构如下 nijat@nijat-virtual-machine:~/mansoor$ mkdir dir1 nijat@nijat-virtual-machine:~/mansoor$ mkdir dir2 nijat@nijat-virtual-machine:~/mansoor$ ls dir1 dir2 nijat@nijat-virtual-machine:~/mansoor$ cd dir1 nijat@nijat-virtual-machine:~/m...

Admin

如何比较RAID镜像元素?
fdupes

如何比较RAID镜像元素?

我有一个带有三个设备(sdc、sdd、sdf)的 RAID 镜像(md1)。一夜之间出了点问题,数组变为只读,fsck 发现了数千个设置了 inline_data_fl 的 inode 和/或在孤立 inode 列表上。 我已使用 停止阵列,并在每个设备上mdadm --manage /dev/md1 --stop运行。smartctl -t long 我认为当 smartctl 完成时,设备很有可能会有所不同,因此阵列不会重新组装。是否有一种标准(?)方法来比较三个文件系统?和/或进行某种自动的三局最佳纠错? 我正在运行 Debian Stable,并且有...

Admin

查找重复文件的最有效方法是什么?
fdupes

查找重复文件的最有效方法是什么?

我有许多文件夹,总共有几百万个文件(总计几TB)。我希望找到所有文件中的重复项。理想情况下,输出是一个简单的欺骗列表 - 我将用我自己的脚本进一步处理它们。 我知道有一个fdupes命令显然使用“文件大小和 MD5 签名”来比较文件。 我不清楚的是,是否读取了我不想要的大小唯一的文件(并计算了它们的哈希值)。在我的情况下,数据量巨大,需要注意不要执行超出绝对必要的磁盘 I/O。此外,所使用的临时空间量应该最小化。 ...

Admin

有没有办法限制 fdupes 搜索空间?
fdupes

有没有办法限制 fdupes 搜索空间?

我有一对磁盘,D1 和 D2。 我想确定 D2 中的所有文件是否在 D1 中的某个位置都有相应的副本。 D1 包含的文件数量大约是 D2 的 4000 倍。 fdupes -r D1 D2搜索 D1 或 D2 中任何位置的所有重复项,这需要对 D1 中的所有文件进行大量计算。 有没有办法指示 fdupes 仅搜索 D2 中存在于 D1 中的文件的重复项? ...

Admin

我想要更多地控制删除重复文件
fdupes

我想要更多地控制删除重复文件

使用 fdupes 或 fslint 提供重复项列表,但对于重复项,目录似乎没有特定的顺序。太多目录中的文件太多,无法决定我想要包含每组重复项的文件的位置。 我想指定一个主目录,然后让 fdupes 从除主目录之外的所有其他目录中删除重复项。 是否有 fdupes 或 fslint 的命令行可以执行此操作,或者是否有其他应用程序可以执行此操作? ...

Admin

md5 sum (fdupes) vs sha256sum - 为什么结果不同 - ubuntu 服务器
fdupes

md5 sum (fdupes) vs sha256sum - 为什么结果不同 - ubuntu 服务器

我有一个目录结构,我知道其中包含很多重复文件。 (目录树有 67K 个文件,其中大约有 8K 个重复项)。当然,重复项的字节大小和内容相同,但文件名完全不同。当使用 fdupes /dir/path -rm 时,我只得到 125 个重复项。但是,如果我将整个目录树内容的 SHA256 转储到文本文件中: input_dir=$1 IFS=$'\n' for i in $(find ${input_dir} -type f); do sha256sum "${i}" >> dupfilenames.txt ...

Admin