我需要经常搜索大型目录结构(包含 1 G / 13K 文件的数据)。 find/grep 需要很多时间。是否有任何实用程序(或者可以为这些文件建立索引)来加快搜索速度。
答案1
根据您的 Unix/Linux 风格,您可以轻松使用slocate
//mlocate
所有衍生版本。
通常你可以直接updatedb
以 root 身份点击然后执行
locate <searchpattern>
再次点击updatedb
将更新您当前的数据库并反映 fs 上的更改。
答案2
在类似的情况(差异备份)中,我首先这样做:
find /directory/ -printf . &>/dev/null
这样,我可以将所有文件元数据以最佳硬盘性能放入缓存中(对于 SSD 来说可能没有多大意义)。