过去,人们曾将大量文件签入我们的 Subversion 存储库,后来却后悔了。为了解决这个问题,他们只是删除了目录并进行了另一次签入(将大量文件留在存储库的历史记录中)。
由于这些大文件是意外产生的,不打算记录在历史记录中,所以我想使用 svndumpfilter 将它们过滤掉。有没有简单的方法可以找到签入的大目录?也许可以按大小对修订差异进行排序?
答案1
我基本上是通过分析 svndump 文件并使用一个小的 python 脚本找到它的:
$ # dump repository to file
$ svnadmin dump /var/lib/svn/ > svn_full_dump.txt
$ # find byte offsets of 'Revision-number' ignoring non-ascii and save in file
$ egrep -boa '^Revision-number: .+$' svn_full_dump.txt > revisions.txt
$ head revisions.txt
75:Revision-number: 0
195:Revision-number: 1
664:Revision-number: 2
863:Revision-number: 3
1058:Revision-number: 4
1254:Revision-number: 5
1858:Revision-number: 6
$ # find size of checkins and sort by size
$ python revision_size.py | sort -nr | head
1971768485 r1528
44453981 r2375
39073877 r1507
34731033 r2394
30499012 r484
...
该python文件是:
#!/usr/bin/env python
f = file('revisions.txt')
last_offset = 0
last_revision = None
for l in f:
l = l.strip()
(offset, middle, revision) = l.split(':')
offset = int(offset.strip())
revision_size = offset-last_offset
if last_revision:
print '%s r%s'%(revision_size, last_revision.strip())
last_revision = revision
last_offset = offset
# will ignore last revision
f.close()
更新:修复了 revision_size 脚本中的一个错误,该错误导致其大小与正确的修订不完全匹配。