大量文件的完整或增量备份
我的数量和文件总大小都有大量文件. (我们说的是几TB).
我想将这些文件/文件夹同步到外部备份系统,然后运行每日任务,根据每日更改重新同步备份. 这些变化不是那么频繁,但有些日子我们可能会有大约300GB的差异(大约1.5K文件). 我一直在考虑rsync或rdiff-backup或rsnapshot作为一些工具,但我想先用rsynch运行一些测试. 检查现有文件的更改时间过长.我们谈论的时间超过20小时,这使得每日备份毫无意义.这是使用rsync -rvhzP或-rvhP.它似乎只是扫描所有文件,即使没有添加/更改/删除文件也需要数小时. 难道我做错了什么? 提前致谢. 使用额外信息进行更新:我们有大约2600个目录和100k文件,总计大约3.5TB,使用rsync版本3.0.9协议版本30运行测试.就每日更改而言,通常每天有10个文件更改,但它可以在1.5K文件更改/添加/删除和大约300Gb的峰值(虽然这些峰值不常见,并且通常传播appart) 解决方法
假设源文件的修改时间戳是合法的(并且在修改文件时正在更新),我认为添加-t参数以同步时间是有意义的.第
the
rsync man page号:
基本上,您正在失去优化,因此rsync可以使用文件的修改时间戳作为标记来指示文件已被修改.如果发送方和接收方之间的修改时间戳不一致,则使用增量复制算法并扫描文件内容.正如您所看到的那样,使用与您所说的一样大的语料库将是一个漫长的扫描过程. 如果文件更改后文件的修改时间戳没有更新(出于某些奇怪的原因),那么这将无效,您将不得不进行完整的文件扫描.如果您需要远程文件的修改时间戳来反映它们的同步时间,而不是源文件的修改时间戳,那么这也不是一个可行的解决方案. 我怀疑这个选项会从根本上加速你的同步. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |