加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > Linux > 正文

rsync – 有效同步100万个文件与远程服务器的选项?

发布时间:2020-12-13 18:51:46 所属栏目:Linux 来源:网络整理
导读:在我工作的公司,我们有一个叫做“播放列表”的东西,它们都是小文件,每个文件大约100-300字节.其中大约有一百万.其中大约100,000个每小时更换一次.这些播放列表需要每小时上传到不同大洲的10个其他远程服务器,理想情况下需要在2分钟内快速完成.在主服务器上删
在我工作的公司,我们有一个叫做“播放列表”的东西,它们都是小文件,每个文件大约100-300字节.其中大约有一百万.其中大约100,000个每小时更换一次.这些播放列表需要每小时上传到不同大洲的10个其他远程服务器,理想情况下需要在2分钟内快速完成.在主服务器上删除的文件也将在所有副本上删除,这一点非常重要.我们目前使用 Linux作为基础设施.

我正在考虑使用-W选项尝试rsync来复制整个文件而不比较内容.我还没有尝试过,但也许有更多rsync经验的人可以告诉我它是否可行?

还有哪些其他选择值得考虑?

更新:我选择了lsyncd选项作为答案,但仅仅因为它是最受欢迎的.其他建议的替代方案也以他们自己的方式有效.

解决方法

由于即时更新也可以接受,因此您可以使用 lsyncd.
它监视目录(inotify)并将rsync更改为从属.
在启动时,它将执行完整的rsync,因此需要一些时间,但之后只传输更改.
可以递归观察目录,如果从属服务器关闭,则同步将被重试,直到它返回.

如果这都在一个目录(或静态目录列表)中,您也可以使用incron.缺点是它不允许递归观察文件夹,你需要自己实现同步功能.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读