加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > Linux > 正文

跨多个Linux服务器实时文件同步,包含数百万个文件和目录

发布时间:2020-12-13 16:53:23 所属栏目:Linux 来源:网络整理
导读:同步正在运行的生产服务器的大数据的最佳方法是什么? 我们的服务器有超过2000万个文件(小文件,10k,大文件,最大50MB),存储在1个目录中.所有数据的大小约为5 TB(稳步增加). 是否可以使用lsyncd同步数据以及有哪些限制(特别是inotify)? lsyncd需要多少额外空
同步正在运行的生产服务器的大数据的最佳方法是什么?

我们的服务器有超过2000万个文件(小文件,10k,大文件,最大50MB),存储在1个目录中.所有数据的大小约为5 TB(稳步增加).

是否可以使用lsyncd同步数据以及有哪些限制(特别是inotify)? lsyncd需要多少额外空间?负载(cpu和内存)和实时时间怎么样?

另一种解决方案是GlusterFS.是否可以在没有停机或停机时间最短的生产中使用GlusterFS? GlusterFS在x-attributes文件中存储了大量魔法数据,存储量比使用非GlusterFS的系统大15%到20%.好像浪费了很多……?负载怎么样?

至少rsync和cronjobs可以完成这项工作. rsync只能在slave上运行…所以主服务器上不需要额外的空间,但每次cron运行时rsync都必须读取完整的目录树…

解决方法

我真的建议在文件系统中使用类似ZFS的东西.

ZFS快照和ZFS发送/接收等内置工具允许您获取文件系统的块级快照并将其发送到第二台服务器.

某些第三方工具(如sanoid/syncoid)可以设置文件系统从一个主机到另一个主机的自动管理/修剪和同步.

这是在块设备级别完成的,因此您可以避免rsync校验和/库存过程.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读