加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > Linux > 正文

在linux上有效存储重复文件

发布时间:2020-12-14 02:31:12 所属栏目:Linux 来源:网络整理
导读:我主持了很多网站,我们的系统可以很容易地复制这些网站中的项目,这很方便,但会导致大量重复(可能非常大)的文件.我想知道这些是否是 linux中的任何机制(特别是Ubuntu),其中文件系统只存储文件一次,但从其所有位置链接到它. 我需要它是透明的,并且还要处理这样
我主持了很多网站,我们的系统可以很容易地复制这些网站中的项目,这很方便,但会导致大量重复(可能非常大)的文件.我想知道这些是否是 linux中的任何机制(特别是Ubuntu),其中文件系统只存储文件一次,但从其所有位置链接到它.

我需要它是透明的,并且还要处理这样的情况:如果用户更改其中一个文件,它不会改变主文件的内容,而是为该文件的特定实例创建一个新文件.

练习的目的是减少重复文件使用的浪费空间.

解决方法

I’d need this to be transparent

ZFS-on-Linux×功能称为“在线重复数据删除”.

UPD.:我再次重新阅读你的问题,现在看来Aufs对你有帮助.这是托管环境非常流行的解决方案.实际上我现在也可以自己提一下Btrfs – 模式是你有一些模板子卷,你每次需要另一个实例时都会快照.它是COW,因此只有更改的文件块才需要更多空间.但请记住,Btrfs是,呃…好吧,反正不太稳定.只有当它上面的数据完全可以消失时,我才会在生产中使用它.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读