设置LVM over RAID的最佳策略是什么?
好吧,我希望这个问题足够独特,不能被视为另一个“LVM和RAID有什么区别?”的问题.开始…
我正在建立一个linux服务器,它有一个驱动器笼,可以让我热插拔大约6个驱动器.我追求的特点是: >驱动器故障容差(所以……基本上是RAID) 如果我只想通过用较小的驱动器替换驱动器来增加空间,我可以将LVM与lvreduce一起使用(当然,我提供的是像Reiser或ext [2-4]那样的可收缩FS,以及当前的FS可以通过我想要拉动的驱动器数量来缩小.但这并没有给我任何冗余. 我能想到的第一个解决方案是获得冗余和更换驱动器的能力,就是将驱动器用作镜像对.一对将是md0,下一对将是md1等.然后,我将这些添加到单个卷组.当我想添加空间时,我会将其中一个md *设备从卷组中删除,拉出两个驱动器,添加两个更大的驱动器,制作一个新的md镜像,然后将它们添加到卷组中,展开FS,我已经完成了. 但这会将我的空间效率降低到50%,因为每个物理驱动器都有它自己的镜像.我只得到3TB ……这将使我需要更快地更换更大的驱动器. 当然,我可以将它们作为3驱动器RAID5集插入,而不是镜像对.每3个驱??动器将给我2TB.所以,我总共得到了4TB,但现在我遇到了一个问题,为了从卷组中提取md设备,它需要更多的空间(拉一个需要2TB而不是1TB).这意味着我在FS中需要更多的松弛空间,否则我无法像这样交换驱动器. 所以,这就是我被困住的地方.我知道通过异构驱动器大小和在线驱动器更换获得冗余的唯一方法需要我在更高的空间效率和更高的松弛空间要求之间做出权衡决定,以便拉动驱动器(或驱动器组) ). 我有什么聪明的伎俩吗? 解决方法
我认为你所建议的(具有多个RAID-1 PV的LVM)是正确的,除了一个细节:你不一定需要从你的VG拉取RAID集来替换它:
>在其中一个RAID集中交换一个磁盘(mdadm失败,删除,物理交换,重新添加) 当然,这假设您有良好的备份,并且在您进行重建时您的单个磁盘不会死亡. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |