为什么我的lvm物理卷的空间明显少于它包含的分区?
发布时间:2020-12-14 02:41:12 所属栏目:Linux 来源:网络整理
导读:我在centOS 6.4上. 我有一个配置为RAID 6的39TB硬件RAID. 我创建了一个单独的39TB分区.它报告: (parted) print Model: JetStor JetStor -VOL#000 (scsi) Disk /dev/sdb: 39.0TB Sectorsize (logical/physical): 512B/512B Partition Table: gptNumber Start
我在centOS 6.4上.
我有一个配置为RAID 6的39TB硬件RAID. 我创建了一个单独的39TB分区.它报告: (parted) print Model: JetStor JetStor -VOL#000 (scsi) Disk /dev/sdb: 39.0TB Sector size (logical/physical): 512B/512B Partition Table: gpt Number Start End Size File system Name Flags 1 1049kB 39.0TB 39.0TB primary 我创建了一个像这样的lvm线性体积: pvcreate /dev/sdb1 vgcreate vg_jet716s /dev/sdb1 lvcreate -L 30T -n lv_jet716s_1 vg_jet716s 然后我在lv_jet716s_1上创建了一个XFS fs,匹配raid条带宽度和数字: mkfs.xfs -d su=64k,sw=13 /dev/mapper/vg_jet716s-lv_jet716s_1 但是pvs输出这个: [root@cfile ~]# pvs PV VG Fmt Attr PSize PFree /dev/sda2 vg_cfile lvm2 a-- 464.76g 285.62g /dev/sdb1 vg_jet716s lvm2 a-- 35.47t 5.47t 我不认为在创建物理卷之后我检查了什么是pvs输出.我可能只调用’lvs’来看到逻辑卷是用正确的大小创建的.这是lvs和vgs: [root@cfile ~]# lvs LV VG Attr LSize Pool Origin Data% Move Log Cpy%Sync Convert lv_root vg_cfile -wi-ao--- 50.00g lv_swap vg_cfile -wi-ao--- 31.48g lv_var vg_cfile -wi-ao--- 97.66g lv_jet716s_1 vg_jet716s -wi-ao--- 30.00t [root@cfile ~]# vgs VG #PV #LV #SN Attr VSize VFree vg_cfile 1 3 0 wz--n- 464.76g 285.62g vg_jet716s 1 1 0 wz--n- 35.47t 5.47t 有什么想法吗?我是新手,失去近10%的空间真是令人惊讶.谢谢! -Michael 解决方法
遗憾的是,您的工具对于TB值还是TiB值都不够细致.体积实际上约为36 TiB,而不是36 TB.该分区实际上约为39 TB,而不是39 TiB.
36 TiB =(36 * 1024)GiB = 36,864 GiB 如果你一直到字节,你得到39,582,418,599,936字节,或约39.6 TB. 因此36 TiB约为39 TB. (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |