加入收藏 | 设为首页 | 会员中心 | 我要投稿 李大同 (https://www.lidatong.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 服务器 > Linux > 正文

linux – 8个SSD驱动器的软件RAID10阵列写入性能差

发布时间:2020-12-14 03:04:02 所属栏目:Linux 来源:网络整理
导读:我的服务器配有Supermicro X10DRW-i主板和8个KINGSTON SKC400S SSD的RAID10阵列;操作系统是CentOS 6 # cat /proc/mdstat Personalities : [raid10] [raid1] md2 : active raid10 sdj3[9](S) sde3[4] sdi3[8] sdd3[3] sdg3[6] sdf3[5] sdh3[7] sdb3[1] sda3[0
我的服务器配有Supermicro X10DRW-i主板和8个KINGSTON SKC400S SSD的RAID10阵列;操作系统是CentOS 6
# cat /proc/mdstat 
Personalities : [raid10] [raid1] 

md2 : active raid10 sdj3[9](S) sde3[4] sdi3[8] sdd3[3] sdg3[6] sdf3[5] sdh3[7] sdb3[1] sda3[0]
      3978989568 blocks super 1.1 512K chunks 2 near-copies [8/8] [UUUUUUUU]
      bitmap: 9/30 pages [36KB],65536KB chunk

# mdadm --detail /dev/md2                
    /dev/md2:
            Version : 1.1
      Creation Time : Wed Feb  8 18:35:14 2017
         Raid Level : raid10
         Array Size : 3978989568 (3794.66 GiB 4074.49 GB)
      Used Dev Size : 994747392 (948.67 GiB 1018.62 GB)
       Raid Devices : 8
      Total Devices : 9
        Persistence : Superblock is persistent

      Intent Bitmap : Internal

        Update Time : Fri Sep 14 15:19:51 2018
              State : active 
     Active Devices : 8
    Working Devices : 9
     Failed Devices : 0
      Spare Devices : 1

             Layout : near=2
         Chunk Size : 512K

               Name : ---------:2  (local to host -------)
               UUID : 8a945a7a:1d43dfb2:cdcf8665:ff607a1b
             Events : 601432

        Number   Major   Minor   RaidDevice State
           0       8        3        0      active sync set-A   /dev/sda3
           1       8       19        1      active sync set-B   /dev/sdb3
           8       8      131        2      active sync set-A   /dev/sdi3
           3       8       51        3      active sync set-B   /dev/sdd3
           4       8       67        4      active sync set-A   /dev/sde3
           5       8       83        5      active sync set-B   /dev/sdf3
           6       8       99        6      active sync set-A   /dev/sdg3
           7       8      115        7      active sync set-B   /dev/sdh3

           9       8      147        -      spare   /dev/sdj3

我注意到写入速度非常糟糕,甚至没有接近SSD性能.

# dd if=/dev/zero of=/tmp/testfile bs=1G count=1 oflag=dsync      
1+0 records in
1+0 records out
1073741824 bytes (1.1 GB) copied,16.511 s,65.0 MB/s

读取速度很好

# hdparm -tT /dev/md2

/dev/md2:
 Timing cached reads:   20240 MB in  1.99 seconds = 10154.24 MB/sec
 Timing buffered disk reads: 3478 MB in  3.00 seconds = 1158.61 MB/sec

在对这个问题进行一些故障排除之后,我发现可能我最初搞乱了存储配置:X10DRW-i有Intel C610,它有两个独立的SATA控制器,6端口SATA和4端口sSATA.因此阵列中的磁盘连接到不同的控制器,我相信这是性能不佳的根本原因.
我只有一个想法来解决这个问题:安装PCIe SAS控制器(可能是AOC-S3008L-L8E)并将SSD驱动器连接到它.

所以我想确认以下内容:

我对根本原因是对的,还是应该仔细检查一下?

我的解决方案能运作吗

如果我将驱动器重新连接到新控制器,我的RAID和数据会存活吗?我的研究表明,是的,因为分区的UUID将保持不变,但我只是想确定.

感谢大家提前.

UPD:iostat -x 1执行dd测试时:https://pastebin.com/aTfRYriU

# hdparm /dev/sda                                    

/dev/sda:
 multcount     = 16 (on)
 IO_support    =  1 (32-bit)
 readonly      =  0 (off)
 readahead     = 256 (on)
 geometry      = 124519/255/63,sectors = 2000409264,start = 0

# cat /sys/block/md2/queue/scheduler                 
none

虽然AFAIK调度程序设置在物理驱动器上:

# cat /sys/block/sda/queue/scheduler 
noop anticipatory [deadline] cfq

smartctl -a(在设备上,而不是分区上):https://pastebin.com/HcBp7gUH

UPD2:

# dd if=/dev/zero of=/tmp/testfile bs=1M count=1024 oflag=direct
1024+0 records in
1024+0 records out
1073741824 bytes (1.1 GB) copied,14.389 s,74.6 MB/s

UPD3:

我只是在/ partition上运行fstrim并且产生了一些效果,仍然写入速度太低:连续五次测试中227 MB / s,162 MB / s,112 MB / s,341 MB / s,202 MB / s.

解决方法

测量的低性能是各种因素的结果:

>创建后,阵列完全同步,导致在一半SSD上分配大多数(如果不是全部)闪存数据页.这将使SSD处于低性能状态,直到安全擦除/修整“释放”所有/大多数/某些页面.这解释了fstrim之后性能的提升;
>(默认)512 KB块大小对于最大顺序/流式传输性能来说太大了(以dd为基准).使用全SSD阵列,我会选择一个64 KB的块大小,并且可能(但这应该通过实际测试确认),具有“远”布局.请注意,减少块大小虽然有利于流式访问,但可以惩罚随机读/写.这主要是对HDD的关注,但即便是SSD也会受到一定程度的影响;
>默认情况下,linux内核最多发出512 KB大小的I / O.这意味着,即使在要求dd使用1 GB块(根据您的第一个命令)时,这些块也将分成无数512 KB大小的请求.与您的512 KB大小的块相结合,这将针对每个写入请求使用单个SSD,基本上限制单SSD级别的流写入性能并且拒绝由于RAID导致的任何潜在的速度增加.虽然可以使用max_sectors_kb可调参数(在/ sys / block / sdX / queue / max_sectors_kb中找到),但是可以忽略大于512的值(在某些配置/内核版本中);
>最后,虽然有趣并且是强制性的第一站,但dd本身是一个糟糕的基准:它只测试低(1)队列深度的流性能.即使使用当前的阵列配置,更全面的测试,因为fio相对于单磁盘方案会显示出显着的性能提升,至少在随机I / O中.

你能做些什么来纠正现状?首先,你必须接受擦除磁盘/阵列;显然,您需要将备份作为第一步.然后:

>停止并删除数组(mdadm -S / dev / md2)
>修剪任何磁盘上的所有数据块(blkdiscard / dev / sdX3)
>使用64 KB块和干净标志重新创建数组(mdadm –create / dev / md2 –level = 10 –raid-devices = 8 –chunk = 64 –assume-clean / dev / sdX3)
>用dd和fio重新替补;
>如果一切看起来都不错,请恢复备份.

关于SATA设置的最后一个注意事项:应该明确避免以这种方式拆分磁盘以获得最大的性能.也就是说,你的写入速度非常低,我不会责怪你的SATA控制器.在购买任何新东西之前,我会真正重新制作上述指令.

(编辑:李大同)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读