一、RAID磁盘阵列

RAID磁盘阵列介绍

■RAID是独立磁盘冗余阵列(Redundant Array of Independent Disks)简称磁盘阵列。主要就是资源集中,统一管理。

■把多块独立的物理硬盘按不同的方式组合成一个硬盘组,逻辑上可以看成一个大的硬盘,从而提供比单个硬盘更高的存储性能和提供数据备份技术。

■组成磁盘阵列的不同方式称为RAID级别(RAID Levels)

■常用的RAID级别

  • RAID0,RAID1,RAID5,RAID6,RAID1+0等

1.RAID0(条带化存储)

在这里插入图片描述

  • RAID 0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余。
  • RAID 0只是单纯的提高性能,并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据
  • RAID 0不能应用于数据安全性要求高的场合

2.RAID 1(镜像存储)

在这里插入图片描述

  • 通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据
  • 当原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能
  • RAID 1是磁盘阵列中单位成本最高的。但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据

3.RAID 5

在这里插入图片描述

  • N(N≥3)块盘组成阵列,一份数据产生N-1个条带,同时还有一份校验数据,共N份数据在N块盘上循环均衡存储
  • N块盘同时读写,读性能很高,但由于有校验机制的问题,写性能相对不高
  • (N-1)/N 磁盘利用率
  • 可靠性高,允许坏1块盘,不影响所有数据

4.RAID 6

在这里插入图片描述

  • N(N≥4)块盘组成阵列,(N-2)/N 磁盘利用率
  • 与RAID 5相比,RAID 6增加了第二块独立的奇偶校验信息块
  • 两个独立的奇偶系统使用不同的算法,即使两块磁盘同时失效也不会影响数据的使用
  • 相对于RAID 5有更大的“写损失”,因此写性能较差

5.RAID 1+0(先做镜象,再做条带)

在这里插入图片描述

  • N (偶数,N>=4)。块盘两两镜像后,再组合成一个RAID 0
  • N/2磁盘利用率
  • N/2块盘同时写入,N块盘同时读取
  • 性能高,可靠性高

6.RAID 0+1(先做条带,再做镜象)

在这里插入图片描述

  • 读写性能与RAID 10相同
  • 安全性低于RAID 10
RAID级别硬盘数量磁盘利用率是否有校验保护能力读写性能
RAID0NN单个硬盘的N倍
RAID1N(偶数)N/2允许一个设备故障需写两对存储设备,互为主备
RAID5N>=3(N-1)/N允许一个设备故障需写计算校验
RAID6N>=4(N-2)/N允许两个设备故障需双重写计算校验
RAID10N>=4(偶数)N/2允许两个基组中各坏一个N/2块盘同时写入

二、创建软RAID磁盘阵列步骤

1. 检查是否已安装mdadm 软件包

rpm -q mdadm
yum install -y mdadm

2. 使用fdisk工具将新磁盘设备/dev/sdb、/dev/sdc、/dev/sdd、/dev/sde划分出主分区sdb1、sdc1、sdd1、sde1,并且把分区类型的 ID 标记号改为“fd”

fdisk /dev/sdb
fdisk /dev/sdc

3. 创建 RAID 设备

3.1 创建RAID5

创建RAID5
mdadm -C -v /dev/md0 [-a yes] -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1


-C:表示新建
-v:显示创建过程中的详细信息
/dev/md0:创建 RAID5 的名称
-a yes:–auto,表示如果有什么设备文件没有存在的话就自动创建,可省略
-l:指定 RAID 的级别,l5 表示创建 RAID5
-n:指定使用几块硬盘创建 RAID,n3 表示使用 3 块硬盘创建 RAID
/dev/sd[bcd]1:指定使用这四块磁盘分区去创建 RAID
-x:指定使用几块硬盘做RAID的热备用盘,x1表示保留1块空闲的硬盘作备用
/dev/sde1:指定用作于备用的磁盘

3.2 创建RAID10(先做镜像,再做条带)

mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1
mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1

3.3 查看RAID磁盘命令

cat /proc/mdstat		           查看RAID磁盘详细信息和创建RAID的进度
或者
mdadm -D /dev/md0                  

watch -n 10 'cat /proc/mdstat'     用watch命令来每隔一段时间刷新/proc/mdstat 的输出

mdadm -E /dev/sd[b-e]1             检查磁盘是否已做RAID

4. 创建并挂载文件系统

mkfs -t xfs /dev/md0
mkdir /myraid
mount /dev/md0 /myraid/
df -Th
cp /etc/fstab /etc/fstab.bak
vim /etc/fstab
/dev/md0      /myraid        xfs   	 defaults   0  0

5. 实现故障恢复

mdadm /dev/md0 -f /dev/sdb1 		模拟/dev/sdb1 故障
mdadm -D /dev/md0					查看发现sde1已顶替sdb1

mdadm命令其它常用选项
-r:移除设备
-a:添加设备
-S:停止RAID
-A:启动RAID

6.创建/etc/mdadm.conf配置文件,方便管理软RAID的配置,比如启动、停止

当我们停止RAID后想在启动RAID时发现启动不了,这是我们需要创建/etc/mdadm.conf配置文件才能够正常启动

echo 'DEVICE /dev/sdc1 /dev/sdb1 /dev/sdd1' > /etc/mdadm.conf
mdadm --detail --scan >> /etc/mdadm.conf
echo 'DEVICE /dev/sdc1 /dev/sdb1 /dev/sdd1' > /etc/mdadm.conf
mdadm --detail --scan >> /etc/mdadm.conf
umount /dev/md0
mdadm -S /dev/md0
mdadm -As /dev/md0
-S:值查找/etc/ma=dadm.conf 文件中的配置信息

三、试验:创建RAID5和RAID10磁盘阵列

创建RAID5

首先我们先新建4个新的硬盘供试验使用
在这里插入图片描述
用fdisk -h看一下磁盘有没有添加上
在这里插入图片描述
使用fdisk工具划分出主分区并且把分区类型的 ID 标记号改为“fd”

上图为sdb1的创建方法,sdc1,sdd1,sde1方法一样这里不做演示了
在这里插入图片描述
在这里插入图片描述
创建 RAID5 设备

mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1

在这里插入图片描述
在这里插入图片描述

创建目录并挂载文件系统
在这里插入图片描述
在这里插入图片描述
实现故障恢复
使用mdadm /dev/md5 -f /dev/sdb1让sdb1模拟故障点,mdadm -D /dev/md0查看详细信息,在下面的硬盘列表中可以看到sdb1报错,sde1替换了sdb1的位置
在这里插入图片描述
在这里插入图片描述

创建RAID10

还是一样添加4块新硬盘并fdisk /dev/sdb分别做管理
在这里插入图片描述
在这里插入图片描述
其他三个硬盘操作一样
在这里插入图片描述
创建两个RAID1名为md0由sdb1,sdc1组成,md1由sdd1,sde1组成,最后将建立的RAID1组合成一个RAID0。

mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1
mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1

在这里插入图片描述
在这里插入图片描述
格式化后挂载
在这里插入图片描述
建立目录,并将md10挂载上去,因为RAID10中有两个盘为备份,原来80G现在使用的只有40G所以实际使用空间是最大容量的1/2。
在这里插入图片描述
到此实验成功

GitHub 加速计划 / li / linux-dash
10.39 K
1.2 K
下载
A beautiful web dashboard for Linux
最近提交(Master分支:2 个月前 )
186a802e added ecosystem file for PM2 4 年前
5def40a3 Add host customization support for the NodeJS version 4 年前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐