Linux服务器硬件及RAID配置(操作实验详细图解)
linux-dash
A beautiful web dashboard for Linux
项目地址:https://gitcode.com/gh_mirrors/li/linux-dash
免费下载资源
·
一、RAID磁盘阵列
RAID磁盘阵列介绍
■RAID是独立磁盘冗余阵列(Redundant Array of Independent Disks)简称磁盘阵列。主要就是资源集中,统一管理。
■把多块独立的物理硬盘按不同的方式组合成一个硬盘组,逻辑上可以看成一个大的硬盘,从而提供比单个硬盘更高的存储性能和提供数据备份技术。
■组成磁盘阵列的不同方式称为RAID级别(RAID Levels)
■常用的RAID级别
- RAID0,RAID1,RAID5,RAID6,RAID1+0等
1.RAID0(条带化存储)
- RAID 0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余。
- RAID 0只是单纯的提高性能,并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据
- RAID 0不能应用于数据安全性要求高的场合
2.RAID 1(镜像存储)
- 通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据
- 当原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能
- RAID 1是磁盘阵列中单位成本最高的。但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据
3.RAID 5
- N(N≥3)块盘组成阵列,一份数据产生N-1个条带,同时还有一份校验数据,共N份数据在N块盘上循环均衡存储
- N块盘同时读写,读性能很高,但由于有校验机制的问题,写性能相对不高
- (N-1)/N 磁盘利用率
- 可靠性高,允许坏1块盘,不影响所有数据
4.RAID 6
- N(N≥4)块盘组成阵列,(N-2)/N 磁盘利用率
- 与RAID 5相比,RAID 6增加了第二块独立的奇偶校验信息块
- 两个独立的奇偶系统使用不同的算法,即使两块磁盘同时失效也不会影响数据的使用
- 相对于RAID 5有更大的“写损失”,因此写性能较差
5.RAID 1+0(先做镜象,再做条带)
- N (偶数,N>=4)。块盘两两镜像后,再组合成一个RAID 0
- N/2磁盘利用率
- N/2块盘同时写入,N块盘同时读取
- 性能高,可靠性高
6.RAID 0+1(先做条带,再做镜象)
- 读写性能与RAID 10相同
- 安全性低于RAID 10
RAID级别 | 硬盘数量 | 磁盘利用率 | 是否有校验 | 保护能力 | 读写性能 |
---|---|---|---|---|---|
RAID0 | N | N | 无 | 无 | 单个硬盘的N倍 |
RAID1 | N(偶数) | N/2 | 无 | 允许一个设备故障 | 需写两对存储设备,互为主备 |
RAID5 | N>=3 | (N-1)/N | 有 | 允许一个设备故障 | 需写计算校验 |
RAID6 | N>=4 | (N-2)/N | 有 | 允许两个设备故障 | 需双重写计算校验 |
RAID10 | N>=4(偶数) | N/2 | 无 | 允许两个基组中各坏一个 | N/2块盘同时写入 |
二、创建软RAID磁盘阵列步骤
1. 检查是否已安装mdadm 软件包
rpm -q mdadm
yum install -y mdadm
2. 使用fdisk工具将新磁盘设备/dev/sdb、/dev/sdc、/dev/sdd、/dev/sde划分出主分区sdb1、sdc1、sdd1、sde1,并且把分区类型的 ID 标记号改为“fd”
fdisk /dev/sdb
fdisk /dev/sdc
3. 创建 RAID 设备
3.1 创建RAID5
创建RAID5
mdadm -C -v /dev/md0 [-a yes] -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1
-C:表示新建
-v:显示创建过程中的详细信息
/dev/md0:创建 RAID5 的名称
-a yes:–auto,表示如果有什么设备文件没有存在的话就自动创建,可省略
-l:指定 RAID 的级别,l5 表示创建 RAID5
-n:指定使用几块硬盘创建 RAID,n3 表示使用 3 块硬盘创建 RAID
/dev/sd[bcd]1:指定使用这四块磁盘分区去创建 RAID
-x:指定使用几块硬盘做RAID的热备用盘,x1表示保留1块空闲的硬盘作备用
/dev/sde1:指定用作于备用的磁盘
3.2 创建RAID10(先做镜像,再做条带)
mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1
mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1
3.3 查看RAID磁盘命令
cat /proc/mdstat 查看RAID磁盘详细信息和创建RAID的进度
或者
mdadm -D /dev/md0
watch -n 10 'cat /proc/mdstat' 用watch命令来每隔一段时间刷新/proc/mdstat 的输出
mdadm -E /dev/sd[b-e]1 检查磁盘是否已做RAID
4. 创建并挂载文件系统
mkfs -t xfs /dev/md0
mkdir /myraid
mount /dev/md0 /myraid/
df -Th
cp /etc/fstab /etc/fstab.bak
vim /etc/fstab
/dev/md0 /myraid xfs defaults 0 0
5. 实现故障恢复
mdadm /dev/md0 -f /dev/sdb1 模拟/dev/sdb1 故障
mdadm -D /dev/md0 查看发现sde1已顶替sdb1
mdadm命令其它常用选项
-r:移除设备
-a:添加设备
-S:停止RAID
-A:启动RAID
6.创建/etc/mdadm.conf配置文件,方便管理软RAID的配置,比如启动、停止
当我们停止RAID后想在启动RAID时发现启动不了,这是我们需要创建/etc/mdadm.conf配置文件才能够正常启动
echo 'DEVICE /dev/sdc1 /dev/sdb1 /dev/sdd1' > /etc/mdadm.conf
mdadm --detail --scan >> /etc/mdadm.conf
echo 'DEVICE /dev/sdc1 /dev/sdb1 /dev/sdd1' > /etc/mdadm.conf
mdadm --detail --scan >> /etc/mdadm.conf
umount /dev/md0
mdadm -S /dev/md0
mdadm -As /dev/md0
-S:值查找/etc/ma=dadm.conf 文件中的配置信息
三、试验:创建RAID5和RAID10磁盘阵列
创建RAID5
首先我们先新建4个新的硬盘供试验使用
用fdisk -h看一下磁盘有没有添加上
使用fdisk工具划分出主分区并且把分区类型的 ID 标记号改为“fd”
上图为sdb1的创建方法,sdc1,sdd1,sde1方法一样这里不做演示了
创建 RAID5 设备
mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[bcd]1 -x1 /dev/sde1
创建目录并挂载文件系统
实现故障恢复
使用mdadm /dev/md5 -f /dev/sdb1让sdb1模拟故障点,mdadm -D /dev/md0查看详细信息,在下面的硬盘列表中可以看到sdb1报错,sde1替换了sdb1的位置
创建RAID10
还是一样添加4块新硬盘并fdisk /dev/sdb分别做管理
其他三个硬盘操作一样
创建两个RAID1名为md0由sdb1,sdc1组成,md1由sdd1,sde1组成,最后将建立的RAID1组合成一个RAID0。
mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[bc]1
mdadm -Cv /dev/md1 -l1 -n2 /dev/sd[de]1
mdadm -Cv /dev/md10 -l0 -n2 /dev/md0 /dev/md1
格式化后挂载
建立目录,并将md10挂载上去,因为RAID10中有两个盘为备份,原来80G现在使用的只有40G所以实际使用空间是最大容量的1/2。
到此实验成功
GitHub 加速计划 / li / linux-dash
10.39 K
1.2 K
下载
A beautiful web dashboard for Linux
最近提交(Master分支:2 个月前 )
186a802e
added ecosystem file for PM2 4 年前
5def40a3
Add host customization support for the NodeJS version 4 年前
更多推荐
已为社区贡献4条内容
所有评论(0)