本文共 891 字,大约阅读时间需要 2 分钟。
只适用于可用使用 megacli 支持的 raid controller 只适用于手动进行 ceph 管理的集群, 不支持 ceph deploy 创建的集群需修改对应磁盘设备命名
#!/bin/bash## 使用说明: # 脚本用于停止 osd, umount osd, 标注对应 raid 设备为离线状态# ./stopraid.sh [number] [number] 为对应的 raid 卡 slot 槽号## 1. 获取帮助 (./raidrepair.sh || ./raidrepair.sh -h ) ## 2. 确认整体磁盘# 确认磁盘整体故障 (./raidrepair.sh -a)# 确认具体某个磁盘故障 (./raidrepair.sh -c 8) 假设 raid 中第 8 个 slot number 有问题 ( 确定 slot number 8 对应着 /dev/sdf1 /var/lib/ceph/osd/ceph-20 )# 确认磁盘挂载点 (./raidrepair.sh -m) 确定 slot number 8 对应着 /dev/sdf1 /var/lib/ceph/osd/ceph-20# 确认 raid 中虚拟磁盘 (./raidrepair.sh -v) 缺 slot number 8 对应着 ( Virtual Drive: 5 ) # ########## 建议手动对 /etc/fstab 中, 所有 ceph 磁盘信息进行屏蔽 ###################### 3. 故障处理# 删除故障磁盘 (./raidrepair.sh -d 8) ## 4. 关机, 更换磁盘 ( /etc/init.d/ceph -a stop osd ; init 0 )# ########## 关机后, 可能需要对 raid 执行清除缓存操作 (需要利用 i
转载地址:http://uhnni.baihongyu.com/