mdraid – “verlorene” disk wieder anhängen
Eines Tages hat mir cron angefangen zu erzählen, dass mein Raid degradet ist – A DegradedArray event had been detected on md device /dev/md0. Bwöh, pflichtbewusst wie ich bin, habe ich die Meldung einfach mal drei Monate lang ignoriert 😉 (ist nur ne Bastelkiste zuhause). Jetzt hab ich mir das ganze mal angeschaut, war eigentlich ne Sache von 5 Minuten, wie so oft. Aber man schiebt halt gerne mal etwas vor sich her…
md0 : active raid1 sdb[0]
976761424 blocks super 1.2 [2/1] [U_]
unused devices:
Am einfachsten schaut man sich halt die Details des Raids an:
mdadm --detail /dev/mdx
Und schon sieht man, welche Platten zum Raid gehören.
lsblk möchte ich hier grad auch noch erwähnen, eigentlich ein cooles Tool. Immer wieder finde ich mal was dazu und finde es noch ganz cool, vergesse es dann aber wieder. Hat jetzt zwar nicht grad was mit dem eigentlichen Thema zu tun, ich schreibs jetzt trotzdem aber rein…
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sdb 8:16 0 931.5G 0 disk
└─md0 9:0 0 931.5G 0 raid1
├─datenvg-cappuccino (dm-7) 254:7 0 100G 0 lvm
├─datenvg-brombeerle (dm-8) 254:8 0 100G 0 lvm
├─datenvg-himbeerle (dm-9) 254:9 0 40G 0 lvm
├─datenvg-gnocchi (dm-10) 254:10 0 40G 0 lvm
├─datenvg-radisle (dm-11) 254:11 0 20G 0 lvm
└─datenvg-unxads001 (dm-14) 254:14 0 12G 0 lvm
sdc 8:32 0 931.5G 0 disk
sdd
└─
...
Naja, zurück zum Raid. Keine Ahnung, wie das ganze passieren konnte. Ich tippe hier mal auf menschliches Versagen, als ich das Raid angelegt habe oder so…
Jedenfalls schmeisst man das Teil wieder zum Raid und schon startet der Sync…
mdadm --manage /dev/md0 --add /dev/sdc
cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdc[2] sdb[0]
976761424 blocks super 1.2 [2/1] [U_]
[->;....................] recovery = 0.0% (72000/976761424) finish=1582.2min speed=10285K/sec
unused devices: