Cześć.
Testuje na VMware tworzenie macierzy raid 1 w Debianie 8. Instalacja przebiega dobrze, dwa dyski się synchronizują. Mogę usunąć jeden z dysków macierzy, potem dodać nowy - działa (mdadm --manage /dev/md0 --fail /dev/sdb1;mdadm --manage /dev/md0 --remove /dev/sdb1).
cat /proc/mdstat
Personalities : [raid1]
md1 : active (auto-read-only) raid1 sdb5[2] sda5[1]
476864 blocks super 1.2 [2/2] [UU]
md0 : active raid1 sda1[3] sdb1[2]
9997312 blocks super 1.2 [2/2] [UU]
unused devices: <none>
Jednak gdy spróbowałem usunąć dysk w ten sposób, że wyłączyłem system, wyrzuciłem dysk z konfiguracji (Edit virtual machine settings) to wtedy pojawia się to co mam załączone na obrazku. Ponowne dodanie dysku rozwiązuje problem.
Oczywiście rozumiem, że jak dojdzie do uszkodzenia jednego z dysków to choćby nagios mnie o tym poinformuje ale co w przypadku gdy wyłączam serwer/sam się wyłączy, uruchamiam a tu dochodzi do awarii dysku? Jak podnieść system.
Dziękuję za rady
Zmień i sprawdź co się stanie.
Niemniej byłoby to dziwne, i chyba jedynym wytłumaczeniem będzie vmware, bo ja mam zrobione dokładnie tak jak ty na maszynie fizycznej i działa.
to jest partycja swap - myślę że bez znaczenia a powodem może być to że w fstab mam ustawione montowanie poprzez /dev/dm1 a nie poprzez uuid
Errata
Zainstalowałem VirtualBox i tam mam to samo... (błąd po wyrzuceniu dysku drugiego sdb)
Instaluje Debian debian-7.8.0-i386-netinst.iso
Spinam podczas instalacji jako raid 1 odpowiednie partycje.
Po ponownym uruchomieniu odkomentuje linię:
„#” sprzed linii GRUB_TERMINAL=console. w /etc/defaul/grub
i robię: grub-install /dev/sdb