jak pozby

Ogólne pytania dotyczące systemu
dev246
Posty: 10
Rejestracja: 15 marca 2010, 10:05

jak pozbyć się urządzeń typu MD będących raidem 0

Post autor: dev246 »

Witam

Mam w systemie 3 softwarowe raidy 0
md0 -> sdb5 + sdc5
md1 -> sdb6 + sdc6
md2 -> sdb7 + sdc7

Chciałbym się pozbyć urządzeń md0 i md1. Zmodyfikowałem plik /etc/mdadm/mdadm.conf tak żeby nie zawierał tych wpisów oraz zmieniłem fdiskiem partycje na tych dyskach na ext3 i stworzyłem na nich system plików przy urzyciu mkfs.ext3 ale teraz za każdym razem jak uruchamia mi się system sypie mi błędami że nie odnalazł urządzeń md0 i md1. Kiedy ponownie utworzyłem md0 -> sdb5 sdc5 dalej sypie mi tymi samymi błędami następnie informuje ze utworzył urządzneie /dev/md/0 a po uruchomieniu systemu proc/mdadm pokazuje aktywne urządzenia md0 i md2.
Co mogę zrobić żeby pozbyć się błędów o tych urządzeniach podczas startu systemu ?
System do debian 5.04 z jajkiem 2.31.6
Awatar użytkownika
Redhead
Junior Member
Posty: 526
Rejestracja: 17 lipca 2007, 17:37

Post autor: Redhead »

Tak zadam pytanie z ciekawości. Jak chcesz odłączyć dysk z komputera, to też go wydzierasz na siłę z kablami?
Jak robiłes macierze z mdadm, to tego samego narzędzia powinieneś użyć do odłączenia ich i usunięcia

Kod: Zaznacz cały

mdadm --manage --help
dev246
Posty: 10
Rejestracja: 15 marca 2010, 10:05

Post autor: dev246 »

W tym problem, że próbowałem też tą metodą ale niestety w internecie są tylko opisy jak się pozbywać ewentualnie radi1 nigdzie raid 0
Zaznaczanie dysków jako:

Kod: Zaznacz cały

fail w raid 0
nie daje żadnego efektu a opcja --remove wyświetla komunika,t że nie ma obsługi ,,hotswapowego'' usuwania dysków z raid, co jest w sumie logiczne bo to nie jest ani raid 1 ani 5, więc usunięcie jednego dysku z raida 0 uszkadza dane na drugim dysku, opcja --stop zatrzymuje raida i nie widać urządzenia w systemie do czasu restartu kiedy ponownie jest widoczny. Więc z polecenia które podałeś skończyły się opcje dotyczące usuwania czegokolwiek, dlatego zdecydowałem się na brutalne rozwiązanie ale też nie do końca pomogło.
Awatar użytkownika
Redhead
Junior Member
Posty: 526
Rejestracja: 17 lipca 2007, 17:37

Post autor: Redhead »

Kod: Zaznacz cały

mdadm --manage --stop /dev/mdX 
powinno zatrzymac macierz i już w ogóle nic z tym nie robić, nawet po restarcie. Nie ma znaczenia czy raid 0 czy 1. Tyle ze przy raid1 nie tracisz danych i możesz macierz odtworzyć, ale tobie chodzi o totalna usunięcie macierzy.
Potem juz sobie tworzysz nowe partycje na dysku.

Szybko na testowej maszynie. Byla macież i jej nie ma

Kod: Zaznacz cały

root@jebuntu:~# fdisk -l

Disk /dev/sda: 21.4 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1        2496    20049088+  83  Linux
/dev/sda2            2497        2610      915705    5  Extended
/dev/sda5            2497        2610      915673+  82  Linux swap / Solaris

Disk /dev/sdb: 1073 MB, 1073741824 bytes
255 heads, 63 sectors/track, 130 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sdb doesn't contain a valid partition table

Disk /dev/sdc: 1073 MB, 1073741824 bytes
255 heads, 63 sectors/track, 130 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sdc doesn't contain a valid partition table

Disk /dev/sdd: 1073 MB, 1073741824 bytes
255 heads, 63 sectors/track, 130 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

Disk /dev/sdd doesn't contain a valid partition table
root@jebuntu:~# mdadm --create /dev/md0 -l 0 -n 3 /dev/sd[b,c,d]
mdadm: array /dev/md0 started.
root@jebuntu:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Tue Mar 16 16:28:35 2010
     Raid Level : raid0
     Array Size : 3145536 (3.00 GiB 3.22 GB)
   Raid Devices : 3
  Total Devices : 3
Preferred Minor : 0
    Persistence : Superblock is persistent

    Update Time : Tue Mar 16 16:28:35 2010
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 64K

           UUID : 52eacb17:ed421770:48c3eb51:43fa5469 (local to host jebuntu)
         Events : 0.1

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
       2       8       48        2      active sync   /dev/sdd
root@jebuntu:~# mdadm --manage --stop /dev/md0
mdadm: stopped /dev/md0
root@jebuntu:~# mdadm --detail /dev/md0
mdadm: md device /dev/md0 does not appear to be active.

dev246
Posty: 10
Rejestracja: 15 marca 2010, 10:05

Post autor: dev246 »

Może i nie powinno ale przed chwilą zrobiłem test zatrzymując MD1 no i do restartu faktycznie go nie było po restarcie znowu był dostępny.
Co jeszcze ciekawe zatrzymałem jeszcze md1 i utworzyłem na nowo raida 0 z tych samych partycji i teraz podczas startu systemu pojawia mi się błąd przy md0 (tak ja wcześniej) błąd przy md1 potem ze zamontował md/0 i md1. A po uruchomieniu w systemie widać i tak md0 md1 i md2 jako aktywne a w dev-ie mam dodatkowo folder md i ktorym jest pliczek 0.
Wygląda jak by sobie gdzieś na dysku zapisał UUID raidów które wcześniej istniały i nie mógł ich odnaleźć a potem i tak montuje automatycznie kolejne raidy które są dostępne.
Awatar użytkownika
Redhead
Junior Member
Posty: 526
Rejestracja: 17 lipca 2007, 17:37

Post autor: Redhead »

Pokaz

Kod: Zaznacz cały

cat /etc/mdadm/mdadm.conf
i

Kod: Zaznacz cały

grep -i  mount /var/log/messages
dev246
Posty: 10
Rejestracja: 15 marca 2010, 10:05

Post autor: dev246 »

Kod: Zaznacz cały

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This file was auto-generated on Tue, 24 Nov 2009 18:48:46 +0100
# by mkconf $Id$
ARRAY /dev/md0 level=raid0 num-devices=2 UUID=76e7cf0c:a2f62fa3:3ffea3f8:83ea7ba9
ARRAY /dev/md1 level=raid0 num-devices=2 UUID=13222325:a95dd13e:54491383:a3745b15
ARRAY /dev/md2 level=raid0 num-devices=2 UUID=269520f8:186ea7f7:54491383:a3745b15

Kod: Zaznacz cały

Mar 16 20:57:18 VServ kernel: [    0.004000] Mount-cache hash table entries: 256
Mar 16 20:57:18 VServ kernel: [    4.196750] EXT3-fs: mounted filesystem with writeback data mode.
Mar 16 20:57:18 VServ kernel: [   12.414849] EXT3-fs: mounted filesystem with writeback data mode.
Mar 16 20:57:18 VServ kernel: [   12.457117] EXT3-fs: mounted filesystem with writeback data mode.
Mar 16 20:57:18 VServ kernel: [   12.477382] EXT3-fs: mounted filesystem with writeback data mode.
Mar 16 20:57:18 VServ kernel: [   12.522743] EXT3-fs: mounted filesystem with writeback data mode.
Mar 16 20:57:18 VServ kernel: [   12.568007] EXT3-fs: mounted filesystem with writeback data mode.
wpisy z dzisiaj

Urządzenia MD montują mi się nawet jak wykomentuje wpisy w mdadm.conf. No i problemem już jest nawet nie tyle wyłączenie urządzeń mdadm ale wyeliminowanie błędów przy starcie systemu
salmon
Beginner
Posty: 296
Rejestracja: 12 października 2007, 23:28
Lokalizacja: Gliwice/Bielsko-Biała

Post autor: salmon »

Problem polega na tym, że w skrypcie startowym /etc/init.d/mdadm-raid automatycznie odpalane są wszystkie macierze wykryte w systemie.

Żeby pozbyć się tego problemu musisz wyczyścić metadane na każdym dysku wykonując komendę:

Kod: Zaznacz cały

  mdadm --zero-superblock /dev/sdx
czyli jeżeli dobrze zrozumiałem to w Twoim przypadku będzie to:

Kod: Zaznacz cały

mdadm --zero-superblock /dev/sdb5
mdadm --zero-superblock /dev/sdc5
mdadm --zero-superblock /dev/sdb6
mdadm --zero-superblock /dev/sdc6
Awatar użytkownika
Redhead
Junior Member
Posty: 526
Rejestracja: 17 lipca 2007, 17:37

Post autor: Redhead »

Należałoby też usunąć z mdadm.conf jak sie nie używa.
ODPOWIEDZ