Strona 2 z 2

: 23 kwietnia 2009, 07:29
autor: hiropter
Po kompilacji nowego jądra - wersja 2.6.29.1, okazało się, że urządzenia /dev/md0 i /dev/md1 odmontowują się już prawidłowo. Problem w tym, że teraz /dev/md2 - na którym znajduje się główny system plików.

Dziwne jest, że stan wszystkich urządzeń jest prawidłowy - żadnych bad sektorów i innych dolegliwości. Co dziwne system działa prawidłowo, tj. nie ma żadnych znikających plików, a system wstaje prawidłowo.

Chwilowo nie miałem jeszcze czasu zajrzeć do logów, więc później dam znać jak coś znajdę - albo i nie znajdę.

: 25 kwietnia 2009, 13:29
autor: Stawi
Ister pisze:Powiedziałbym, że zastosowanie jest wręcz niepraktyczne. Pracując na zmirrorowanym dysku wymuszasz więcej operacji zapisu, co zmniejsza zdecydowanie wydajność swapa. Dlatego radzę odmontować tego swapa, wywalić tą tablicę i jedną (lub obie) partycję przeznaczyć normalnie na swap.
A ja powiem ze wcale nie ;) Robienie raid0 (stripe) jest bezsensu, jednak mirror lub raid5 ma duzy sens. W przypadku padniecia jednego z dysku, caly swap jest dostepny na drugim - czyli nie ma awarii systemu.
raid0 nie ma nadmiarowosci i jak padnie jeden skladnik to i tak pada wszystko, a kernel sam sobie lepiej radzi z paroma partycjami swap niz raid0 - juz pomijam ze mamy dodatkowa warstwe abstrakcji.

A co do tematu - u mnie tez partycja glowna nie odmontowywuje sie prawidlowo - ten sam komunikat co u Ciebie. Mimo to, nigdy nie bylo z tym problemow typu utrady danych, wymagany resych czy cos.
Nie wiem czy jest to cos zlego/istotnego - ja to olewam od ponad roku i nic sie nie dzieje ;)

: 25 kwietnia 2009, 13:34
autor: tomii
To ja się przyłącze, mówicie żeby swap`a nie dawać na raid1 ale czy da się inaczej zrobić tak aby jak jeden dysk padnie, to żeby system się nie wysypał?

: 30 kwietnia 2009, 21:49
autor: hiropter
Ja proponuje Raid5. Jak jeden dysk padnie, to swap dalej będzie działał. Można też utworzyć teoretycznie 2 oddzielne partycje swap, na dwóch różnych dyskach i nadać im ,,pri=1'', a drugiej ,,pri=2''. System zacznie używać następnej partycji, gdy pierwsza się zapełni. Minusem jest tylko sytuacja, gdy padnie swap, na którym trzymane są dane, np.: niesynchronizowanej bazy danych. Wtedy będziemy mieć problem.

Spotkałem się także z rozwiązaniem, które dla dwóch oddzielnych partycji swap ustawia się ,,pri=1''. Efektem ma być działanie podobne do Raid0, ale sam nie sprawdzałem. Czy ktoś bawił się może taki ustawieniem?