Skocz do zawartości


Zdjęcie

Jak radzić sobie z dyskiem ?


  • Zaloguj się, aby dodać odpowiedź
4 odpowiedzi w tym temacie

#1 Ymo

Ymo

    Zaawansowany użytkownik

  • 401 postów

Napisano 28 10 2011 - 00:59

Jak radzić sobie z dyskiem ?


Wstęp

Dyski jako urządzenia mające umożliwić nam zapis, przechowywanie i odczyt danych którymi obracamy w codziennym życiu, mają niezwykle ważne znaczenie. W dzisiejszym świecie bez nich nie bylibyśmy stanie pracować, bawić się ani przetwarzać informacji. Warto więc zastanowić się co zrobić aby dyski lepiej nam służyły, nie wykręcały „psikusów”, a praca z nimi była jedynie przyjemnością.
W pierwszej części mojego artykułu wyjaśnię w ogromnym skrócie kilka zagadnień, które pozwolą nam odnaleźć się w tym temacie. Druga a zarazem zasadnicza część to ukazanie kilku ciekawych, być może przydatnych tipsów dzięki którym wasz dysk będzie lepiej spełniał wasze oczekiwania, rozwiążecie problem z dyskiem który spędza wam sen z powiek bądź uchronią was przed utratą cennych informacji. Nie zapomniałem również o tych, którzy są na etapie wyboru nowego dysku, znajdziecie więc uniwersalne kompendium wiedzy na temat czym kierować przy zakupie dysku. Zapraszam do czytania.

Cześć I

Terminologia związana z tematem
W celu usystematyzowania na początku warto sobie przybliżyć parę zagadnień, które stanowią kluczową rolę w omawianym temacie.

1. Dysk twardy - rodzaj pamięci masowej , która wykorzystuje magnetyczny nośnik do przechowywania danych. Nazwa dysku twardego wynika z zastosowania twardego materiału jako nośnika danych.

2. Podstawowe elementy dysku twardego:
  • talerze dysku - główny nośnik danych, który podczas pracy obraca się wokół swojej osi.
  • głowica - element odczytujący i zapisujący informacje na talerzach dysku twardego
    Dołączona grafika
  • servo - element sterujący położeniem głowic dysku
  • napęd - zazwyczaj silnik krokowy, wprawiający talerze w ruch obrotowy
  • elektronika - składa się z wielu elementów, których zadaniem jest sterowanie głowicą, napędem oraz przesyłanie danych. Elektronika dysku w zależności od modelu może posiadać dodatkowe funkcje.
    Dołączona grafika
  • interfejs komunikacyjny - zazwyczaj integralna część elektroniki dysku, pozwala nawiązać dialog z płytą główną komputera.
  • rampa - miejsce gdzie głowica staje w momencie bezczynności lub po wyłączeniu dysku, zazwyczaj jest wykonana z teflonu lub tworzywa sztucznego.
    Dołączona grafika
  • obudowa

3. Podstawowe parametry dysku istotne dla konsumenta:
  • pojemność - ilość danych liczona w bajtach którą dysk może pomieścić.
  • wydajność dysku twardego - ilość danych jaką dysk może odczytać/zapisać w jednostce czasu
  • rozmiar sektora - domyślnie 512b dla starszych dysków oraz 4096b dla nowszych, rozmiar sektora nie ma większego wpływu na wydajność dysku podczas pracy, jednak usprawnia znaczenie diagnostykę dysku.
  • prędkość obrotowa - ilość pełnych obrotów dysku twardego w jednostce czasu (zazwyczaj RPM - obroty na minutę) parametr ten rzutuje na ogólną wydajność dysku, im jest wyższa tym ilość danych odczytanych w jednostce czasu jest większa. (5.400K, 7.200K, 10K rpm)
  • ilość talerzy oraz ilość głowic - ilość talerzy, nośników danych, znajdująca się w obudowie jednostki. Parametr rzutuje na ogólną wydajność dysku, im mniej talerzy tym ilość danych odczytanych/zapisanych jest większa oraz zmniejsza się czas dostępu do nich.
  • ilość pamięci cache - pamięć zazwyczaj w postaci zintegrowanych elementów SDRAM ma na celu usprawnienie operacji I/O, zmniejszenie czasu dostępu oraz ogólne zwiększenie wydajności dysku. (0, 16, 32, 64, 128 MB)
  • rodzaj interfejsu komunikacyjnego oraz jego wydajność w przesyłaniu danych (PATA, SATA, SCSI, SAS)
  • zapotrzebowanie energetyczne
  • zastosowanie (rozmiar) - typ docelowego zastosowanie, np. w komputerze przenośnym
  • temperatura pracy
  • dodatkowe technologie, takie jak: NCQ, APM, SMART, AAM, itd.

  • NCQ – (ang. Native Command Queuing) - optymalizacja kolejkowania operacji odczytu i zapisu przez minimalizowanie ilości skoków głowicy. Poza ogólnym usprawnieniem pracy dysku powoduje też zmniejszenie jego zużycia. Wymagana jest tu współpraca kontrolera dysków na płycie gł. oraz dysku twardego.
    Dołączona grafika
  • APM – (ang. Advanced Power Menagement) Zaawansowane zarządzanie mocą - daje możliwość, szczególnie w dyskach przenośnych, możliwość zarządzania pracą dysku twardego w celu zmniejszenia zużycia prądu, przez czasowe lub stałe wyłączanie lub zmniejszanie prędkości obrotowej talerzy dysku, zmniejszanie szybkości ruchu głowicy itp.
  • AAM –(ang. Automatic acoustic management) Sterowanie hałasem wydzielanym przez dysk, głównie powodowanym przez skoki głowicy. Cicha praca dysku zazwyczaj okupiona jest spadkiem jego wydajności.
  • SMART (ang. Self-Monitoring, Analysis and Reporting Technology) - bardzo zaawansowany system monitorujący pracę dysku twardego. /szerzej za chwilę/

4. Fizyczna struktura danych

Główne składowe to: głowica, cylinder i sektory.
Głowice liczone od 0 (zera) mówią nam na której powierzchni talerza dane się znajdują, a co za tym idzie która głowica ma je odczytać.
Cylindry - numerowane od 0, przypomina słoje drzewa i grupuje nam ścieżki na których znajdują się dane po ich średnicy.
Sektory - dzielą nam cylindry na części, podział co daną ilość stopni.

5. Sposoby adresowania danych
  • CHS (Cylindry, głowice, sektory) - dla małych dysków <528MB
  • Extended CHS - dla dysków >528MB stosowane dysk BIOS nie obsługuje LBA
  • LBA - Zamienia rzeczywiste CHS na ich logiczny odpowiednik, pozwala przekroczyć granicę 528MB wzór na obliczenie LBA:
  • LBA = ( numer-cylindra * liczba-glowic-na-cylinder + numer-glowicy ) * liczba-sektorow-na-sciezke + numer-sektora -1
  • MZR (Multiple Zone Recording) - zapis wielostrefowy, bardzo usprawniony sposób adresowania (podobno nawet o 30%) którego głównym założeniem jest dzielenie dysku na określoną liczbę stref od 60-120, w zależności od zbliżania się do środka dysku.
  • Pozostałe, mniej popularne:
  • CKD Count Key Data
  • ECKD Enhanced CKD

6. Struktura danych na dysku:
Całą powierzchnie dysku, w współczesnych komputerach, dzielimy na partycje. Partycje to określony obszar dysku przeznaczony na system plików. Partycje definiuje się w MBR, który potrafi pomieścić maksymalnie 4 partycje podstawowe. Aby stworzyć ich więcej jedna z partycji musi być partycją rozszerzoną, która znowu może się dzielić na partycje logiczne już bez zapisywania jej w MBR.
Kolejnym odstępstwem od systemu partycji jest LVM, który pozwala bardziej elastycznie zarządzać przestrzenią na dysku. Daje między innymi możliwość zmiany ich rozmiaru na gorąco (podczas działania systemu operacyjnego), tworzenia kopi (tzw. snapshot-ów), łączenia wielu obszarów, nawet pomiędzy dyskami, tworzenia mirrorów- kopii zabezpieczających tworzonych w locie (ala RAID1) , a także przesuwać woluminy między dyskami (on-line, w locie)

Sam MBR znajduje się na pierwszej ścieżce, w pierwszym cylindrze, w pierwszym sektorze dysku. Ma długość 512 bajtów z czego pierwsze 446 bajtów to bootstrap, (czyli program rozruchowy który odpala system operacyjny, np. lilo.) Kolejne 64bajty to definicje czterech partycji podstawowych na dysku.

7. Wewnątrz partycji:
Wewnątrz partycji znajduje się zazwyczaj system plików (np. NTFS lub EXT2), każdy system plików na swoje cechy własne, niestety ich ilość oraz różnice są tak wielkie że spokojnie można pisać kolaboranty.

Główne systemy plików to:
  • FAT - bazuje na tablicy alokacji plików, od którego pochodzi jego nazwa, powstał w latach 70-tych aktualnie znacznie udoskonalony występuje jako exFAT albo FAT64.
  • NTFS - podstawowy system plików dla systemów Windows 2000/XP i nowszych, wywodzi się z HPFS. W porównaniu do FAT-u posiada takie możliwości jak np. metadane oraz dziennik operacji dyskowych. Dziennik operacji dyskowych, opóźnia zapis danych na dysku przez zapisanie ich w dzienniku. Taki mechanizm zmniejsza prawdopodobieństwo utraty danych przy braku zasilania. Najważniejszą częścią systemu NTFS jest MFT, ukryty plik zawierający wszystkie informacje o rozmiarach, ścieżkach, datach plików. Jego utrata lub zamazanie uniemożliwia odtworzenie struktury systemu plików.
  • EXT - główna rodzina systemów plików Linux-a. Istnieje kilka wersji tego systemu plików, który był udoskonalany przez wiele lat, aż do obecnego EXT4. EXT2 - wprowadził mechanizm zapobiegania fragmentacji plików. EXT3 - dodał „dziennik systemu plików“ (journal), EXT4 –umożliwił między innymi opóźnienie zapisu, które ostatecznie zażegnało problem fragmentacji plików. Systemy plików z rodziny EXT nie wymagają programów do defragmentacji.
  • XFS - jeden z najbardziej zaawansowanych systemów plików, przeznaczony głównie na maszyny z dyskami o pojemności >2TB obsługuje aż 16 mln TB. Posiada wszystkie zalety takich systemów jak: NTFS oraz EXT4, dodatkowo uznawany jest za jeden z najbezpieczniejszych systemów plików.
  • ZFS - główny system plików systemów BSD oraz Solaris
  • BTRFS - bardzo nowoczesny, nadal eksperymentalny system plików przeznaczony dla Linux-a rozwijany przez Oracle. Posiada między innymi możliwości: kompresji wybranych plików lub całość, szyfrowania systemu plików, defragmentacji w locie, migawki – (daje możliwość przywrócenia poprzedniej wersji systemu plików np. zanim skasowaliśmy jakiś plik lub katalog.) System plików posiada dodatkową operację zwiększającą żywotność a przy okazji wydajność dysków SSD. Opcję wywołuje się przez dodanie opcji montowania -o ssd. Jako cache w tym systemie plików służy RAM.
  • ReiserFS 3 oraz 4- dwa systemy plików dla Linux, najbardziej innowacyjne za swoich czasów. Dziś z powodu skazania autora tego system plików (za morderstwo żony) bardzo wolno rozwijany. ReiserFS charakteryzuje się bardzo wysoką wydajnością, szczególnie na małych plikach, możliwością wybiórczego kompresowania i szyfrowania danych.


Część II


Jak radzić sobie z danymi na dysku?


Praktyczne podejście czyli uniwersum zakupu i eksploatacji dysku. A oto kilka wskazówek które proponuję.

1. Zakup dysku.

Zmienność rynku jest tak duża że nie da się wyznaczyć dysku lidera ani nawet dominującej firmy. Jedyne czy możemy się kierować to wyniki testów na różnych stronach a następnie przedziałem cenowym jaki jest w naszym zasięgu. Takie cechy jak niezawodność są dosyć trudne do określenia w momencie zakupu.

1a. Cechy powtarzające się wielokrotnie u danych producentów:
WD
Zalety: -niski pobór energii szczególnie w modelach Green
-niska temp. pracy
Wady: -problemy ze zbyt częstym parkowaniem głowicy
-niektóre modele głównie 2.5 Blue są dosyć ciepłe
-niektóre modele 2.5 nie posiadają wyłącznika przeciążeniowego
Samsung
Zalety: -bardzo cicha praca przez wiele lat
Wady: -niektóre modele 2.5 nie posiadają wyłącznika przeciążeniowego
Hitachi/IBM
Zalety: -cicha praca
-niska temp. pracy
Wady: -przeciętna wydajność
-częste wady firmware-u powodujące (click-of-death) pieszczotliwa nazwa tych dysków: DeathStar pochodzi od ich nazwa DeskStar
Fujitsu
Zalety: -cicha praca
-niska temp. pracy
Wady: -przeciętna wydajność
Seagate
Zalety: -wiele niedrogich modeli, szczególnie 7200 rpm oferuje bardzo dobrą wydajność
Wady: -głośna praca już po kilku miesiącach
-niejasne raportowanie błędów SMART
-duża tolerancja bad sectorów
-wiele modeli bardzo się nagrzewa
Toshiba
Zalety: -cicha praca
Wady: -wysoki pobór energii
-niektóre modele 2.5 nie posiadają wyłącznika przeciążeniowego
-wysoka temp. pracy
-wysoka awaryjność przy pracy ciągłej

UWAGA! Te informację oparte są o moje prywatne obserwacje, nie są to jednak obserwacje 10-20 sztuk, tylko ilości 400-500 sztuk, na poziomie od amatorskiego laptopa do dysków pracujących w warunkach przemysłowych 24h/dobę. Informacji tych nie można traktować jako w 100% pewne ponieważ od tej zasady jest wiele odstępstw. np. wiele dysków firmy WD nie posiada problemów z load_cycle_count, wiele dysków firmy Samsung po 5-6 latach zaczyna wydzielać przeraźliwy dźwięk z elementów napędowych.

1b. Zakup dysków SSD
Dyski SSD to zupełnie nowy rodzaj pamięci masowej który nie posiada ruchomych części w zamian tego zastosowano w nim kości NAND flash. Jednak przy zakupie dysku SSD musimy pamiętać że jest on produkowany z gotowych elementów które można otwarcie zakupić na rynku. Sam proces produkcyjny jest prosty i tani, nie wymaga sterylnych warunków 99% kosztów to zakup gotowych elementów do montażu SMD. Takie uproszczenie procesu powoduje że zabierają się za to dużo małych, nieznanych firm. Produkt takich firm wizualnie może przypominać produkty konkurencji, może też być stworzony na takich samych elementach jak konkurencja jednak problem może tkwić w oprogramowaniu wewnętrznym (firmware). Fireware takich może nie posiadać odpowiednio zoptymalizowanego algorytmu zapisu danych przez co zużycie dysku może nastąpić dużo szybciej niż np. w produktach konkurencji mimo że do produkcji użyte zostały te same elementy. Dzieje się tak dlatego że kości pamięci NAND flash mają określoną liczbę cykli zapisu, po ich przekroczeniu obszar pamięci ulega uszkodzeniu. Przez użycie odpowiedniego algorytmu minimalizuje się prawdopodobieństwo wielokrotnego zapisu na tym bloku, przez co żywotność wzrasta.

Reasumując, przy wyborze dysku SSD musimy patrzeć też na firmę która go produkuje, znane i dobre firmy to główni producenci pamięci NAND Flash czyli Samsung, Toshiba oraz Intel. Wiele dużych firm z stosunkowo dobrą renomą miało przejściowe problemy z dyskami SSD, wśród takich znalazła się np. firma OCZ która w swoich produktach zastosowała kontroler firmy JMicron.

Dopiero gdy jesteśmy pewni że jakość jest potwierdzona możemy spojrzeć na takie wartości jak wydajność. Średni czas dostępu możemy spokojnie pominąć.

2.Optymalizacja struktury na dysku.
Jeżeli posiadamy komputer z tradycyjnym dyskiem musimy w specyficzny sposób ulokować partycje, a potem dane na nim tak, aby wszystko chodziło szybko i sprawnie.

Aby tego dokonać musimy pamiętać, że główny problem dysków HDD jest czas dostępu. To złe rozlokowanie danych powoduje że nasz dysk trzeszczy, jest wolny a w rezultacie się zużywa.

- Partycje: należy tworzyć w taki sposób, aby były ergonomiczne a zarazem dysk pracował optymalnie. Czyli tworzymy małe ilości partycji, oddzielnie dla systemu i podstawowych programów oraz oddzielnie dla danych. Jeżeli mamy kilka systemów operacyjnych nie tasujemy ich partycji między sobą. Staramy się tak je rozdzielić, aby Windows który musi być na początku dysku, miał wszystkie swoje partycje obok siebie, a głowica nie musiała skakać od początku do końca dysku w poszukiwaniu danych. Jeżeli mamy Linux-a zaraz za partycją /boot tworzymy SWAP, a potem /root, a nie przedzielamy je np. 250GB partycją Windowsa. Dzięki temu działaniu skraca się czas dostępu do danych. Staramy się też tworzyć partycje podstawowe a dopiero gdy nie ma innej możliwości rozszerzone i logiczne, co w przyszłości ułatwi nam zmiany które będziemy dokonywać w partycjach. Bo chyba każdy wie, że nie ma nic bardziej bolesnego niż powiększanie partycji podstawowej gdy za nią stoi rozszerzona i logiczne w niej. Jeżeli używamy Linux-a staramy się używać LVM aby jeszcze bardziej sprawę ułatwić i w razie czego szybko zmienić ich rozmiar.

Dobrą praktyką jest też umieszczanie systemu wraz z głównymi programami na dysku SSD który charakteryzuje się niższymi czasami dostępu lub tworzenie wydajnych sprzętowych macierzy z wielu dysków.

- Wyrównywanie partycji: wiele nowych dysków o dużych pojemnościach ma powiększony rozmiar sektora do 4096 bajtów. Aby dysk pracował wydajnie, partycje utworzone na dysku z sektorem 4096 bajtów należy wyrównać do rozmiarów sektora. Do tego celu może posłużyć program udostępniany za darmo WD Aligment Tool

- System plików:
wybór w przypadku systemu Windows jest trudny, NTFS lub NTFS. Z kolei Linux ma ich naprawdę sporą ilość, mimo wszystko większość desktop-ów używa Ext3 oraz nowszego Ext4.

- NTFS i plik stronicowy: gdy mamy jeden dysk, najlepiej mieć plik stronicowy (Windows-owy SWAP) na głównej partycji z systemem, broń Boże na jakiejś partycji, pod koniec dysku, daleko od systemu. Można też pomyśleć o umieszczeniu pliku stronicowego na oddzielnym dysku, nie mówię tu już o umieszczeniu go na SSD czy RAID.

- Defragmentacja: system plików NTFS, FAT wymagają defragmentacji, dowolny darmowy program zdaje egzamin. Nie opłaca się jednak męczyć dysku zaawansowanymi programami do optymalizacji rozkładu danych na powierzchni, bo przyrost wydajności danych jest niezauważalny a czas i zużycie, tak!
Systemy plików Linux-a, BSD, nie wymagają defragmentacji. UWAGA! Dysków SSD nie należy defragmentować. Defragmentacja zużywa kolejne cykle zapisu które są ograniczone, a przy średnim czas dostępowy na poziomie 0.1ms nawet bardzo duży procent fragmentacji danych nie powoduje utraty wydajności.

3a. Jak obchodzić się z dyskiem w desktop-ie?
Dysk jest bardzo podatny na defekty mechaniczne, szczególnie podczas pracy. Dlatego „kop” w obudowę potrafi definitywnie uszkodzić głowice, a odzyskanie danych z tak uszkodzonego dysku jest bardzo kosztowne. 90% dysków 3,5cala nie posiada rampy na głowice będące w stanie spoczynku, w zamian głowice zostają na powierzchni talerza i znacznie łatwiej je wtedy uszkodzić.

Kolejna sprawa to temperatura, mimo że dysk nie wymaga chłodzenia to zaleca się montowanie ich w stalowej obudowie z jakąkolwiek wentylacją, tak aby powietrze nie stało. Nie izolujemy też dysku od stalowej obudowy bo to też jest odprowadzenie ciepła. Szczytem głupoty jest okładanie dysków gąbką lub styropianem, takie coś może spowodować, że dysk który normalnie trzyma 40C zagrzeje się nawet do 70-80C. A tego byśmy nie chcieli. Dyski instalujemy z dala od źródeł ciepła np.: kart graficznych, procesorów etc. Staramy się też unikać plastikowych kieszeni na dyski nie posiadające wentylacji.
Dodam że optymalna temperatura pracy dysku to 30-50C, niektórzy producenci podają nawet do 60C.

3b. Jak obchodzimy się z dyskami w laptop-ie?

Dysk laptopa często wyposażony jest w czujnik przeciążania, który wykrywa upadek i zanim komputer upadnie głowice uciekają z powierzchnia talerza na specjalną rampę. Mimo to, może się tak stać że ulegnie uszkodzeniu gdy upadek będzie zbyt silny.
Normalny przedział temperaturowy dysków 2,5 cala to 30-60C a optymalny 30-50C.

4a. Usterki

Usterki dysków twardych są bardzo rozmaite, wielu producentów charakteryzuje się swoimi problemami, które dla innych nie istnieją. Na przykład dyski firmy WD często wykańczają się same przez niesamowitą ilość parkowań głowic na rampę, graniczącą z ilością 500tyś. do 1mln. (przeciętny MTBF parkowań to 300tyś.) Tego problemu nie mają np. dyski firmy Segate które znowu lubią nabawić się z czasem tzw. click-of-death. Dysk nagle zaczyna klikać, parkuje i odparkowuje głowice zamiast wykonywać normalne operacje. Obu usterką można zaradzić.

Inne bardzo częste usterki to:
  • metaliczny dźwięk napędu, często spowodowany upadkiem lub długotrwałym przegrzewaniem
  • dźwięk tarcia o metal który generuje głowica po najechaniu na talerz - głownie upadki
  • ciche cykanie zamiast rozkręcania talerzy - zatarty silnik- głównie temperatura
  • wielokrotne próby rozkręcenia talerzy - problemy z zasilaniem, defekt głowicy
  • oraz wiele wiele innych

Poza usterkami mechanicznymi mogą też wystąpić, problemy z elektroniką:
  • błędy transmisji UDMA - taśmy, kable
  • click-of-death - defekt oprogramowania
  • zaparkowywanie głowic dysku na śmierć - błąd firmware-u
  • dysk odpala, ale BIOS go nie widzi - defekt elektroniki
  • dysk nie zapala ale BIOS go wykrywa - problemy z zasilaniem
  • dysk się wyłącza - problemy z zasilaniem lub defekt firmware-u
  • oraz wiele innych

4b. Diagnostyka
Praktycznie każdy, nawet bardziej zaawansowany użytkownik, pierwsze co robi aby sprawdzić dysk, skanuje jego powierzchnie po czym program testujący nie wykazuje błędów, po czym mija tydzień a system już nie odpala.

Czemu tak się dzieje ?
Nowoczesny dysk posiada system SMART, który pracuje razem z naszym dyskiem. Niezależnie czy dysk jest podłączony do komputera czy nie, on działa i notuje co się z nim dzieje. Dane które zapisuje to takie informacje jak np. ilość przepracowanych godzin, ilość UPADKÓW!, ilość błędów wywołanych przez np. uszkodzoną taśmę, ilość nieudanych rozkręceń talerzy, ilość uruchomień, parkować itd. Jednym z zapisywanych parametrów jest parametr o nazwie „reallocated_sectors_count” który jest równy wykrytej licznie uszkodzonych i przeniesionych sektorów dysku.

Jak działa reallocated_sector_count ?

Gdy dysk trafi na uszkodzony sektor SMART zaznacza go jako uszkodzony i zmienia fizyczne miejsce zapisu danych na talerzu. Uszkodzony sektor blokuje tak, aby nikt już nic tam nie zapisał. Gdy liczna takich sektorów przekroczy ilość przewidzianą przez producenta do przeniesienia SMART może zablokować dysk, drastycznie obniżyć jego pojemność, lub zostawić wszystko jak jest. a w przyszłości nie przenosi już żadnych sektorów.


No to może HDD Regenerator ?
Niestety autor programu HDD Regenerator żeruje na głupocie ludzi, system operacyjny po zablokowaniu przez SMART uszkodzonego sektorów nie ma możliwości uzyskania do niego dostępu, ponieważ uszkodzony adres wskazuje już inny sprawny sektor. Uszkodzony sektor jest już utracony, nic go nie naprawi a najlepsze co można z nim zrobić to właśnie wykluczyć go za pomocą SMART-a.

Reasumując, skanowanie powierzchni lub jej zerowani (jak to niektóre osoby robią) może pomóc smart-wi wykryć uszkodzone sektory i je wykluczyć ale na 100% ich nie naprawi.

A więc jak testować dysk ?
Dobrym rozwiązaniem przy małej ilości czasu jest sprawdzenie parametrów SMART takich jak właśnie:
reallocaed_sector_count - ilość uszkodzonych i przeniesionych sektorów (Wartość w zakresie 1-10 dla dysków Segate jest normalna, dopiero w okolicy 20-100 oznacza poważny problem z powierzchnią, dla pozostałych producentów takich jak WD, Samsung, Hitachi każda wartość wyżej 0 świadczy o problemie)
spin_retry_count - ilość nieudanych rozkręceń dysku
g-sense_error_rate - ilość wykrytych upadków i awaryjnego parkowania głowić (wartość wyżej 0 świadczy o tym że dysk mógł być upuszczony)
load_cycle_count - ilość cykli parkowania, uszkodzony dysk uznaje się taki który ma coś w okolicy 300tyś. do 600tyś.
power_on_hours (POH) - ilość przepracowanych godzin, pozwala łatwo stwierdzić jak długo dysk był eksploatowany (każda wartość wyższa niż MTBF podany przez producenta może oznaczać zbliżające się problemy)
start_stop_count - ilość uruchomień i zatrzymań dysków
emergency_shutdown - ilość niespodziewanych wyłączeń dysku np. z powodu braku prądu
raw_read_error_rate - ilość błędów odczytu (wysokie wartości w dyskach Segate są normalnie w przypadku WD, Samsung każda wartość wyższa niż 0 oznacza problem)
seak_error_rate - błędy podczas operacji wyszukiwania , problemy z mechanizmem głowicy (każda wartość wyższa niż 0 oznacza problem)

Parametry zaznaczone na czerwono są kluczowe.

Różne firmy w swoich dyskach dodają lub ujmują parametry, niektóre z nich mogą być równie istotne.

Jeżeli mamy troszkę więcej czasu możemy wykonać wewnętrzny test dysku twardego, tzn. SMART self-test. Test ma kilka wariantów, krótki około 2-4 minuty, długi 30-40 minut, selective - skanuje tylko wybraną część dysku. Test ten potrafi stwierdzić jaki jest stan dysku bez skanowania pełnej powierzchni dysku. Mimo to jeżeli któryś z parametrów SMARTjest niepokojąco wysoki a self-test został zakończony pomyślnie, to dysk i tak może być poważnie uszkodzony.

Jak to odczytać ?

Dane SMART można odczytać za pomocą programu HD Tune, Victoria oraz pod Linux-em za pomocą smartmontools lub nakładki gsmartcontrol.

Czy da się oszukać dane SMART ?
Dane da się wymazać zmienić, ale wymaga to dużej wiedzy oraz sprzętu w postaci konsoli szeregowej. O ile sama konsola szeregową to byle kabelek do starych Nokii, tak obsługa jej i komendy które musimy znać, nie są podawane do publicznej wiadomości, a to co możemy odszukać w Internecie może nie wystarczyć. Jedyne znane źródło informacji na ten temat to instrukcje serwisowe dostępne tylko dla autoryzowanych serwisów oraz firm data recovery. Dlatego SMART to bardzo wiarygodne źródło informacji jeżeli chodzi o kupno używanego dysku lub diagnostykę tego co już posiadamy.

5. Kasowanie, formatowanie.
Bywają sytuację że kupując używany komputer z dyskiem który rzekomo był bardzo porządnie formatowany, pełnym formatem udaje się odzyskać z niego kompletne dane. Co wprawdzie wymaga pewnym umiejętności ale dla ciekawskich i świadomych sytuacji jest do wykonania.

Niestety pełne formatowanie nie robi za wiele, różnice między szybkim a pełnym są niewielkie. Szybki format zaznacza obszar MFT jako pusty, pełny format nadpisuje obszar MFT zerami, a dane? Zostają nietknięte. Odzyskiwanie ich po szybkim formacie polega na przywróceniu MFT np. za pomocą darmowego oprogramowania Testdisk lub DMDE. Po pełnym formacie trzeba już używać programów do data carving-u lub odtwarzających strukturę jak ZAR. Jednak ogólnie rzecz biorąc szanse na odzyskanie danych są olbrzymie.
Problem kasowania danych tyczy się wszystkich nośników, takich jak dyski, karty pamięci, pamięć wewnątrz aparatu, pendrive itp. Miejcie to na uwadze, gdy sprzedajecie swój aparat który robiliście sobie zdjęcia np. w dwuznacznej sytuacji. xD

Jak kasować?

Do pewnego kasowania danym należy użyć dedykowanych programów Dban do kasowania całych dysków lub selektywnych jak Eraser. System linux sam z siebie oferuje też dosyć ciekawe rozwiązanie w postaci polecenie
dd if=/dev/urandom of=/dev/sda
ewentualnie dedykowanego oprogramowania Wipe lub Bcwipe

Metody utrudniające odzyskanie danych.
Jedna z nich to software-owe szyfrowanie, przez np. TrueCrypt lub pod Linux-em dm-crypt, cryptsetup-luks. Jeżeli to zbyt skomplikowane, w sprzedaży są dyski z sprzętowym szyfrowaniem, pendrivy z czytnikiem biometrycznym itp.

6. Odzyskiwanie danych
Zanim zaczniemy ochoczo odzyskiwać dane, czytamy i bezwarunkowo stosujemy się do poniższych zasad:
  • absolutnie nie odzyskujemy danych bezpośrednio na partycję z której dane próbujemy odzyskać - ponieważ dane które odzyskujemy mogą całkowicie lub częściowo nadpisać dane do odzyskania
  • jeżeli to możliwe odzyskujemy na odrębny dysk
  • jeżeli mamy możliwość tworzymy obraz i odzyskujemy dane z utworzonego wcześniej obrazu
  • nie przywracamy systemu (np. Windows)
  • nie instalujemy nic, staramy się nie dokonywać jakichkolwiek zmian w obrębie systemu plików z którego chcemy dane odzyskać.
  • jeżeli zachodzi obawa że dysk z którego dane chcemy odzyskać może być uszkodzony, tworzymy obraz tego dysku, specjalistycznym oprogramowaniem (Ddrescue)
  • jeżeli istnieje prawdopodobieństwo że MFT się zachowała staramy się odzyskać ja, a nie używamy programów do data carving-u typu Recuva
  • jeżeli dysk jest uszkodzony i nie uruchamia się, nie rozkręcamy go, ponieważ bez loży laminarnej i odpowiedniej wiedzy nie jesteśmy w stanie nic zrobić.


6a. Partycje i MBR (ang. Master Boot Record)
Czasem po odzyskaniu tablicy partycji, struktura danych okazuje się być nienaruszona, jednak nie można odzyskiwać jej przez tworzenie nowej na oślep. Znacznie rozsądniej jest użyć to tego celu programu Testdisk którego obsługa jest stosunkowo prosta.

Aby odzyskać tablicę partycji potrzebujemy dowolnego Linux-a lub dedykowanego systemu w postaci np. RiP Linux albo PartedMagic. Po jego pobraniu i wypaleniu odpalamy system z płyty następnie w konsoli wpisujemy:
Testdisk
Wybieramy dysk którego tablicę partycji chcemy odzyskać
[proceed]
[Intel ] nawet jeżeli mam procesor AMD
[Quick Search]
Przy pytaniu „Should TestDisk search for partition created under Vista?“ dajemy Y lub N w zależności od tego czy korzystaliśmy z Visty lub 7 przy tworzeniu partycji.
Po odszukaniu partycji, wybieramy ja i dajemy „ENTER: to continue“
Wybieramy [Write] potem Y aby ostatecznie ją zapisać.

Dobrym pomysłem jest trzymanie kopi zapasowej MBR której wykonanie jest niesamowicie proste, potrzebujemy do tak jak wcześniej PartedMagic lub RiP.

W uruchomionej konsoli wpisujemy:
dd if=/dev/sda of=mbr.bak bs=512 count=1
co utworzy nam kopię zapasową całego MBR wraz z tablicą partycji, aby ją odzyskać wystarczy wpisać:
dd if=mbr.bak of=/dev/sda bs=512 count=1
Aby odzyskać sam bootstrap (bootloader):
dd if=mbr.bak of=/dev/sda bs=446 count=1

Wersja video, mojego autorstwa:



6b. MFT (ang. Master File Table)

Tak samo jak poprzednio odzyskujemy MFT za pomocą programu Testdisk

Uruchomiamy w konsoli pogram Testdisk
Wybieramy dysk na którym chcemy naprawić, przywrócić MFT [proceed]
Wybieramy [Advanced]
Wybieramy partycję której MFT chcemy naprawić i wybieramy [boot]
Potem [Repair MFT] oraz Y aby potwierdzić

Jeżeli program Testdisk nie daje sobie rady, zawsze możemy użyć komercyjnej alternatywy w postaci programów ZAR oraz DMDE.

6c. Gdy wszystkie metody przywrócenia partycji i MFT zawiodą pozostaje nam ZAR oraz DMDE które potrafią odtwarzać strukturę danych na podstawie danych pozostawionych w systemie plików. Dużo lepszy w tym momencie okazuje się ZAR.

Alternatywą dla ZAR-a DMDE są też programy do „data carving-u“ które działają na zasadzie odszukiwania danych plików po nagłówkach. Np. potrafią odszukać wszystkie możliwe pliki JPEG. Niestety dużą wadą „data carving-u“ jest fakt że pliki o wysokim poziomie fragmentacji są praktycznie niemożliwe do odtworzenia w całości.

7. Zabezpieczanie przed utratą danych

Aby nie zaszła potrzeba odzyskiwania danych, zawsze możemy się zabezpieczyć na wiele sposób, np. przez regularne tworzenie backup-ów ważnych plików lub obrazów całych dysków. Można tego dokonać za pomocą PartClone który jest zawarty w systemie PartedMagic.

Inne rozwiązanie to stosowanie sprzętowego lub programowego RAID-u, do tego typu zastosowań odpowiedni jest RAID 1 (mirrored) który cały czas tworzy lustrzaną kopię naszych danych na obu dyskach i w razie defektu jednego z nich, dane mogą być odtworzone na nowy dysk z drugiego mirroru. Wadą tego rozwiązania jest fakt że RAID1 ma pojemność najmniejszego dysku będącego w macierzy. (czyli 2x500GB = 500GB) Tej wady nie posiada RAID5 ale wymaga aż trzech, najlepiej jednakowych dysków twardych. Jego ostateczna pojemność to około suma pojemności dwóch dysków, minus kilka GB na dane kontrolne.

8. Zakończenie.
Mam nadzieję że udało mi się po krótce przedstawić parę ciekawych informacji o dyskach. Można by o nich pisać całe książki, ale nie taki jest mój cel. Wierzę, że dzięki moim kilku wskazówkom wasze użytkowanie dysków będzie wygodne, właściwe i przyjemne, a wasze dyski odwzajemnią się długą i bezawaryjną pracą.

Wiele z informacji tu zawartych można zobaczyć w wersji video na moim kanale YT: http://www.youtube.com/user/schwarzgentoo

Główny źródłem informacji do tego artykułu jest doświadczenie własne, 100% tekstu zostało napisane własnoręcznie. Zdjęcia zapożyczone.


Użytkownik Ymo edytował ten post 29 10 2011 - 21:07

  • 1

#2 makensis

makensis

    Naczelny

  • 5 036 postów

Napisano 29 10 2011 - 11:34

Kilka rzeczy do poprawki np. jak się ma pojęcie fragmentacji do dysków SSD. Brak szczegółów o żywotności dysków etc. Ogólnie wydaje mi się, jakby ten artykuł dotyczył tylko dysków twardych(HDD), a nie zyskujących na popularności SSD.

  • 0

#3 Ymo

Ymo

    Zaawansowany użytkownik

  • 401 postów

Napisano 29 10 2011 - 13:37

Powiem szczerze że zrobiłem to celowo aby nie powiększać artykułu do zbyt dużej wielkości, wykraczającej daleko ponad ramy w jakich powinien się mieścić. Dyski SSD a nawet sama sprawa przystosowania systemu, wyboru i dopasowania systemu plików to temat a kolejny artykuł spokojnie podobnej wielkości.

Oczywiście BARDZO chętnie mogę poprawić ten, uzupełnić. Postaram się tego dokonać dziś wieczorem.

Tak czy inaczej bardzo się cieszę z nagrody. Muszę dodać że nigdy w życiu nic tak wartościowego nie wygrałem.

Użytkownik Ymo edytował ten post 29 10 2011 - 13:38

  • 0

#4 makensis

makensis

    Naczelny

  • 5 036 postów

Napisano 29 10 2011 - 15:46

Zmienić tytuł tematu czy chcesz dopisać coś więcej?
  • 0

#5 Ymo

Ymo

    Zaawansowany użytkownik

  • 401 postów

Napisano 29 10 2011 - 18:59

Dopiszę kilka drobiazgów, także tych o których wspomniałeś.

  • 0




Użytkownicy przeglądający ten temat: 0

0 użytkowników, 0 gości, 0 anonimowych