Dysk twardy
description
Transcript of Dysk twardy
Dysk twardyDysk twardyBudowa i podstawowe działanie dyskuBudowa i podstawowe działanie dysku
Połączenia dysków w RAIDPołączenia dysków w RAID
„Twardziel" - hermetycznie zamknięty,
składający się z od 2 do 8 wirujących talerzy pokrytych bardzo cienką warstwą
magnetyczną, każdy posiada osobną głowicę odczytującą-zapisującą,
która unosi się nad nim na cienkiej poduszce powietrznej. Dysk twardy jest
zwykle na stałe włączony do komputera i przechowuje dane, które powinny
być zawsze dostępne, takie jak system operacyjny.
Nowoczesne dyski twarde posiadają bardzo dużą przepustowość danych,
niski czas dostępu do danych, obracają się z prędkością kilku, kilkunastu
tysięcy obrotów na minutę, a ich pojemność wynosi kilkaset gigabajtów.
BUDOWA DYSKU BUDOWA DYSKU
Większość dysków twardych składa się następujących komponentów:
• obudowy,
• pozycjonera głowicy,
• ram głowic,
• głowic zapisu i odczytu,
• wirujących talerzy,
• układów sterowania.
Talerz (ang. plate) to magnetyczna powierzchnia obracająca się ze stałą
prędkością umożliwiająca odczyt danych przez głowicę odczytującą-zapisującą.
Talerzem może być zatem jedna z 2-8 wirujących z prędkością kilku tysięcy
obrotów na minutę części dysku twardego, pokryta materiałem magnetycznym,
który może zostać zapisany/odczytany przez, osobną dla każdego talerza,
głowicę odczytującą-zapisującą.
Każdemu dyskowi pamięci przyporządkowane są dwie głowice (dla jego dolnej
i górnej powierzchni). Głowice utrzymywane są na sprężynujących ramionach,
przy czym wszystkie ramiona głowic są ze sobą połączone i poruszają się
synchronicznie, napędzane pozycjonerem. W stanie spoczynku głowice
znajdują się na ścieżce parkującej dysku. W momencie, gdy dysk zaczyna
wirować, poduszka powietrzna wytworzona przy powierzchni, unosi głowice
na wysokości około 1 mikrometra (jedna dwudziesta włosa ludzkiego).
Zadaniem pozycjonera jest przemieszczenie głowic na wybrany cylinder. Pozycjonery zbudowane zostały w oparciu o silnik liniowy, same parkują
głowice po wyłączeniu zasilania, gdyż sprężyna samoczynnie odciąga je do położenia parkowania. Pozycjonery z silnikiem krokowym wymagają
zaparkowania głowic za pomocą specjalnego programu.
Praca z twardym dyskiem jest możliwa dopiero wtedy, gdy zostanie on
sformatowany przez producenta lub użytkownika.
Formatowanie polega na podziale dysku na ścieżki i sektory, jest to tzw. formatowanie niskiego poziomu lub formatowanie fizyczne.
Fizyczna struktura dysku twardego
Na fizyczną strukturę twardego dysku składają się cylindry, głowice i sektory.
Cylindry i głowice ponumerowane są począwszy od zera zaś numeracja
sektorów zaczyna się od cyfry 1. Informacje (dane) zapisywane są na
okrągłych nośnikach (talerzach), które pokryte są magnetyczną warstwą
i zamocowane jeden nad drugim na obracającej się osi. Po obu stronach
talerza na specjalnym ramieniu zwanym grzebieniem zamocowane są głowice
zapisu/odczytu. Powierzchnia nośnika podzielona jest na idealnie okrągłe
pierścienie tzw. ścieżki, które swoją strukturą przypominają słoje drzewa.
Z względu na to, iż ścieżka jest zbyt duża, aby zarządzać pojedynczym
kawałkiem informacji podzielona jest na sektory, które wynoszą 512 bajtów.
Zatem każda ścieżka podzielona jest na wiele sektorów. Liczba sektorów jest
różna dla różnych dysków twardych. Na ścieżkach dysków może być od 17
do 64 sektorów. Ścieżki i sektory tworzone są podczas formatowania dysku.
Gdy dysk nie pracuje lub gdy prędkość obrotowa jest zbyt mała, głowice
znajdują się w pozycji spoczynkowej, wycofane poza obręb pakietu.
Dopiero po osiągnięciu wymaganej prędkości obrotowej następuje ich
gwałtowne wysunięcie nad powierzchnie dysku i ustawienie nad cylindrem
zerowym. Podczas pracy głowice unoszą się na tzw. poduszce powietrznej
wytworzonej przez obracające się dyski.
Zapis odczyt danychZapis odczyt danych
Standardowe głowice zapisująco-odczytujące (zwane też głowicami
cienkowarstwowymi) posiadają miniaturową cewkę, która umożliwia zapis
danych na płycie magnetycznej lub ich odczyt. Gdy na twardym dysku
zapisywane są dane, specjalny układ elektroniczny wysyła impulsy elektryczne
do cewki. W ten sposób powstaje pole magnetyczne, które porządkuje
poszczególne cząstki na powierzchni dysku. W przypadku odczytu danych
następuje procedura odwrotna. Namagnesowana powierzchnia dysku indukuje
prąd w cewce, który jest następnie przetwarzany przez układ elektroniczny
napędu.
Coraz większe zapotrzebowanie na pojemniejsze dyski twarde a w
konsekwencji ich rozwój spowodowało zwiększenie gęstości zapisu, który nie
pozwala jednak na współpracę z tradycyjnymi głowicami z powodu zbyt
gęstego ułożenia sektorów.
Nowoczesne dyski twarde wyposażone są więc w dodatkową głowicę
magnetorezystywną (MR), umożliwiającą odczytywanie danych z powierzchni
nośnika. Głowica zawiera pewną domieszkę specjalnego stopu żelaza i niklu,
który pod wpływem pola magnetycznego zmienia swój opór elektryczny.
Do zapisu danych jest natomiast w dalszym ciągu wykorzystywana głowica
cienkowarstwowa. Zasadniczą zaletą takiego rozwiązania jest fakt, że głowica
MR potrafi prawidłowo rozpoznawać dane także wtedy, gdy dysk obraca się z dużą prędkością, a sektory ułożone są bardzo gęsto.
Bardzo ważnym elementem w pracy dysku jest mechanizm pozycjonowania
głowicy tzn. aby głowica zapisu/odczytu znajdowała się zawsze dokładnie nad
środkiem ścieżki. Wystarczy mianowicie niewielkie przesunięcie, a zamiast
porządanych informacji, otrzymamy zwykłe "śmieci". Nie jest to wcale łatwe
zadanie, gdyż pod wpływem ciepła materiał, z którego wykonane są talerze
dysku, może ulegać zniekształceniom. Mechanizmem stosowanym
w nowoczesnych dyskach jest technika Embedded Servo. W odróżnieniu od
tradycyjnej techniki Servo, przy której głowica musiała regularnie korzystać ze
ścieżki sterującej, aby zoptymalizpwać swoją pozycję, mechanizm Embedded
Servo wykorzystuje informacje zapisane na każdej ścieżce.
Głowice zapisująco-odczytujące mogą więc korzystać z nich przez cały czas,
co umożliwia dokładniejsze pozycjonowanie i szybszą pracę napędu. Technika
ta działa na podobnej zasadzie, jak automatyczny pilot, który nieprzerwanie
dba o utrzymywanie właściwego toru lotu. W poprzedniej technice tzw.
okresowej kalibracji głowicy dysku następowały dodatkowe przerwy
w transmisji danych.
Silnik krokowy: W stałym polu magnetycznym wytwarzanym przez nieruchomy magnes cylindryczny znajduje się rdzeń metalowy z nawiniętym uzwojeniem.W zależności od kierunku prądu płynącego przez uzwojenie powstająca siła elektrodynamiczna powoduje wciąganie rdzenia w głąb magnesu, bądż jego wypychanie. Tak odbywa się sterowanie ruchem głowic dysku.
Słowniczek do dysku twardegoSłowniczek do dysku twardego
Partycja (partition)
obowiązkowy poziom organizacji przestrzeni dyskowej. Partycje dzielą dysk
twardy na rozłączne obszary, którym system operacyjny przypisuje litery
napędów. Rozróżniamy przy tym partycje pierwotne (primary) i rozszerzone
(extended). Pliki systemowe, uruchamiające system operacyjny muszą
znajdować się na jednej z partycji pierwotnych- tych ostatnich może być
maksymalnie cztery. Natomiast liczba partycji rozszerzonych jest praktycznie
nieograniczona. Aby z którejś z partycji pierwotnej można było załadować
system operacyjny trzeba ją uaktywnić.
Klaster (cluster)
jednostka alokacji, najmniejsza logiczna jednostka zarządzana przez FAT i inne systemy plików. Fizycznie klaster składa się z jednego lub kilku sektorów.
FAT (File Allocation Table)
tabel alokacji plików, która powstaje przy formatowaniu partycji dosowym rozkazem "format". FAT przechowuje informacje o odwzorowaniu plików na numery klastrów.
Ścieżki (tracks)
koncentrycznie położone okręgi na każdym talerzu twardego dysku, które podzielone są z kolei na sektory.
Cylindry (cylindres)
zbiór wszystkich sektorów dysku twardego, osiągalnych bez przemieszczenia głowicy. Termin często lecz błędnie, stosowany jako zamiennik ścieżki- także w setupie BIOS'u.
Sektory(sectors)
najmniejsze adresowalne jednostki na twardym dysku. Całkowitą liczbę sektorów otrzymujemy, mnożąc liczbę głowic przez liczbę ścieżek razy liczbę sektorów na ścieżce.
Geometria napędu
sposób podziału dysku na cylindry, sektory, ścieżki i głowice. Zwykle rzeczywista (fizyczna) geometria napędu przeliczana jest przez elektronikę napędu w łatwiejszą do zarządzania geometrię logiczną.
EIDE (Enhaced Integrated Device Equipment)
rozszerzenie standardu IDE o szybsze protokoły transmisyjne i obsługę dużych dysków (powyżej 512 MB). Określenia związane z interfejsem EIDE, zintegrowanego z każdą nowoczesną płytą główną, są nieco pogmatwane. Znani producenci dysków twardych tacy jak Western Digital (EIDE) czy Seagate lub Quantum (ATA2, ATAPI, Fast ATA) używają różnych nazw dla tych samych protokołów i funkcji. Te odmienne określenia dla interfejsów różnią się tylko trybem transmisji danych, z których jeden wyznaczany jest przez PIO-Mode, a drugi przez DMA-Mode. ATA-3 zaś oznacza najszybszy wariant omawianego interfejsu, obejmujący również funkcję dla SMART służące do wykrywania błędów w pracy napędu.
IDE (Integrated Device Equipment)
przestarzały już dzisiaj standard interfejsu dla dysków twardych AT-Bus.
PIO-Mode
tryb programowo kontrolowanego wprowadzania i wyprowadzania danych (program I/O) w jakim napęd pracuje, decyduje o szybkości przesyłania danych między dyskiem a pamięcią. W standardzie ATA teoretyczna prędkość transmisji waha się pomiędzy 3,3 (Mode 0) a 8,3 (Mode 2) MB/s. ATA-2 osiąga w trybie Mode 3 11,1 MB/s, a w trybie Mode 4 nawet 16,6 MB/s.
DMA-Mode (Direct Memory Access)
bezpośredni dostęp do pamięci, oznacza, że dane między pamięcią operacyjną a dyskiem twardym są przesyłane bez udziału procesora. Elegancko i szybko działa to zresztą tylko z interfejsem PCI wbudowanym w nowoczesne płyty główne. Dotychczasowe chipsety osiągają przepustowość danych sięgającą 16,6 MB/s w przypadku ATA-2, zaś nowsze wspierają już Ultra DMA/33 i dochodzą do 33,3 MB/s.
SMART (Self Monitoring Analysis And Reporting Technology) nowa technika diagnostyczna, pozwalająca na rozpoznanie błędów w napędach dyskowych powstających w trakcie ich pracy. Zadaniem jej i współpracujących z nią narzędzi jest ostrzeganie w porę o grożącej utracie danych.
ATAPI (At Attachment Packet Interface) protokół pomiędzy interfejsem EIDE i podłączonymi do niego urządzeniami peryferyjnymi.
ULTRA ATA najnowsza wersja specyfikacji ATA dopuszczająca transfer danych z prędkością 33,3 MB/s; wymaga by komputer był zgodny ze specyfikacją ULTRA DMA/33.
SCSI (Small Computer System Interface) standard dla interfejsów urządzeń i magistral systemowych o dużej prędkości transmisji. Systemy magistrali SCSI mają różne szerokości szyny.
SCSI 2 ostatni oficjalnie ogłoszony przez ANSI standard; opisuje złącza z 8 bitową szyną danych, prędkość transferu 20 MB/s, definiuje komunikaty SCSI i strukturę komend.
Fast SCSI zgodny ze SCSI 2 tryb transmisji danych z prędkością 10Msłów/s. Oznacza to że informacje są wystawiane na szynę z częstotliwością 10 MHz. Jeśli szyna danych ma szerokość 8 bitów transfer wynosi 10 MB/s, dla szyny 16 bitowej jest to 20 MB/s.
Wide SCSI implementacja SCSI z szyną danych o szerokości 16 bitów; zastosowanie dwukrotnie większej szerokość magistrali danych oznacza automatycznie wyższą prędkość przesyłania danych.
Macierze RAIDMacierze RAID
RAID (ang. Redundant Array of Independent Disks, Nadmiarowa macierz
niezależnych dysków) - polega na współpracy dwóch lub więcej dysków
twardych w taki sposób, aby zapewnić dodatkowe możliwości, nieosiągalne
przy użyciu jednego dysku. RAID używa się w następujących celach:
• zwiększenie niezawodności (odporność na awarie),
• przyspieszenie transmisji danych,
• powiększenie przestrzeni dostępnej jako jedna całość.
Standardowe poziomy RAIDStandardowe poziomy RAID
RAID 0 Polega na połączeniu ze sobą dwóch lub więcej dysków fizycznych tak,
aby były widziane jako jeden dysk logiczny. Powstała w ten sposób
przestrzeń ma rozmiar taki jak N*rozmiar najmniejszego z dysków.
Dane są przeplecione pomiędzy dyskami. Dzięki temu
uzyskujemy znaczne przyśpieszenie operacji zapisu
i odczytu ze względu na zrównoleglenie tych operacji
na wszystkie dyski w macierzy.
Warunkiem uzyskania takiego przyśpieszenia jest operowanie na blokach
danych lub sekwencjach bloków danych większych niż pojedynczy blok
danych macierzy RAID 0 - ang. stripe unit size.
Korzyści:
• przestrzeń wszystkich dysków jest widziana jako całość
• przyspieszenie zapisu i odczytu w porównaniu do pojedynczego dysku
Wady:
• brak odporności na awarię dysków • N*rozmiar najmniejszego z dysków • zwiększenie awaryjności nie oznacza skrócenie żywotności dysków - zwiększa się teoretyczna możliwość awarii. O ile w przypadku RAID 0 mówimy o utracie danych w przypadku jednego z dysków, to jest to sytuacja tożsama z tą, gdy posiadamy jeden dysk - uszkodzenie jednego dysku również powoduje utratę danych.
Przykłady
Trzy dyski po 10 GB zostały połączone w RAID 0. Powstała przestrzeń ma rozmiar 30 GB. Szybkość zapisu lub odczytu jest prawie trzykrotnie większa niż na pojedynczym dysku. Oczywiście sumaryczna szybkość jest 3-krotnością najwolniejszego z dysków, gdyż kontroler raid podczas zapisu/odczytu musi poczekać na najwolniejszy dysk. Stąd też sugeruje się dyski identyczne, o identycznej szybkości i pojemności.
Trzy dyski: 10 GB, 10 GB, 5 GB zostały połączone w RAID 0. Powstała w ten sposób przestrzeń ma rozmiar taki jak N*rozmiar najmniejszego z dysków, 3x5 GB = 15 GB. Szybkość zapisu lub odczytu jest prawie trzykrotnie większa niż na pojedynczym dysku. Oczywiście sumaryczna szybkość jest 3-krotnością najwolniejszego z dysków, gdyż kontroler raid podczas zapisu/odczytu musi poczekać na najwolniejszy dysk. Stąd też sugeruje się dyski identyczne, o identycznej wielkości.
1
2
Zastosowanie
Rozwiązanie do budowy tanich i wydajnych macierzy, służących do przechowywania dużych plików multimedialnych
RAID 1 Polega na replikacji pracy dwóch lub więcej dysków fizycznych. Powstała
przestrzeń ma rozmiar pojedynczego nośnika. RAID 1 jest zwany również
mirroringiem. Szybkość zapisu i odczytu zależy od zastosowanej strategii:
Zapis:
• zapis sekwencyjny na kolejne dyski macierzy - czas trwania operacji równy sumie czasów trwania wszystkich operacji
• zapis równoległy na wszystkie dyski macierzy –
czas trwania równy czasowi trwania operacji
na najwolniejszym dysku
Odczyt:
• odczyt sekwencyjny z kolejnych dysków macierzy (ang. round-robin) –
przy pewnej charakterystyce odczytów możliwe osiągnięcie szybkości
takiej jak w RAID 0
• odczyt wyłącznie ze wskazanych dysków - stosowane w przypadku
znacznej różnicy w szybkościach odczytu z poszczególnych dysków
Korzyści:• odporność na awarię N - 1 dysków przy N-dyskowej macierzy
• możliwe zwiększenie szybkości odczytu
Wady:• zmniejszona szybkość zapisu
• utrata pojemności (dokładnie pojemności N - 1 dysków)
Trzy dyski po 1GB zostały połączone w RAID 1. Powstała w ten sposób przestrzeń
ma rozmiar 1 GB (3 x 1 GB). Jeden lub dwa dyski w pewnym momencie ulegają
uszkodzeniu. Cała macierz nadal działa.
Przykład
RAID 2
Dane na dyskach są paskowane. Zapis następuje po 1 bicie na pasek.
Potrzebujemy minimum 8 powierzchni do obsługi danych oraz dodatkowe dyski
do przechowywania informacji generowanych za pomocą kodu Hamminga
potrzebnych do korekcji błędów. Ilość dysków używanych do przechowywania
tych informacji jest proporcjonalna do logarytmu liczby dysków, które są przez
nie chronione. Połączone dyski zachowują się jak jeden duży dysk. Dostępna
pojemność to suma pojemności dysków przechowujących dane.
Korzyści:
• każdy dowolny dysk (zarówno z danymi jak i z kodem Hamminga)
może w razie uszkodzenia zostać odbudowany przez pozostałe dyski
Wady:
•konieczność dokładnej synchronizacji wszystkich dysków zawierających
kod Hamminga (w przeciwnym wypadku dezorganizacja i całkowita
nieprzydatność tych dysków)
•długotrwałe generowanie kodu Hamminga przekładające się na wolną
pracę całego systemu
RAID 3 Dane składowane są na N-1 dyskach. Ostatni dysk służy do przechowywania
sum kontrolnych. Działa jak striping (RAID 0), ale w macierzy jest dodatkowy
dysk, na którym zapisywane są kody parzystości obliczane przez specjalny
procesor, przez co kontrolery potrzebne do przekierowania.
Korzyści:
• odporność na awarię 1 dysku
• zwiększona szybkość odczytu
Wady:
• zmniejszona szybkość zapisu z powodu konieczności kalkulowania sum
kontrolnych (eliminowana poprzez zastosowanie sprzętowych kontrolerów RAID)
• w przypadku awarii dysku dostęp do danych jest spowolniony z powodu
obliczeń sum kontrolnych
• odbudowa macierzy po wymianie dysku jest operacją kosztowną
obliczeniowo i powoduje spowolnienie operacji odczytu i zapisu
• pojedynczy, dedykowany dysk na sumy kontrolne zazwyczaj jest wąskim
gardłem w wydajności całej macierzy
Pięć dysków po 1GB zostało połączonych w RAID 3. Powstała w ten sposób
przestrzeń ma rozmiar 4GB (1GB odpada na sumy kontrolne). Jeden dysk
w pewnym momencie ulega uszkodzeniu. Cała macierz nadal działa.
Po włożeniu nowego dysku na miejsce uszkodzonego jego zawartość odtwarza się.
Przykład
RAID 4 RAID 4 jest bardzo zbliżony do RAID 3, z tą różnicą, że dane są dzielone
na większe bloki (16, 32, 64 lub 128 kB). Takie pakiety zapisywane są na
dyskach podobnie do rozwiązania RAID 0. Dla każdego rzędu zapisywanych
danych blok parzystości zapisywany jest na dysku parzystości.
Przy uszkodzeniu dysku dane mogą być odtworzone przez odpowiednie
operacje matematyczne. Parametry RAID 4
są bardzo dobre dla sekwencyjnego
zapisu i odczytu danych (operacje na
bardzo dużych plikach).
Jednorazowy zapis małej porcji danych potrzebuje modyfikacji odpowiednich
bloków parzystości dla każdej operacji I/O. W efekcie, za każdym razem przy
zapisie danych system czekałby na modyfikacje bloków parzystości, co przy
częstych operacjach zapisu bardzo spowolniłoby pracę systemu.
RAID 5 Macierz składa się z 3 lub więcej dysków. Przy macierzy liczącej N dysków
jej objętość wynosi N - 1 dysków. Przy łączeniu dysków o różnej pojemności
otrzymujemy objętość najmniejszego dysku razy N - 1. Sumy kontrolne
danych dzielone są na N części, przy czym każda część składowana jest
na innym dysku, a wyliczana jest z odpowiedniego fragmentu danych
składowanych na pozostałych N-1 dyskach.
Korzyści:
• odporność na awarię 1 dysku
• zwiększona szybkość odczytu – porównywalna do macierzy RAID 0 złożonej z N-1 dysków
Wady:
• zmniejszona szybkość zapisu z powodu konieczności kalkulowania
sum kontrolnych (eliminowana poprzez zastosowanie sprzętowego
kontrolera RAID5)
• w przypadku awarii dysku dostęp do danych jest spowolniony z powodu
obliczeń sum kontrolnych
• odbudowa macierzy po wymianie dysku jest operacją kosztowną
obliczeniowo i powoduje spowolnienie operacji odczytu i zapisu
Pięć dysków po 1GB zostaje połączonych w RAID 5. Powstała w ten sposób
przestrzeń ma rozmiar 4 GB. Jeden dysk w pewnym momencie ulega uszkodzeniu.
Cała macierz nadal działa. Po wymianie uszkodzonego dysku na nowy jego
zawartość zostaje odtworzona.
Przykład
RAID 6 Rozbudowana macierz typu 5 (często pojawia się zapis RAID 5+1).
Zawiera dwie niezależne sumy kontrolne. Kosztowna w implementacji, ale dająca bardzo wysokie bezpieczeństwo.
Korzyści:
• odporność na awarię maximum 2 dysków
• szybkość pracy większa niż szybkość pojedynczego dysku
• ekstremalnie wysokie bezpieczeństwo.
RAID 0+1
Macierz realizowana jako RAID 1, którego elementami są macierze RAID 0.
Macierz taka posiada zarówno zalety macierzy RAID 0 - szybkość w operacjach
zapisu i odczytu - jak i macierzy RAID 1 –
zabezpieczenie danych w przypadku
awarii pojedynczego dysku. Pojedyncza
awaria dysku powoduje, że całość staje
się w praktyce RAID 0. Potrzebne są
minimum 4 dyski o tej samej pojemności.
RAID 0+1RAID 1
RAID 0 RAID 0
Korzyści:
• szybkość macierzy RAID 0
• bezpieczeństwo macierzy RAID 1
• znacznie prostsza w implementacji niż RAID 3, 5 i 6
Wady:
• wymagana odbudowa całej macierzy RAID 100 w przypadku awarii pojedynczego dysku
• awaria pojedynczego dysku powoduje utratę zabezpieczenia danych• • większy koszt przechowywania danych niż w przypadku RAID 0,2,3,4,5,6
RAID 1+0 Nazywana także RAID 10. Macierz realizowana jako RAID 0, którego
elementami są macierze RAID 1. W porównaniu do swojego poprzednika
(RAID 0+1) realizuje tę samą koncepcję połączenia zalet RAID 0 (szybkość)
i RAID 1 (bezpieczeństwo) lecz w odmienny sposób.
Tworzony jest duży stripe małych mirrorów,
dzięki czemu podczas wymiany uszkodzonego
dysku odbudowywany jest tylko fragment
całej macierzy.
RAID 1+0RAID 0
RAID 1 RAID 1
Korzyści:
• szybkość macierzy RAID 0
• bezpieczeństwo macierzy RAID 1 - w szczególnym wypadku nawet
większa (awaria więcej niż jednego dysku różnych mirrorów)
•znacznie prostsza w implementacji niż RAID 3, 5 i 6
Wady:
• większy koszt przechowywania danych niż w przypadku RAID 0,2,3,4,5,6
Matrix RAID
Polega na połączeniu ze sobą dwóch dysków fizycznych tak, aby część dysku
działała jak RAID 0 (stripping), a inna część jak RAID 1 (mirroring)
Jest to chyba najlepsza opcja w warunkach
"domowych", łącząca zalety obu trybów
I pozbawiona ich wad.
Matrix +RAID
RAID 1PArtition
RAID 0PArtition
Korzyści:
• połączenie zalet poszczególnych trybów RAID - ważne informacje mogą
być bezpieczne (z duplikowane na obu dyskach), zaś operacje na często
używanych, ale mniej istotnych danych, mogą być wykonywane ze
zwiększoną szybkością.
Wady:
• częściowy spadek pojemności (część mirrorowana)
• część danych jest podatna na awarię (część w strippingu)
Dwa dyski po 10 GB zostały połączone w Matrix RAID. Utworzono na nich dwie
partycje - każda zajmuje połowę każdego dysku. Pierwsze polega na dzieleniu
danych (stripping) więc ma pojemność 10 GB, druga polega na duplikowaniu
(mirroring) ma więc 5 GB. Pierwsza z nich charakteryzuje się teoretycznie dwukrotną
prędkością wykonywania na niej operacji, druga zaś gwarantuje bezpieczeństwo
danych w razie awarii jednego z dysków...
Przykład
JBOD (ang. Just a Bunch Of Disks)
– połączenie dysków twardych bez wykorzystania technologii RAID.
Jest zwykłą półką na dyski (macierzą dyskową), które są bezpośrednio
widoczne przez systemy komputerowe. Zazwyczaj dyski przyłączane są za
pomocą osobnego lub osobnych kontrolerów SCSI
JBOD