RAID Exercises

Find out the specifics of RAID level 4 and compare it with RAID level 5. What are main differences
regarding storage organization, storage consumption, access behavior and fault tolerance?

Differences between RAID 4 and RAID 5

ComparisonRAID 4RAID 5
Partitioningauf einzelne Festplattenauf alle Festplatten distribuiert
Min. Anzahl Festplatten23
Performance/Speedgutbesser, weil verteilte Parität
Fault Tolerance1 Festplattenausfall1 Festplattenausfall

Raid 6 vs Raid 5

ComparisonRAID 6RAID 5
Min. Anzahl Festplatten43
Fault Tolerance2 Festplattenausfälle1 Festplattenausfall
Performance/Speedlangsamer durch doppelte Paritätschneller
Storage Efficiencygeringer durch doppelte Paritäthöher

Präsentation RAID 6

RAID 01 vs RAID 10

Der Hauptunterschied zwischen RAID 01 und RAID 10 liegt in der Art und Weise, wie die Daten gespiegelt und verteilt werden. RAID 10 spiegelt zuerst die Daten und verteilt sie dann (Stripe of Mirrors), während RAID 01 die Daten zuerst verteilt und dann spiegelt (Mirror of Stripes).
Präferenz: RAID 10 RAID 10 wird im Allgemeinen bevorzugt, da es eine bessere Fehlertoleranz und schnellere Wiederherstellungszeiten (Rebuild) bietet. Fällt bei RAID 01 eine Platte aus, ist der gesamte Spiegelarm gefährdet/degradiert. Bei RAID 10 betrifft der Ausfall nur das jeweilige Spiegelpaar.

RAID-Z2 vs RAID 6

Wesentlicher Unterschied: RAID-Z2 ist spezifisch für das ZFS-Dateisystem und eng mit diesem integriert (Software/Filesystem-Level), während RAID 6 klassischerweise auf Blockebene (oft Hardware-Controller) arbeitet.

  • Write Hole: RAID 6 hat das Problem des "Write Hole" (Dateninkonsistenz bei Stromausfall während des Schreibens), was teure Controller mit Batterie-Backup erfordert. RAID-Z2 nutzt "Copy-on-Write" und variable Stripe-Breiten, wodurch das Write-Hole-Problem eliminiert wird.
  • Resilvering: RAID 6 muss die ganze Disk wiederherstellen. RAID-Z2 muss nur die tatsächlich geschriebenen Daten wiederherstellen (Resilvering), was oft viel schneller ist.

Präferenz für große Disks (>6-8 TB): RAID-Z2 Bei sehr großen Festplatten dauert ein Rebuild (Wiederherstellung) bei klassischem RAID 6 extrem lange, was das Risiko eines zweiten Ausfalls erhöht. Zudem steigt die Wahrscheinlichkeit von unkorrigierbaren Lesefehlern (URE/UBER). ZFS/RAID-Z2 prüft die Datenintegrität mittels Checksums bei jedem Lesen und verhindert so "Silent Data Corruption", was bei großen Datenmengen kritisch ist.

RAID Overview

RAID LevelStripingMirroringCapacityParityMin #drivesMax failing drivesRead/Write behavior
0YESNONNNO20Sehr schnell (R/W), da parallel.
1NOYESN/2N/2NO21 (pro Paar)Schnell (R), Mittel (W - muss auf beide schreiben).
01YESYESN/2N/2NO41 (pro Span)Sehr schnell (R/W).
10YESYESN/2N/2NO41 (pro Paar)Sehr schnell (R/W). Besserer Rebuild als 01.
4YESNON1N-1YES31Schnell (R), Langsam (W) wegen Paritäts-Bottleneck.
5YESNON1N-1YES31Sehr schnell (R), Mittel (W) wegen Paritätsberechnung.
6YESNON2N-2YES42Sehr schnell (R), Langsamer (W) wegen doppelter Parität.

XOR Truth Tables

Das exklusive Oder (XOR / oplus\\oplus) liefert 1 (wahr), wenn eine ungerade Anzahl der Eingänge 1 ist.

2 Bits

ABA ⊕ B
000
011
101
110

3 Bits

ABCA ⊕ B ⊕ C
0000
0011
0101
0110
1001
1010
1100
1111

4 Bits

B1 = 1 1 0 0   1 1 0 0
B3 = 0 0 1 0   1 1 0 1
B4 = 1 0 1 0   1 1 0 1
P  = 0 1 1 0   1 0 1 1
-------------------------
B2 = 0 0 1 0   0 1 1 1  <-- Dies entspricht dem ursprünglichen B2

Parity Calculation

Gegeben sind 4 Bytes in einem RAID 5 System. Die Parität PP wird durch bitweises XOR aller Blöcke berechnet:
P=B1B2B3B4P = B_1 \oplus B_2 \oplus B_3 \oplus B_4

Navigation