RAID erklärt: Verfügbarkeit, Integrität und Rebuild-Risiko sauber trennen
NAS18 Min.· 2026-04-04

RAID erklärt: Verfügbarkeit, Integrität und Rebuild-Risiko sauber trennen

RAID 0, 1, 5, 6, 10, RAIDZ und SHR professionell einordnen: Kapazitätslogik, degradierter Betrieb, Integritätsfunktionen und Grenzen auf Basis offizieller Plattformdokumentation.

Autor:Kevin Luo
Veröffentlicht:04. April 2026
Lesezeit:18 Min.
Quellen:8 verlinkt

Diese Seite macht Rechenannahmen, Quellenlage und Aktualität transparent. Für Methodik, Korrekturen und unseren Umgang mit Automatisierung siehe Redaktionsgrundsätze.

RAID beantwortet nur einen Teil der Speicherarchitektur

RAID ist kein Synonym für Datensicherheit, sondern eine Antwort auf einen klar begrenzten Teil des Problems: Wie verhält sich ein Speicherverbund beim Ausfall eines oder mehrerer Laufwerke? Die offizielle WD-Dokumentation formuliert das unmissverständlich: RAID ist kein Backup und schützt nicht vor böswilligen Angriffen, Dateisystemkorruption, Viren, Malware oder Ransomware.

Für eine saubere Planung solltest du deshalb vier Fragen getrennt beantworten:

  1. Kapazität: Wie viel nutzbaren Speicher will ich?
  2. Verfügbarkeit: Wie viele Laufwerksausfälle soll der Verbund abfangen?
  3. Integrität: Kann das System Korruption erkennen und, wenn Redundanz vorhanden ist, korrigieren?
  4. Wiederherstellung: Wie komme ich nach Fehler, Löschung oder Totalausfall wieder hoch?

Wer diese Ebenen vermischt, baut zwar einen RAID-Verbund, aber noch kein belastbares Speichersystem. Genau deshalb gehören Backup-Strategie 3-2-1 und RAID-Rechner logisch zusammen.

Nicht jeder Fehler ist ein Laufwerksausfall: die Fehlerdomänen sauber trennen

Viele RAID-Diskussionen scheitern daran, dass völlig unterschiedliche Fehlerklassen in einen Topf geworfen werden. Die offiziellen Quellen decken genau diese Trennung ab: WD spricht über klassische RAID-Resilienz und deren Grenzen, OpenZFS über Integrität durch Checksummen und Scrubs. Zusammen ergibt sich ein viel klareres Bild.

Fehlerklasse Welche Schicht laut offizieller Doku hilft Was damit noch nicht gelöst ist
einzelner Laufwerksausfall Mirror-, Parity-, RAIDZ- oder SHR-Redundanz je nach Layout noch keine Aussage über Löschung, Malware oder Restore
stille Korruption / latente Medienfehler ZFS mit End-to-End-Checksummen, automatischer Reparatur bei Redundanz und Scrubs klassische RAID-Beschreibungen allein liefern damit noch keine gleichwertige Integritätsaussage
versehentliches Löschen, Malware, Ransomware separates Backup; WD nennt diese Grenzen explizit ein redundantes Array ersetzt keinen Wiederherstellungspfad
degradierter Betrieb unter Last Monitoring, Tauschpfad und bewusst geplantes Rebuild-/Resilver-Fenster Redundanz ist vorhanden, aber Performance und Risikoprofil sind bereits verschoben

Praktisch heißt das: RAID beantwortet die Frage nach dem Überleben eines Laufwerksausfalls, aber nicht automatisch die nach Integrität oder Wiederherstellung. Genau deshalb sollten Homelab-Monitoring und Backup-Strategie 3-2-1 direkt im selben Architekturgespräch landen.

Klassische RAID-Level: Kapazität und Ausfalltoleranz nüchtern lesen

Die klassische RAID-Logik lässt sich sauber in Kapazität und Fehlertoleranz zerlegen. Für RAID 5, RAID 6 und RAID 10 nutzen wir unten das Vergleichsbeispiel mit vier gleich großen 4-TB-Laufwerken; bei RAID 1 bleibt der typische Einstieg das 2-Drive-Spiegelpaar.

Modell Min. Laufwerke Kapazitätsbeispiel Offiziell belegbare Schutzlogik
RAID 0 2 16 TB keine Fehlertoleranz; ein Laufwerksausfall zerstört den Verbund
RAID 1 2 4 TB bei 2 × 4 TB Spiegelung, hohe Datensicherheit auf Kosten von Kapazität
RAID 5 3 12 TB ein Laufwerksausfall tolerierbar, Leistung fällt im Fehlerfall ab
RAID 6 4 8 TB zwei Laufwerksausfälle tolerierbar, ebenfalls Performance-Abfall im Fehlerfall
RAID 10 4 8 TB Spiegelung plus Striping; Fehlertoleranz hängt davon ab, welche Spiegelpaare betroffen sind

Einordnung: Microsofts Kategorien simple, mirror und parity in Storage Spaces sind dafür ein nützlicher Denkrahmen, aber keine bloße Umbenennung aller klassischen RAID-Level. Sie zeigen jedoch sehr klar dieselbe Grundspannung: Kapazitätseffizienz gegen Redundanz und Performance-Verhalten.

Mirror versus Parity: Workload schlägt Prozentrechnung

Microsofts Storage-Spaces-Dokumentation ist für diese Entscheidung besonders hilfreich, weil sie nicht nur Kapazität, sondern Workload-Eignung beschreibt:

Resilienzmodell Offiziell dokumentierte Stärke Trade-off Praktische Einordnung
Mirror exzellente Lese- und Schreibleistung hoher Speicher-Overhead stark für performance-sensitive Workloads, VMs und kritische Primärdaten
Parity bessere Speicherausnutzung schwächere Schreibleistung wegen Paritätsberechnung eher passend für Archiv, Backup-Repositories und überwiegend sequenzielle Lese-Lasten

Microsoft trennt diese Profile so klar, dass sogar mirror-accelerated parity als Hybridansatz dokumentiert ist: Spiegelung für schnelle eingehende Writes, Parität für kapazitätseffiziente Ablage. Das ist der eigentliche Lerneffekt: RAID wird nach Workload gewählt, nicht nach der schönsten Kapazitätsquote.

Degradierter Betrieb und Rebuild: hier wird aus Redundanz echte Betriebsarbeit

Ein RAID-Verbund ist nicht erst dann problematisch, wenn er komplett ausfällt. Schon der degradierte Zustand ist operativ relevant. WD weist für RAID 5 und RAID 6 ausdrücklich darauf hin, dass ein Laufwerksausfall zu einem Leistungsabfall führt. Genau in diesem Zustand müssen viele Systeme weiterarbeiten, während gleichzeitig Rebuild oder Resilver läuft.

Was daraus folgt:

  • Kapazitätsquote allein reicht nicht: Entscheidend ist, wie dein Array im Fehlerfall unter Last reagiert.
  • Es gibt keine seriöse Standard-Rebuild-Zeit: Dauer und Risiko hängen von Laufwerksgröße, belegter Datenmenge, Controller, Dateisystem, Hintergrundlast und Drosselung ab.
  • Monitoring und Ersatzlaufwerke sind Teil der RAID-Entscheidung: Ohne Alarmierung und klaren Tauschpfad nützt die schönste Redundanz wenig.

Einordnung: Für kleine produktive NAS-Setups wird deshalb oft zu konservativeren Layouts geraten, sobald Daten wirklich wichtig werden. Nicht weil Parität "schlecht" wäre, sondern weil der degradierte Betrieb in der Praxis oft unterschätzt wird.

RAIDZ in ZFS: nicht nur Parität, sondern Integritätsarchitektur

OpenZFS beschreibt RAIDZ ausdrücklich als Variation von RAID 5, die die Parität besser verteilt und das klassische RAID-5-Write-Hole beseitigt. Gleichzeitig definiert ZFS raidz1, raidz2 und raidz3 als Single-, Double- und Triple-Parity-Modelle. Näherungsweise gilt für eine Gruppe aus N Disks mit P Paritätsdisks: (N - P) × X nutzbare Kapazität.

Der größere Unterschied steckt aber in der Integritätsebene: OpenZFS dokumentiert End-to-End-Checksummen, die Korruption beim Lesen erkennen. Wenn Redundanz vorhanden ist, können erkannte Fehler automatisch repariert werden; Scrubs dienen dazu, latente Medienfehler und Bit Rot systematisch aufzudecken.

ZFS-Funktion Warum sie für die RAID-Einordnung wichtig ist
RAIDZ ohne klassisches RAID-5-Write-Hole Parität ist hier Teil eines anderen Konsistenzmodells als bei vielen klassischen RAID-Controllern
End-to-End-Checksummen Korruption wird nicht nur vermutet, sondern beim Lesen überprüft
Automatische Reparatur bei Redundanz Integrität und Redundanz greifen technisch ineinander
Scrubs machen stille Fehler sichtbar, bevor sie beim Restore unangenehm werden

Genau deshalb ist RAIDZ nicht einfach "RAID 5 mit ZFS-Namen". Die Kapazitätsidee ähnelt sich, die Integritätsarchitektur nicht.

Scrub und Resilver sind nicht dasselbe - und dieser Unterschied ist operativ entscheidend

OpenZFS dokumentiert den Unterschied sehr klar: Ein Scrub prüft alle Datenblöcke darauf, ob ihre Checksummen korrekt sind. Auf replizierten Geräten wie Mirror oder RAIDZ kann ZFS dabei erkannte Schäden automatisch reparieren. Ein Resilver dagegen prüft nur Daten, von denen ZFS weiß, dass sie nach einem Austausch oder Attach-Vorgang nicht mehr aktuell sind.

Vorgang Was laut OpenZFS geprüft wird Warum das für die Planung wichtig ist
Scrub der gesamte Datenbestand wird gegen seine Checksummen verifiziert deckt latente Medienfehler und stille Korruption systematisch auf
Resilver nur Daten, die ZFS als veraltet kennt, werden wieder konsistent gemacht stellt Redundanz wieder her, ersetzt aber keinen vollständigen Integritätsdurchlauf

Das ist mehr als Wortklauberei. Wer nach einem Laufwerkstausch nur auf "Resilver abgeschlossen" schaut, hat die Redundanzschicht wiederhergestellt, aber noch keinen turnusmäßigen Integritätscheck durchgeführt. Für ZFS-Setups gehören deshalb regelmäßige Scrubs als eigener Betriebsprozess in dasselbe Runbook wie Ersatzlaufwerke, Alerts und Restore-Tests.

SHR ist Synology-spezifisch und die Ausbau-Regeln unterscheiden sich deutlich

Bei Synology geht es nicht nur um RAID-Level, sondern auch um Plattformregeln. Die offizielle DSM-Hilfe dokumentiert, dass SHR nur auf bestimmten Modellen verfügbar ist. Beim Ausbau einer bestehenden Storage-Pool-Konfiguration gelten außerdem andere Regeln als bei klassischem RAID 5 oder RAID 6.

Konfiguration Offizielle Add-Drive-Regel Praktische Folge
SHR neue Platte muss gleich groß oder größer als die größte vorhandene Platte sein oder der Größe einer vorhandenen Platte entsprechen gemischte Größen sind flexibler nutzbar, aber nicht beliebig; kleinere Ergänzungen können Kapazität ungenutzt lassen
RAID 5 / RAID 6 neue Platte muss mindestens so groß sein wie die kleinste vorhandene Platte klassische Arrays bleiben stärker durch die kleinste Größe begrenzt

Das ist der eigentliche Mehrwert von SHR: nicht Magie, sondern plattformgebundene Flexibilität mit klaren Regeln. Wer Synology ohnehin bewusst betreibt und unterschiedlich große Laufwerke schrittweise einbauen will, kann davon profitieren. Wer plattformneutral bleiben will, muss diese Bindung mit einkalkulieren.

Parity oder Mirror sollte mit Abnahmekriterien entschieden werden, nicht mit Bauchgefühl

Die eigentliche Architekturentscheidung liegt nicht zwischen zwei hübschen Akronymen, sondern zwischen zwei verschiedenen Betriebsprofilen. Die folgende Matrix ist eine Inferenz aus den offiziell dokumentierten Eigenschaften von WD, Microsoft, OpenZFS und Synology - also bewusst keine Herstellerempfehlung, sondern ein belastbares Prüfgerüst für reale Entscheidungen.

Prüffrage vor der Freigabe Warum sie relevant ist Wenn die Antwort schwach ist
Welche schreibintensiven Primärlasten müssen im degradierten Zustand noch akzeptabel laufen? Microsoft beschreibt Mirror klar als stärker bei Schreiblast, Parity als speichereffizienter mit schwächerem Schreibverhalten eher Mirror-orientiert planen, häufig RAID 10 oder ZFS-Mirror
Wie schnell bemerkst du einen degradierten Zustand und wie schnell ist Ersatz physisch verfügbar? WD dokumentiert für RAID 5 und RAID 6 den Performance-Abfall im Fehlerfall; ohne Reaktion bleibt dieser Zustand unnötig lange bestehen erst Monitoring, Ersatzlaufwerk und Tauschpfad sauber machen
Kann dein Backup- und Restore-Pfad unabhängig vom Array weiterlaufen? RAID ist laut WD kein Backup; ein kaputtes Restore-Konzept wird durch mehr Parität nicht besser vor weiterer RAID-Komplexität zuerst den Wiederherstellungspfad härten
Passen Ausbau- und Größenregeln wirklich zu deiner Plattform? Synology SHR und klassische RAID-Layouts folgen unterschiedlichen Add-Drive-Regeln keine Appliance-Logik wählen, die spätere Erweiterungen faktisch blockiert

Diese Fragen machen aus "RAID 5 klingt effizient" oder "RAID 10 klingt sicher" eine echte Betriebsentscheidung. Genau dort entsteht der Unterschied zwischen einem Datenablage-Projekt und einer belastbaren Speicherplattform.

Der degradierte Zustand braucht ein eigenes Runbook und nicht nur einen Laufwerkstausch

Viele Arrays scheitern betrieblich nicht am ersten Defekt, sondern daran, dass der degradierte Zustand als bloße Zwischenphase unterschätzt wird. Genau dort verschieben sich Lastprofil, Risiko und Reaktionszeit gleichzeitig.

Situation Was sofort klar sein muss Warum das nicht warten darf
Array meldet degradierten Zustand welches konkrete Laufwerk betroffen ist und ob Monitoring, Pool-Status und SMART dieselbe Geschichte erzählen ohne eindeutige Fehlerzuordnung wird aus Redundanz schnell Blindflug
Ersatzlaufwerk ist noch nicht vor Ort wie lange der Verbund voraussichtlich im degradierten Zustand unter realer Last weiterlaufen muss WD weist für RAID 5 und 6 ausdrücklich auf Performance-Abfall im Fehlerfall hin
kritische Primärdaten laufen weiter welche Jobs, Scrubs oder Hintergrundlasten das Risiko in diesem Fenster zusätzlich erhöhen du musst das Array nicht nur reparieren, sondern den Risikozustand aktiv steuern
externer Rückweg wird nötig wie groß die Rückholmenge ist und ob dein Off-Site-Fenster wirklich ins RTO passt erst im Defektfall zu rechnen ist zu spät; dafür ist der Transfer-Rechner vorher da

Das operative Ziel ist nicht nur "wieder grün", sondern kontrolliert grün. Genau deshalb gehören Homelab-Monitoring, Ersatzlaufwerkslogik und externer Restore-Pfad in dieselbe RAID-Entscheidung.

Vor der Freigabe drei Zahlen nebeneinander legen: Netto-TB, Dauerlast und Rückholzeit

Viele RAID-Entscheidungen scheitern nicht an der Paritätslogik, sondern daran, dass nur eine Zahl betrachtet wird: die Nutzkapazität. Für einen belastbaren Speicherpfad brauchst du aber mindestens drei verschiedene Zahlen, die sich gegenseitig kontrollieren.

Zahl Womit du sie sauber prüfst Was sie beantwortet Was sie ausdrücklich nicht beantwortet
Netto-Kapazität RAID-Rechner plus RAID-Vergleich wie viel Speicher nach Mirror, Parität oder RAIDZ real übrig bleibt noch keine Aussage über Backup, Mediengesundheit oder Restore-Zeit
Dauerlast des geplanten Hosts NAS-Rechner plus NAS-Festplatten Stromverbrauch wie sich Laufwerkszahl, Medienklasse und 24/7-Betrieb wirtschaftlich auswirken noch keine Aussage darüber, wie sich das Array im degradierten Zustand verhält
Rückholzeit im Notfall Transfer-Rechner plus Backup-Strategie 3-2-1 ob ein externer Restore- oder Migrationspfad überhaupt in dein Wiederanlauffenster passt noch keine Aussage über Integrität, Scrubs oder Resilver-Verhalten

Einordnung: Genau diese Dreiteilung verhindert den klassischen Fehlgriff: ein Array mit guter Nettoquote, aber falscher Laufwerkszahl, unerwarteter Dauerlast oder zu langsamem Off-Site-Rückweg. RAID wird erst dann zur tragfähigen Architektur, wenn Kapazität, Betriebsprofil und Wiederanlauf nicht gegeneinander arbeiten.

Array-Erweiterung und Laufwerkstausch sind Changes mit eigener Freigabe

Gerade im Homelab werden zusätzliche Laufwerke gern wie ein harmloses Upgrade behandelt. In Wirklichkeit ist jede Array-Erweiterung ein eigener Change, weil sie Kapazität, Stromprofil, Kühlung und Wiederanlauf gleichzeitig berührt.

Change Vor der Freigabe prüfen Hilfreicher Prüfpfad
mehr Kapazität im selben Layout ob Bays, Laufwerksgrößen und Plattformregeln des Arrays wirklich zusammenpassen RAID-Rechner plus RAID-Vergleich
mehr Laufwerke im selben Host wie sich Dauerlast, Kühlung und Hostkosten durch die zusätzliche Medienzahl verändern NAS-Rechner, NAS-Festplatten Stromverbrauch und Server-Kühlung
Wechsel von Mirror zu Parity oder umgekehrt ob sich damit nicht nur Netto-TB, sondern auch degradierter Betrieb und Primärlastprofil verschieben dasselbe Workload-Gerüst aus Mirror-vs-Parity und degradedem Runbook erneut anwenden
Migration auf andere Plattformlogik wie ZFS oder SHR ob Plattformbindung, Add-Drive-Regeln und Restore-Weg bewusst akzeptiert werden NAS selber bauen und Backup-Strategie 3-2-1

Diese Sicht macht RAID erwachsen: Nicht die Parität allein entscheidet, sondern die Frage, ob dein Host nach der Erweiterung noch dasselbe System ist oder längst ein Migrationsprojekt geworden ist.

Welche RAID-Logik zu welchem Einsatz passt

Einordnung: Die Zuordnung unten ist eine Inferenz aus den offiziellen Eigenschaften der jeweiligen Resilienzmodelle. Sie ersetzt keine individuelle Planung, ordnet aber typische Workloads sauber ein.

Einsatz Naheliegende RAID-Logik Warum
temporäre oder unkritische Daten Simple / RAID 0 nur mit separatem Schutzpfad maximale Kapazität oder Performance, aber ohne Fehlertoleranz
2-Bay-NAS mit wichtigen Primärdaten Mirror / RAID 1 einfachste und transparenteste Redundanzlogik
VMs, Datenbanken, performance-sensitive Primärlast Mirror-orientiert, oft RAID 10 Schreibverhalten und Ausfalllogik passen besser als reine Parität
Archiv oder Backup-Repository mit Fokus auf Kapazität Parity-orientiert, z. B. RAID 6 oder passende ZFS-Variante bessere Speicherausnutzung, wenn die Workload dazu passt
ZFS-basierter Integritätsfokus RAIDZ2 oder RAIDZ3 je nach Kritikalität Parität plus Checksummen, automatische Reparatur und Scrubs
Synology mit gemischten Laufwerksgrößen und geplantem Ausbau SHR praktischer, wenn die Plattformbindung bewusst akzeptiert wird

Wer bei dieser Entscheidung nur auf "wie viel Prozent Kapazität verliere ich?" schaut, landet oft beim falschen Verbund. Für produktive Daten ist Verhalten unter Fehlerbedingungen fast immer wichtiger als die schönste Nutzkapazität in einer Prospekttabelle.

Fazit: Redundanz ist gut, Integrität besser, Backup bleibt Pflicht

RAID ist sinnvoll, sobald Ausfalltoleranz und Verfügbarkeit wichtig werden. Aber erst die Kombination aus passendem RAID-Layout, Integritätsmechanismen, Monitoring und getrenntem Backup ergibt ein belastbares Speichersystem.

Wenn du klassisch planst, hilft dir der RAID-Level Vergleich für die Grundlogik. Wenn du ein NAS konkret aufbauen willst, geh danach in NAS selber bauen weiter. Und wenn du Redundanz schon für Backup hältst, ist Backup-Strategie 3-2-1 der wichtigere nächste Schritt als jeder Controller-Kauf.

Häufig gestellte Fragen

Ersetzt RAID ein Backup?

Nein. Offizielle Herstellerdokumentation ist hier eindeutig: RAID ist kein Backup. Es hilft gegen bestimmte Laufwerksausfälle, aber nicht gegen Löschung, Malware, Dateisystemschäden oder Standortverlust.

Ist RAID 5 heute grundsätzlich falsch?

Nein, aber es sollte bewusst gewählt werden. RAID 5 ist kapazitätseffizient, toleriert aber nur einen Laufwerksausfall und arbeitet im Fehlerfall mit Leistungsabfall. Für wichtigere Primärdaten oder größere Arrays wird deshalb oft konservativer geplant.

Ist RAIDZ1 einfach RAID 5 unter anderem Namen?

Nein. Beide arbeiten mit einfacher Parität, aber OpenZFS dokumentiert für RAIDZ eine andere Integritätslogik, inklusive Beseitigung des klassischen RAID-5-Write-Hole-Problems und Kombination mit End-to-End-Checksummen.

Kann ich in jedem RAID einfach verschiedene Laufwerksgrößen mischen?

Nicht beliebig. Klassische RAID-Layouts werden typischerweise von der kleinsten nutzbaren Laufwerksgröße begrenzt. Synology dokumentiert für SHR zwar flexiblere Ausbaupfade, aber auch dort gelten klare Größenregeln und Plattformbindung.

Wie lange dauert ein Rebuild oder Resilver?

Dafür gibt es keine seriöse Standardzahl. Dauer und Risiko hängen von Plattform, Laufwerksgröße, belegten Daten, Lastprofil und Drosselung ab. Wichtiger als eine Fantasiestundenzahl ist die Frage, wie dein System im degradierten Zustand überwacht und abgesichert bleibt.

Was ist der Unterschied zwischen Scrub und Resilver?

OpenZFS trennt diese Vorgänge klar. Ein Resilver bringt nur Daten wieder in einen konsistenten Zustand, die ZFS als veraltet kennt. Ein Scrub prüft den gesamten Datenbestand gegen seine Checksummen und kann auf replizierten Geräten gefundene Schäden automatisch reparieren. Ein abgeschlossenes Resilver ersetzt deshalb keinen regelmäßigen Scrub.

Wann wird ein zusätzlicher Laufwerksslot oder eine Array-Erweiterung zum Migrationsprojekt?

Sobald dadurch nicht nur Netto-Kapazität, sondern auch Plattformregeln, Dauerlast, Kühlung oder externer Restore-Pfad neu bewertet werden müssen. Dann ist es kein kleines Upgrade mehr, sondern ein Change mit eigener Freigabe und Rückweg.

Warum reicht der RAID-Rechner allein für die Freigabe nicht?

Weil er nur die Kapazitäts- und Redundanzlogik beantwortet. Für eine echte Freigabe musst du zusätzlich die 24/7-Dauerlast des Hosts und die Rückholzeit deines externen Backup- oder Migrationspfads bewerten. Netto-TB allein machen noch keine belastbare Speicherplattform.

Verwandte Tabellen

THEMENHUBS

Themenhubs für den nächsten Schritt

Diese Spezialseiten verbinden Einzelartikel, Tabellen und Rechner zu einer konsistenten Entscheidungslogik. Wenn du vom isolierten Problem zur belastbaren Systementscheidung weitergehen willst, starte hier.

Quellen & Primärdaten

  1. Western Digital - RAID Levels Supported with Western Digital Products - Im Audit am 4. April 2026 erneut verifiziert: RAID ist kein Backup; RAID 5 und RAID 6 verlieren bei Laufwerksausfall an Performance; klassische Level nach Schutz- und Kapazitätslogik.
  2. Microsoft Learn - Storage Spaces overview - Offizielle Referenz für Simple-, Mirror- und Parity-Semantik sowie den Unterschied zwischen Mirror-Performance und kapazitätseffizienter Parity.
  3. Microsoft Learn - Mirror-accelerated parity - Offizielle Referenz für unterschiedliche Speicher- und Performance-Charakteristika von Mirror und Parity innerhalb eines Hybridmodells.
  4. OpenZFS Documentation - RAIDZ - Offizielle Referenz zu RAIDZ als RAID-5-Variante ohne klassisches Write Hole sowie zu raidz1, raidz2 und raidz3.
  5. OpenZFS Documentation - Checksums and Their Use in ZFS - Offizielle Referenz für End-to-End-Checksummen, automatische Reparatur bei Redundanz und Scrubs.
  6. OpenZFS Documentation - zpool-scrub - Offizielle Referenz für den Unterschied zwischen Scrub und Resilver sowie für die automatische Reparatur gefundener Schäden auf replizierten Geräten.
  7. Synology Knowledge Center - What is Synology Hybrid RAID (SHR)? - Offizielle Referenz zur Synology-spezifischen Begriffseinordnung von SHR.
  8. Synology DSM Help - Add Drives to Expand the Storage Pool Capacity - Im Audit am 4. April 2026 erneut verifiziert: SHR ist nur auf bestimmten Modellen verfügbar; Add-Drive-Regeln unterscheiden sich zwischen SHR und RAID 5/6.