
RAID erklärt: Verfügbarkeit, Integrität und Rebuild-Risiko sauber trennen
RAID 0, 1, 5, 6, 10, RAIDZ und SHR professionell einordnen: Kapazitätslogik, degradierter Betrieb, Integritätsfunktionen und Grenzen auf Basis offizieller Plattformdokumentation.
Diese Seite macht Rechenannahmen, Quellenlage und Aktualität transparent. Für Methodik, Korrekturen und unseren Umgang mit Automatisierung siehe Redaktionsgrundsätze.
RAID beantwortet nur einen Teil der Speicherarchitektur
RAID ist kein Synonym für Datensicherheit, sondern eine Antwort auf einen klar begrenzten Teil des Problems: Wie verhält sich ein Speicherverbund beim Ausfall eines oder mehrerer Laufwerke? Die offizielle WD-Dokumentation formuliert das unmissverständlich: RAID ist kein Backup und schützt nicht vor böswilligen Angriffen, Dateisystemkorruption, Viren, Malware oder Ransomware.
Für eine saubere Planung solltest du deshalb vier Fragen getrennt beantworten:
- Kapazität: Wie viel nutzbaren Speicher will ich?
- Verfügbarkeit: Wie viele Laufwerksausfälle soll der Verbund abfangen?
- Integrität: Kann das System Korruption erkennen und, wenn Redundanz vorhanden ist, korrigieren?
- Wiederherstellung: Wie komme ich nach Fehler, Löschung oder Totalausfall wieder hoch?
Wer diese Ebenen vermischt, baut zwar einen RAID-Verbund, aber noch kein belastbares Speichersystem. Genau deshalb gehören Backup-Strategie 3-2-1 und RAID-Rechner logisch zusammen.
Nicht jeder Fehler ist ein Laufwerksausfall: die Fehlerdomänen sauber trennen
Viele RAID-Diskussionen scheitern daran, dass völlig unterschiedliche Fehlerklassen in einen Topf geworfen werden. Die offiziellen Quellen decken genau diese Trennung ab: WD spricht über klassische RAID-Resilienz und deren Grenzen, OpenZFS über Integrität durch Checksummen und Scrubs. Zusammen ergibt sich ein viel klareres Bild.
| Fehlerklasse | Welche Schicht laut offizieller Doku hilft | Was damit noch nicht gelöst ist |
|---|---|---|
| einzelner Laufwerksausfall | Mirror-, Parity-, RAIDZ- oder SHR-Redundanz je nach Layout | noch keine Aussage über Löschung, Malware oder Restore |
| stille Korruption / latente Medienfehler | ZFS mit End-to-End-Checksummen, automatischer Reparatur bei Redundanz und Scrubs | klassische RAID-Beschreibungen allein liefern damit noch keine gleichwertige Integritätsaussage |
| versehentliches Löschen, Malware, Ransomware | separates Backup; WD nennt diese Grenzen explizit | ein redundantes Array ersetzt keinen Wiederherstellungspfad |
| degradierter Betrieb unter Last | Monitoring, Tauschpfad und bewusst geplantes Rebuild-/Resilver-Fenster | Redundanz ist vorhanden, aber Performance und Risikoprofil sind bereits verschoben |
Praktisch heißt das: RAID beantwortet die Frage nach dem Überleben eines Laufwerksausfalls, aber nicht automatisch die nach Integrität oder Wiederherstellung. Genau deshalb sollten Homelab-Monitoring und Backup-Strategie 3-2-1 direkt im selben Architekturgespräch landen.
Klassische RAID-Level: Kapazität und Ausfalltoleranz nüchtern lesen
Die klassische RAID-Logik lässt sich sauber in Kapazität und Fehlertoleranz zerlegen. Für RAID 5, RAID 6 und RAID 10 nutzen wir unten das Vergleichsbeispiel mit vier gleich großen 4-TB-Laufwerken; bei RAID 1 bleibt der typische Einstieg das 2-Drive-Spiegelpaar.
| Modell | Min. Laufwerke | Kapazitätsbeispiel | Offiziell belegbare Schutzlogik |
|---|---|---|---|
| RAID 0 | 2 | 16 TB | keine Fehlertoleranz; ein Laufwerksausfall zerstört den Verbund |
| RAID 1 | 2 | 4 TB bei 2 × 4 TB | Spiegelung, hohe Datensicherheit auf Kosten von Kapazität |
| RAID 5 | 3 | 12 TB | ein Laufwerksausfall tolerierbar, Leistung fällt im Fehlerfall ab |
| RAID 6 | 4 | 8 TB | zwei Laufwerksausfälle tolerierbar, ebenfalls Performance-Abfall im Fehlerfall |
| RAID 10 | 4 | 8 TB | Spiegelung plus Striping; Fehlertoleranz hängt davon ab, welche Spiegelpaare betroffen sind |
Einordnung: Microsofts Kategorien simple, mirror und parity in Storage Spaces sind dafür ein nützlicher Denkrahmen, aber keine bloße Umbenennung aller klassischen RAID-Level. Sie zeigen jedoch sehr klar dieselbe Grundspannung: Kapazitätseffizienz gegen Redundanz und Performance-Verhalten.
Mirror versus Parity: Workload schlägt Prozentrechnung
Microsofts Storage-Spaces-Dokumentation ist für diese Entscheidung besonders hilfreich, weil sie nicht nur Kapazität, sondern Workload-Eignung beschreibt:
| Resilienzmodell | Offiziell dokumentierte Stärke | Trade-off | Praktische Einordnung |
|---|---|---|---|
| Mirror | exzellente Lese- und Schreibleistung | hoher Speicher-Overhead | stark für performance-sensitive Workloads, VMs und kritische Primärdaten |
| Parity | bessere Speicherausnutzung | schwächere Schreibleistung wegen Paritätsberechnung | eher passend für Archiv, Backup-Repositories und überwiegend sequenzielle Lese-Lasten |
Microsoft trennt diese Profile so klar, dass sogar mirror-accelerated parity als Hybridansatz dokumentiert ist: Spiegelung für schnelle eingehende Writes, Parität für kapazitätseffiziente Ablage. Das ist der eigentliche Lerneffekt: RAID wird nach Workload gewählt, nicht nach der schönsten Kapazitätsquote.
Degradierter Betrieb und Rebuild: hier wird aus Redundanz echte Betriebsarbeit
Ein RAID-Verbund ist nicht erst dann problematisch, wenn er komplett ausfällt. Schon der degradierte Zustand ist operativ relevant. WD weist für RAID 5 und RAID 6 ausdrücklich darauf hin, dass ein Laufwerksausfall zu einem Leistungsabfall führt. Genau in diesem Zustand müssen viele Systeme weiterarbeiten, während gleichzeitig Rebuild oder Resilver läuft.
Was daraus folgt:
- Kapazitätsquote allein reicht nicht: Entscheidend ist, wie dein Array im Fehlerfall unter Last reagiert.
- Es gibt keine seriöse Standard-Rebuild-Zeit: Dauer und Risiko hängen von Laufwerksgröße, belegter Datenmenge, Controller, Dateisystem, Hintergrundlast und Drosselung ab.
- Monitoring und Ersatzlaufwerke sind Teil der RAID-Entscheidung: Ohne Alarmierung und klaren Tauschpfad nützt die schönste Redundanz wenig.
Einordnung: Für kleine produktive NAS-Setups wird deshalb oft zu konservativeren Layouts geraten, sobald Daten wirklich wichtig werden. Nicht weil Parität "schlecht" wäre, sondern weil der degradierte Betrieb in der Praxis oft unterschätzt wird.
RAIDZ in ZFS: nicht nur Parität, sondern Integritätsarchitektur
OpenZFS beschreibt RAIDZ ausdrücklich als Variation von RAID 5, die die Parität besser verteilt und das klassische RAID-5-Write-Hole beseitigt. Gleichzeitig definiert ZFS raidz1, raidz2 und raidz3 als Single-, Double- und Triple-Parity-Modelle. Näherungsweise gilt für eine Gruppe aus N Disks mit P Paritätsdisks: (N - P) × X nutzbare Kapazität.
Der größere Unterschied steckt aber in der Integritätsebene: OpenZFS dokumentiert End-to-End-Checksummen, die Korruption beim Lesen erkennen. Wenn Redundanz vorhanden ist, können erkannte Fehler automatisch repariert werden; Scrubs dienen dazu, latente Medienfehler und Bit Rot systematisch aufzudecken.
| ZFS-Funktion | Warum sie für die RAID-Einordnung wichtig ist |
|---|---|
| RAIDZ ohne klassisches RAID-5-Write-Hole | Parität ist hier Teil eines anderen Konsistenzmodells als bei vielen klassischen RAID-Controllern |
| End-to-End-Checksummen | Korruption wird nicht nur vermutet, sondern beim Lesen überprüft |
| Automatische Reparatur bei Redundanz | Integrität und Redundanz greifen technisch ineinander |
| Scrubs | machen stille Fehler sichtbar, bevor sie beim Restore unangenehm werden |
Genau deshalb ist RAIDZ nicht einfach "RAID 5 mit ZFS-Namen". Die Kapazitätsidee ähnelt sich, die Integritätsarchitektur nicht.
Scrub und Resilver sind nicht dasselbe - und dieser Unterschied ist operativ entscheidend
OpenZFS dokumentiert den Unterschied sehr klar: Ein Scrub prüft alle Datenblöcke darauf, ob ihre Checksummen korrekt sind. Auf replizierten Geräten wie Mirror oder RAIDZ kann ZFS dabei erkannte Schäden automatisch reparieren. Ein Resilver dagegen prüft nur Daten, von denen ZFS weiß, dass sie nach einem Austausch oder Attach-Vorgang nicht mehr aktuell sind.
| Vorgang | Was laut OpenZFS geprüft wird | Warum das für die Planung wichtig ist |
|---|---|---|
| Scrub | der gesamte Datenbestand wird gegen seine Checksummen verifiziert | deckt latente Medienfehler und stille Korruption systematisch auf |
| Resilver | nur Daten, die ZFS als veraltet kennt, werden wieder konsistent gemacht | stellt Redundanz wieder her, ersetzt aber keinen vollständigen Integritätsdurchlauf |
Das ist mehr als Wortklauberei. Wer nach einem Laufwerkstausch nur auf "Resilver abgeschlossen" schaut, hat die Redundanzschicht wiederhergestellt, aber noch keinen turnusmäßigen Integritätscheck durchgeführt. Für ZFS-Setups gehören deshalb regelmäßige Scrubs als eigener Betriebsprozess in dasselbe Runbook wie Ersatzlaufwerke, Alerts und Restore-Tests.
SHR ist Synology-spezifisch und die Ausbau-Regeln unterscheiden sich deutlich
Bei Synology geht es nicht nur um RAID-Level, sondern auch um Plattformregeln. Die offizielle DSM-Hilfe dokumentiert, dass SHR nur auf bestimmten Modellen verfügbar ist. Beim Ausbau einer bestehenden Storage-Pool-Konfiguration gelten außerdem andere Regeln als bei klassischem RAID 5 oder RAID 6.
| Konfiguration | Offizielle Add-Drive-Regel | Praktische Folge |
|---|---|---|
| SHR | neue Platte muss gleich groß oder größer als die größte vorhandene Platte sein oder der Größe einer vorhandenen Platte entsprechen | gemischte Größen sind flexibler nutzbar, aber nicht beliebig; kleinere Ergänzungen können Kapazität ungenutzt lassen |
| RAID 5 / RAID 6 | neue Platte muss mindestens so groß sein wie die kleinste vorhandene Platte | klassische Arrays bleiben stärker durch die kleinste Größe begrenzt |
Das ist der eigentliche Mehrwert von SHR: nicht Magie, sondern plattformgebundene Flexibilität mit klaren Regeln. Wer Synology ohnehin bewusst betreibt und unterschiedlich große Laufwerke schrittweise einbauen will, kann davon profitieren. Wer plattformneutral bleiben will, muss diese Bindung mit einkalkulieren.
Parity oder Mirror sollte mit Abnahmekriterien entschieden werden, nicht mit Bauchgefühl
Die eigentliche Architekturentscheidung liegt nicht zwischen zwei hübschen Akronymen, sondern zwischen zwei verschiedenen Betriebsprofilen. Die folgende Matrix ist eine Inferenz aus den offiziell dokumentierten Eigenschaften von WD, Microsoft, OpenZFS und Synology - also bewusst keine Herstellerempfehlung, sondern ein belastbares Prüfgerüst für reale Entscheidungen.
| Prüffrage vor der Freigabe | Warum sie relevant ist | Wenn die Antwort schwach ist |
|---|---|---|
| Welche schreibintensiven Primärlasten müssen im degradierten Zustand noch akzeptabel laufen? | Microsoft beschreibt Mirror klar als stärker bei Schreiblast, Parity als speichereffizienter mit schwächerem Schreibverhalten | eher Mirror-orientiert planen, häufig RAID 10 oder ZFS-Mirror |
| Wie schnell bemerkst du einen degradierten Zustand und wie schnell ist Ersatz physisch verfügbar? | WD dokumentiert für RAID 5 und RAID 6 den Performance-Abfall im Fehlerfall; ohne Reaktion bleibt dieser Zustand unnötig lange bestehen | erst Monitoring, Ersatzlaufwerk und Tauschpfad sauber machen |
| Kann dein Backup- und Restore-Pfad unabhängig vom Array weiterlaufen? | RAID ist laut WD kein Backup; ein kaputtes Restore-Konzept wird durch mehr Parität nicht besser | vor weiterer RAID-Komplexität zuerst den Wiederherstellungspfad härten |
| Passen Ausbau- und Größenregeln wirklich zu deiner Plattform? | Synology SHR und klassische RAID-Layouts folgen unterschiedlichen Add-Drive-Regeln | keine Appliance-Logik wählen, die spätere Erweiterungen faktisch blockiert |
Diese Fragen machen aus "RAID 5 klingt effizient" oder "RAID 10 klingt sicher" eine echte Betriebsentscheidung. Genau dort entsteht der Unterschied zwischen einem Datenablage-Projekt und einer belastbaren Speicherplattform.
Der degradierte Zustand braucht ein eigenes Runbook und nicht nur einen Laufwerkstausch
Viele Arrays scheitern betrieblich nicht am ersten Defekt, sondern daran, dass der degradierte Zustand als bloße Zwischenphase unterschätzt wird. Genau dort verschieben sich Lastprofil, Risiko und Reaktionszeit gleichzeitig.
| Situation | Was sofort klar sein muss | Warum das nicht warten darf |
|---|---|---|
| Array meldet degradierten Zustand | welches konkrete Laufwerk betroffen ist und ob Monitoring, Pool-Status und SMART dieselbe Geschichte erzählen | ohne eindeutige Fehlerzuordnung wird aus Redundanz schnell Blindflug |
| Ersatzlaufwerk ist noch nicht vor Ort | wie lange der Verbund voraussichtlich im degradierten Zustand unter realer Last weiterlaufen muss | WD weist für RAID 5 und 6 ausdrücklich auf Performance-Abfall im Fehlerfall hin |
| kritische Primärdaten laufen weiter | welche Jobs, Scrubs oder Hintergrundlasten das Risiko in diesem Fenster zusätzlich erhöhen | du musst das Array nicht nur reparieren, sondern den Risikozustand aktiv steuern |
| externer Rückweg wird nötig | wie groß die Rückholmenge ist und ob dein Off-Site-Fenster wirklich ins RTO passt | erst im Defektfall zu rechnen ist zu spät; dafür ist der Transfer-Rechner vorher da |
Das operative Ziel ist nicht nur "wieder grün", sondern kontrolliert grün. Genau deshalb gehören Homelab-Monitoring, Ersatzlaufwerkslogik und externer Restore-Pfad in dieselbe RAID-Entscheidung.
Vor der Freigabe drei Zahlen nebeneinander legen: Netto-TB, Dauerlast und Rückholzeit
Viele RAID-Entscheidungen scheitern nicht an der Paritätslogik, sondern daran, dass nur eine Zahl betrachtet wird: die Nutzkapazität. Für einen belastbaren Speicherpfad brauchst du aber mindestens drei verschiedene Zahlen, die sich gegenseitig kontrollieren.
| Zahl | Womit du sie sauber prüfst | Was sie beantwortet | Was sie ausdrücklich nicht beantwortet |
|---|---|---|---|
| Netto-Kapazität | RAID-Rechner plus RAID-Vergleich | wie viel Speicher nach Mirror, Parität oder RAIDZ real übrig bleibt | noch keine Aussage über Backup, Mediengesundheit oder Restore-Zeit |
| Dauerlast des geplanten Hosts | NAS-Rechner plus NAS-Festplatten Stromverbrauch | wie sich Laufwerkszahl, Medienklasse und 24/7-Betrieb wirtschaftlich auswirken | noch keine Aussage darüber, wie sich das Array im degradierten Zustand verhält |
| Rückholzeit im Notfall | Transfer-Rechner plus Backup-Strategie 3-2-1 | ob ein externer Restore- oder Migrationspfad überhaupt in dein Wiederanlauffenster passt | noch keine Aussage über Integrität, Scrubs oder Resilver-Verhalten |
Einordnung: Genau diese Dreiteilung verhindert den klassischen Fehlgriff: ein Array mit guter Nettoquote, aber falscher Laufwerkszahl, unerwarteter Dauerlast oder zu langsamem Off-Site-Rückweg. RAID wird erst dann zur tragfähigen Architektur, wenn Kapazität, Betriebsprofil und Wiederanlauf nicht gegeneinander arbeiten.
Array-Erweiterung und Laufwerkstausch sind Changes mit eigener Freigabe
Gerade im Homelab werden zusätzliche Laufwerke gern wie ein harmloses Upgrade behandelt. In Wirklichkeit ist jede Array-Erweiterung ein eigener Change, weil sie Kapazität, Stromprofil, Kühlung und Wiederanlauf gleichzeitig berührt.
| Change | Vor der Freigabe prüfen | Hilfreicher Prüfpfad |
|---|---|---|
| mehr Kapazität im selben Layout | ob Bays, Laufwerksgrößen und Plattformregeln des Arrays wirklich zusammenpassen | RAID-Rechner plus RAID-Vergleich |
| mehr Laufwerke im selben Host | wie sich Dauerlast, Kühlung und Hostkosten durch die zusätzliche Medienzahl verändern | NAS-Rechner, NAS-Festplatten Stromverbrauch und Server-Kühlung |
| Wechsel von Mirror zu Parity oder umgekehrt | ob sich damit nicht nur Netto-TB, sondern auch degradierter Betrieb und Primärlastprofil verschieben | dasselbe Workload-Gerüst aus Mirror-vs-Parity und degradedem Runbook erneut anwenden |
| Migration auf andere Plattformlogik wie ZFS oder SHR | ob Plattformbindung, Add-Drive-Regeln und Restore-Weg bewusst akzeptiert werden | NAS selber bauen und Backup-Strategie 3-2-1 |
Diese Sicht macht RAID erwachsen: Nicht die Parität allein entscheidet, sondern die Frage, ob dein Host nach der Erweiterung noch dasselbe System ist oder längst ein Migrationsprojekt geworden ist.
Welche RAID-Logik zu welchem Einsatz passt
Einordnung: Die Zuordnung unten ist eine Inferenz aus den offiziellen Eigenschaften der jeweiligen Resilienzmodelle. Sie ersetzt keine individuelle Planung, ordnet aber typische Workloads sauber ein.
| Einsatz | Naheliegende RAID-Logik | Warum |
|---|---|---|
| temporäre oder unkritische Daten | Simple / RAID 0 nur mit separatem Schutzpfad | maximale Kapazität oder Performance, aber ohne Fehlertoleranz |
| 2-Bay-NAS mit wichtigen Primärdaten | Mirror / RAID 1 | einfachste und transparenteste Redundanzlogik |
| VMs, Datenbanken, performance-sensitive Primärlast | Mirror-orientiert, oft RAID 10 | Schreibverhalten und Ausfalllogik passen besser als reine Parität |
| Archiv oder Backup-Repository mit Fokus auf Kapazität | Parity-orientiert, z. B. RAID 6 oder passende ZFS-Variante | bessere Speicherausnutzung, wenn die Workload dazu passt |
| ZFS-basierter Integritätsfokus | RAIDZ2 oder RAIDZ3 je nach Kritikalität | Parität plus Checksummen, automatische Reparatur und Scrubs |
| Synology mit gemischten Laufwerksgrößen und geplantem Ausbau | SHR | praktischer, wenn die Plattformbindung bewusst akzeptiert wird |
Wer bei dieser Entscheidung nur auf "wie viel Prozent Kapazität verliere ich?" schaut, landet oft beim falschen Verbund. Für produktive Daten ist Verhalten unter Fehlerbedingungen fast immer wichtiger als die schönste Nutzkapazität in einer Prospekttabelle.
Fazit: Redundanz ist gut, Integrität besser, Backup bleibt Pflicht
RAID ist sinnvoll, sobald Ausfalltoleranz und Verfügbarkeit wichtig werden. Aber erst die Kombination aus passendem RAID-Layout, Integritätsmechanismen, Monitoring und getrenntem Backup ergibt ein belastbares Speichersystem.
Wenn du klassisch planst, hilft dir der RAID-Level Vergleich für die Grundlogik. Wenn du ein NAS konkret aufbauen willst, geh danach in NAS selber bauen weiter. Und wenn du Redundanz schon für Backup hältst, ist Backup-Strategie 3-2-1 der wichtigere nächste Schritt als jeder Controller-Kauf.
Häufig gestellte Fragen
Ersetzt RAID ein Backup?
Nein. Offizielle Herstellerdokumentation ist hier eindeutig: RAID ist kein Backup. Es hilft gegen bestimmte Laufwerksausfälle, aber nicht gegen Löschung, Malware, Dateisystemschäden oder Standortverlust.
Ist RAID 5 heute grundsätzlich falsch?
Nein, aber es sollte bewusst gewählt werden. RAID 5 ist kapazitätseffizient, toleriert aber nur einen Laufwerksausfall und arbeitet im Fehlerfall mit Leistungsabfall. Für wichtigere Primärdaten oder größere Arrays wird deshalb oft konservativer geplant.
Ist RAIDZ1 einfach RAID 5 unter anderem Namen?
Nein. Beide arbeiten mit einfacher Parität, aber OpenZFS dokumentiert für RAIDZ eine andere Integritätslogik, inklusive Beseitigung des klassischen RAID-5-Write-Hole-Problems und Kombination mit End-to-End-Checksummen.
Kann ich in jedem RAID einfach verschiedene Laufwerksgrößen mischen?
Nicht beliebig. Klassische RAID-Layouts werden typischerweise von der kleinsten nutzbaren Laufwerksgröße begrenzt. Synology dokumentiert für SHR zwar flexiblere Ausbaupfade, aber auch dort gelten klare Größenregeln und Plattformbindung.
Wie lange dauert ein Rebuild oder Resilver?
Dafür gibt es keine seriöse Standardzahl. Dauer und Risiko hängen von Plattform, Laufwerksgröße, belegten Daten, Lastprofil und Drosselung ab. Wichtiger als eine Fantasiestundenzahl ist die Frage, wie dein System im degradierten Zustand überwacht und abgesichert bleibt.
Was ist der Unterschied zwischen Scrub und Resilver?
OpenZFS trennt diese Vorgänge klar. Ein Resilver bringt nur Daten wieder in einen konsistenten Zustand, die ZFS als veraltet kennt. Ein Scrub prüft den gesamten Datenbestand gegen seine Checksummen und kann auf replizierten Geräten gefundene Schäden automatisch reparieren. Ein abgeschlossenes Resilver ersetzt deshalb keinen regelmäßigen Scrub.
Wann wird ein zusätzlicher Laufwerksslot oder eine Array-Erweiterung zum Migrationsprojekt?
Sobald dadurch nicht nur Netto-Kapazität, sondern auch Plattformregeln, Dauerlast, Kühlung oder externer Restore-Pfad neu bewertet werden müssen. Dann ist es kein kleines Upgrade mehr, sondern ein Change mit eigener Freigabe und Rückweg.
Warum reicht der RAID-Rechner allein für die Freigabe nicht?
Weil er nur die Kapazitäts- und Redundanzlogik beantwortet. Für eine echte Freigabe musst du zusätzlich die 24/7-Dauerlast des Hosts und die Rückholzeit deines externen Backup- oder Migrationspfads bewerten. Netto-TB allein machen noch keine belastbare Speicherplattform.
Verwandte Tabellen
Themenhubs für den nächsten Schritt
Diese Spezialseiten verbinden Einzelartikel, Tabellen und Rechner zu einer konsistenten Entscheidungslogik. Wenn du vom isolierten Problem zur belastbaren Systementscheidung weitergehen willst, starte hier.
Quellen & Primärdaten
- Western Digital - RAID Levels Supported with Western Digital Products - Im Audit am 4. April 2026 erneut verifiziert: RAID ist kein Backup; RAID 5 und RAID 6 verlieren bei Laufwerksausfall an Performance; klassische Level nach Schutz- und Kapazitätslogik.
- Microsoft Learn - Storage Spaces overview - Offizielle Referenz für Simple-, Mirror- und Parity-Semantik sowie den Unterschied zwischen Mirror-Performance und kapazitätseffizienter Parity.
- Microsoft Learn - Mirror-accelerated parity - Offizielle Referenz für unterschiedliche Speicher- und Performance-Charakteristika von Mirror und Parity innerhalb eines Hybridmodells.
- OpenZFS Documentation - RAIDZ - Offizielle Referenz zu RAIDZ als RAID-5-Variante ohne klassisches Write Hole sowie zu raidz1, raidz2 und raidz3.
- OpenZFS Documentation - Checksums and Their Use in ZFS - Offizielle Referenz für End-to-End-Checksummen, automatische Reparatur bei Redundanz und Scrubs.
- OpenZFS Documentation - zpool-scrub - Offizielle Referenz für den Unterschied zwischen Scrub und Resilver sowie für die automatische Reparatur gefundener Schäden auf replizierten Geräten.
- Synology Knowledge Center - What is Synology Hybrid RAID (SHR)? - Offizielle Referenz zur Synology-spezifischen Begriffseinordnung von SHR.
- Synology DSM Help - Add Drives to Expand the Storage Pool Capacity - Im Audit am 4. April 2026 erneut verifiziert: SHR ist nur auf bestimmten Modellen verfügbar; Add-Drive-Regeln unterscheiden sich zwischen SHR und RAID 5/6.