Proxmox vs. Docker: Betriebsgrenze, Ausfallradius und Backup sauber trennen
VERGLEICH15 Min.· 2026-04-04

Proxmox vs. Docker: Betriebsgrenze, Ausfallradius und Backup sauber trennen

Proxmox VE und Docker sind keine direkten Ersatzprodukte. Dieser Leitfaden vergleicht Host-Modell, Zuständigkeit, Persistenz, Bind-Mount-Grenzen, GPU-Pfade und Wartungsfenster entlang offizieller Proxmox-, Docker- und NVIDIA-Dokumentation.

Autor:Kevin Luo
Veröffentlicht:04. April 2026
Lesezeit:15 Min.
Quellen:16 verlinkt

Diese Seite macht Rechenannahmen, Quellenlage und Aktualität transparent. Für Methodik, Korrekturen und unseren Umgang mit Automatisierung siehe Redaktionsgrundsätze.

Die erste Entscheidung ist die Betriebsgrenze, nicht das Lieblingslogo

Proxmox VE und Docker werden oft gegeneinander gestellt, obwohl sie unterschiedliche Ebenen adressieren. Proxmox VE beschreibt sich offiziell als komplette Open-Source-Plattform für Enterprise-Virtualisierung, basierend auf Debian Linux und mit KVM sowie LXC. Docker Engine beschreibt sich als Containerization Technology mit Daemon, API und CLI.

Die saubere Frage lautet deshalb nicht "Was ist besser?", sondern: Willst du einen Virtualisierungshost betreiben oder vor allem Anwendungen auf einem Linux-Host paketieren und ausrollen? Sobald diese Grenze klar ist, wird auch klarer, ob du VM-Gäste, Container-Stacks oder eine Kombination aus beidem brauchst.

Was Proxmox VE offiziell mitbringt: Host-Plattform, KVM/LXC, Cluster und integriertes Backup

Die Proxmox-Dokumentation macht das Betriebsmodell sehr deutlich: Proxmox empfiehlt den mitgelieferten ISO-Installer auf Bare Metal; die Installation auf einem bestehenden Debian-System beschreibt die Doku ausdrücklich als Weg für fortgeschrittene Nutzer. Das System bringt Debian Linux, den Proxmox-Kernel mit KVM- und LXC-Support, Management-Werkzeuge und die Weboberfläche mit.

Gleichzeitig nennt Proxmox Mindest- und Empfehlungswerte klar getrennt: Für Evaluierung reichen 64-Bit-CPU, 1 GB RAM plus Gastbedarf und mindestens 16 GiB Speicher; empfohlen werden aber mindestens 2 GB RAM für OS und Proxmox-Dienste plus Arbeitsspeicher für Gäste.

Entscheidend ist, dass Proxmox mehr als nur "VMs starten" will. Laut Dokumentation ist der Cluster-Stack vollständig integriert und wird mit der Standardinstallation ausgeliefert. Auch das Backup-Modell ist ein anderes als im Container-Alltag: Proxmox VE bietet laut Backup-Dokumentation eine voll integrierte Lösung; Backups sind immer Vollbackups, enthalten Gast-Konfiguration und Daten und lassen sich mit Retention-Regeln wie keep-last, keep-daily oder keep-monthly verwalten.

Was Docker offiziell mitbringt: Daemon, Compose und einen sehr hostnahen App-Layer

Docker Engine beschreibt sich als Client-Server-Anwendung mit dem Daemon dockerd, APIs und dem docker-CLI. Die eigentliche technische Basis bleibt dabei der Linux-Host: Docker nutzt laut Dokumentation Kernel-Namespaces und cgroups, um Container zu isolieren und Ressourcen zu kontrollieren.

Die Sicherheitsdokumentation ist hier besonders wichtig: Der Docker-Daemon benötigt Root-Rechte, sofern du nicht bewusst Rootless Mode verwendest, und Docker schreibt explizit, dass nur vertrauenswürdige Benutzer den Daemon steuern sollten. Der Grund ist banal und betrieblich entscheidend: Docker kann Host-Verzeichnisse in Container einhängen, und diese Container können die eingebundenen Host-Pfade ohne zusätzliche Einschränkung verändern.

Der praktische Beschleuniger ist Docker Compose. Docker beschreibt Compose als YAML-basiertes Modell, um Multi-Container-Anwendungen über Services, Netzwerke, Volumes, Configs und Secrets zu definieren und per docker compose zu steuern. Docker ist damit besonders stark, wenn du wiederholbar deployen, Stacks als Code versionieren und Dienste auf einem bestehenden Linux-Host ohne komplettes Gast-OS betreiben willst.

Isolation und Blast Radius: hier liegt der eigentliche Unterschied

Aspekt Proxmox VE Docker
Host-Modell dedizierter Virtualisierungshost auf Bare Metal Container-Runtime auf einem Linux-Host
Isolationsanker KVM-VMs mit klarer Gastgrenze; zusätzlich LXC im Plattformkontext Linux-Namespaces und cgroups auf demselben Host-Kernel
Netzwerk-Kopplung virtuelle NICs, Bridges und VM-/CT-Kontext kann mit Host-Netzwerk explizit dieselbe Netzwerk-Namespace wie der Host nutzen
Dateisystem-Kopplung Gast-Storage als Plattformressource Bind-Mounts können Host-Pfade direkt einhängen und standardmäßig beschreibbar machen
Änderungsnähe näher an Infrastruktur, Hypervisor, Gast-Backups und Plattformpflege näher an Anwendung, Host-Dateisystem, Ports und Deployments

Die Docker-Dokumentation zu host network und bind mounts ist hier besonders aufschlussreich: Ein Container kann im Host-Netzwerk ohne eigene IP laufen, und Bind-Mounts geben standardmäßig Schreibzugriff auf Host-Dateien. Das ist kein Fehler, sondern Teil des Betriebsmodells. Es zeigt aber, warum Containerisierung nicht automatisch dieselbe infrastrukturelle Trennschärfe liefert wie ein dedizierter VM-Host.

Genau deshalb ist "Docker ist leichter" nur die halbe Wahrheit. Richtig ist: Docker ist oft näher an deiner Anwendung. Proxmox ist oft näher an deiner Infrastrukturgrenze.

Wartungsfenster und Zuständigkeit: wer trägt Kernel-, Host- und App-Risiko?

Der praktische Unterschied zwischen beiden Welten ist oft organisatorisch, nicht nur technisch. Proxmox wird als komplette Plattform installiert; Docker ist ein Daemon auf einem Linux-Host. Daraus ergeben sich unterschiedliche Zuständigkeiten und unterschiedliche Wartungsfenster.

Frage Docker auf Bare Linux Docker in einer Linux-VM auf Proxmox Nur Proxmox-Gäste
Wer verantwortet den Host-Kernel? derselbe Betreiber wie App-Stack oder ein sehr eng gekoppeltes Team Proxmox-Host und Docker-Gast können sauber getrennte Runbooks haben klar Plattform-zentriert
Was ist die Rollback-Einheit? Compose-Datei, Volumes, Dumps und Host-Konfiguration Gast-Backup plus Stack-Definition innerhalb der VM VM oder CT als Plattformobjekt
Was trifft ein Host-Reboot? direkt alle Container dieses Hosts den Proxmox-Knoten und damit auch die VM auf diesem Knoten alle Gäste auf dem betroffenen Proxmox-Knoten
Wo liegen Host-Pfade und Secrets? direkt auf dem Linux-Host, oft sehr nah an Betriebssystem und Storage im Gast-Dateisystem statt auf dem Hypervisor im jeweiligen Gast oder auf definierter Gast-Storage-Ebene
Wer darf Änderungen fahren? muss wegen Docker-Daemon und Host-Freigaben sehr vertrauenswürdig sein App-Änderungen können innerhalb der VM stattfinden, ohne direkt am Hypervisor zu arbeiten meist Infrastruktur- oder Plattformrolle

Einordnung: Wenn du Infrastruktur und Anwendung nicht in derselben Hand halten willst, ist Docker in einer regulären Linux-VM auf Proxmox oft der sauberste Mittelweg. Du trennst damit Hypervisor-Änderungen, Gast-Backups und Compose-Deployment voneinander, ohne Docker als Werkzeug zu verlieren.

Persistenz und Backups: Proxmox sichert Gäste, Docker sichert Datenpfade

Der Backup-Unterschied wird in der offiziellen Doku besonders greifbar. Proxmox VE kennt den Gast als zentrale Einheit. Deshalb enthalten Proxmox-Backups laut Dokumentation Image-Daten plus Konfigurationsinformationen. Gleichzeitig setzt Proxmox klare Grenzen: zusätzliche Mount-Points sind standardmäßig nicht automatisch im Backup, und Device- und Bind-Mounts werden nie mitgesichert, weil ihr Inhalt außerhalb der Proxmox-Storage-Bibliothek verwaltet wird.

Docker dokumentiert denselben Bereich anders: Daten im writable container layer verschwinden mit dem Container. Persistenz entsteht erst, wenn du Volumes oder Bind-Mounts bewusst planst. Volumes werden von Docker verwaltet und bestehen unabhängig vom Container-Lifecycle weiter. Bind-Mounts hängen direkt am Host-Dateisystem und sind laut Dokumentation stark an dessen Verzeichnisstruktur gekoppelt.

Frage Proxmox-Denkweise Docker-Denkweise
Was ist die primäre Sicherungseinheit? VM oder CT im Plattformkontext Volume, Bind-Mount, Datenbankdump, Konfigurationsdatei, Compose-Stack
Wo liegt die Retention? plattformnah über Backup-Job und Retention-Regeln muss je Dienst und Datenpfad bewusst entworfen werden
Was fällt leicht aus dem Backup heraus? Bind-Mounts, Device-Mounts oder weitere Mount-Points außerhalb des verwalteten Storage-Pfads Daten im Container-Layer oder schlecht dokumentierte Host-Pfade
Wo passiert der häufigste Denkfehler? "Gast-Backup" wird mit "alles, was der Gast sieht" verwechselt "Container läuft" wird mit "Anwendungsdaten sind gesichert" verwechselt

Für Homelabs ist das oft der Kern der Entscheidung: Wenn du Plattform-Backups für ganze Gäste willst, ist Proxmox logischer. Wenn du bewusst in App-Stacks, Volumes und deklarativen Services denkst, ist Docker passend. Aber dann musst du den Backup-Plan auch wirklich auf dieser Ebene bauen.

Docker in einer Proxmox-VM ist oft kein Umweg, sondern die sauberste Standardarchitektur

Viele Homelabs landen langfristig genau hier: Proxmox verwaltet die Infrastruktur, eine Linux-VM verwaltet den Docker-Stack. Das ist kein unnötiger Overhead aus Prinzip, sondern oft die beste Trennlinie zwischen Plattformbetrieb und Anwendungsbetrieb.

Szenario Docker in einer Linux-VM auf Proxmox ist oft sinnvoll Docker auf Bare Linux ist oft direkter
Mehrere App-Stacks mit häufigen Änderungen ja, weil Gast-Backup und App-Rollback sauberer getrennt bleiben nur wenn du bewusst einen reinen Anwendungsserver ohne Hypervisor willst
Storage-Host soll langweilig und stabil bleiben ja, besonders neben NAS- oder Backup-Rollen eher nein, wenn derselbe Host gleichzeitig Infrastruktur und Apps tragen würde
Kleine Einzelanwendung ohne Plattformbedarf möglich, aber oft nicht nötig ja, das ist häufig der direkteste Weg
Klare Team- oder Rollen-Trennung ja, weil Hypervisor und Gast unterschiedliche Zuständigkeiten bekommen können nur wenn Host- und App-Betrieb ohnehin bei derselben Person liegen

Wenn dein Storage bereits auf einem eigenen Host lebt, solltest du diese Trennung meist nicht wieder einreißen. In solchen Fällen ist ein dedizierter Docker-Gast oder ein separater Linux-Host oft sauberer als ein ständig nachgerüsteter Alles-Server. Genau deshalb lohnt auch der Blick auf NAS selber bauen.

Vor dem Rollout drei Einheiten festlegen: Dauerlast, Backup-Einheit und Rückweg

Die meisten Umbauten entstehen nicht, weil Proxmox oder Docker falsch wären, sondern weil vor dem ersten Rollout drei Dinge offen bleiben: welche Hosts wirklich 24/7 laufen, was exakt die Sicherungseinheit ist und wie du einen Gast oder Stack im Fehlerfall zurückholst. Diese drei Einheiten sollten vor dem Deployment schriftlich feststehen.

Prüffeld Bei Proxmox zuerst fragen Bei Docker zuerst fragen Hilfreicher Arbeitsweg
24/7-Dauerlast Wie viele VMs oder CTs bleiben dauerhaft aktiv und ziehen den Host mit? Wie viele Dienste, Sidecars und Hilfscontainer teilst du demselben Linux-Host zu? Homelab-Rechner für den Gesamtstack, danach Stromkosten-Rechner für einzelne Dauerläufer
Backup-Einheit Soll ein Gast als ganzes Plattformobjekt zurückkommen oder nur bestimmte Datenpfade? Welche Volumes, Bind-Mounts, Dumps und Compose-Dateien bilden zusammen den Restore? Backup-Strategie 3-2-1 als Pflichtpfad, bevor du Plattform und App-Layer vermischst
Rückweg und Restore-Fenster Wie groß ist ein realistisches Gast-Backup, und wie schnell muss es wieder auf den Hypervisor zurück? Wie schnell müssen Volumes oder Datenbankdumps aus Off-Site-Speicher auf denselben Host zurück? Transfer-Rechner als Vorplanung für Restore-Zeit statt Bauchgefühl
Spezialhardware Braucht eine VM exklusive GPU- oder PCIe-Kontrolle per Passthrough? Sollen mehrere Container denselben GPU-Host, dieselbe PSU und denselben Luftpfad teilen? Netzteil-Rechner plus GPU für lokale KI für den Hardwarepfad

Einordnung: Diese Matrix ist eine Betriebsinferenz aus den offiziellen Plattform-, Storage- und GPU-Modellen. Sie ersetzt keine Herstellerdoku, verhindert aber den häufigsten Architekturfehler: eine App-Entscheidung auf einer ungeklärten Infrastrukturgrenze auszurollen.

Ein Plattformwechsel ist erst dann sauber, wenn auch Kosten- und Cutover-Pfad definiert sind

Zwischen "technisch möglich" und "betrieblich sinnvoll" liegt bei Proxmox und Docker fast immer derselbe blinde Fleck: der Zustandsumzug. Container-Stacks, Datenpfade, VM-Images und GPU- oder Netzpfade lassen sich nur dann sauber verschieben, wenn vorher klar ist, welcher Zustand wohin umzieht, wie lange der Umzug dauern darf und welche zusätzliche Dauerlast der Zielpfad erzeugt.

Wechsel Was du vor dem Cutover zwingend klären musst Womit du den Schritt vorbereitest
Docker auf Bare Linux zu Docker in Proxmox-VM Volumes, Bind-Mounts, Secrets und Compose-Dateien müssen als eigener Migrationssatz beschrieben sein Transfer-Rechner für das Datenfenster, danach Backup-Strategie 3-2-1 für den Rückweg
einzelner Docker-Host zu Proxmox mit mehreren Gästen du musst definieren, welche Dienste wirklich Gastgrenzen brauchen und welche nur unnötig virtualisiert würden Homelab-Rechner für die Zielgröße und Self-Hosted Software für die Rollentrennung
Proxmox-Host plus Docker-VM zu getrennten Storage- und App-Hosts Datenpfad, Host-Neustarts und Backup-Einheiten dürfen sich dabei nicht verschlechtern Stromkosten-Rechner und TCO-Rechner für die 24/7- und Mehrjahressicht
GPU-Containerhost zu exklusiver Passthrough-VM die GPU wird dann Teil einer klaren Gastgrenze und nicht mehr parallel vom Host genutzt Netzteil-Rechner plus GPU für lokale KI für den Hardwarepfad

Einordnung: Diese Matrix leitet keine neue Plattformwahrheit ab. Sie übersetzt nur die offiziellen Grenzen zu Backups, Bind-Mounts, Host-Grenzen und GPU-Passthrough in einen Rolloutpfad, der nicht erst während des Umzugs sichtbar wird.

GPU und Spezialhardware: zwei unterschiedliche Wege zu demselben Ziel

Für GPU-Workloads sehen die offiziellen Wege ebenfalls unterschiedlich aus. Proxmox dokumentiert PCI(e) Passthrough als Mechanismus, um einer VM die Kontrolle über ein reales PCI-Gerät zu geben. Gleichzeitig macht die Wiki klar: Ein durchgereichtes Gerät kann dann nicht mehr vom Host oder einer anderen VM verwendet werden.

Docker und NVIDIA dokumentieren den Container-Pfad anders. Das NVIDIA Container Toolkit ist laut NVIDIA die Sammlung aus Libraries und Utilities, um GPU-beschleunigte Container zu bauen und zu betreiben. Vor der Docker-Konfiguration müssen ein unterstützter Container-Engine und der NVIDIA-Treiber auf dem Linux-Host vorhanden sein.

Einordnung: Wenn ein Workload die GPU als exklusives VM-Gerät mit klarer Gastgrenze braucht, ist der Proxmox-Passthrough-Pfad sehr sauber. Wenn derselbe Linux-Host mehrere containerisierte GPU-Workloads tragen soll, ist der Docker-/NVIDIA-Pfad oft direkter. Das ist eine Inferenz aus den beiden offiziellen Betriebsmodellen.

Vor der Freigabe braucht jede Architektur ein kleines Betriebsblatt

Viele Homelab-Entscheidungen kippen nicht an KVM oder Compose, sondern daran, dass nach dem Rollout niemand sauber sagen kann, wo der Dienstzustand liegt, welcher Host 24/7 kritisch ist und welcher Restore-Pfad zuerst gezogen werden muss. Ein kurzes Betriebsblatt macht genau diese Punkte explizit.

Punkt Was dokumentiert werden sollte Warum das in Proxmox- und Docker-Umgebungen unterschiedlich wichtig ist
Plattformgrenze welcher Host Hypervisor ist, welcher Host oder Gast nur Anwendungen trägt Proxmox bündelt Infrastrukturrollen, Docker bleibt näher am App-Host
Datenpfad welche Volumes, Mount-Points, Dumps oder VM-Backups den eigentlichen Dienstzustand bilden ein Gast-Backup beantwortet nicht automatisch Host-Pfade; ein Containerstart beantwortet nicht automatisch Persistenz
Änderungsfenster welcher Reboot oder welches Update nur Apps trifft und welcher die gesamte Plattform betrifft damit Host- und Gaständerungen nicht unbewusst denselben Ausfallradius teilen
Wiederanlauf welcher Pfad zuerst gezogen wird: Gast-Restore, Volume-Restore, Compose-Redeploy oder Plattform-Backup sonst ist im Fehlerfall zwar ein Backup vorhanden, aber die Reihenfolge bleibt unklar

Der operative Gewinn ist simpel: Aus "Proxmox oder Docker?" wird ein System mit sichtbarer Zuständigkeit. Genau dadurch sinkt die Zahl der Umbauten, die eigentlich nur deshalb nötig werden, weil Plattform- und App-Layer nie sauber getrennt wurden.

Vier saubere Architekturpfade für Homelabs

  1. Nur Docker auf Linux: sinnvoll, wenn du primär Anwendungen betreibst, Compose-Dateien versionierst und keinen dedizierten Virtualisierungshost brauchst.
  2. Nur Proxmox VE: sinnvoll, wenn du mehrere Gäste, unterschiedliche Betriebssysteme, VM-nahe Backups, Cluster- oder Passthrough-Themen im Fokus hast.
  3. Proxmox VE als Host, Docker in einer Linux-VM: oft der sauberste Mittelweg, weil Infrastruktur und Anwendungsstack getrennte Runbooks behalten.
  4. Getrennte Hosts für Storage und Apps: sinnvoll, wenn ein NAS oder Backup-Host bewusst ruhig bleiben soll und App-Stacks einen anderen Änderungsrhythmus haben.

Zusätzlich kommt ein wirtschaftlicher Punkt hinzu: Proxmox ist laut offizieller Intro-Doku vollständig open source. Die offizielle Pricing-Seite beschreibt optionale Subscriptions für Enterprise Repository und Support. Das verändert nicht die Funktionsgrenze, aber den Betriebsstil in produktiveren Umgebungen.

Fazit: Nicht Proxmox gegen Docker, sondern Plattform gegen App-Layer

Wenn du in Anwendungen, Stacks, Volumes und Deployments denkst, startest du oft sauberer mit Docker auf einem schlanken Linux-Host. Wenn du in Gästen, Infrastrukturgrenzen, VM-Backups, Cluster und Hardware-Passthrough denkst, ist Proxmox VE meist die passendere Plattform.

Der häufigste Fehler ist nicht die Wahl des falschen Tools, sondern die fehlende Definition der Betriebsgrenze. Genau diese Grenze entscheidet darüber, ob du einen Host administrierst, eine Plattform betreibst oder beide Rollen sauber voneinander trennst.

Häufig gestellte Fragen

Kann ich Docker innerhalb von Proxmox nutzen?

Ja. Der sauberste Weg ist häufig eine reguläre Linux-VM auf Proxmox, in der Docker läuft. So trennst du Plattformhost und App-Stack klarer. LXC ist ein anderer Betriebsweg, aber nicht dasselbe wie Docker auf einer normalen Linux-VM.

Sichert Proxmox wirklich alles, was ein Gast sieht?

Nein. Proxmox sichert Gast-Daten und Konfiguration im Plattformmodell, aber die Dokumentation sagt auch klar, dass Device- und Bind-Mounts nie mitgesichert werden. Zusätzliche Mount-Points musst du deshalb bewusst in deine Backup-Logik einordnen.

Wann ist Docker auf Bare Linux sinnvoller als Proxmox?

Vor allem dann, wenn du einen reinen Anwendungsserver ohne Hypervisor betreiben willst, Compose-Dateien versionierst und kein Plattform-Backup, keine Gasttrennung und keine Cluster- oder Passthrough-Funktionen brauchst.

Ist Proxmox VE kostenlos nutzbar?

Proxmox VE ist laut offizieller Intro-Doku vollständig open source. Zusätzlich bietet Proxmox offizielle Subscriptions für Enterprise Repository und Support an. Diese Abo-Logik ändert nicht die grundlegende Plattformfunktion, aber den Betriebsrahmen.

Brauche ich für Docker immer noch ein Linux-Host-System?

Ja. Docker Engine ist laut offizieller Dokumentation eine Container-Runtime mit Daemon, API und CLI auf einem Host-System. Genau deshalb ist 'Docker statt Betriebssystem' die falsche Denkweise. Docker ersetzt keine Host-Plattform, sondern nutzt sie.

Was ist besser für Plex, Jellyfin oder ähnliche Mediendienste?

Für einen einzelnen Medienserver ist Docker oft der direktere Betriebsweg. Wenn der Medienserver aber Teil eines größeren Virtualisierungshosts ist oder GPU-Passthrough bewusst auf VM-Ebene geplant wird, kann Proxmox als Host sinnvoller sein. Diese Einordnung ist eine Inferenz aus den offiziellen Betriebsmodellen.

Wann wird ein Plattformwechsel von Docker zu Proxmox oder zurück zum echten Migrationsprojekt?

Sobald Volumes, Bind-Mounts, Secrets, VM-Backups, GPU-Pfade oder mehrere 24/7-Hosts betroffen sind. Dann reicht ein technischer Redeploy nicht mehr. Du brauchst ein Cutover-Fenster, einen dokumentierten Rückweg und eine getrennte Kosten- und Restore-Sicht.

Welche drei Prüfungen vor dem ersten Rollout sparen am meisten Umbau?

Erstens: die echte 24/7-Dauerlast des gesamten Stacks. Zweitens: die klar definierte Backup-Einheit, also Gast versus Volumes und Dumps. Drittens: das Restore-Fenster des Rückwegs. Wenn diese drei Punkte vorab dokumentiert sind, wird aus 'Proxmox oder Docker?' eine belastbare Betriebsentscheidung statt einer Stilfrage.

Verwandte Tabellen

THEMENHUBS

Themenhubs für den nächsten Schritt

Diese Spezialseiten verbinden Einzelartikel, Tabellen und Rechner zu einer konsistenten Entscheidungslogik. Wenn du vom isolierten Problem zur belastbaren Systementscheidung weitergehen willst, starte hier.

Quellen & Primärdaten

  1. Proxmox VE Introduction - Primärquelle für Proxmox VE als Debian-basierte Plattform mit KVM, LXC, integriertem Cluster-Stack und Open-Source-Modell.
  2. Installing Proxmox VE - Primärquelle für den bevorzugten ISO-Installer sowie Mindest- und Empfehlungswerte.
  3. Backup and Restore - Primärquelle für integrierte Vollbackups, Retention-Regeln und Backup-Dateien mit Image-Daten plus Konfigurationsinformationen.
  4. vzdump(1) - Primärquelle dafür, dass zusätzliche Mount-Points standardmäßig nicht automatisch im Backup landen und Device- sowie Bind-Mounts nie mitgesichert werden.
  5. Proxmox VE Administration Guide - Primärquelle für Bind-Mount-Grenzen und den Hinweis, keine Systemverzeichnisse wie /, /var oder /etc in Container zu binden.
  6. Proxmox PCI(e) Passthrough - Primärquelle für GPU- und Geräte-Passthrough auf VM-Ebene.
  7. Proxmox VE Pricing - Offizielle Beschreibung der optionalen Subscription-Modelle für Enterprise Repository und Support.
  8. Docker Engine Documentation - Primärquelle für Docker Engine als Client-Server-Anwendung mit Daemon, API und CLI.
  9. Docker Engine Security - Primärquelle für Kernel-Namespaces, cgroups, Root-Anforderungen des Daemons und den Hinweis, dass nur vertrauenswürdige Benutzer den Docker-Daemon kontrollieren sollten.
  10. How Compose Works - Primärquelle für Compose als YAML-Modell mit Services, Networks, Volumes, Configs und Secrets.
  11. Docker Storage - Primärquelle für den ephemeren Container-Layer und persistente Datenpfade.
  12. Docker Volumes - Primärquelle für von Docker verwaltete persistente Volumes.
  13. Docker Bind Mounts - Primärquelle für Host-Dateisystem-Kopplung, Schreibzugriff und Pfadabhängigkeit von Bind-Mounts.
  14. Docker Host Network Driver - Primärquelle dafür, dass Host-Netzwerk die Netzwerk-Namespace des Hosts teilt.
  15. NVIDIA Container Toolkit Overview - Primärquelle für GPU-beschleunigte Container und Toolkit-Bestandteile.
  16. Installing the NVIDIA Container Toolkit - Primärquelle für Voraussetzungen wie NVIDIA-Treiber und unterstützten Container-Engine.