GPU· 2026-03-08

GPU-Workstation: Leistung, Kosten, Effizienz

GPU-Workstation planen: Stromverbrauch, Netzteil-Dimensionierung, KI-Inferenzkosten und die besten GPUs 2026 im Effizienz-Vergleich.

PASSENDE RECHNER

GPU-Workstation: Wofür, warum, wann?

Eine GPU-Workstation ist die Basis für lokale KI-Inferenz, 3D-Rendering, wissenschaftliche Simulationen und Deep Learning. Im Homelab-Kontext ist sie vor allem für lokale LLM-Nutzung relevant.

  • Lokale KI-Inferenz: LLMs (Llama, Mistral, Qwen) ohne API-Gebühren betreiben
  • 3D-Rendering und Video-Encoding (Blender, DaVinci Resolve)
  • Machine Learning: Training kleiner Modelle oder Fine-Tuning
  • Stable Diffusion: Bildgenerierung in Sekunden statt Minuten
  • CUDA-Beschleunigung für wissenschaftliche Berechnungen

GPU-Stromverbrauch und Effizienz: Der große Vergleich

Die Leistungsaufnahme (TDP) moderner GPUs variiert enorm. Wichtiger als die rohe TDP ist die Effizienz – gemessen in KI-Tokens pro Watt oder TFLOPS pro Watt:

RTX 5070 TiEffizienz-König0,25 Tokens/Watt – bestes Verhältnis (16 GB)
RTX 3090Bestes VRAM/€24 GB für ~500 € gebraucht
RTX 4090Schnellste Single-GPU80 tok/s bei Llama 3.1 8B
GPUVRAMTDPKI-Tokens/s (8B)Tokens/WattPreis (neu)
RTX 3060 12GB12 GB170 W~30 tok/s0,18~280 €
RTX 4060 Ti 16GB16 GB165 W~40 tok/s0,24~450 €
RTX 3090 24GB24 GB350 W~55 tok/s0,16~500 € (gebr.)
RTX 4070 Ti Super16 GB285 W~55 tok/s0,19~800 €
RTX 4090 24GB24 GB450 W~80 tok/s0,18~1.800 €
RTX 5070 12GB12 GB250 W~60 tok/s0,24~550 €
RTX 5070 Ti 16GB16 GB300 W~75 tok/s0,25~750 €
RTX 5090 32GB32 GB575 W~110 tok/s0,19~1.900 €

Tokens/s gemessen mit Llama 3.1 8B Q4. ★ Beste Effizienz. Preise Stand März 2026.

GPU-Verbrauch vergleichen

GPU-Stromkosten nach Nutzungsprofil

Die jährlichen Stromkosten hängen stark davon ab, wie viele Stunden pro Tag die GPU unter Last läuft. Hier der Vergleich für die beliebtesten KI-GPUs:

GPUTDP2 h/Tag4 h/Tag8 h/Tag24/7
RTX 3060 12GB170 W49 €98 €196 €588 €
RTX 4060 Ti 16GB165 W48 €95 €190 €571 €
RTX 3090 (gebr.)350 W101 €202 €403 €1.210 €
RTX 4090450 W130 €260 €519 €1.557 €
RTX 5070250 W72 €144 €289 €866 €
RTX 5090575 W166 €332 €664 €1.991 €

Berechnung: TDP × Stunden × 365 ÷ 1.000 × 0,395 €/kWh.

Formel: GPU-JahresstromkostenKosten = TDP (W) × Stunden/Tag × 365 ÷ 1.000 × Strompreis (€/kWh). Beispiel RTX 5070, 4 h/Tag: 250 W × 4 × 365 ÷ 1.000 × 0,395 = 144 €/Jahr.
GPU-Stromkosten berechnen

Netzteil-Dimensionierung: Die richtige Größe finden

Ein zu kleines Netzteil sorgt für Instabilität und Abstürze, ein zu großes verschwendet Strom (Netzteile arbeiten bei 50–80 % Last am effizientesten). Hier konkrete Konfigurationen:

KonfigurationCPU (W)GPU (W)Rest (W)GesamtEmpf. Netzteil
i5-13400 + RTX 306065 W170 W80 W315 W500 W Bronze
i5-13600K + RTX 4060 Ti125 W165 W80 W370 W550 W Gold
Ryzen 7 7700X + RTX 4090105 W450 W80 W635 W850 W Gold
Ryzen 9 7950X + RTX 5090170 W575 W100 W845 W1.000 W Platinum
i5 + 2× RTX 309065 W700 W100 W865 W1.200 W Gold

Rest = Mainboard, RAM, SSDs, Lüfter. Empfehlung: Gesamt × 1,25 für effiziente Lastzone.

Formel: Netzteil-EmpfehlungEmpfohlene Leistung = (CPU TDP + GPU TDP + 80 W Rest) × 1,25. Beispiel: (105 + 450 + 80) × 1,25 = 794 W → 850 W Netzteil wählen. 80 PLUS Gold oder besser für Dauereffzienz.
Netzteil berechnen

Multi-GPU: VRAM verdoppeln für große Modelle

Für große KI-Modelle (70B+) reicht eine einzelne Consumer-GPU nicht aus. Mit zwei GPUs lässt sich der VRAM kombinieren:

2× RTX 3090Bestes Preis/VRAM48 GB für ~1.000 € (gebraucht)
70BMax. ModellLlama 3.1 70B Q4 auf 2× 3090
1.000 €Kosten (gebraucht)Halb so teuer wie 1× RTX 4090
SetupVRAM (gesamt)Max. Modell (Q4)TDPStrom/Jahr (4h)Preis
1× RTX 309024 GB30B350 W202 €~500 €
2× RTX 309048 GB70B700 W403 €~1.000 €
1× RTX 409024 GB30B450 W260 €~1.800 €
1× RTX 509032 GB45B575 W332 €~1.900 €
2× RTX 509064 GB120B1.150 W663 €~3.800 €

Q4 = 4-Bit-Quantisierung. Multi-GPU über Ollama/vLLM mit Tensor Parallelism.

Voraussetzung Multi-GPUDu brauchst: Mainboard mit 2× PCIe x16 Slots (mindestens x8/x8 Bifurcation), Netzteil mit 2× 8-Pin PCIe-Stecker (oder 12VHPWR), ausreichend Gehäusebelüftung für die Abwärme (700+ W).

KI-Inferenz: GPU vs. API – der Break-Even

Ab welcher Nutzungsintensität lohnt sich eine eigene GPU gegenüber API-Diensten? Hier die Amortisationsrechnung:

3–6 Mo.Typ. Break-EvenBei intensiver Nutzung (100+ Anfr./Tag)
85 %Langfrist-ErsparnisLokal vs. API nach 1 Jahr
GPU-KaufKaufpreisStrom/JahrAPI-ÄquivalentBreak-Even
RTX 3060 12GB280 €98 €GPT-4o mini (leicht)~18 Monate
RTX 3090 24GB (gebr.)500 €202 €GPT-4o (mittel)~4 Monate
RTX 4090 24GB1.800 €260 €GPT-4o (intensiv)~6 Monate
RTX 5070 12GB550 €144 €Claude Sonnet (mittel)~5 Monate
2× RTX 30901.000 €403 €GPT-4o (intensiv, 70B)~3 Monate

Break-Even: Zeitpunkt ab dem lokale Inferenz günstiger ist als API-Nutzung. Bei >100 Anfragen/Tag.

Break-Even berechnen

Beispiel: GPU-Workstation für lokale KI

Eine konkrete Konfiguration für eine KI-fokussierte Workstation mit gutem Preis-Leistungs-Verhältnis:

1.340 €GesamtkostenInkl. GPU, sofort einsatzbereit
202 €/JahrStromkostenRTX 3090, 4 h KI-Nutzung/Tag
80 tok/sInference SpeedLlama 3.1 8B Q4 – ChatGPT-Niveau
KomponenteModellPreisHinweis
CPUAMD Ryzen 7 7700X~280 €8 Kerne, 105 W TDP
MainboardMSI B650 Tomahawk~200 €2× PCIe x16 für Multi-GPU
RAM32 GB DDR5-5600~80 €Für CPU-Offloading wichtig
GPURTX 3090 24 GB (gebraucht)~500 €24 GB VRAM, bestes VRAM/€
SSD1 TB NVMe Gen4~60 €Für OS + Modell-Cache
NetzteilCorsair RM850x (Gold)~120 €850 W, modular, 80+ Gold
GehäuseFractal Design Pop XL Air~100 €Gute Kühlung, Platz für große GPU
Gesamt~1.340 €

Setup für Llama 3.1 8B/30B lokal. Für 70B-Modelle: 2× RTX 3090 + 1.200W Netzteil (~1.840 €).

Tipp: Gebraucht kaufenDie RTX 3090 bietet gebraucht das mit Abstand beste VRAM-pro-Euro-Verhältnis (21 €/GB). Achte auf Mining-Karten: Oft thermisch stärker belastet, aber die GPU-Chips sind robust. Prüfe die Lüfter und Thermal Pads.

Häufig gestellte Fragen

Welche GPU hat das beste Preis-Leistungs-Verhältnis für KI?

Die NVIDIA RTX 3090 (24 GB VRAM, gebraucht ab ~500 €) bietet das beste VRAM-pro-Euro-Verhältnis (21 €/GB). Für neue Karten ist die RTX 5070 Ti (16 GB, 300 W) der Effizienz-Champion mit 0,25 Tokens/Watt.

Kann ich zwei GPUs in einem System verwenden?

Ja, für KI-Inferenz können zwei GPUs den VRAM kombinieren (z.B. 2× RTX 3090 = 48 GB). Voraussetzung: Mainboard mit 2× PCIe x16-Slots und ausreichend dimensioniertes Netzteil (>1.000 W).

Wie laut ist eine GPU-Workstation?

Unter Volllast können Workstations 45–55 dB erreichen. Tipps: Gehäuse mit guter Belüftung (Fractal Design), GPU-Lüfterkurve anpassen (MSI Afterburner), und die Workstation in einen separaten Raum stellen.

AMD oder NVIDIA für lokale KI?

NVIDIA ist der Standard dank CUDA-Unterstützung. AMD-GPUs (ROCm) werden besser, haben aber noch Kompatibilitätslücken. Für zuverlässige lokale KI empfehlen wir derzeit NVIDIA.

Verwandte Ratgeber

Verwandte Tabellen

Weitere Spezial-Themen