Energie & CO2

KI Verbrauchsrechner

Berechne den Strom- und CO2-Verbrauch deiner KI-Nutzung

Ein Community-Projekt von der pixologe & antislop

KI Energieverbrauch Rechner — Wie viel Strom verbraucht ChatGPT, Claude, Gemini?

Nur Betriebsstrom
(Antwortgenerierung + Kühlung)

Leicht Einfache Fragen, Übersetzungen
50%
Mittel Zusammenfassungen, Texte schreiben
35%
Komplex Coding, Analyse, Reasoning
15%

Ø pro Anfrage: Wh

473 gCO2/kWh
Pro Tag
Wh
gCO2
Pro Monat
Wh
gCO2
Pro Jahr
kWh
kgCO2

Das entspricht...

Verschiedene KI-Modelle und ihr Verbrauch im Vergleich

Detailansicht: Aufgaben & Zeitverlauf
Fragen oder Anmerkungen? Schreib' mir!

Wie viel Strom verbraucht KI wirklich?

Künstliche Intelligenz verbraucht bei jeder Anfrage Energie. Der KI Verbrauch von ChatGPT, Claude, Gemini und anderen Modellen variiert dabei erheblich: Eine einfache Frage an GPT-4o benötigt etwa 0,42 Wattstunden, während komplexe Reasoning-Aufgaben mit Modellen wie o3 bis zu 39 Wh verbrauchen können — das Hundertfache. Unser KI Verbrauchsrechner macht diese Zahlen greifbar.

Der CO2-Fußabdruck von KI hängt zusätzlich vom Strommix der Serverregion ab. Eine Anfrage aus einem Rechenzentrum in Frankreich (Atomstrom) verursacht nur ein Zwölftel der Emissionen im Vergleich zu einem Server in Indien (Kohlestrom). Mit dem KI Verbrauchsrechner auf ki-verbrauchsrechner.de berechnest du deinen persönlichen KI Energieverbrauch und ordnest ihn in Alltagsvergleiche ein.

KI-Beratung von Profis

Du willst KI sinnvoll in deinem Unternehmen einsetzen, hast aber mehr Fragen als Antworten? Der pixologe hilft dir weiter — von der Strategie bis zur Umsetzung.

pixologe.de

KI kritisch hinterfragen

Nicht alles, was KI produziert, ist Gold. antislop.de ist die Community, die KI-generierte Inhalte hinterfragt und sich gemeinsam daran arbeitet, KI besser zu machen.

antislop.de

FAQ & Hinweise

Woher stammen die Verbrauchswerte?

Die Werte basieren auf der Studie "How Hungry is AI?" von Jegham et al. (Mai 2025), Googles offizieller Energiemessung (Aug 2025), Epoch AI, dem Hugging Face AI Energy Score v2 sowie IEA- und Ember-Daten zu CO2-Emissionsfaktoren.

Wie genau sind diese Zahlen?

Es handelt sich um Schätzungen und Durchschnittswerte. Der tatsächliche Verbrauch hängt von vielen Faktoren ab: Prompt-Länge, Server-Auslastung, Hardware-Generation, Kühlung und Infrastruktur-Effizienz. Die Werte geben eine realistische Größenordnung wieder.

Was bedeuten Leicht / Mittel / Komplex?

Leicht: Kurze Anfragen mit ca. 100-500 Tokens (einfache Fragen, Übersetzungen). Mittel: ~500-2.000 Tokens (Zusammenfassungen, Texte). Komplex: ~2.000-8.000+ Tokens (Coding, Analyse, Reasoning-Aufgaben).

Warum unterscheiden sich die Modelle so stark?

Größere Modelle mit mehr Parametern brauchen mehr Rechenleistung. Reasoning-Modelle (o3, DeepSeek-R1) verbrauchen besonders viel, da sie intern viele zusätzliche "Denkschritte" durchführen.

Was wird berechnet?

Der Rechner zeigt den Stromverbrauch der KI-Chips (GPUs/TPUs) während der Antwortgenerierung — inklusive anteiligem Rechenzentrum-Overhead (Kühlung, Netzwerk, Speicher). Die Studien verwenden den sogenannten PUE-Faktor (Power Usage Effectiveness, typisch 1,1–1,3), der diesen Overhead einrechnet.

Warum der echte Verbrauch deutlich höher ist

Dieser Rechner zeigt nur die Spitze des Eisbergs — den reinen Betriebsstrom einer Anfrage. Der tatsächliche Gesamtverbrauch von KI umfasst weit mehr: (1) Forschung & Entwicklung — jahrelange Experimente, Prototypen und Testläufe, bevor ein Modell veröffentlicht wird. (2) Training — das Trainieren großer Modelle verschlingt Millionen kWh. GPT-4 benötigte schätzungsweise 50+ GWh, vergleichbar mit dem Jahresverbrauch einer Kleinstadt. (3) Hardware-Herstellung — Produktion von GPUs/TPUs, Servern, Speicher und Netzwerktechnik verursacht erhebliche Emissionen (Embodied Carbon), noch bevor ein Chip zum ersten Mal rechnet. (4) Rechenzentren — Bau und Betrieb: Gebäude, Notstrom, physische Sicherheit, Brandschutz, redundante Systeme. (5) Kühlung & Infrastruktur — Klimaanlagen, Wasserverbrauch für Kühltürme und unterbrechungsfreie Stromversorgung (teilweise im PUE-Faktor enthalten). (6) Netzwerk — globale Datenübertragung zwischen Rechenzentren, CDNs und zum Endnutzer. (7) Personal — Tausende Entwickler:innen, Forscher:innen und Betriebsteams mit eigener Infrastruktur. (8) Dein Endgerät — auch Smartphone, Laptop oder PC verbraucht Strom für jede Anfrage. Warum diese Werte fehlen: Kein Anbieter veröffentlicht einen vollständigen Energie-Breakdown pro Anfrage. Die hier gezeigten Betriebswerte sind der am besten belegte Teil — aber der echte Fußabdruck von KI ist ein Vielfaches davon.

Warum der Faktor ×3 beim geschätzten Gesamtverbrauch?

Der Umschalter „Geschätzter Gesamtverbrauch" multipliziert alle Werte mit dem Faktor 3. Dieser Faktor setzt sich aus zwei wissenschaftlich belegten Bausteinen zusammen: (1) Datacenter-Overhead (×2) — Laut Microsofts Nachhaltigkeitsbericht liegt der branchenübliche PUE-Faktor (Power Usage Effectiveness) bei 1,1–1,3. Kühlung, Netzwerk, Speicher, Notstrom und Gebäudeinfrastruktur kommen noch hinzu und verdoppeln den reinen IT-Energiebedarf insgesamt ungefähr. (2) Lifecycle-Overhead (+1) — Die eCAL-Studie (arXiv:2408.00540) rechnet den anteiligen Aufwand für Modell-Training, Hardware-Herstellung (Embodied Carbon) und Forschung auf einzelne Anfragen um. Je nach Nutzungsvolumen liegt dieser Aufschlag bei ×1,5 bis ×2,7 pro Anfrage. Zusammen ergibt das: Betriebsverbrauch × 2 (Datacenter) + ca. 1× Lifecycle-Anteil ≈ Faktor 3. Das ist eine Schätzung am oberen Rand des plausiblen Bereichs. Da die Betriebswerte selbst bereits den PUE-Faktor enthalten, gibt es eine gewisse Überlappung — der Faktor ×3 soll dennoch die Größenordnung des tatsächlichen Gesamtverbrauchs verdeutlichen.