Zurück zu den Tools
Umwelt und Klima

ChatGPT Stromverbrauch & CO2-Rechner: Der wahre Preis der KI

Künstliche Intelligenz fühlt sich magisch an, aber sie läuft nicht mit Luft und Liebe. Jede Anfrage an ChatGPT, Claude oder Gemini setzt gigantische Rechenzentren in Gang. Doch was kostet eine einzelne KI-Antwort wirklich an Strom und Wasser?

KI Energieverbrauch Rechner

Berechne die geschätzten Umweltauswirkungen deiner ChatGPT-Anfragen.

1 Anfrage500 Anfragen1000 Anfragen
0.030 kWh
Stromverbrauch
☁️
10.0g CO2
Emissionen
💧
0.20 L
Wasserverbrauch

💡 Was bedeutet das im Vergleich?

🚗

0.08 km

mit einem durchschnittlichen Benziner fahren.

🍼

0.4 Flaschen

Trinkwasser (0,5L) zur Kühlung der Server.

📱

2 Ladungen

eines Standard-Smartphones von 0 auf 100%.

💡

3 Stunden

eine 9W LED-Lampe brennen lassen.

Künstliche Intelligenz und der Klimawandel

Der Hype um Large Language Models (LLMs) wie ChatGPT hat eine Kehrseite: Den enormen Ressourcenverbrauch. Das Training eines Modells wie GPT-3 verbrauchte schätzungsweise so viel Strom wie 120 durchschnittliche US-Haushalte in einem Jahr. Doch auch der laufende Betrieb (Inferenz) summiert sich. Jede Antwort erfordert Rechenleistung in riesigen Rechenzentren, die gekühlt werden müssen – oft mit Trinkwasser.

Während Tech-Giganten wie Microsoft und Google betonen, dass KI auch Lösungen für die Klimakrise liefern kann (z.B. durch effizientere Stromnetze), steigt ihr eigener ökologischer Fußabdruck aktuell rasant an. Ein bewusster Umgang mit KI-Tools ist daher ein kleiner, aber wichtiger Beitrag.

Hinweis: Bei diesen Werten handelt es sich um Durchschnittswerte und Schätzungen basierend auf aktuellen wissenschaftlichen Publikationen, unter anderem von Forschern der University of California, Riverside (Wasserverbrauch) sowie Studien von Hugging Face & Carnegie Mellon (Energieeffizienz).

Warum verbraucht ChatGPT so viel Wasser und Strom?

Der Energiehunger von Künstlicher Intelligenz ist beachtenswert. Erfahre hier mehr zum Thema KI und Klimawandel.

Der Energiehunger von KI teilt sich in zwei Phasen: Training und Inferenz (Nutzung). Während das Training von GPT-4 einmalig riesige Mengen Energie verschlang (vergleichbar mit dem Jahresverbrauch von über 100 Haushalten), ist die Inferenz der schleichende Faktor.
Jedes Mal, wenn der Cursor blinkt und die KI ein Wort berechnet, arbeiten Hochleistungs-GPUs (Grafikprozessoren) auf Hochtouren. Diese erzeugen enorme Abwärme.
Das Wasser-Problem: Um die Serverfarmen vor dem Überhitzen zu schützen, nutzen Rechenzentren oft Verdunstungskühlung. Studien der University of California deuten darauf hin, dass eine durchschnittliche Konversation mit 20–50 Fragen etwa einen halben Liter Frischwasser „verbraucht“ (verdunstet).

Diese Studien berücksichtig der KI-CO2-Rechner

Drei Studien, die es in sich haben.

Hier sind drei Studien, die es in sich haben: Im Folgenden stelle ich dir die wissenschaftlichen Quellen vor, auf denen die Schätzwerte unseres Rechners basieren. Dazu gehören: „Making AI Less Thirsty“ der University of California, „Power Hungry Processing“ von Hugging Face sowie die Analyse „Roadmap shows the environmental impact of AI data center boom“ aus dem Journal Cell Reports Sustainability.

Wasserverbrauch (Die 'Wasserflaschen'-Metapher)

Das ist die Kernstudie der University of California, Riverside, die 2023 für viel Aufsehen gesorgt hat.
Klimawandel durch Künstliche Intelligenz begünstigt: Hoher Wasserverbrauch durch KI. Bild zeigt schmelzendes Eis.
Das ist die Kernstudie der University of California, Riverside, die 2023 für viel Aufsehen gesorgt hat.
  • Titel: Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models
  • Autoren: Pengfei Li, Jianyi Yang, Mohammad A. Islam, K.K. Ramakrishnan, Shaolei Ren.
  • Die Kernaussage: Das Training von GPT-3 verbrauchte ca. 700.000 Liter Frischwasser. Im Betrieb (Inferenz) "trinkt" ChatGPT etwa 500ml Wasser (eine kleine Flasche) für 20-50 Fragen.
Link zum PDF (arXiv): https://arxiv.org/abs/2304.03271

Stromverbrauch & Bild-Generierung (Der Smartphone-Vergleich)

Diese Untersuchung von Hugging Face und der Carnegie Mellon University ist essentiell, um zu verstehen, warum nicht jede KI-Anfrage gleich viel Energie kostet.
Stromverbrauch für ChatGPT Abfragen: .
Die Forscher haben gemessen, wie viel CO2 verschiedene Aufgaben (Text, Bild, Klassifizierung) wirklich verursachen.
  • Titel: Power Hungry Processing: Watts Driving the Cost of AI Deployment?
  • Autoren: Alexandra Sasha Luccioni, Yacine Jernite, Emma Strubell.
  • Die Kernaussage: Ein Bild mit KI zu generieren verbraucht so viel Energie wie das vollständige Aufladen eines Smartphones. Text ist deutlich sparsamer (ca. 0,004 kWh pro 1.000 Inferenzen bei effizienten Modellen).
Link zum PDF (arXiv): https://arxiv.org/abs/2311.16863

CO2 & Gesamtauswirkung (Die Cornell-Studie)

Während die anderen Studien den Status Quo messen, wagt diese Arbeit der Cornell University einen Blick in die Zukunft der Infrastruktur.
Klimawandel durch Künstliche Intelligenz begünstigt: Hoher Wasserverbrauch durch KI.
Hier geht es um das exponentielle Wachstum ("Boom") der Rechenzentren und die Gefahr für lokale Stromnetze
  • Titel: Roadmap shows the environmental impact of AI data center boom (bzw. die darauf basierende Publikation im Journal Cell Reports Sustainability)
  • Autoren: Fengqi You (Cornell University).
  • Die Kernaussage: Ohne massive Effizienzsteigerungen wird der Energie- und Wasserverbrauch durch KI-Rechenzentren bis 2030 in einem Ausmaß steigen, das Klimaziele gefährdet.
Link zum PDF (arXiv): https://news.cornell.edu/stories/2025/11/roadmap-shows-environmental-impact-ai-data-center-boom

Häufige Fragen zum KI-Verbrauch

Alles Wissenswerte über die Umweltauswirkungen von LLMs.

Rechenzentren erzeugen enorme Hitze. Um die Hardware effizient zu kühlen, werden Verdunstungskühlsysteme eingesetzt, die große Mengen Wasser verbrauchen. Das ist oft effizienter als eine rein elektrische Klimatisierung, belastet aber die lokalen Wasserressourcen. Eine durchschnittliche ChatGPT-Konversation mit 20-50 Fragen kann bis zu 500ml Wasser 'trinken'.

Einerseits optimieren Unternehmen die Effizienz (z.B. durch Quantisierung oder spezialisierte Chips). Andererseits werden die Modelle immer größer (mehr Parameter), was den Gesamteffekt oft wieder aufhebt (Jevons-Paradoxon). GPT-4 ist ressourcenintensiver als GPT-3.5, liefert aber präzisere Antworten.

Ja, die Hardware bei dir zu Hause (GPU) verbraucht ebenfalls Strom, oft sogar weniger effizient als spezialisierte Rechenzentren. Der Wasserverbrauch verlagert sich jedoch: In der Cloud wird Wasser direkt zur Kühlung genutzt, bei dir zu Hause indirekt über den Wasserverbrauch des Kraftwerks, das deinen Strom erzeugt.

Ja, deutlich. Die Generierung eines Bildes mit Modellen wie Stable Diffusion oder DALL-E verbraucht etwa so viel Energie wie das vollständige Aufladen eines Smartphones. Textgenerierung ist im Vergleich dazu wesentlich sparsamer.

Das ist die Hoffnung. KI kann komplexe Systeme optimieren, z.B. Logistikrouten verkürzen, Stromnetze effizienter steuern oder bei der Entwicklung neuer Batterietechnologien helfen. Ob diese Einsparungen den Eigenverbrauch der KI überwiegen, ist Gegenstand aktueller Forschung.

Die Werte basieren auf Durchschnittswerten verschiedener wissenschaftlicher Publikationen, unter anderem von Forschern der University of California, Riverside, und Google-Umweltberichten. Da Tech-Konzerne oft keine exakten Real-Time-Daten pro Anfrage veröffentlichen, handelt es sich um fundierte Schätzungen (Stand 2024/2025).