Strom, Wasser, ChatGPT: Was kostet eine KI-Anfrage wirklich?
Wie viel Strom braucht ChatGPT? Schätzungen reichen von 0,3 bis 2,9 Wh pro Anfrage – woher kommt dieser große Unterschied? Und wie sieht es mit dem Wasserverbrauch aus?
Die Energie-Kosten von ChatGPT explodieren.
Foto: PantherMedia / BiancoBlue
Viele wünschen sich eine klare Angabe, wie viel Strom eine einzelne Anfrage bei ChatGPT benötigt. Doch die Antwort hängt von vielen Faktoren ab: vom gewählten Modell, der Länge der Eingabe, der gewünschten Ausgabelänge, von der Hardware im Rechenzentrum und nicht zuletzt von der Art der Kühlung. Auch die Frage, ob nur die Server selbst oder die gesamte Infrastruktur einbezogen werden, führt zu unterschiedlichen Ergebnissen. Entsprechend schwanken die Angaben erheblich.
Inhaltsverzeichnis
- Der niedrige Wert: Angaben von OpenAI
- Der mittlere Wert: Aktualisierte Abschätzung von Epoch AI
- Der hohe Wert: BestBrokers rechnet deutlich konservativer
- Anschauliche Alltagsvergleiche
- Warum die Unterschiede so groß sind
- Training und Nutzung sind verschieden
- Vergleich mit Google-Suche nur eingeschränkt sinnvoll
- Stromverbrauch im Alltag veranschaulicht
- Warum Wasser eine Rolle spielt
- Wachstum verschärft die Lage
- Wege zur Effizienz
- Bewusster Umgang mit KI
- Training als Energiefresser
- Vergleich zu anderen Technologien
Der niedrige Wert: Angaben von OpenAI
OpenAI-Chef Sam Altman zieht einen alltagsnahen Vergleich: Eine typische ChatGPT-Anfrage verbrauche rund 0,34 Wh. Das entspreche „gut einer Sekunde Backofen-Betrieb“. Zusätzlich nennt er einen Wasserverbrauch von 0,000085 Gallonen pro Anfrage (≈ 0,00032176 l), weil Rechenzentren gekühlt werden müssen. Kontext liefert Altman ebenfalls: Die Nutzung werde viel verändern. „Aber andererseits wird die Welt so schnell so viel reicher werden“, schreibt er. Die Basis der Rechenmethode bleibt in seinem Beitrag offen. Ich habe keinen Zugang zu dieser Information.
Warum ist die Wasserzahl relevant? Moderne Rechenzentren führen Abwärme ab. Je nach Standort und Technik passiert das luft- oder wasserbasiert. Wasserkennzahlen pro Anfrage sind daher grobe Durchschnittswerte und variieren stark mit Klima, Jahreszeit und Technik.
Der mittlere Wert: Aktualisierte Abschätzung von Epoch AI
Eine zweite Quelle rekalibriert die Debatte. Das Forschungsinstitut Epoch AI kommt — bezogen auf die „typische Nutzung“ mit GPT-4o — auf etwa 0,3 Wh pro Anfrage. Das liegt nahe bei Altmans Zahl. Epoch AI begründet die Differenz zu älteren, deutlich höheren Schätzungen mit zwei Punkten: effizientere Modelle/Hardware und realistischere Annahmen zur Zahl verarbeiteter Token. Token sind klein geschnittene Spracheinheiten, in die Modelle Text aufteilen. Mehr Token bedeuten mehr Rechenarbeit — und damit mehr Energie.
Epoch AI betont auch die Streuung: Lange Prompts, viele Rückfragen oder breite Kontextfenster lassen den Energiebedarf steigen. Für typische Chats bleibt der Mittelwert jedoch niedrig, wenn Sie moderne Modelle auf aktueller Hardware nutzen. Ich kann die Messmethode nicht verifizieren.
Der hohe Wert: BestBrokers rechnet deutlich konservativer
Eine verbreitete Zahl aus 2023/24 stammt von BestBrokers. Danach benötigt eine ChatGPT-Anfrage 2,9 Wh — also grob zehnmal so viel wie die oft angesetzte 0,3 Wh für eine klassische Google-Suche. BestBrokers skaliert das hoch: Bei damals angenommenen Nutzungszahlen ergäben sich ~227 Mio. kWh pro Jahr und Energiekosten von ~30 Mio. US-$. Die Autor*innen vergleichen das mit dem Stromverbrauch kleiner Staaten und schreiben: „Der Stromhunger künstlicher Intelligenz nimmt weiter zu, belastet die Stromnetze, erhöht die Treibhausgasemissionen und verschärft die Umweltprobleme.“
Die Studie ist offen über ihre Annahmen: durchschnittliche Anfragenlänge, Modellwahl, Hardwarestand und Nutzungszahlen treiben das Ergebnis. Funktionen wie Sprachmodus oder sehr große Kontexte sind nicht eingepreist. Ich habe keinen Zugang zu Rohdaten; ich kann das nicht verifizieren.
Anschauliche Alltagsvergleiche
Einige Analysen übersetzen die abstrakten Wattstunden in alltägliche Aktivitäten. Eine einzelne Anfrage verbraucht demnach so viel Energie wie das Laden eines Smartphones mit einem kleinen Ladegerät für rund 24 Minuten. 26 Anfragen entsprechen der Energie, die ein Mikrowellenherd in drei Minuten benötigt. Wer etwa 42 Anfragen stellt, verbraucht damit so viel Strom wie ein Fernseher in fast 50 Minuten Betrieb.
Noch ein Rechenbeispiel: Würden alle Menschen in Deutschland nur eine einzige Anfrage an ChatGPT stellen, läge der Gesamtverbrauch bei etwa 169 Megawattstunden. Damit könnten ungefähr 48 Haushalte ein ganzes Jahr mit Strom versorgt werden. Solche Zahlen verdeutlichen, dass selbst kleine Einzelwerte in der Summe große Energiemengen ergeben.
Warum die Unterschiede so groß sind
Die Unterschiede zwischen den niedrigen und hohen Werten lassen sich erklären.
- Modellwahl: Kleine, auf Geschwindigkeit optimierte Modelle sind sparsamer als große Multimodal-Varianten mit Sprach- und Bildfunktionen.
- Token-Zahl: Kurze Eingaben und kurze Antworten benötigen wenig Energie, lange Analysen mit vielen Rückfragen deutlich mehr.
- Hardware: Neue Chips liefern mehr Leistung pro Watt als ältere Generationen.
- Rechenzentren: Kühlung und Infrastruktur verursachen zusätzlichen Stromverbrauch, der je nach Standort schwankt.
- Skalierung: Eine einzelne Anfrage fällt kaum ins Gewicht. Doch die Milliarden Anfragen weltweit führen zu enormen Summen.
Training und Nutzung sind verschieden
Hinzu kommt ein weiterer Aspekt: Das Training eines Modells verschlingt eine ganz andere Größenordnung an Energie als die spätere Nutzung. Für die Entwicklung von GPT-4 wird ein Stromverbrauch von über 60 Millionen Kilowattstunden genannt. Die Nutzung hingegen wird mit jeder einzelnen Anfrage neu angestoßen. Wichtig ist deshalb, Training und Betrieb getrennt zu betrachten.
Vergleich mit Google-Suche nur eingeschränkt sinnvoll
Der direkte Vergleich mit einer Google-Suche wird häufig angeführt. Er zeigt plakativ, dass ChatGPT pro Anfrage mehr Energie benötigt. Allerdings hinkt der Vergleich. Eine Suchmaschine beantwortet oft einfache Fragen mit Links, während ChatGPT längere, komplexere Texte formuliert. Außerdem ist unklar, wie viele KI-Funktionen mittlerweile in der Suche selbst stecken.
Stromverbrauch im Alltag veranschaulicht
Eine einzelne ChatGPT-Anfrage wirkt harmlos. 0,3 bis 2,9 Wh sind weniger als das Einschalten einer Kaffeemaschine. Doch schon wenige Minuten tägliche Nutzung durch Millionen Menschen ergeben beachtliche Summen.
Stellen Sie sich vor, alle Einwohner der USA würden nur eine einzige Anfrage an einem Tag stellen. Forschende schätzen, dass dadurch rund 1500 Tonnen CO₂ entstehen könnten. Das entspricht den Emissionen von über 300 Autos, die ein Jahr lang mit Benzin fahren. Oder anders gesagt: einem Flug von 1500 Personen von London nach New York und zurück.
Für Deutschland gibt es ebenfalls Hochrechnungen: Eine einzige Anfrage pro Person summiert sich auf 169 Megawattstunden. Mit dieser Energiemenge könnten 48 Haushalte ein ganzes Jahr versorgt werden. Diese Zahl wirkt klein, zeigt aber, wie rasant sich Verbrauch addiert, wenn eine Technologie täglich genutzt wird.
Warum Wasser eine Rolle spielt
Nicht nur der Strombedarf, auch der Wasserverbrauch wird zunehmend diskutiert. Server müssen gekühlt werden, und viele Rechenzentren nutzen dafür Wasserverdunstung. Eine Anfrage bei ChatGPT benötigt im Durchschnitt weniger als einen halben Milliliter. Doch bei Millionen Abfragen summiert sich das zu tausenden Litern am Tag.
Der Standort eines Rechenzentrums entscheidet, wie problematisch das ist. In wasserreichen Regionen fällt die Belastung weniger ins Gewicht. In trockenen Gebieten kann der zusätzliche Wasserbedarf die lokale Versorgung verschärfen. Auch deshalb suchen Betreiber nach Alternativen, zum Beispiel effizientere Luftkühlung oder die Nutzung von Abwärme.
Wachstum verschärft die Lage
Die Zahl der Nutzerinnen und Nutzer wächst stetig. Prognosen gehen für 2025 von einem 20 % Anstieg im Vergleich zum Vorjahr aus. Das wären fast 65 Millionen zusätzliche Menschen, die weltweit KI-Dienste einsetzen. Damit steigt auch der Strombedarf. Selbst wenn jede Anfrage sparsamer wird, führt die enorme Masse zu steigenden Gesamtwerten.
Das erinnert an andere digitale Dienste. Auch Videostreaming oder Cloud-Speicher verbrauchen einzeln kaum Energie, sorgen aber durch ihre Verbreitung für einen signifikanten Anteil am weltweiten Stromverbrauch. ChatGPT reiht sich hier ein, mit dem Unterschied, dass die Rechenprozesse rechenintensiver sind als beim Streamen eines Films.
Wege zur Effizienz
Unternehmen arbeiten an Lösungen, um die Energiebelastung zu senken. Dazu zählen:
- Neue Chips: Spezialisierte Prozessoren können pro Watt mehr Berechnungen durchführen als herkömmliche GPUs.
- Effiziente Modelle: Kleinere Varianten wie o3-mini oder angepasste Versionen für bestimmte Aufgaben sind sparsamer.
- Erneuerbare Energien: Betreiber wie Microsoft oder Google investieren in Solar- und Windkraft oder setzen auf Kernkraft, um die Emissionen der Rechenzentren zu senken.
- Verbesserte Kühlung: Direkte Flüssigkeitskühlung oder Abwärmenutzung steigern die Effizienz.
Diese Ansätze mindern den Fußabdruck, doch sie ändern nichts an der Grundfrage: Wie viele Anfragen sind wirklich nötig?
Bewusster Umgang mit KI
Analysen zeigen: Viele Eingaben sind reine Neugier oder Unterhaltung. Trends wie „KI-Puppen“ oder sinnfreie Masseneingaben treiben den Strombedarf ohne echten Nutzen nach oben. Hier liegt auch Verantwortung bei den Nutzerinnen und Nutzern.
Sie können sich fragen: Brauche ich für diese Information wirklich ein Sprachmodell? Oft genügt eine klassische Suchmaschine, die deutlich weniger Energie benötigt. Auch die Länge und Komplexität der Anfrage beeinflussen den Verbrauch. Wer knapp formuliert, spart nicht nur Zeit, sondern auch Strom.
Unternehmen, die KI intensiv nutzen, können zudem auf optimierte Abfragen achten und weniger rechenintensive Modelle einsetzen, wenn es nicht unbedingt die leistungsfähigste Variante sein muss.
Training als Energiefresser
Noch einmal getrennt zu betrachten ist das Training großer Modelle. Es ist ein einmaliger, aber extrem energieintensiver Prozess. Für GPT-4 kursieren Zahlen von über 60 Millionen Kilowattstunden allein für den Trainingsprozess. Das entspricht dem Jahresverbrauch einer mittelgroßen Stadt.
Während das Training selten wiederholt wird, fällt die Nutzung („Inference“) ständig an. Sie bestimmt langfristig, wie stark die Energiebilanz belastet wird. Für Sie als Anwenderin oder Anwender ist vor allem die Nutzung relevant. Dennoch lohnt der Blick aufs Training, weil er zeigt, welche Dimensionen KI-Entwicklung erreichen kann.
Vergleich zu anderen Technologien
Wie ordnet sich ChatGPT ein? Eine Anfrage benötigt mehr Strom als eine Google-Suche, aber weniger als das Streamen eines Films. Die Frage ist also nicht, ob KI grundsätzlich energieintensiver ist als andere digitale Dienste, sondern wie sie sich in den Gesamtkontext einfügt.
Wenn Sprachmodelle Aufgaben wie Programmieren, Recherche oder Simulation übernehmen, ersetzen sie unter Umständen andere Prozesse, die ebenfalls Strom verbrauchen würden. Der Nettoeffekt hängt stark vom jeweiligen Einsatzgebiet ab. Ob die Gesamtbilanz positiv oder negativ ausfällt, lässt sich heute noch nicht eindeutig sagen.
Ein Beitrag von: