Strom, Wasser, ChatGPT: Was kostet eine KI-Anfrage wirklich?
Wie viel Energie verbraucht eigentlich eine ChatGPT-Anfrage? OpenAI-Chef Sam Altman liefert erstmals konkrete Zahlen – doch sie werfen neue Fragen auf.

Die Energie-Kosten von ChatGPT explodieren.
Foto: PantherMedia / BiancoBlue
So wurde es früher berechnet
ChatGPT verbraucht fast zehnmal mehr Energie pro Anfrage als eine Google-Suche, was jährlich etwa 226 Millionen Kilowattstunden ausmacht. Zum besseren Verständnis veranschaulichen Vergleichsbeispiele die tatsächlichen Kosten und den Energieaufwand von ChatGPT. Zumindest hießt es noch so vor einigen Monaten.
Fast zwei Jahre nach dem Start von ChatGPT, OpenAIs KI-Chatbot, der rasant wuchs und in nur zwei Monaten 100 Millionen monatliche Nutzer erreichte, zeigt sich eine neue Perspektive: ChatGPT, der Fragen blitzschnell beantwortet, ganze Essays schreibt und sogar Code erstellt, verbraucht viel Energie – fast zehnmal mehr als Google-Suchen. Anderen Medien zufolge – sogar noch mehr.
Viele Endverbraucher, die den Luxus von ChatGPT gewohnt sind, greifen schnell zu dieser App, um Fragen zu klären, anstatt durch die Google-Ergebnisseiten zu scrollen. Dieses Verhalten scheint zwar bequemer, ist aber tatsächlich kostspieliger.
Unter anderem wurde berichtet, dass KI-Bots mehr Rechenleistung benötigen als traditionelle Suchanfragen. Das führt zu höheren CO₂-Emissionen. Schätzungen zufolge könnten die Emissionen von KI-Bots wie ChatGPT 50- bis 90-mal höher sein als die einer gewöhnlichen Google-Suche.
2024 haben Forschende es genau ausgerechnet. So entschied sich das Team von BestBrokers, den erheblichen Stromverbrauch von OpenAIs Chatbot bei der Beantwortung von Anfragen jährlich zu betrachten. Sie untersuchten auch, was dieser Verbrauch bei den durchschnittlichen US-Strompreisen im Juni 2024 kosten würde.
226 Millionen Kilowattstunden pro Jahr
Wenn Sie eine Frage an ChatGPT stellen, benötigt das Modell etwa 0,0029 Kilowattstunden Strom. Das ist fast zehnmal mehr als bei einer Google-Suche, die nur etwa 0,0003 Kilowattstunden verbraucht. Die Berechnungen zeigten, dass ChatGPT allein für die Beantwortung von Fragen durchschnittlich 226,82 Millionen Kilowattstunden pro Jahr verbrauchte, was Kosten von 29,71 Millionen Dollar verursachte.
Im November 2023 berichtete OpenAI-CEO Sam Altman, dass weltweit 100 Millionen Nutzer jede Woche mit ChatGPT interagieren. Wenn jeder etwa 15 Fragen pro Woche stellt, ergeben sich rund 1,5 Milliarden Anfragen wöchentlich, was mehr als 214 Millionen tägliche Anfragen entspricht. Das verbraucht über eine halbe Million Kilowattstunden Energie pro Tag – das 21.602-Fache des täglichen Stromverbrauchs eines durchschnittlichen US-Haushalts.
Wie bereits erwähnt summiert sich der Energieverbrauch von ChatGPT über ein Jahr auf etwa 226 Millionen Kilowattstunden, was Kosten von rund 29,7 Millionen Dollar bei den durchschnittlichen US-Strompreisen im Juni 2024 verursacht. Jede Anfrage kostet etwa 0,00038 Dollar. Mit zukünftigen Versionen und zusätzlichen Funktionen könnten diese Zahlen noch steigen.
Ein Beitrag von: