ChatGPT Rechenleistung und Energieverbrauch im Vergleich zu anderen alltäglichen Ressourcen

Die Rechenleistung und der Energieverbrauch, den ChatGPT beim Beantworten einer Frage verursacht, hängt von gewissen Faktoren ab, welcher der User bis zu einem gewissen Grad selbst steuern kann. Anders formuliert bedeutet das, dass wir LLMs (Large Language Models: fortschrittliche KI-Systeme, die menschliche Sprache verstehen und selbst auch wiedergeben können) wie ChatGPT durchaus auch effizient und umweltfreundlich(er) nutzen können, indem wir uns an gewisse Regeln halten und diese KI-Systeme sparsam nutzen. Um ein Gefühl dafür zu bekommen, wie viel Energie ChatGPT bei der Beantwortung von Fragen verbraucht, und was für eine Rechenleistung dahinter steckt, führt dieser Beitrag einige alltägliche Beispiele vor Augen.

chatgpt rechenleistung und energieverbrauch
Abbildung: Der Mensch hat es bis zu einem gewissen Ausmaß selbst in der Hand, wie viel Rechenleistung und Energie bei der Nutzung von ChatGPT & Co verbraucht werden

Grundsätzliche Parameter: Größe des LLMs

Wir gehen hier vom kostenfreien GPT-4 Modell aus, welches im alltäglichen Gebrauch durchaus häufig verwendet wird. Dabei handelt es sich um ein relativ großes Sprachmodell, dessen Inferenz (das Generieren einer Antwort) das Aktivieren vieler Millionen bis Milliarden Parameter auf spezialisierten Servern erfordert. Das Beantworten einer für uns scheinbar einfachen Frage ist dadurch deutlich rechenintensiver als beispielsweise eine einfache Google-Suchanfrage zu stellen.

Energieverbrauch zur Beantwortung einer Frage

Eine einzelne Antwort von GPT-4 kann durchschnittlich 0,1 bis 1 Kilowattstunde (kWh) Strom verbrauchen, je nach Art der Fragestellung, Länge der Antwort, Modellgröße und Servereffizienz.

Im Vergleich dazu:

  • Eine Google-Suchanfrage verbraucht etwa 0,0003 kWh
  • Eine Stunde Netflix-Streaming verbraucht etwa 0,3 kWh

Eine einzige Antwort von ChatGPT kann so viel Strom verbrauchen wie mehrere Hundert Google-Suchanfragen, beziehungsweise kann man mit der gleichen Menge Strom etwa einen ganzen Hollywood-Blockbuster auf Netflix streamen.

Stromkosten und CO₂-Fußabdruck durch die Nutzung von LLMs

Die Stromkosten (und damit verbunden: der CO₂-Fußabdruck) hängen zu einem Teil davon ab, wie die jeweiligen Rechenzentren betrieben werden. OpenAI bemüht sich, Rechenzentren effizient und umweltfreundlich zu betreiben, aber der ökologische Fußabdruck ist dennoch bei Weitem nicht null.

Der Stromverbrauch hängt natürlich in erster Linie davon ab, wie viele Anfragen / Prompts (Eingabeaufforderungen oder Anweisungen, die man an eine KI richtet) an das jeweilige LLM gestellt werden, aber auch davon wie effizient diese Anfragen / Anweisungen vom jeweiligen LLM verarbeitet werden. Hier gibt es große Unterschiede zwischen den einzelnen LLMs zu verzeichnen.

Die derzeit ressourcenschonendsten LLMs

Da Effizienz und Nachhaltigkeit bei LLMs oft von Usern und Allgemeinheit nicht berücksichtigt werden, gibt es kein objektives „grünes Ranking“ aller LLMs, aber einige Modelle und Anbieter sind nach aktuellem Stand besonders umweltfreundlich und effizient konzipiert. Dazu zählen:

  • Mistral 7B & Mixtral (Open-Weight)
  • Claude 3 (Anthropic)
  • Gemma (Google DeepMind, Open) & Gemini (kommerziell)
  • LLaMA 3 (Meta)

ChatGPT ist in diesem Kontext als eher nicht effizient zu bewerten, wobei aber durchaus auf eine umweltbewusste Infrastruktur laut eigenen Angaben wert gelegt wird.

Hinzu kommt der Wasserverbrauch zur Kühlung der Server

Einen Aspekt, den man nicht vergessen sollte, ist die vermehrte Wassernutzung zur Kühlung von Rechenzentren, die auf Hochtouren laufen um Milliarden von Fragen zu beantworten und Prompts zu erfüllen. Dieses Wasser wird zweckentfremdet genutzt und fehlt oftmals dann dort, wo ein Schaden für die Umwelt entstehen kann. Insofern sollte man sich als pflicht- und umweltbewusster Mensch die Frage stellen, wie belanglos man welche KI-Ressourcen wirklich verwenden sollte, und in welchem Ausmaß das wirklich notwendig und sinnvoll ist.

Stromverbrauch einer KI-Antwort in CO₂-Emissionen

Wir gehen nun davon aus, dass eine KI-Antwort 0,1 – 1 kWh benötigt. Das ist die Spanne, innerhalb der sich der Energieverbrauch beim Generieren einer durchschnittlich komplexen Antwort bewegt.

Die CO₂-Emissionen pro kWh hängen stark vom Energiemix ab:

Stromquelle

CO₂-Ausstoß pro kWh

Kohlestrom

~820 g CO₂ / kWh

EU-Strommix (2023, Ø)

~250 – 300 g CO₂ / kWh

Erneuerbare Energien

~5–50 g CO₂ / kWh

Beispiel: Rechenzentrum mit EU-Strommix (~300 g CO₂/kWh)

Wir vergleichen nun die CO₂-Emissionen einer KI-Antwort mit einer kurzen herkömmlichen Autofahrt.

  • 0,1 kWh entspricht etwa 30 g CO₂-Ausstoß
  • 1,0 kWh entspricht etwa 300 g CO₂-Ausstoß

Das entspricht etwa dem CO₂-Ausstoß einer Autofahrt von 0,2 – 2 km mit einem mit Benzin betriebenen Fahrzeug.

Beispiel: Rechenzentrum mit Kohlestrom (~820 g CO₂/kWh)

Wir vergleichen nun die CO₂-Emissionen einer KI-Antwort mit einer kurzen herkömmlichen Autofahrt.

  • 0,1 kWh entspricht etwa 82 g CO₂-Ausstoß
  • 1,0 kWh entspricht etwa 820 g CO₂-Ausstoß

Das entspricht etwa dem CO₂-Ausstoß einer Autofahrt von 0,546 – 5,46 km mit einem mit Benzin betriebenen Fahrzeug.

Dieses fiktive Rechenbeispiel dient nur dazu, damit wir ein Gefühl dafür bekommen, was unsere alltäglichen Tätigkeiten in Summe für Auswirkungen auf unsere gesamte Umwelt haben können und wie sich die Zusammenhänge daraus ergeben.

Umrechnung der CO₂-Emissionen in Umweltkosten

Die Summe der Umweltkosten von CO₂-Emissionen (z. B. durch Klimawandel, Gesundheitsfolgen) werden oft mit 180 – 300 € pro Tonne CO₂ angesetzt. Um bei unserem EU-Strommix-Beispiel (~300 g CO₂/kWh) zu bleiben, ergibt dies Umweltkosten pro KI-Antwort:

  • 30 g CO₂ entspricht 0,005 – 0,009 €
  • 300 g CO₂ entspricht 0,05 – 0,09 €

Demnach fallen pro KI-Antwort Umweltkosten von 0,005 € bis 0,09 € an „versteckten“ Umweltkosten an. Im großen Maßstab – bei Milliarden von KI-Anfragen – sind diese Kosten zu Lasten der Umwelt durchaus als relevant zu bewerten.

CO₂-Emissionen im Vergleich zu alltäglichen Dingen

Wenn wir nun wissen möchten, wie diese CO₂-Emissionen im Vergleich zu alltäglichen Dingen (z. B. Kaffee, E-Mail, Autofahrt) stehen, können wir uns diese Tabelle ansehen:

Aktivität

CO₂-Emission (ca.)

Kleine GPT-Antwort (0,1 kWh)

30 g CO₂

Große GPT-Antwort (1 kWh)

300 g CO₂

Eine Google-Suchanfrage

0,2 - 1 g CO₂

1 Stunde Netflix-Streaming (HD)

300 - 400 g CO₂

1 Tasse Kaffee

50 - 80 g CO₂

1 E-Mail mit Anhang

50 - 200 g CO₂

1 km Autofahrt (Benziner)

120 - 200 g CO₂

1 Flug (Frankfurt - Berlin einfach)

150.000 g CO₂

Fazit: Egal was wir im Alltag wie tun - es entstehen dabei Umweltkosten

Wir können uns eigentlich vor diesen Umweltkosten nicht schützen, ohne dabei das normale gesellschaftliche Leben zu verlassen. Wenn man allerdings den digitalen CO₂-Fußabdruck reduzieren will, dann gibt es durchaus ein paar Möglichkeiten dazu:

  • Kombinieren von KI-Anfragen (eine gute Anfrage statt viele kleine Anfragen, da die KI in einer Anfrage die Zusammenhänge im Kontext berücksichtigen kann)
  • Vermeidung von nicht relevanten Chat-Antworten (Bitte, Danke, etc ..) bei KI-Anfragen *
  • Nutzung von Dark Mode oder Geräten mit effizientem Display
  • Nutzung von nachhaltigen Anbietern für Cloud-Dienste

* Eine GPT-4-Antwort auf „Danke“ im Chatverlauf kostet Energie, auch wenn es sich bei einer Antwort um nicht viel Energie handelt, aber hier geht es auch um die Menge, die das Gift macht. Der geschätze Stromverbrauch dafür liegt bei etwa 0,005 – 0,02 kWh (je nach Größe des Chat-Verlaufes), was einer CO₂-Emission (bei EU-Strommix-Beispiel 300 g CO₂ / kWh) 1,5 – 6 g CO₂ bedeutet. Der Grund dafür liegt darin, dass nach jeder Nachricht im Chat die KI für seine darauf folgende Antwort (und ist diese noch so einfach und trivial) den ganzen Chat „durchrechnen“ muss. Daher sagen Sie zum Schluß einfach nicht „DANKE“, sondern nutzen vielleicht eher noch die zur Verfügung stehenden Icons zur Bewertung des Chats. Am effizientesten ist es jedoch, den Chat einfach zu schließen, wenn Sie die gewünschte Antwort erhalten haben.

Spracheingabe vs Texteingabe – Aufwand im Vergleich

Es ist auch möglich mit ChatGPT zu sprechen (Speech-to-Text). Dies ist allerdings noch ein wenig mehr aufwendiger / energietechnisch ineffizienter, als wenn man den klassischen Text-Chat verwendet. Der Grund dafür liegt im zusätzlichen Rechenaufwand, was am Beispiel von „DANKE“ eine CO₂-Emission von bis zu 15 g (statt 6 g) bedeutet, mehr als das Doppelte.

Warum braucht Sprache mehr Energie?

Spracheingaben, und die generelle Nutzung von zusätzlicher Software zur Kommunikation mit KI-Systemen, verbrauchen logischerweise mehr Ressourcen.

  • Audioverarbeitung: Die Sprache muss zuerst in ein Textformat umgewandelt werden (Speech-to-Text, oft via neuronales Netz)
  • Mehr Datenvolumen: Audiodateien sind deutlich größer als Text. Dies bedeutet auch gleichzeitig mehr Rechenaufwand bei der Übertragung und Analyse
  • Oft sind auch mehrere KI-Modelle daran im Zusammenspiel beteiligt (z. B. Whisper + GPT)

Gesellschaftliches zum Abschluss

Hoffentlich wurde mit diesem Artikel ein Beitrag dazu geleistet, ein Gefühl davon zu bekommen, wie viel Wert eine digitale Handlung in unserem Alltag bedeuten kann. Und hoffentlich wurde auch ein Bewusstsein dafür geschaffen, dass wir alle (egal ob Autofahrer, Flugzeug-Pilot, Programmierer, Social Media-Nutzer, Influencer und selbst auch grüne Politiker) Ressourcen benutzen und verbrauchen – ob man nun 8 Stunden täglich vor dem Computer sitzt und dadurch CO₂-Emissionen erzeugt, mit welchen man mit dem Auto von Wien nach Graz fahren kann – oder ob man sonstige Dinge tut, von denen man gar nicht weiß, was man damit eigentlich anrichtet – oder auch nicht. Wichtig dabei ist, andere für das wie sie leben, nicht abzuwerten, ohne nicht selbst jenes Leben gelebt zu haben.