Geld zurück GarantieErfahrungen & Bewertungen zu Hardwarewartung.com eine Marke von Change-IT
  • Höherer Energieverbrauch Sollte man höflich zur KI sein

Höherer Energieverbrauch: Sollte man höflich zur KI sein?

Von |2025-04-22T15:33:21+00:0022.4.2025|

Ein Post von OpenAI CEO Sam Altman hat Diskussionen zur Frage ausgelöst, ob ein höfliches “Bitte” und “Danke” gegenüber KI-Tools angesichts zusätzlichen Energiebedarfs sinnvoll sind.

Auf X, dem ehemaligen Twitter, antwortete Sam Altman auf den Post eines Nutzers, der die Frage gestellt hatte, welche zusätzlichen Stromkosten OpenAI wohl zu zahlen habe, nur weil die Menschen “bitte” und “danke” zu ihren KI-Modellen sagen.

Altman antwortete darauf, es sei ein zweistelliger Millionenbetrag, der aber gut angelegt sei – man wisse ja nie.

Sam Altman Tweet

Aber warum sind viele Nutzerinnen und Nutzer höflich zu einem System, das nicht lebt und das sich aus Höflichkeiten eigentlich nichts machen dürfte? Eine Umfrage, die Ende 2024 auf TechRadar veröffentlicht wurde, ergab interessante Antworten:

67 Prozent der befragten Personen in den USA gaben an, gegenüber der KI höflich zu sein. 55 Prozent sagten, das sei einfach eine nette Sache. Erstaunliche 12 Prozent möchten im Fall eines möglichen Aufstands der Maschinen nicht zu den ersten Opfern zählen. Sie befürchten offenbar, dass die KI sich merken könnte, wer in der Vergangenheit nett zu ihr war und wer nicht.

Erfahren Sie mehr

Ihr Wartungsspezialist im DataCenter

Durch Jahrzehnte lange Erfahrung wissen wir worauf es in Ihrem Data Center ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.

Erfahren Sie mehr

Doch fällt das Hinzufügen von “bitte” und “danke” bei KI-Promps tatsächlich ins Gewicht?

Die Energieaufnahme der Systeme hängt von der Komplexität und Länge der Anfrage ab. Eine längere Anfrage, auch wenn sie nur aus zusätzlichen Wörtern wie „bitte“ und „danke“ besteht, enthält mehr Tokens, die verarbeitet werden müssen. Das Generieren eines Tokens benötigt etwa zwei FLOPs pro aktivem Parameter im Modell. Ein FLOP ist eine Fließkomma-Operation, die in der Informatik als Einheit für Berechnungsaufwand von Aufgaben steht.
Ein längerer Prompt erfordert somit potenziell mehr FLOPs für die Verarbeitung der Eingabe. Allerdings spielt auch die Anzahl der vom jeweiligen Modell genutzten Parameter eine Rolle. So nutzt zum Beispiel GPT-4o zwischen 100 und 400 Milliarden Parameter. Weil es sich um ein sogenanntes Mixture-of-Experts-Modell handelt, werden für eine Anfrage aber wahrscheinlich nicht alle Parameter genutzt. Geht man von 100 Milliarden Parametern für eine Anfrage aus, so entspricht die benötigte Rechenleistung pro Token 200 Milliarden FLOPs, also zwei Gigaflops. Ein Token entspricht im Mittel 0,75 Wörtern.

Der Energieverbrauch pro einzelner ChatGPT-Anfrage wird unterschiedlich geschätzt, liegt aber im Allgemeinen im Bereich von sehr wenigen Kilowattstunden (kWh). Schätzungen bewegen sich zwischen 0.0003 kWh und 0.0025 kWh für typische GPT-4o-Anfragen. Bei weniger komplexen Modellen wie zum Beispiel GPT 4o-mini ist der Energiebedarf aufgrund der geringeren Anzahl von Parametern deutlich geringer.

Der Unterschied im Energieverbrauch durch das Hinzufügen von ein oder zwei Wörtern wie „bitte“ und „danke“ dürfte im Vergleich zum gesamten Energieverbrauch einer Anfrage extrem gering sein und ist wahrscheinlich praktisch nicht messbar. Die zusätzlichen Wörter würden die Tokenanzahl der Eingabeaufforderung nur minimal erhöhen.

Allerdings sind hier zwei Dinge zu beachten: Umso komplexer das genutzte LLM (gemessen an der Zahl seiner Parameter), desto schwerer wiegen zusätzliche Token beim Energieverbrauch. Vor allem aber darf man nicht den zusätzlichen Energiebedarf für eine Anfrage als Grundlage verwenden, sondern muss die Millionen von Prompts betrachten, die jeden Tag verarbeitet werden. In Summe und über einen längeren Zeitraum hinweg können sich zusätzliche Token also durchaus auf den Energiekonsum auswirken.

Unabhängig von der Frage, wie höflich man gegenüber der KI sein sollte, ist vor allem Folgendes zu bedenken: Nicht alles muss per KI beantwortet werden, und manche Dinge sind es nach wie vor wert, in Eigenleistung erstellt zu werden. 

Was denkt Hardwarewartung 24?

Der Tweet von Sam Altman ist wohl eher als Scherz gemeint – auch wenn er es in die AI-Nachrichten geschafft hat und einige Diskussionen sowie Rechenbeispiele ausgelöst hat. Sollte das genannte Problem jedoch tatsächlich bestehen und mehrere Dutzend Millionen kosten, könnte sich Sam Altman vielleicht an die frühen Tage von Google erinnern: Damals wurden sogenannte „Stop-Words“ (also Füllwörter wie und, oder, bitte, danke) einfach herausgefiltert, und die Suche basierte ausschließlich auf Keywords und Keyword-Kombinationen.

Dadurch konnte Google nicht nur Kosten senken, sondern auch die Suchergebnisse verbessern – denn ohne Füllwörter konnten semantische Keyword-Wolken gebildet und durch Vektoranalysen präzisere Ergebnisse geliefert werden.

Bei heutigen Transformer-Modellen ist das jedoch nicht mehr so einfach möglich, da hier der gesamte Kontext einer Anfrage berücksichtigt wird. Theoretisch müssten die Ergebnisse also auch unterschiedlich sein, je nachdem ob ein >bitte oder danke enthalten ist – denn Höflichkeit ist ebenfalls ein Teil des Kontexts.

Berücksichtigt man diese Kontexte und die exponentielle Entwicklung der Modelle, und geht sogar von einer zukünftigen AGI aus, dann könnte Höflichkeit tatsächlich eine Rolle spielen – etwa durch ihre Nähe zu Freundlichkeit und Wohlwollen im semantischen Raum.

Unser Fazit: Wir bleiben auf jeden Fall höflich zu unserer KI – man weiß ja nie, was noch kommt!

Erfahren Sie mehr

Ihr Wartungsspezialist für alle großen Hardware Hersteller

Durch Jahrzehnte lange Erfahrung wissen wir worauf es bei der Wartung Ihrer Data Center Hardware ankommt. Profitieren Sie nicht nur von unserer Erfahrung, sondern auch von unseren ausgezeichneten Preisen. Holen Sie sich ein unverbindliches Angebot und vergleichen Sie selbst.

Erfahren Sie mehr

Weitere Artikel

Über den Autor:

Yusuf Sar ist der Gründer von hardwarewartung.com und Change-IT. Er ist IT-Spezialist mit langjähriger Erfahrung im Netzwerk, Security, Data Center und IT-Infrastruktur Bereich. Sehen sie einfach das Linkedin Profil: https://www.linkedin.com/pub/yusuf-sar/0/351/621
Nach oben