Nahezu in allen Lebensbereichen ist KI mittlerweile angekommen, jeder hat KI bewusst oder unbewusst schon mal eingesetzt. Und alle reden drüber. Aber was ist KI eigentlich und was bedeutet das für uns als Pfadfinder*innen?
In dieser Artikelserie wollen wir uns mit den vielfältigen Aspekten von KI auseinandersetzen. Wie funktioniert KI? Wo kann es uns helfen? Brauchen wir KI? Und was sind sinnvolle Einsatzgebiete im Pfadfinderalltag? Der kritische Blick soll natürlich nicht fehlen, denn „KI“ wird in den kommenden Jahren sehr viel verändern. Und nicht alles wird „besser“, darum ist es gut mitreden zu können.
In den letzten Jahren hat die Entwicklung und Nutzung von Künstlicher Intelligenz (KI) eine rasante Dynamik erfahren. KI durchdringt aktuell nahezu alle Bereiche unseres Lebens. Wir nutzen es jeden Tag in der Schule, im Job und auch in der Freizeit. Sei es bewusst, wenn wir nach einer Buchzusammenfassung fragen oder auf der Suche nach einem guten Rezept für das kommende Stammeslager sind. Aber auch unbewusst sind wir oft mit KI konfrontiert; Beispielsweise wenn uns personalisierte Empfehlungen in Streaming-Diensten begegnen oder eine App mit Hinweis auf einen Artikel, der uns bestimmt interessiert. Wie aus der Zukunft klingen da immer noch Begriffe wie „autonomes Fahren“ oder „Roboter in der Medizin“.
KI bringt unbestritten Vorteile, wird gefeiert und jeder muss es mal ausprobieren. Ein Aspekt taucht aber nur selten auf; Die Frage nach der Nachhaltigkeit von KI.
Werfen wir doch mal einen Blick auf verschiedene Aspekte der Nachhaltigkeit.
Vorab noch ein Hinweis zur Transparenz: Dieser Artikel ist auch mit Unterstützung einer KI entstanden. In diesem Fall ist es Consensus.ai, eine AI mit dem Fokus auf wissenschaftliche Arbeiten.
Der Energieverbrauch bei KI fällt insbesondere an zwei Stellen an: Beim Training – dem Lernprozess der KI – und der Inferenz, also wenn wir einen Prompt abschicken und die trainierte KI uns antwortet.
Das Training eines großen Sprachmodells mit 200 Milliarden Parametern kann bis zu 11,9 GWh verbrauchen, was ausreicht, um über 3600 durchschnittliche deutsche Haushalte ein Jahr lang mit Strom zu versorgen [1] [9].
Der Energieverbrauch für Inferenz ist oft höher als für das Training, da ein einmal trainiertes Modell Millionen von Anfragen bedienen kann [6].
Für den Energieverbrauch pro Interaktion mit ChatGPT gibt es verschiedene Schätzungen. Einige Quellen geben an, dass eine typische Anfrage an ChatGPT etwa 0,3 Wattstunden (Wh) verbraucht, was dem Energieverbrauch einer durchschnittlichen Google-Suchanfrage entspricht [10]. Andere Schätzungen gehen von etwa 2,9 Wh pro Anfrage aus, was dem Zehnfachen des Energieverbrauchs einer Google-Suche entspricht [11]. Diese Unterschiede in den Schätzungen können auf verschiedene Berechnungsmethoden, Annahmen und technologische Fortschritte zurückzuführen sein. Hinzu kommt dann der Wasserverbrauch, der je nach Anfrage bis zu einem halben Liter Frischwasser betragen kann [12].
Der tatsächliche Energieverbrauch pro Anfrage hängt von mehreren Faktoren ab. Darunter die Effizienz der verwendeten Hardware, die Implementierung des Modells und die spezifischen Anforderungen der Anfrage. Daher könnt ihr die oben genannten Werte einfach als Schätzungen betrachten.
Der Energieverbrauch von Rechenzentren, die KI-Anwendungen unterstützen, wird voraussichtlich von 382 TWh im Jahr 2022 auf 803 TWh im Jahr 2027 steigen. Dies entspricht einem Anstieg von etwa 110% und könnte bis 2030 bis zu 8% des weltweiten Stromverbrauchs ausmachen [1]. Um das in Relation zu setzen: Der gesamten Stromverbrauch Deutschlands lag 2023 bei ca. 521 TWh [8].
Aktuelle Schätzungen gehen davon aus, dass KI-Systeme alleine weltweit über 80 Terawattstunden pro Jahr verbrauchen, was dem jährlichen Stromverbrauch von Ländern wie Belgien oder den Niederlanden entspricht [7].
Gerade wegen des des hohen Energieverbrauchs gibt es Bemühungen, die Effizienz durch Hardware- und Softwareoptimierungen zu verbessern, was zu einer geringeren Wachstumsrate des Energieverbrauchs im Vergleich zur Leistungssteigerung führen wird [3]. Deepseek ist ein gutes Beispiel – abgesehen von der politischen Dimension – für die Möglichkeit mit weniger Rechenleistung, also geringerem Energieverbrauch ein Model zu entwickeln.
Der Stromverbrauch von KI ist im Vergleich zu anderen Energieverbrauchern signifikant, insbesondere bei großen Modellen. Es gibt jedoch zahlreiche Ansätze zur Verbesserung der Energieeffizienz, die den Anstieg des Energieverbrauchs abmildern können. Die Optimierung von Hardware und Software sowie der Einsatz von Edge Computing und neuromorphen Prozessoren sind vielversprechende Strategien zur Reduzierung des Energieverbrauchs in KI-Anwendungen.Ein zentraler Kritikpunkt in Bezug auf die Nachhaltigkeit von KI ist ihr enormer Energieverbrauch. Die Entwicklung und das Training moderner KI-Modelle, insbesondere von Deep-Learning-Algorithmen, erfordert immense Rechenleistung. Eine 2019 durchgeführte Studie der University of Massachusetts zeigte, dass das Training eines einzigen KI-Modells bis zu 284 Tonnen Kohlendioxid-Emissionen verursachen kann – das entspricht dem CO2-Fußabdruck von fünf Autos über ihre gesamte Lebensdauer.
Intelligentes Edge Computing: Durch die Verlagerung von KI-Aufgaben auf Edge-Geräte kann der Energieverbrauch erheblich gesenkt werden, indem weniger als 80% der Energie im Vergleich zu herkömmlichen Methoden verbraucht werden [4].
Neuromorphe Prozessoren: Diese Prozessoren ermöglichen energieeffizientes Lernen direkt auf dem Chip, was den Energieverbrauch für Lernprozesse drastisch reduziert [5].
Die Hardware, die für KI-Berechnungen erforderlich ist, stellt eine weitere Herausforderung dar. Hochleistungs-Grafikkarten, Prozessoren und spezialisierte Chips wie Tensor Processing Units (TPUs) benötigen seltene Erden und andere wertvolle Rohstoffe. Der Abbau dieser Materialien ist nicht nur umweltschädlich, sondern oft auch mit sozialen Problemen wie Ausbeutung und schlechten Arbeitsbedingungen verbunden.
Zudem entsteht durch die kurze Lebensdauer vieler Hardware-Komponenten erheblicher Elektroschrott. Die ständige Weiterentwicklung von Hardware führt dazu, dass alte Systeme schnell obsolet werden, was die Abfallmenge weiter erhöht.
Neben den ökologischen Fragen wirft die KI auch soziale Nachhaltigkeitsprobleme auf. Der Zugang zu KI-Technologien ist global extrem ungleich verteilt. Industrieländer verfügen über die Mittel und die notwendige Infrastruktur, um von den Vorteilen der KI zu profitieren, während Entwicklungsländer oft ausgeschlossen bleiben. Diese Ungleichheit könnte bestehende soziale und wirtschaftliche Unterschiede weiter verschärfen.
Ein weiteres Problem ist der Verlust von Arbeitsplätzen durch Automatisierung. KI-basierte Systeme können viele repetitive Aufgaben übernehmen, was Unternehmen zwar effizienter macht, aber auch viele Menschen in die Arbeitslosigkeit treibt. Eine nachhaltige Implementierung von KI würde erfordern, dass Lösungen für Umschulungen und neue Arbeitsmöglichkeiten geschaffen werden.
Die Diskussion um die Nachhaltigkeit von KI sollte nicht nur ökologische, sondern auch soziale und wirtschaftliche Aspekte umfassen. Einige mögliche Ansätze, um die Nachhaltigkeit von KI zu verbessern, sind:
Die Frage lässt sich mit einem klaren „Ja, aber“ beantworten. Mithilfe von KI können komplexe Fragestellungen, wie die nach effizientem Energiemanagement, Vorhersagen in Klimaveränderungen, Optimierungen in der Kreislaufwirtschaft aber auch Verbesserungen in der Nachhaltigkeit von Training und Inferenzen. Aber da ist ja immer noch der Mensch; Die entsprechenden Maßnahmen müssen validiert und umgesetzt werden. Und hier liegen die Herausforderungen: Was ist das Richtige? Setzen wir alle das Richtige um? Oder streichen wir mittels Greenwashing nur alles schick in Grün und leben weiter wie bisher? Hier liegt es an dem Menschen, die richtigen Entscheidungen zu treffen.
[7] enviaM-Gruppe, Stromverbrauch Künstliche Intelligenz
[8] Bundesumweltamt, Stromverbrauch in Deutschland
[9] Statistisches Bundesamt, Stromverbrauch der privaten Haushalte nach Haushaltsgrößenklassen
[10] Alberto Noriega, Der Stromverbrauch von ChatGPT ist viel niedriger als geschätzt
[11] Eva-Maria Weiß, ChatGPTs Stromverbrauch: Zehnmal mehr als bei Google
[12] Alokya Kanungo, The Green Dilemma: Can AI Fulfil Its Potential Without Harming the Environment?