Kolumne: Stropek as a Service

Gutes Klima in der Cloud: Wie Cloud-Computing beim Klimaschutz helfen kann
Keine Kommentare

Eine Motivation, mich auf Cloud-Computing zu spezialisieren, war von Anfang an die Steigerung der Nachhaltigkeit von IT durch effizientere Nutzung von Ressourcen in Rechenzentren. Heute ist dieses Thema angesichts der Klimakrise so aktuell wie nie. Daher möchte ich ihm diesmal meine SaaS-Kolumne widmen.

Wir können davon ausgehen, dass die durch Menschen verursachte Erwärmung der Erde um 1,5° C gegenüber dem vorindustriellen Zeitalter in etwa im Jahr 2040 erreicht sein wird. Das setzt allerdings voraus, dass sofort drastische Maßnahmen in Sachen Reduktion von CO2-Emmissionen getroffen werden und die Emissionen bis 2055 auf Null sinken. Es mangelt von politischer Seite nicht an Absichtserklärungen. Den Worten folgen aber nur selten Taten. Wenn überhaupt, dann wird zögerlich reagiert. Daher kann man davon ausgehen, dass die Erderwärmung in den nächsten Jahrzehnten ein höheres Niveau erreichen wird – mit entsprechend ernsthaften Folgen.

Das sind alles andere als rosige Aussichten für die mittel- bis langfristige Zukunft. Als Softwareentwickler frage ich mich, was ich auf meinem Spezialgebiet tun kann, um etwas zur Verbesserung der Situation beizutragen. Eine Motivation, mich auf Cloud-Computing zu spezialisieren, war von Anfang an die Steigerung der Nachhaltigkeit von IT durch effizientere Nutzung von Ressourcen in Rechenzentren. Heute ist dieses Thema angesichts der Klimakrise so aktuell wie nie. Daher möchte ich ihm diesmal meine SaaS-Kolumne widmen. Der Artikel enthält viele Hinweise auf die Azure-Rechenzentren von Microsoft. Das darf nicht so verstanden werden, dass die anderen großen Cloudanbieter wie Amazon oder Google schlechter als Microsoft in Sachen nachhaltige Cloud sind, teilweise ist das Gegenteil der Fall. Ich arbeite aber primär mit Microsoft zusammen und kenne daher dieses Unternehmen viel besser als dessen Marktbegleiter. Das ist der Grund für die vielen Beispiele aus dem Microsoft-Umfeld.

Effizienz als Schlüssel zum Klimaschutz

Die großen Cloudanbieter wie Microsoft betreiben Rechenzentren in einer Größenordnung, die ansonsten kaum andere Organisationen erreichen. Effizienzsteigerungen schlagen sich dementsprechend deutlich in den Ergebnissen der Cloudkonzerne nieder. Wenige Prozent Ersparnis im Bereich Energieeffizienz der Server machen für eine mittelständische Firma mit eigenem Rechnerraum nicht viel aus. Darum kümmert man sich nicht. Betreibt man aber um viele Zehnerpotenzen mehr Server, hinterlassen auch kleine Verbesserungen deutliche Spuren. Konzerne wie Microsoft investieren daher enorme Summen und viel Aufmerksamkeit in die Steigerung der Effizienz ihrer Cloudrechenzentren. Konkret geht es dabei um folgende Punkte:

  • Betriebseffizienz
  • Hardwareeffizienz
  • Infrastruktureffizienz
  • Nutzung erneuerbarer Energie

Betriebseffizienz

In der Cloud können Ressourcen relativ schnell allokiert und wieder freigegeben werden. Das gesamte Betriebsmodell ist auf elastisch skalierende Systeme ausgelegt. Dadurch lassen sich Überkapazitäten (Overprovisioning) vermeiden. Ein Server, der – zumindest zeitweise – nicht benötigt und daher abgeschaltet wird, ist besser als jeder noch so energieeffiziente, der ohne sinnvolle Aufgabe nur heiße Luft produziert.

BASTA! Spring 2020

Dr. Holger Schwichtenberg

Von .NET Framework zu .NET Core migrieren oder nicht migrieren, das ist hier (nicht die einzige) Frage!

mit Dr. Holger Schwichtenberg (www.IT-Visions.de/5Minds IT-Solutions)

Rainer Stropek

C#-8- und .NET-Core-3-Workshop

mit Rainer Stropek (software architects/www.IT-Visions.de)

Adrienne Tacke

Azure Automation: The Good Parts

mit Adrienne Tacke (Adrienne Tacke)

Dazu kommt, dass Serverfarmen in der Cloud von Grund auf für Multi-Tenancy gestaltet sind. Mehrere Cloudanwendungen können dadurch sauber voneinander getrennt auf gemeinsamer Serverinfrastruktur betrieben werden. Das steht in krassem Gegensatz zu dem, was ich in mittelständischen Rechenzentren immer wieder sehe. Dort widmet man jeder noch so kleinen Anwendung zumindest eine eigene VM, wenn nicht einen eigenen Server, um gegenseitige Beeinflussung zu vermeiden. Durch Multi-Tenancy kann die Dichte an Anwendungen pro Server (Hosting Density) deutlich erhöht werden, man spart sich Server und die damit verbundene Hardware, Kühlung etc.

Steigert man die Auslastung moderner Server, steigt deren Energieverbrauch weniger stark als die genutzte Rechenleistung. Eine Studie von Microsoft hat beispielsweise gezeigt, dass eine Steigerung der Auslastung eines Servers von 10 auf 40 Prozent, also eine Vervierfachung der Rechenlast, nur eine Steigerung der notwendigen Energie um den Faktor 1,7 zur Folge hat. Die Maßnahmen, die in der Cloud in großem Maßstab zur Steigerung der Serverauslastung getroffen werden, helfen also, die notwendige Gesamtenergie zu senken.

Hardwareeffizienz

Große Cloudanbieter wie Microsoft können durch ihr Einkaufsvolumen auf das Design der Serverhardware in einem Maß Einfluss nehmen, das für kleinere Unternehmen nicht möglich ist. Dadurch können die Server auf die Bedürfnisse der Cloudumgebung optimiert und der Energieverbrauch kann minimiert werden. Ich finde es auch eine sehr positive Entwicklung, dass der Open-Source-Gedanke aus der Softwarewelt in den Bereich der Rechenzentrumshardware übernommen wird. Microsoft stellt beispielsweise viele Innovationen im Hardwarebereich als Open-Source-Designs zur Verfügung.

Infrastruktureffizienz

Der Energieverbrauch eines Rechenzentrums wird nicht nur durch die Effizienz der Server bestimmt. Zu betrachten ist auch das Verhältnis zwischen der Energie, die in ein Rechenzentrum hineinfließt, und der Energie, die tatsächlich für Rechenleistung verwendet wird. Dieses Verhältnis wird als PUE-Faktor (Power Usage Effectiveness) bezeichnet. Ein Wert von 1 würde bedeuten, dass die gesamte Energie für Rechenleistung genutzt und keine Energie für Kühlung, Beleuchtung etc. verwendet wird. PUE-Werte größer 2 sind für kleinere Rechenzentren typisch [1]. Moderne Cloudrechenzentren erreichen Werte von 1.1 und weniger. Microsoft beispielsweise erreicht bereits im Durchschnitt für alle neuen Azure-Rechenzentren einen PUE-Wert von 1,125.

Große Cloudprovider können bei der Verbesserung des PUE-Faktors von Economy of Scale profitieren: Sie können sich durch ihre Größe Forschung und Entwicklung im Bereich Energieeffizienz leisten, die für kleinere Organisationen undenkbar wären. Hier zwei Beispiele:

Nutzung erneuerbarer Energien

Die meisten der großen Cloudprovider arbeiten CO2-neutral. In Zeiten, in denen man regelmäßig vom Nichterreichen von Klimazielen liest, ist es erfrischend, zu erfahren, dass Microsoft beispielsweise das für 2020 gesetzte Ziel von 60 Prozent erneuerbarer Energie schon 2019 erreicht und nun 70 Prozent für 2023 angestrebt werden. Google hat in dieser Hinsicht die Nase vorn und arbeitet schon heute mit 100 Prozent erneuerbarer Energie. Bedenkt man, dass 2025 rund 4,5 Prozent des globalen Stromverbrauchs auf Rechenzentren entfallen werden, sind CO2-neutraler Betrieb und hoher Anteil an grüner Energie wichtige Faktoren.

Verantwortung der Entwicklungsteams

Verschiebt man die bestehende IT in die Cloud, kann das abhängig vom Status quo bereits positiv für den Klimaschutz sein. Einen noch größeren Unterschied macht der Wechsel aber dann, wenn Entwicklungsteams die Software modernisieren und die Möglichkeiten der Cloud besser nutzen. Hier einige Beispiele:

  • Statt jedem noch so einfachen Web-API eine eigene, dicke Windows VM zu widmen, kann ein schlanker Linux-basierter Docker-Container die Hosting Density erheblich steigern.
  • Serverless-Dienste geben dem Cloudprovider die Möglichkeit, selten oder mit stark schwankender Last genutzte Dienste automatisch zu skalieren und Überkapazitäten zu vermeiden. Das reduziert nicht nur den Energieverbrauch, es hilft auch, die Cloudkosten zu reduzieren.
  • Alle großen Cloudprovider bieten Kosten- und Auslastungsdaten per Web-APIs an. Diese können in Controllingsysteme eingespielt und dadurch transparent gemacht werden. Die automatischen Abrechnungs- und Telemetriesysteme von Cloud-Computing-Anbietern helfen dabei, im Unternehmen Anreize zur Effizienzsteigerung bei Servern zu etablieren.
  • Kosten sind in der Cloud variabel. Unnütze Dienste kosten laufend Geld und können ohne großen Aufwand abgedreht werden. Selbst ohne Serverless können viele Clouddienste mit einfachsten Mitteln skaliert werden (z. B. zeitgesteuert in der Nacht oder am Wochenende). Das Preismodell der Cloud erzieht also automatisch zu höherer Effizienz.

Fazit

Es ist schade, dass in vielen Firmen, mit denen ich über Cloud-Computing spreche, Clouddiskussionen nur vom Thema regionale Speicherung und Verarbeitung von Daten dominiert werden. Selten wird das Thema ganzheitlich betrachtet und werden Aspekte wie Klimaschutz durch Effizienzsteigerung berücksichtigt. Server im firmeneigenen Rechnerraum werden durch veraltete Klimageräte gekühlt und sie laufen, ohne dass sich jemand um ihre sinnvolle Auslastung kümmert. Wenn das nächste Mal ein Austausch ins Haus steht, sollte man sich überlegen, ob eine Modernisierung der Software und ein Wechseln in die Cloud nicht ein sinnvoller Beitrag zum Klimaschutz wären.

Links & Literatur

[1] Shehabi, Arman et al.: „United States Data Center Energy Usage Report“. Berkeley, CA: Lawrence Berkeley National Laboratory. LBNL-1005775, 2016

Windows Developer

Windows DeveloperDieser Artikel ist im Windows Developer erschienen. Windows Developer informiert umfassend und herstellerneutral über neue Trends und Möglichkeiten der Software- und Systementwicklung rund um Microsoft-Technologien.

Natürlich können Sie den Windows Developer über den entwickler.kiosk auch digital im Browser oder auf Ihren Android- und iOS-Devices lesen. Außerdem ist der Windows Developer weiterhin als Print-Magazin im Abonnement erhältlich.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -