Datenverarbeitung: Rechenzentren sollen grüner werden

Das Rechenzentrum der Zukunft hat etwas Schmodder angesetzt. Ziemlich viel Schmodder sogar. So viel, dass ein Arbeiter den Hochdruckreiniger auspackt und das Rechenzentrum abspritzt. Den Datenspeicher lässt die Dusche ungerührt. Er ist schließlich wasserdicht.

“Natick” heißt das Rechenzentrum der Zukunft – zumindest dann, wenn man den Ingenieuren von Microsoft Glauben schenken will. Vor zwei Jahren hat der Softwarekonzern den weißen Stahltank, vollgepackt mit 864 Servern, in der Nordsee versenkt. Diesen Sommer hat er Natick wieder an die Oberfläche geholt, mitsamt Algen, Minikrebsen und Seeanemonen. Innerlich hat sich das Rechenzentrum von all dem nicht beeindrucken lassen. Es hat das gemacht, sagt Microsoft, was es machen sollte: rechnen, und zwar sparsamer und effizienter als seine Pendants an Land.

Der Softwarekonzern ist mit diesen Forschungsaktivitäten nicht allein. Auch andere Digitalunternehmen arbeiten daran, ihre Rechenzentren fit zu machen für die Zukunft. Sie sollen nicht länger Kostentreiber, Energiefresser und Nadelöhre sein. Stattdessen sollen sie kleiner werden, grüner und dezentraler. Das allerdings ist auch dringend nötig, wenn der Traum von einer durch und durch digitalen Welt nicht jäh enden soll.

Ohne Rechenzentren geht heutzutage schließlich nichts mehr: Die meist unscheinbaren Gebäude sind das Rückgrat des Internets. Hier werden die Bilder gespeichert, die Menschen bei Instagram hochladen. Hier laufen die Videos von Netflix. Hier werden Google-Suchen durchgeführt, Amazon-Bestellungen und die Schlachten des Computerspiels “Fortnite”. Auch immer mehr Berechnungen werden hier angestellt – für all jene Prozesse, die in die nebulöse “Cloud” ausgelagert worden sind, jenen weltumspannenden, unsichtbaren Computer. Kurzum: Ohne die geschätzt acht Millionen Rechenzentren rund um den Globus würde kein Smartphone funktionieren und keine digitale Information ihren Empfänger erreichen.

Rechenzentren sind aber auch gewaltige Stromfresser. Gut 200 Terawattstunden haben die Zentren im Jahr 2018 weltweit aus der Steckdose gezogen – etwa ein Prozent des globalen Stromverbrauchs. Zu diesem Schluss kommt Eric Masanet von der Northwestern University in einer aktuellen Studie, die der Ingenieur gemeinsam mit Kollegen im Fachmagazin veröffentlicht hat. Es hätte schlimmer kommen können: Seit 2010 hat sich die globale Rechenlast in den Zentren versechsfacht, der Internetverkehr wuchs um den Faktor zehn, der Speicherplatz sogar um den Faktor 25. Trotzdem ist der Stromverbrauch, so Masanet, im gleichen Zeitraum nur um sechs Prozent gestiegen. Sparsame Prozessoren und immer besser ausgelastete Server haben dies möglich gemacht.

Doch kann das so weitergehen? Im Jahr 2023 wird die Zahl der Internetnutzer weltweit erstmals die Marke von fünf Milliarden übersteigen, schätzt der Netzwerkausrüster Cisco. Zwei Drittel aller Menschen können dann ihre Katzenbilder im Netz speichern. Auch die Datenmenge wird rasant klettern, um etwa 60 Prozent pro Jahr, wie das Beratungsunternehmen IDC ermittelt hat. Mitte des Jahrzehnts könnten demnach weltweit 175 Zettabyte erreicht sein oder 175 Billiarden Megabyte. Knapp die Hälfte davon, schätzt IDC, wird in der Cloud liegen – und damit in Rechenzentren. Lässt sich all das leisten, ohne dass der Energieverbrauch durch die Decke geht?

Nicht mit heutiger Technologie: Bislang sind Rechenzentren eher unwirtliche Orte. Wer die Möglichkeit hat, solch einen Datentempel zu besuchen, steht inmitten großer Schränke. Ein jeder ist bis obenhin vollgestapelt mit Servern, die allesamt nicht größer sind als eine halbhohe Besteckschublade aus der Küche. Dioden blinken, es ist laut, kalt, trocken und zugig.

Server laufen heiß, sobald sie komplexe Berechnungen anstellen – ganz ähnlich wie der alte Laptop, wenn er stundenlang Videos abspielt

Die wenig einladende Umgebung hat ihren Grund: Server laufen heiß, sobald sie komplexe Berechnungen anstellen – ganz ähnlich wie das alte Laptop zu Hause auf dem Sofa, wenn es stundenlang Videos abspielen muss. Um die Wärme abzuführen, blasen Rechenzentren bislang meist kalte Luft durch Löcher im Boden in den Serverraum. Der Luftstrom wird über die Prozessoren geleitet und an der Decke wieder abgesaugt – nun deutlich wärmer durch die Hitze der Computer. Das Prinzip funktioniert für Serverschränke mit einer Leistung von bis zu 20 000 Watt recht gut.

Künftig rechnen Ingenieure allerdings mit 100 000 Watt pro Schrank oder mehr. Solche Wärmemengen allein mit Luft abzuführen, wäre ausgesprochen ineffizient und teuer. Der Strombedarf für die Kühlung, der bei heutigen Rechenzentren zwischen zehn und 20 Prozent des gesamten Energieaufwands liegt, würde massiv steigen. Daher stellen die Zentren zunehmend auf wassergekühlte Systeme um.

Microsoft geht einen anderen Weg. Statt Wasser durch Server zu pumpen, will der Softwarekonzern seine Server ins Wasser stellen. Beim weißen Rechenzylinder namens Natick, im Juni 2018 vor den schottischen Orkney-Inseln in 35 Metern Tiefe versenkt, wird dazu Süßwasser aus einem internen, geschlossenen Kühlkreislauf zu den Prozessoren geleitet. Das Wasser erhitzt sich und fließt über Rohre nach außen, wo ein Wärmetauscher die Energie ans Meer abgibt – ohne dass eine Wasserrechnung droht. Ein ähnliches System wird auch benutzt, um das Innere von U-Booten kühl zu halten.

Größte Sorge im Vorfeld von Natick sei gewesen, dass sich Algen oder sonstiges Meeresgetier auf den Kühl-Lamellen des 14 Meter langen Stahltanks niederlassen und den Wärmeaustausch behindern, erzählt Projektmanager Ben Cutler auf der Website von Microsoft. Die Ingenieure experimentierten daher mit verschiedenen Beschichtungen, sogar der Einsatz von Schall und ultraviolettem Licht wurde diskutiert, um Meereslebewesen zu vertreiben. Am Ende setzte sich eine Legierung aus Kupfer und Nickel durch. Das Material führt Wärme gut ab und widersteht zugleich dem Bewuchs durch maritime Organismen, ist allerdings etwas teurer als herkömmliche Wärmetauscher.

Auch Befürchtungen, das umgebende Wasser würde sich durch die Leistung des versenkten Rechenzentrums – immerhin 240 Kilowatt – stark erhitzen, bewahrheiteten sich offenbar nicht. Ein paar Meter vom Stahlzylinder entfernt seien Temperaturen gemessen worden, die lediglich um einige Tausendstel Grad Celsius höher gelegen hätten als zuvor, schreibt Projektmanager Cutler im Fachblatt . Noch sind die Messdaten allerdings nicht in unabhängigen Fachzeitschriften veröffentlicht worden. Auch ist unklar, welche Effekte riesige Serverfarmen, zusammengesetzt aus vielen einzelnen Rechenzylindern, auf die maritime Umgebung hätten.

Den Stadtwerken von Stockholm kann es hingegen nicht heiß genug werden. Die Schweden gehen in die umgekehrte Richtung. Sie wollen die Abwärme von Rechenzentren nutzen, um ihre Häuser zu heizen. Das bis zu 85 Grad Celsius heiße Wasser aus den Kühlsystemen wird dazu ins bestehende Fernwärmenetz der Stadt gespeist. Zehn Megawatt an Leistung reichen laut den Stockholmer Ingenieuren, um 20 000 Wohnungen zu heizen. Zum Vergleich: Ein modernes Großrechenzentrum, wie es unter anderem von Facebook betrieben wird, erreicht 120 Megawatt. Bis zum Jahr 2035 sollen zehn Prozent der Stadt Stockholm mit der Abwärme von Rechenzentren beheizt werden.

Nordische Länder stehen bei den Betreibern der Zentren ohnehin hoch im Kurs: Das Klima ist frostig, was den Aufwand für Kühlsysteme senkt. Der Strom ist günstig (oder wird, wie in Schweden, stark subventioniert) und stammt meist aus regenerativen Quellen. Facebook zum Beispiel hat im schwedischen Luleå ein riesiges Rechenzentrum direkt neben einem Wasserkraftwerk errichtet. Auch der Strom für den Natick-Zylinder auf den Orkney-Inseln stammt von Wind, Sonne und Wellen. Man habe gezeigt, heißt es bei Microsoft, dass sich ein Rechenzentrum mit einem Strommix betreiben lasse, der bislang als “unzuverlässig” gegolten habe.

Der Algorithmus prognostiziert auf Basis der Wettervorhersage, in welchen Stunden mit besonders viel grünem Strom zu rechnen ist

Unzuverlässig, vor allem aber unpraktisch: Zwar behaupten alle großen Digitalkonzerne, mit Strom aus erneuerbaren Energien zu rechnen. Meist erwerben die Unternehmen dazu allerdings globale Öko-Zertifikate, während der Strom vor Ort vom nächsten Kohlekraftwerk kommt. Um auch lokal grüner zu werden, experimentiert Google in seinen Rechenzentren seit Kurzem mit einem neuen Algorithmus: Er prognostiziert auf Basis der Wettervorhersage des kommenden Tages, in welchen Stunden mit besonders viel regenerativem Strom zu rechnen ist, und legt nicht dringend benötigte Rechenaufgaben in genau diese Zeiträume. Dazu gehört, wie Projektleiterin Ana Radovanovic im Blog des Internetgiganten schreibt, unter anderem das Bearbeiten von Videos oder das Training der firmeneigenen Übersetzungssoftware.

“Erste Ergebnisse zeigen, dass die klimafreundliche Lastverteilung funktioniert”, sagt Radovanovic, ohne allerdings konkrete Zahlen zur CO2-Einsparung zu nennen. Potenzial ist jedenfalls vorhanden: Bislang sind, nach Einschätzungen von Google, nur etwa zwei Drittel aller Berechnungen des Unternehmens mit Ökostrom gelaufen. Künstliche Intelligenz soll zudem helfen, die Kühlsysteme besser an den prognostizierten Rechenbedarf anzupassen. Drei Grad weniger Raumtemperatur senken die Energiekosten theoretisch um ein Viertel. In der Praxis will Google den Strombedarf auf diese Weise bereits um 30 Prozent reduziert haben.

Das Problem: Hoch im Norden, wo es kühl ist und der Strom sauber, werden all diese Datenmengen nicht benötigt. Die Ballungszentren liegen woanders. Durch die großen Distanzen steigt allerdings die Latenz, wie Informatiker die Verzögerung beim Abruf von Informationen nennen: Ist ein Rechenzentrum 100 Kilometer entfernt, vergeht eine Tausendstelsekunde, bis es auf einen Klick reagieren kann. Liegen 5000 Kilometer zwischen Computer und Server, vergehen 50 Tausendstelsekunden. Beim Abspielen eines Films ist das vernachlässigbar. Wird allerdings die heimische Textverarbeitung in die Cloud verlegt, was viel Interaktion mit dem Server benötigt, macht sich eine hohe Latenz störend bemerkbar.

Der Trend geht daher zu kleinen, dezentralen Rechenzentren direkt vor der Haustür. Auch hierzu soll Natick seinen Beitrag leisten. Mehr als die Hälfte aller Menschen lebe weniger als 200 Kilometer von einer Küste entfernt, heißt es bei Microsoft. Im Meer versenkte Rechenzentren – effizient, schnell angebunden und ohne hohe Grundstückskosten – könnten daher eine gute Alternative darstellen.

Allerdings nur, wenn nicht alle paar Tage ein Taucher für Reparaturen vorbeischauen muss. Rechenzentren wie Natick, benannt nach einer Stadt im US-Bundesstaat Massachusetts, arbeiten daher autonom – jahrelang, bis zum Ende ihrer geplanten Lebensdauer. Vor den Orkney-Inseln hat das offenbar gut funktioniert. Zwar hätten einige Server während des Testbetriebs die Arbeit eingestellt, heißt es bei Microsoft. Insgesamt habe die Ausfallrate allerdings nur bei einem Achtel des Werts eines vergleichbaren landgestützten Rechenzentrums gelegen.

Projektmanager Cutler macht dafür die trockene Stickstoffatmosphäre im hermetisch abgeschlossenen Zylinder verantwortlich, die Korrosion und Temperaturschwankungen unterbunden habe. Und er weist darauf hin, dass keine Techniker durch das Rechenzentrum geschlurft und versehentlich gegen Server gestoßen sind, dass sie keine Kabel herausgerissen oder anderes Chaos veranstaltet haben.

Das allerdings ließe sich auch ohne schmoddrige, von Algen und Krebsen überzogene Stahlzylinder realisieren: durch autonome, komplett wartungsfreie Rechenzentren an Land. Auch daran arbeiten Microsoft, Google & Co. bereits.

Source: sueddeutsche.de

Geef een reactie