Diese Datenzentrum Der Energy Efficiency Best Practices Guide wurde erstellt, um Rechenzentren dabei zu helfen, ihre primären Betriebskosten zu senken: Stromverbrauch.
Da der Datenverbrauch weiterhin exponentiell ansteigt, müssen die Rechenzentren ihre Energieeffizienz maximieren, um nicht durch die Stromkosten gelähmt zu werden.
Dieser Artikel befasst sich mit den besten Praktiken, die Rechenzentren anwenden können, um ihre Energieeffizienz zu verbessern.
An erster Stelle: Messen, um zu verbessern
Wie Peter Drucker so oft zitiert wird:
Wenn man es nicht messen kann, kann man es auch nicht verbessern.
Bevor Sie eine der anderen Strategien in diesem Artikel in Erwägung ziehen, sollten Sie bereits ein Messsystem eingerichtet haben.
Google ist so sehr auf eine genaue Messung bedacht, dass es mindestens einmal pro Sekunde eine Stichprobe der Stromverbrauchseffektivität (PUE) durchführt.
Durch die Messung über das ganze Jahr hinweg können Sie saisonale Wetterschwankungen und deren Auswirkungen auf den Kühlungsverbrauch des Rechenzentrums berücksichtigen.
Das Kompetenzzentrum für Energieeffizienz in Rechenzentren hat eine hilfreicher Leitfaden zur Messung der Energieeffizienz von Rechenzentren.
Kühlung
Die Kühlanlagen sind für einen großen Teil des Stromverbrauchs eines Rechenzentrums verantwortlich. Für Rechenzentren Infrastruktur Fachleuten ist die Suche nach neuen Möglichkeiten zur Verbesserung der Stromverbrauchseffizienz (PUE) von entscheidender Bedeutung, und daher ist die Kühlung von vorrangigem Interesse.
Von den Kühlgeräten verbrauchen Kältemaschinen und Umluftklimageräte die meiste Energie, daher ist es für die Effizienz entscheidend, ihre Arbeitslast zu minimieren.
Standard-Energieeffizienz-Best-Practices für einfache Gewinne
- In den meisten durchschnittlichen Rechenzentren ist der Einsatz von Warmgang-/Kaltgang-Einhausungen zur Verbesserung der Effizienz der Luftkühlung weit verbreitet und kann in bestehenden Rechenzentren leicht nachgerüstet werden. Sie hilft, Hitzechaos und Hot Spots zu isolieren und zu beseitigen.
- Um die Gänge besser voneinander abzugrenzen, ist es gängige Praxis, die Löcher in den Regalschlitzen mit "Blindplatten" zu verschließen und so Wärmeverluste zu verhindern.
- In den letzten Jahren hat sich gezeigt, dass die Verwendung von Racks mit angeschlossenen Flüssigkeitskühlgeräten die Luftkühlung zu einem Bruchteil der Energiekosten entlasten kann, ohne dass das Rechenzentrum nachgerüstet werden muss.
- Zur Unterstützung der traditionellen Luftkühlung im Containment-Stil sind Economizer leicht erhältlich, um die "freie" Kühlung zu nutzen, wenn die Umwelt dies zulässt, und den Stromverbrauch weiter zu senken. Denken Sie daran, dass die Außenluft Verunreinigungen und Feuchtigkeit enthalten kann, und filtern Sie sie entsprechend oder verzichten Sie darauf.
- Eine andere gängige Methode besteht darin, die Umgebungstemperatur des Rechenzentrums zu erhöhen. Die meisten Geräte funktionieren auch bei einem kalten Gang von über 26 °C einwandfrei, und eine Erhöhung der Umgebungstemperatur kann den Kühlungsbedarf erheblich reduzieren
- Mit Hilfe der numerischen Strömungsmechanik kann ein Wärmemodell Ihres Rechenzentrums erstellt und die Kühlung und der Luftstrom optimiert werden, ohne dass das Rechenzentrum umstrukturiert werden muss. Mit CFT kann getestet werden, wie das System auf verschiedene Bedingungen reagiert, und es können Problembereiche mit Verbesserungsbedarf ermittelt werden.
- CFD kann auch bei der Planung eines Rechenzentrums sehr effektiv eingesetzt werden. Bedenken Sie, dass die Modellierung ein unglaublich komplexer Prozess ist, bei dem riesige Datenmengen interpoliert werden, und dass die Tools zum Zeitpunkt der Erstellung dieses Berichts im Jahr 2018 ihre Grenzen haben. Sie sind nicht wirklich für die Überwachung in Echtzeit gedacht, und bei umfangreicheren Berechnungen sind gewisse Ungenauigkeiten unvermeidlich.
Während die oben genannten Bits als Standard-Best-Practice weithin angenommen werden, haben viele Rechenzentren ihre Daten nicht aktualisiert. Infrastruktur vor kurzem oder erworben hat, die einfache Effizienz gewinnt. Hier ist ein Diagramm von submer.com zur Veranschaulichung des Konzepts Kaltgang/Warmgang:
Neben der Optimierung bestehender Kühlparadigmen gibt es eine Reihe anderer Kühlmethoden, die eine erhebliche Effizienzsteigerung über die Standardpraktiken hinaus bewirken können.
Eine dieser Methoden ist die direkte Verdunstungskühlung.
Direkte Verdunstungskühlung
Bei der direkten Verdunstungskühlung (Direct Evaporative Cooling, DEC) wird das Substrat für die Verdunstung durch Vernebelung bereitgestellt. Wenn Sie jemals die Ventilatoren gesehen haben, die in Las Vegas den Nebel ausblasen, um die Urlauber am Pool abzukühlen, haben Sie diesen Mechanismus in Aktion gesehen.
Hier ist ein Diagramm von dchuddle.com, das zeigt, wie die direkte Verdunstungskühlung funktioniert:
Laut Anne Wood, einer Führungskraft bei Phoenix MFG, Inc., ist es nicht ungewöhnlich, dass die Effizienz von DEC um 50% steigt. Es gibt jedoch einige Überlegungen:
Es liegt auf der Hand, dass die Verwendung von Wasser zur Kühlungmuss das Rechenzentrum Zugang zu einer angemessenen Wassermenge haben.
Die direkte Verdunstungskühlung erfordert außerdem ein System zur Reinigung des Wassers, zur Speicherung des Reservewassers, zum Pumpen des Nebels sowie Regler zur Steuerung von Wasserdurchfluss und Druck.
Außerdem wird durch die direkte Verdunstungskühlung Feuchtigkeit in das Rechenzentrum eingebracht, was die direkte Verdunstungskühlung in bestimmten Anwendungsfällen praktikabler macht als in anderen.
Vor allem Rechenzentren in trockeneren Gegenden mit Zugang zu Wasser würden wahrscheinlich von einer DEC-Lösung profitieren.
Bevor ein solches Gerät in Erwägung gezogen wird, können Feuchtigkeitssensoren und Prognosemodelle dabei helfen, vorherzusagen, ob DEC die Luftfeuchtigkeit im Raum über die Standardgrenzwerte von 60% hinaus erhöhen wird.
Indirekte Verdunstungskühlung ist eine etwas weniger verbreitete, aber ebenso praktikable Lösung, die auf demselben Konzept beruht.
Indirekte Verdunstungskühlung
Grundsätzlich wird die warme Luft von außerhalb des Rechenzentrums durch einen Wärmetauscher. Die Wärmetauscher erleichtert die Verdunstung und kühlt die Luft, wenn sie in das Rechenzentrum geleitet wird.
Gleichzeitig werden Feuchtigkeit und Wärme aus dem Wärmetauscher wieder ausgeschieden. Der Nachteil dabei ist, dass ein Wärmetauscher verliert gegenüber der direkten Verdunstungskühlung ein paar Grad an Kühlung.
Auch bei der indirekten Verdunstungskühlung sind zwei Ventilatoren statt einem erforderlich, wie bei der indirekten Verdunstungskühlung.
Der Vorteil der indirekten Verdunstungskühlung besteht darin, dass keine Feuchtigkeit oder äußere Einflüsse in die Umgebung des Rechenzentrums eingebracht werden, was ein Problem darstellen kann oder auch nicht.
Zusammengefasst:
- Wenn Feinstaub oder Feuchtigkeit ein Problem darstellen, ist die indirekte Verdunstungskühlung im Allgemeinen besser geeignet.
- Rechenzentren, die Zugang zu Wasser haben und sich nicht um äußere Einflüsse kümmern müssen, profitieren von einer höheren Effizienz der direkten Verdunstungskühlung.
Die innovativste der jüngsten Kühlstrategien ist jedoch die Tauchkühlung.
Eintauchkühlung
Alibaba hat sich zum Einsatz von Immersionskühlung in seinen Rechenzentren verpflichtet und schätzt, dass dadurch 75% Platz eingespart, die Leistungsdichte erhöht und die Betriebskosten um 20% gesenkt werden können.
Was die besten Praktiken für die Energieeffizienz von Rechenzentren angeht, so wird die Tauchkühlung schon sehr bald ein Standard auf dieser Liste sein.
Alibabas Eintauchkühlungstechnologie von datacenterdynamics.com:
Trotz der vielversprechenden Möglichkeit, die PUE-Werte von Rechenzentren zu senken, ist die Idee der Flüssigkeitsimmersion für viele IT-Unternehmen unangenehm.
Mit der Verbesserung der Technologie und der zunehmenden Zahl von Early Adopters wird deutlich, dass die Tauchkühlung nicht nur praktikabel, sondern auch unabdingbar ist, wenn Rechenzentren mit den steigenden Effizienzanforderungen moderner Rechenzentren Schritt halten wollen.
In Rechenzentren mit hoher Dichte wird die Tauchkühlung wahrscheinlich unverzichtbar sein, aber die bestehenden Rechenzentren sind langsamer bei der Einführung dieser Technologie.
Einige der Überlegungen zur Tauchkühlung sind Kosten und Unordnung, Infrastruktur Nachrüstung, Festplattenkompatibilität, Herstellerkompatibilität, Gewicht, Sicherheit, Platzbedarf und Ressourcenverbrauch.
Auch wenn diese Bedenken bei umfangreichen Nachrüstungsprojekten berechtigt sind, so stellen sie doch keine ausreichenden Nachteile mehr dar, um eine weit verbreitete Annahme bei künftigen Einsätzen zu verhindern.
Wir werfen einen Blick auf die einzelnen Bereiche.
Ausgaben
Die Immersionskühlung ist mit Kostenaufschlägen verbunden, die viele ihrer Energieeffizienzvorteile aufwiegen, insbesondere bei Nachrüstungen. Zu den Faktoren, die für diese Kostenaufschläge verantwortlich sind, gehören:
Messe
Tatsache ist, dass Öl und andere dielektrische Flüssigkeiten den Arbeitsaufwand für die Wartung erhöhen können. Dies variiert je nach Anbieter der Lösung.
Nachrüstung der Infrastruktur
In der Vergangenheit gab es keine universell einsetzbaren Lösungen für das Eintauchen. Dies erforderte eine vollständige Datenzentrum Nachrüstungs- oder Neubauprojekt zur Anpassung an die Flüssigkeitskühltechnologien.
Es mag zwar immer noch nicht praktikabel sein, weitere Altlasten zu beseitigen Datenzentrum für neue Kühltechniken ist die Tauchkühlung die effizientere Wahl für die meisten neuen Datenzentrum baut.
Festplattenkompatibilität
Standardfestplatten können nicht in Flüssigkeitskühlsysteme getaucht werden.
Versiegelte Spinnerei Laufwerke sind eine Option, und Solid-State-Laufwerke beanspruchen mehr Platz in modernen Datenzentren.
Darüber hinaus können modifizierte Drive-Caddys verwendet werden, um den Antrieb über der Öloberfläche zu halten.
Kompatibilität mit Anbietern
In der Vergangenheit haben die Hersteller Garantien ausgeschlossen, aber mit der zunehmenden Etablierung der Immersionskühlung in Rechenzentren InfrastrukturBei der Verwendung von Eintauchkühlung erlöschen die Garantien der Hersteller nicht mehr.
Darüber hinaus sind viele Eintauchkühllösungen, wie GRCs, mit allen wichtigen Server Anbieter und die meisten Rack-Setups.
Gewicht
Das Gewicht war in der Vergangenheit eine Herausforderung bei der Flüssigkeitskühlung, insbesondere bei Lösungen für die Rackmontage.
Das Gewicht kann ein berechtigter Grund zur Sorge sein, aber eher wegen der Systemdichte als wegen des Gewichts der Flüssigkeit.
Zusätzlich, Luftkühlung Infrastruktur ist bei der Tauchkühlung nicht mehr erforderlich, wodurch sich das Gesamtgewicht aufgrund des Ersatzes schwerer CRACs/Kühler/Optimierer usw. erheblich verringert.
Angesichts der Bodenbelastbarkeit moderner Rechenzentren und der Platzersparnis durch Eintauchkühlung sollte das Gewicht kein Hindernis sein.
Sicherheit
Bei den meisten Tauchkühlungen werden nicht entflammbare, ungiftige Flüssigkeiten verwendet. Ausrutschen durch verschüttete Flüssigkeiten ist eine berechtigte Sorge.
Bodenfläche
Einer der größten Mehrwerte der Eintauchkühlung ist die Platzersparnis, die sie bietet.
Die Eintauchkühlung ist platzsparend und macht den Einsatz sämtlicher Komponenten überflüssig. Infrastruktur erforderlich für Luftkühlung.
Zusammenfassung des Ressourcenverbrauchs: Kühlsysteme
Die Eintauchkühlung verbraucht wesentlich weniger Energie und Wasser als andere Kühloptionen. Da der Anteil der Rechenzentren am weltweiten Ressourcenverbrauch steigt, wird es immer wichtiger, die Effizienz des Ressourcenverbrauchs in unseren Rechenzentren zu verbessern Infrastruktur Systeme.
Auf der Grundlage aller relevanten Überlegungen erkennen viele Unternehmen die potenzielle Überlegenheit der Eintauchkühlung, wobei eines sogar so weit geht Bau eines kompletten Rechenzentrums unter Wasser.
Auch wenn dies für Ihr Rechenzentrum vielleicht nicht in Frage kommt, sollten Sie die Möglichkeiten der Tauchkühlung für Ihre Hardware ernsthaft in Betracht ziehen.
Strom
Vertrieb
Man schätzt, dass ein Drittel der Serverenergie verschwendet wird, bevor sie für Berechnungen verwendet wird.
Ein Großteil davon geht im Netzteil verloren, wo der Wechselstrom in Gleichstrom umgewandelt wird, und im Spannungsregler, wo der Ausgang des Netzteils in die von den Mikrochips verwendeten Spannungen umgewandelt wird. Daher ist es wichtig, in effiziente Netzteile und Spannungsregler zu investieren.
Eine kleine Änderung besteht darin, die Pufferbatterien auf den Serverracks selbst zu platzieren und eine Stufe der Umwandlung von Wechselstrom in Gleichstrom wegzulassen.
Eine weitere bewährte Methode besteht darin, die höheren Spannungen näher am Netzteil anzuordnen als die niedrigeren Spannungen, um Leitungsverluste zu verringern.
Akkus: Li-Ionen-Batterien, VRLA oder Nickel-Zink?
Obwohl Sie beim Thema Energie für Rechenzentren wahrscheinlich nicht als Erstes daran denken, sind Batterien ein wesentlicher Bestandteil der Stromversorgung in Rechenzentren. In diesem Abschnitt gehen wir auf drei der wichtigsten Batterieoptionen ein.
Ventilgeregelte Blei-Säure-Batterien (VRLA) sind seit Jahren der Standard, haben aber Nachteile gegenüber anderen Optionen:
VRLA ist weniger energieeffizient als andere Optionen
- VRLA ist sehr gefährlich - der darin enthaltene Elektrolyt (Schwefelsäure) ist ätzend, und die Bleikomponente kann unter anderem Schäden am Nervensystem verursachen.
- Geringere Lebensdauer der Batterie
- Langsameres Aufladen
- Weniger Entladezyklen
- Nicht entflammbar
Li-Ionen-Batterien hingegen:
- Höhere Vorlaufkosten haben
- Für mehr Effizienz sorgen
- Halten länger - oft so lange wie die USV
- Weniger Entladung, schnelleres Laden und mehr Entladezyklen
- entflammbar sind (nicht über 104 Grad Fahrenheit)
Nickel-Zink-Batterien (von ZincFive):
- Schneller aufladen als entweder
- haben mehr Entladezyklen als beide
- Vergleichbare Lebensdauer wie bei Lithium-Ionen-Akkus
- Höhere Leistungsdichte
- Geringe Heizleistung
- Nicht entflammbar oder giftig
- Vergleichbare Kosten wie bei High-End-Bleisystemen, niedrigerer Preis als bei Li-Ion-Batterien mit hoher Leistung
Die Nickel-Zink-Technologie an sich ist zwar nichts Neues, wurde aber noch nie in dieser Weise in Rechenzentren eingesetzt. Sie könnte sich als eine sicherere, umweltfreundlichere Option für Rechenzentren erweisen.
Virtualisierung
Mit der Servervirtualisierung benötigt ein Rechenzentrum nicht mehr so viele Server, um seine Arbeitslast zu bewältigen.
Mit weniger Servern kann der Gesamtenergieverbrauch erheblich gesenkt werden. Obwohl dies den Rahmen dieses Artikels sprengen würde, hat Gartner kürzlich eine Aktualisierung der Virtualisierungslandschaft.
Wenn Sie eine veraltete Version verwenden und über ein Upgrade auf Windows Server 2019 nachdenken, lesen Sie unsere Blog über die wichtigsten Funktionen von Windows Server 2019 für weitere Informationen.
AI
KI kann im Rechenzentrum von unschätzbarem Wert sein, mit Google gibt eine um 40% höhere Kühlleistung an nachdem er DeepMind auf sein Rechenzentrum losgelassen hat.
Auch wenn es unwahrscheinlich ist, dass Google Deepmind in nächster Zeit als Open-Source-Giveaway zur Verfügung stellen wird, bieten andere Unternehmen wie Verdigris potenzielle Lösungen zur Nutzung von Deep Learning für die Energieeffizienz von Rechenzentren an:
Es ist unvermeidlich, dass in Zukunft weitere Lösungen auftauchen werden, die ähnliche Möglichkeiten bieten, auch wenn der Pool im Moment ziemlich trocken ist.
Es ist wichtig zu wissen, dass Deep Learning und KI-basierte Systeme zur Verbesserung der Energieeffizienz nicht dasselbe sind wie DCIM-Tools (Data Center Infrastructure Management).
DCIM
DCIM unterscheidet sich grundlegend von der KI, da es immer noch die gesamte Verantwortung in die Hände der Menschen legt.
DCIM-Tools können zwar zur Optimierung des Rechenzentrumsbetriebs eingesetzt werden, aber bei der riesigen Datenmenge, die sie bewältigen, können die Tools die Erkenntnisse nicht so verarbeiten und umsetzen wie eine KI.
Nichtsdestotrotz sind energiespezifische DCIM-Systeme wie Ecostruxure IT von Schneider Electric kann sich als unglaublich hilfreich und zugänglicher erweisen als die Früchte der Arbeit der KI.
Mit einem besseren Einblick in die Vorgänge in Ihrem Rechenzentrum können Sie fundiertere Entscheidungen treffen - zumindest solange, bis die Deep-Learning-Programme alles für uns erledigen können.
DCIM-Tools ermöglichen es Managern und Administratoren, diese Server ausfindig zu machen und schlecht optimierte Arbeitslasten zu bereinigen sowie Gebäude- und Umgebungskontrollen für eine bessere Energieeffizienz zu verwalten.
Verlassen Sie sich jedoch nicht nur auf die Tools: Zu den besten Praktiken für die Energieeffizienz von Rechenzentren gehören manuelle Inspektionen, um Erkenntnisse zu gewinnen, die den Netzwerk-Tools möglicherweise entgehen.
Schlussfolgerungen: Verbesserung der Effizienz und Einsparung von Stromkosten
Wenn Sie die Technik, Strategie und Technologie in diesem Leitfaden für bewährte Verfahren zur Energieeffizienz von Rechenzentren nutzen, können Sie sich dem perfekten PUE-Index von 1,0, wie ihn Unternehmen wie Google und Facebook erreichen, stetig annähern und so von den Betriebskosteneinsparungen und der geringeren Umweltbelastung profitieren, die mit einem effizienteren Rechenzentrum einhergehen.
Es gibt zwar viel zu tun, aber man muss nicht alles auf einmal angehen.
Wissen Sie, dass Ihre Kühlung hinter den Industriestandards zurückbleibt? Vielleicht sollten Sie sich an Anbieter von Lösungen wenden, um diesen Bereich zu verbessern.
Fehlt es Ihnen an echter Transparenz, damit Sie Ihr Rechenzentrum effektiv verwalten können? Beginnen Sie damit, den Markt für DCIM-Tools zu bewerten, damit Sie fundierte Entscheidungen treffen können.
Sie müssen Platz schaffen und haben veraltete Server? Prüfen Sie gemeinsam mit dem Team die Möglichkeiten der Servervirtualisierung. Unabhängig davon, um welchen Bereich es sich handelt, werden sich konsequente Anstrengungen in rückständigen Bereichen fast immer in Form von Verbesserungen der Betriebskosten oder der Umweltverträglichkeit auszahlen.
Vorwärts bewegen: Alles muss für die Zukunftssicherheit neuer Rechenzentren bedacht werden
Da Rechenzentren immer mehr Energie verbrauchen, müssen wir uns über unsere Auswirkungen auf die Infrastruktur, unsere Energiesysteme und die Welt im Klaren sein.
Die Nachrüstung bestehender Rechenzentren kann nur in begrenztem Umfang sinnvoll sein, da viele Lösungen für bestehende Einrichtungen weder kosteneffektiv noch lohnenswert sind.
Diese Praktiken sind besonders wichtig, wenn Liquidierung bestehender Rechenzentren und den Aufbau der neuen.
Wenn Sie darüber nachdenken, welche Art von Servern Sie für ein neues Rechenzentrum anschaffen möchten, lesen Sie unbedingt unsere Beiträge über White-Box-Server und Vergleich von HPE- und Dell-Servern um das Beste für Ihre Bedürfnisse zu finden.
Energieeffizientere Rechenzentren werden dazu beitragen, sie sowohl für die Betreiber von Rechenzentren als auch für die Endnutzer kosteneffizienter zu machen und die Auswirkungen jedes einzelnen Rechenzentrums zu verringern. Da die Nachfrage nach Rechenzentrumskapazität weiter steigt, wird es immer wichtiger, effizientere Systeme einzusetzen, um den Energiebedarf auszugleichen und die Kosten für alle niedrig zu halten.
Solange wir uns ernsthaft um die Verbesserung unserer Energieeffizienz bemühen, können wir die Auswirkungen auf die Umwelt auf ein Minimum beschränken und diese große blaue Murmel am Himmel, die wir unser Zuhause nennen, noch viele Jahre genießen.