Zum Hauptinhalt springen
Zusammen das Data-Center weiterentwickeln

Zusammen das Data-Center weiterentwickeln

Power Management von Server-CPUs: ein Schlüssel zu energieeffizienteren Rechenzentren

Power Management von Server-CPUs: ein Schlüssel zu energieeffizienteren Rechenzentren
Advanced Micro Devices GmbH
Firma: Advanced Micro Devices GmbH
Sprache: Deutsch
Größe: 1 Seite
Erscheinungsjahr: 2024
Besonderheit: registrierungsfrei
Aktuell,
relevant und
hier zuerst!

Steigende Energiekosten und anspruchsvolle Klimaschutzziele erfordern mehr Energieeffizienz im Rechenzentren. Dabei kommt dem Power Management eine wichtige Rolle zu.

Weltweit werden rund zehn Prozent des Energieverbrauchs für den Betrieb von IT- und Kommunikationssystemen (IKT) aufgewandt – mit steigender Tendenz: Laut dem Electricity 2024 Report der Internationalen Energieagentur (IEA) könnte sich allein der Strombedarf für den Data-Center-Betrieb bis 2026 mehr als verdoppeln. In Irland verbrauchen Rechenzentren schon heute mehr Strom als alle städtischen Haushalte zusammen. Auch in Deutschland wird ein starker Anstieg des Energiebedarfs durch IT-Infrastrukturen erwartet.

Um den steigenden Energieverbrauch zumindest zu bremsen, müssen Rechenzentrumsbetreiber und Cloud Provider ihre Infrastrukturen optimieren und so energieeffizient wie möglich gestalten. Die Energieeffizienz eines Rechenzentrums zu messen, ist jedoch gar nicht so einfach. Klassischerweise wird dafür der PUE-Wert (Power Usage Effectiveness) verwendet. Er gibt an, welcher Anteil der insgesamt eingesetzten Energie tatsächlich für die IT-Systeme genutzt wird. Bei einem PUE-Wert von eins würde die gesamte Energie in die IT fließen, bei einem Wert von zwei nur die Hälfte. Derzeit gelten Rechenzentren mit einem PUE-Wert von 1,3 oder weniger als energieeffizient. Laut dem „Gesetz zur Steigerung der Energieeffizienz in Deutschland“ (EnEfG) müssen Rechenzentren, die nach dem 01. Juli 2026 ihren Betrieb aufnehmen, sogar einen PUE-Wert von 1,2 erreichen.

Die Aussagekraft des PUE-Wertes ist jedoch begrenzt, da er keine Auskunft darüber gibt, wie effizient die IT-Systeme die aufgenommene Leistung für die Verarbeitung der Workloads nutzen. Die Internationale Energieagentur schlägt deshalb in ihrem „Technology Collaboration Programme on Energy Efficient End-use Equipment“ (4E TCP) ergänzende Kennzahlen für die Energienutzung in Rechenzentren vor. Der SIC (Server Idle Coefficient) und der DCIC (Datacenter Idle Coefficient) sollen messen, wie viel Energie pro Server beziehungsweise im gesamten Rechenzentrum durch nicht ausgelastete Maschinen verschwendet wird. Bei Tests in einem Amsterdamer Rechenzentrum fanden Forscher Server, deren CPUs 80 Prozent der Zeit im Leerlauf waren und die einen SIC-Wert von über 60 Prozent aufwiesen. Den Autoren zufolge verschwendet eine solche Maschine 20 kWh Strom pro Woche.

Servereffizienz steigern – mit dem richtigen Power Management

Um Leerlauf und Energieverschwendung zu vermeiden, müssen sich die Betriebsparameter der Serverkomponenten kontinuierlich messen und in Echtzeit auswerten lassen. Prozessoren wie die AMD EPYC 9004 und 8004 Serien liefern deshalb kontinuierlich detaillierte Telemetriedaten an das AMD Infinity Power Management, das für eine optimale Lastverteilung sorgt. Die automatische Optimierung liefert bereits sehr gute Ergebnisse – die Energieeffizienz kann aber durch Einstellung der folgenden Parameter noch verbessert werden:

  • Configurable Thermal Design Power (cTDP): Die Thermal Design Power ist ein Maß für die thermische Verlustleistung einer CPU. Je höher der Wert, desto mehr Abwärme entsteht, die abgeführt werden muss. Durch eine dynamische Anpassung der TDP lässt sich die Kühlleistung optimieren, die ihrerseits einen erheblichen Einfluss auf den Gesamtenergieverbrauch im Rechenzentrum hat.
  • Frequency Boost: Dieser Parameter gibt an, ob die Rechenkerne übertaktet werden dürfen oder nicht.
  • Processor P-States: Neben der Basisfrequenz (P0) lassen sich weitere Zustände mit geringerer Prozessortaktung definieren (P1 und P2), die bei weniger anspruchsvollen Workloads zum Einsatz kommen. Prozessoren im P0-Zustand können übertaktet werden, sofern die Frequency-Boost-Funktion aktiviert ist.
  • Adaptive Idle Control: Definiert verschiedene Ruhezustände und stellt die Datenkonsistenz nach dem Aufwachen aus dem Idle Modus sicher.
  • I/O Performance Settings: Ermöglicht die automatische Leistungsanpassung von Netzwerk- und Festplattentreibern.

Performance Determinism versus Power Determinism

Mit EPYC Prozessoren lassen sich zwei verschiedene Strategien für die Taktung der Rechenkerne realisieren: „Performance Determinism“ und „Power Determinism“. Im ersten Fall sorgt die System Management Unit (SMU) dafür, dass alle CPUs des gleichen Typs in einem Serververbund dieselbe Leistung erbringen. Diese Einstellung empfiehlt sich beispielsweise für Cloud-Umgebungen, in denen die Zuweisung von Workloads auf einzelne Server dynamisch erfolgt. Sie stellt sicher, dass eine Applikation immer gleich reagiert, egal auf welchem Server sie ausgeführt wird.

In Fällen, in denen eine konstante geräteübergreifende Performance nicht entscheidend ist, empfiehlt sich die zweite Strategie. Sie berücksichtigt die Leistungsanforderungen der jeweiligen Workloads und die Umgebungsbedingungen. Die SMU kann einzelne Server-CPUs übertakten, solange die vorgegebenen cTDP-Werte nicht überschritten werden. In einem typischen Serverrack, in dem die Kaltluftzufuhr von unten erfolgt, werden beispielsweise die unteren Server etwas besser gekühlt als die oberen. Im Power-Determinism-Modus kann die SMU dies berücksichtigen und die Leistung der besser gekühlten Maschinen erhöhen.

Zusätzlich bieten die Prozessoren der EPYC 9004 und 8004 Serien die Möglichkeit, die Performance an spezifische Anforderungen anzupassen. Anwender können festlegen, ob sie maximale Leistung (High Performance Mode), hohe Effizienz (High Efficiency Mode), größtmöglichen Datendurchsatz (I/O Performance Mode) oder ein Gleichgewicht zwischen Rechenleistung und Datendurchsatz (Balanced Memory Mode) benötigen.

Fazit: Power Management – ein wichtiger Beitrag zu Energieeffizienz und Nachhaltigkeit

Rechenzentren müssen immer mehr Leistung erbringen, ohne dass die Energiekosten explodieren. Auch unter Nachhaltigkeitsaspekten ist es wichtig, IT-Infrastrukturen möglichst effizient zu betreiben. Das Power Management der Server-CPUs spielt dabei eine wichtige Rolle. Durch eine optimale Anpassung an die benötigte Leistung lassen sich Leerlaufzeiten und Strombedarf reduzieren. Optimal ausgelastete Server erzeugen zudem weniger Abwärme, was den Kühlungsbedarf senkt und die Energiebilanz weiter verbessert.

Neben dem Power Management spielt vor allem die Wahl der richtigen CPU eine entscheidende Rolle für die Effizienz eines Servers. Der Prozessor muss zu den zu verarbeitenden Workloads passen und sollte weder über- noch unterdimensioniert sein. AMD EPYC Prozessoren sind dank ihrer modularen Architektur in unterschiedlichsten Varianten erhältlich, so dass Anwender das passende Modell für jede Anforderung finden können. Das AMD EPYC Processor Selector Tool bietet wertvolle Unterstützung bei der Auswahl.

Power Management von Server-CPUs: ein Schlüssel zu energieeffizienteren Rechenzentren

Inhaltstyp: Artikel
Advanced Micro Devices GmbH