High-Performance Computing (HPC) spielt in Forschung und Entwicklung seit langem eine entscheidende Rolle. Klimawandel und Ressourcenknappheit stellen die Entwickler und Nutzer von Hochleistungsrechnern jedoch vor neue Herausforderungen, wie die Supercomputing-Messe ISC 2022 zeigte.
Klimaforschung und Wetterkunde, Genetik und Medizin, Physik und Ingenieurwesen – das sind nur einige Bereiche der modernen Wissenschaft, in denen enorme Rechenleistungen benötigt werden. Aber auch die Wirtschaft kommt kaum mehr ohne Supercomputer aus, etwa um Finanzströme zu analysieren oder neue Produktionsmethoden zu entwickeln, das zeigte die Supercomputing-Messe ISC High Performance 2022 (ISC 2022) deutlich. Auf der hybriden Veranstaltung, die vom 29. Mai bis 02. Juni 2022 sowohl im Congress Center Hamburg als auch online stattfand, konnten sich die Besucher über die aktuellen Entwicklungen im High-Performance-Computing und den Einsatzmöglichkeiten für maschinelles Lernen und Datenanalyse informieren.
Leistung ist nicht alles
Angesichts von Klimawandel, Ressourcenknappheit und Umweltverschmutzung stand auf der Messe aber auch die Frage der Nachhaltigkeit von Supercomputing auf dem Programm. „Auf dem Weg in die Exascale-Ära können wir nicht auf der einen Seite Probleme lösen und gleichzeitig auf der andere neue schaffen“, erklärte Jeff McVeigh, Vice President der Super Compute Group bei Intel, in seiner Keynote auf der ISC 2022. Stattdessen müsse man den Energieverbrauch von Supercomputern drastisch senken, um den steigenden Bedarf an Rechenleistung klimafreundlich decken zu können, so McVeigh weiter. Der Intel-Manager forderte außerdem eine Demokratisierung im Supercomputing durch offene Standards und einen zuverlässigen Software-Stack.
Intel arbeitet beständig daran, energieeffizientere HPC-Systeme zu entwickeln. So ist es mit den skalierbaren Intel Xeon Prozessoren der 3. Generation beispielsweise gelungen, die Leistung bei typischen HPC-Applikationen im Vergleich zur Vorgängergeneration um bis zu 53 Prozent zu verbessern und gleichzeitig die Performance pro Watt um bis zu 37 Prozent zu erhöhen. Bei der Verarbeitung natürlicher Sprache (Natural Language Processing), einem typischen Anwendungsfall für künstliche Intelligenz, beträgt die Steigerung sogar bis zu 74 Prozent. Betrachtet man die 20 wichtigsten HPC-Workloads in den Bereichen Produktion, Finanzwesen, Energie, Naturwissenschaften, Electronic Design Automation (EDA) und Klimaforschung ergibt sich eine durchschnittliche Leistungssteigerung von fast 50 Prozent.
Mit dem Intel oneAPI HPC Toolkit stellt das Unternehmen zudem grundlegende Werkzeuge wie Compiler, Bibliotheken und Modelle für verschiedene HPC-Architekturen zur Verfügung, mit denen Entwickler Anwendungen erstellen, testen und optimieren können. Auf dem oneAPI DevSummit, der virtuell am 27. Mai im Vorfeld der ISC 2022 stattfand, bekamen Entwickler einen vertieften Einblick in das oneAPI Toolkit und dessen plattformübergreifenden Nutzung.
Bessere Modelle für den Katastrophenschutz
Eine der anspruchsvollsten Aufgaben für Supercomputer ist die Vorhersage von Extremwettereignissen. Hier können schon kleinste Abweichungen bei der Berechnung zu erheblichen Fehlern führen. Um schnellere und bessere Prognosen treffen zu können, benötigen Meteorologen daher immer mehr Rechenleistung. So hat die Korea Metereological Administration (KMA) beispielsweise ein neues HPC-Cluster aufgebaut. Es besteht aus zwei Systemen (Maru und Guru) mit jeweils 4.000 Knoten. Zum Einsatz kommen flüssigkeitsgekühlte Lenovo ThinkSystem SD650 V2 and SD530 Server mit skalierbaren Intel Xeon Prozessoren. Mit einer theoretischen Leistung von 50 PetaFLOPS ist der neue Supercomputer acht Mal schneller als die bisherige HPC-Installation der KMA.
Auch die NOAA (National Oceanic and Atmospheric Administration) in den USA setzt auf die dritte Generation der skalierbaren Intel Xeon Prozessoren, um mit seinem Rapid Refresh Forecast System (RRFS) extreme Wetterereignisse schneller und zuverlässiger vorhersagen zu können. NOAA nutzt dafür HPC-optimierte Serverinstanzen auf Amazon Web Services (AWS), welche die Advanced Vector Extensions-512 (Intel AVX-512) und die Intel Turbo Boost Technology unterstützen. Dank der elastischen Kapazität der AWS-Cloud und der hohen Leistung der skalierbaren Xeon Server können Wettermodelle nun wesentlich schneller und mit höherer Auflösung berechnet werden.
Spitzenleistung in Deutschland
Eines der schnellsten deutschen HPC-Cluster, der SuperMUC-NG, befindet sich im Leibniz-Rechenzentrum (LRZ) in Garching bei München. Das LRZ hat vor kurzem angekündigt, den Supercomputer zu erweitern, um neue Anforderungen in Physik und Medizin, aber auch in den Geisteswissenschaften zu adressieren.
Neben der dritten Generation skalierbarer Intel-Xeon-Prozessoren, die für HPC- und KI-Anwendungen optimiert sind, soll auch die Intel Data Center GPU (Codename Ponte Vecchio) zum Einsatz kommen, die auf Intels Xe HPC-Architektur basiert. Sie ist vor allem für 3D- und KI-Workloads optimiert. Damit die Benutzer so schnell wie möglich auf ihre Daten zugreifen können, setzt das LRZ zukünftig auf Distributed Asynchronous Object Storage (DAOS) mit Intels persistentem Optane-Speicher.
Fazit: HPC braucht Nachhaltigkeit
Noch immer wächst die Rechenleistung mit jeder neuen CPU-Generation. High-Performance Computing wird damit nicht nur leistungsfähiger, sondern auch erschwinglicher. Mit der zunehmenden Verbreitung von Supercomputern und dem ständig steigenden Bedarf an Rechenleistung nimmt jedoch auch der Einfluss von HPC auf Klima und Ressourcenverbrauch zu. Es ist daher notwendig, den ökologischen und energetischen Fußabdruck von HPC-Lösungen zu reduzieren. Dazu tragen hocheffiziente Prozessoren wie die skalierbaren Intel Xeon CPU ebenso bei wie innovative Flüssigkeitskühlsysteme, die einen Großteil der Abwärme wiederverwendbar machen.
Weitere Informationen, wie Intel zur Nachhaltigkeit von Supercomputing beiträgt, sowie umfangreiche Anwendungs- und Praxisbeispiele erhalten Sie auf der Intel-Webseite zur ISC 2022 – jetzt informieren!