Zum Hauptinhalt springen
Zusammen das Data-Center weiterentwickeln

Zusammen das Data-Center weiterentwickeln

High-Performance Technical Computing: Wie IT anspruchsvolle Aufgaben löst

High-Performance Technical Computing: Wie IT anspruchsvolle Aufgaben löst
Advanced Micro Devices GmbH
Firma: Advanced Micro Devices GmbH
Sprache: Deutsch
Größe: 1 Seite
Erscheinungsjahr: 2023
Besonderheit: registrierungsfrei
Aktuell,
relevant und
hier zuerst!

Komplexe technische und wissenschaftliche Berechnungen stellen besonders hohe Anforderungen an die Leistungsfähigkeit von Computersystemen. Unternehmen und wissenschaftliche Einrichtungen benötigen daher Infrastrukturen, die für diese Aufgaben optimiert sind.

Rechenintensive Workloads werden für Unternehmen immer wichtiger. Laut dem Marktforschungsinstitut IDC werden die weltweiten Ausgaben für Performance Intensive Computing (PIC) bis 2024 auf 34,8 Milliarden US-Dollar steigen. 2021 waren es noch 20,2 Milliarden US-Dollar. Neben Künstlicher Intelligenz und Big-Data-Analyse treiben vor allem anspruchsvolle technische und wissenschaftliche Fragestellungen das Wachstum. Das sogenannte High-Performance Technical Computing ist ein wesentlicher Grund für die steigende Nachfrage nach High-Performance-Computing-Systemen (HPC). Dem Marktforschungsinstitut Hyperion Research zufolge wird der Gesamtmarkt für HPC von rund 37 Milliarden US-Dollar im Jahr 2022 auf über 52 Milliarden US-Dollar im Jahr 2026 anwachsen. Forschungseinrichtungen, Pharma- und Chemieindustrie, Automobilhersteller, Finanzdienstleister und Telekommunikationsanbieter sind nur einige der Organisationen und Branchen, in denen High-Performance Technical Computing zum Alltag gehört. Auch in der Stadtplanung, im Verkehrsmanagement oder im Gesundheitswesen werden zunehmend HPC-Systeme eingesetzt.

Anwendungsgebiete für High-Performance Technical Computing

Hochleistungscomputer kommen überall dort zum Einsatz, wo komplexe Systeme mit Hunderten oder gar Tausenden Parametern entworfen, untersucht, entwickelt oder prognostiziert werden sollen. Typische Anwendungsgebiete sind:

Numerische Strömungsmechanik: Das Strömungsverhalten von Luft oder Flüssigkeiten ist komplex und lässt sich meist nicht analytisch berechnen. Numerische CFD-Modelle (Computational Fluid Dynamics) haben sich als Alternative zu kostspieligen Versuchen im Strömungskanal etabliert. Die Berechnungen sind allerdings aufwendig und erfordern eine hohe Rechenleistung.

Finite-Element-Analyse: Die Finite-Element-Analyse (FEA) wird vor allem dazu verwendet, das Verhalten von geometrisch komplexen Festkörpern zu berechnen. Wie verhält sich die Karosserie eines Autos bei einem Aufprall? Wo wird ein Motor am heißesten? Wie schnell verschleißt ein Kugellager? Das sind typische Fragen, die mit Hilfe der FEA beantwortet werden können. Der Festkörper wird dazu in sehr viele kleine, geometrisch einfache Formen zerlegt. Das Verhalten dieser „finiten Elemente“ kann aufgrund der geringen Komplexität relativ einfach berechnet werden. Um das physikalische Verhalten des Gesamtkörpers zu analysieren, sind jedoch sehr viele solcher Berechnungen nötig, was leistungsfähige Computer voraussetzt.

Entwurfsautomatisierung bei elektronischen Schaltungen: Unter Electronic Design Automation (EDA), oft auch als Electronic System Design (ESD) bezeichnet, versteht man die computergestützte Entwicklung von Schaltplänen, Leiterplatten, Chips, integrierten Schaltungen und Multi-Chip-Modulen. Auch diese Aufgabe ist sehr rechenintensiv, schließlich müssen Millionen von Transistoren auf engstem Raum platziert und miteinander verbunden werden. Um die Komplexität zu verringern, kommt häufig das Abstraktionsmodell RTL (Register Transfer Level) zum Einsatz, das elektronische Schaltungen auf drei prinzipielle Elemente reduziert: Register, die die Zustandsinformationen enthalten, eine kombinatorische Logikschaltung, mit der die Eingangsparameter für Zustandsänderungen definiert werden, und ein Zeitgeber, der die Zustandsänderungen synchronisiert.

Wo Unternehmen rechenintensive Workloads betreiben

Knapp 50 Prozent der von IDC befragten Organisationen nutzen das eigene Rechenzentrum für HPC-Aufgaben, fast ebenso viele (47,4 Prozent) bevorzugen die Cloud. Rund ein Drittel führt anspruchsvolle Berechnungen auch dezentral am Edge aus.

Für das eigene Data Center spricht vor allem die Hoheit über Infrastruktur und Daten. Über 70 Prozent der Befragten nennen diese Aspekte als wichtigste Gründe für den Aufbau einer eigenen High-Performance-Computing-Infrastruktur. Das überrascht nicht, schließlich werden in HPC-Umgebungen oft große Mengen sensibler Daten verarbeitet und Ergebnisse gewonnen, die nicht in die Hände der Konkurrenz gelangen sollten.

Die Vorteile der Cloud liegen aus Sicht der Befragten vor allem bei Sicherheit und Skalierbarkeit. Cloud Provider übernehmen das Management, die Überwachung und die Aktualisierung der Systeme, was das interne IT-Team von Security-Aufgaben entlastet. Zudem benötigen HPC-Workloads in Spitzenzeiten sehr viel Rechenleistung, die aber nicht notwendigerweise kontinuierlich vorgehalten werden muss. Auch hier bieten Cloud-Systeme Vorteile, da Leistung flexibel hinzugebucht oder auch wieder abbestellt werden kann.

Für Edge Computing sprechen vor allem die kurzen Wege zwischen Datenerfassung und -verarbeitung. Bei vielen anspruchsvollen Anwendungen wie dem autonomen Fahren, der smarten Produktion oder der intelligenten Verkehrssteuerung spielt die Latenz eine große Rolle. Sie lässt sich durch Edge Computing minimieren. Nach Ansicht der IDC-Analysten wird HPC am Edge in Zukunft an Bedeutung gewinnen, da immer mehr Daten lokal anfallen und verarbeitet werden müssen. Schon heute gibt es laut IoT Analytics weltweit fast 17 Milliarden vernetzte Geräte, die Daten liefern, 2027 sollen es fast 30 Milliarden sein.

Anforderungen an die IT-Infrastruktur

Unabhängig davon, für welches Bereitstellungsmodell sich Unternehmen entscheiden, benötigen sie in jedem Fall eine IT-Infrastruktur, die zu Höchstleistungen fähig ist. AMD hat sich in den vergangenen Jahren stark auf diesen Bereich konzentriert und sowohl Hauptprozessoren (CPU) als auch Grafikprozessoren (GPU) für das High-Performance Computing entwickelt. Der weltweit leistungsfähigste Supercomputer, das Frontier-System am Oak Ridge National Laboratory (ORNL) in Tennessee, nutzt AMD EPYC-Prozessoren mit fast 8,7 Millionen Kernen sowie AMD Instinct 250X GPUs. Auch Europas größter Supercomputer, LUMI, basiert auf AMD-Technologie. Er ist darüber hinaus auch eines der energieeffizientesten HPC-Systeme der Welt. (Mehr dazu im Beitrag „Der grüne Supercomputer: Wie nachhaltiges High-Performance Computing gelingt“).

Für High-Performance Technical Computing im eigenen Rechenzentrum oder am Edge bietet AMD mit der EPYC 9004-Serie x86-Server-Prozessoren, die für HPC-Workloads optimiert sind. Mit bis zu 96 „Zen 4“-Kernen und 1.152 MB L3-Cache pro Sockel bieten sie genügend Reserven auch für anspruchsvollste Aufgaben. Strömungsmechanik, Finite-Elemente-Analyse und EDA-RTL profitieren besonders von der 3D V-Cache-Technologie der AMD-Prozessoren. Sie ermöglicht es, den L3-Cache direkt über dem Hauptprozessor zu platzieren. So kann die Speicherbandbreite maximiert und die Latenz minimiert werden. Laut AMD lassen sich dadurch CFD-Berechnungen um bis zu 2,5-mal, FEA-Analysen um bis zu 2,1-mal schneller durchführen als mit vergleichbaren Konkurrenzprodukten. Im Bereich EDA-RTL konnte AMD die Leistung gegenüber Vorgängergeneration um den Faktor 1,2 steigern.

Darüber hinaus ist die Rechnerarchitektur so ausgelegt, dass sie eine superlineare Skalierung ermöglicht. Darunter versteht man Systeme, die von Wachstum überproportional stark profitieren oder ab einer bestimmten Größe neue Eigenschaften entwickeln. Mit einem Cluster aus acht AMD-EPYC-9004-Rechenknoten lässt sich beispielsweise bei der Berechnung von Strömungsereignissen eine Leistung erzielen, die der eines 14-Knoten-Clusters entspricht.

Fazit: High-Performance Technical Computing braucht optimierte Systeme

Technisch-wissenschaftliche Anwendungsgebiete wie die Strömungsmechanik, die Finite-Elemente-Analyse oder der Entwurf elektronischer Schaltungen stellen hohe Anforderungen an die Rechenleistung von IT-Systemen. Wer solche Berechnungen durchführen will, sollte daher auf eine IT-Infrastruktur setzen, bei der Rechenkapazität und Arbeitsspeicher für diese Aufgaben optimiert sind. Ist diese Infrastruktur zudem superlinear skalierbar, lässt sie sich einfach und kosteneffizient an steigende Anforderungen anpassen.

High-Performance Technical Computing: Wie IT anspruchsvolle Aufgaben löst

Inhaltstyp: Artikel
Advanced Micro Devices GmbH