Subatomare Partikelforschung beschleunigen

AMD EPYC-CPUs ermöglichen eine schnelle Erkennung von Quarks am Forschungszentrum CERN
Jetzt bewerten:
0 %
1
5
0
 
 
 
Bewerten
 
 
 
 
 
 
0 Kommentare  
28 Downloads  
Das europäische Kernforschungszentrum CERN musste für Experimente zur Quarkerkennung riesige Datensätze von den Detektoren sammeln und auswerten. Neue AMD EPYC-CPUs ermöglichten eine schnelle Datensammlung und Quarkerkennung - und beschleunigen so die subatomare Partikelforschung am Large Hadron Collider.

Inhalt:

In der Wissenschaft geht es darum, Theorien anhand experimenteller Daten zu testen. Wenn das Testgerät jedoch aus den Partikeldetektoren des Large Hadron Collider (LHC) am Kernforschungszentrum CERN besteht, wird es schwierig. Dort erreichen die Rohdaten der Teilchenkollisionen die enorme Geschwindigkeit von 40 TB pro Sekunde. Ein Großteil dieser Kollisionsdaten ist nicht relevant, daher durchsucht ein Job die eingehenden Informationen. Der Job holt dann die Ergebnisse heraus, bei denen die höchste Wahrscheinlichkeit besteht, dass sie kritische Erkenntnisse liefern. Dies ist eine äußerst aufwändige Aufgabe für High Performance Computer und erfordert die leistungsfähigste verfügbare Server-Hardware. Weil das CERN sich seit einiger Zeit auf den bevorstehenden LHC-Neustart im Jahr 2021 vorbereitet suchte es nach einer Hardware-Plattform, die den Anforderungen des immensen Datenaufkommens gerecht wird. Das Whitepaper zeigt, warum sich das CERN bei dieser Herausforderung für AMD EPYC-Prozessoren der 2. Generation entschied - und warum die CPU die für das Experiment erforderliche Verarbeitungsleistung, Speichergeschwindigkeit und Bandbreite liefern kann.

Originalauszug aus dem Dokument:

Like SDSC’s Comet supercomputer, which is slated to remain in operation through March 2021, Expanse will continue to serve what is referred to as the “long tail of science.” Expanse will run workloads from virtually every discipline, from multi-messenger astronomy, genomics and the social sciences to biological sciences, earth sciences, material science, quantum chemistry and astrophysics.

These workloads include high-throughput computing, batch-scheduled jobs and science gateways. Expanse will also support direct integration with commercial cloud, which will allow users to access cloud HPC resources via Expanse, and composable systems, which is an approach that integrates HPC systems, instruments, data analysis and high performance networks into purpose-specific resources.

“Our tagline with Expanse is ‘Computing Without Boundaries,’” Strande says. “We’ve moved beyond the walls of the data center and what we typically think of as an HPC system — racks, servers, storage, networks and all that — and embedded the HPC system in a much larger ecosystem of distributed resources.”