Intels neueste Xeon-CPU der vierten Generation integriert Beschleuniger, die Leistung, Effizienz und Sicherheit kritischer Anwendungen verbessern. Der Webhoster IONOS bietet seinen Kunden die aktuelle Intel-Technologie auf seinen dedizierten Servern an.
Wer spezielle Anwendungen betreibt, braucht oft spezielle CPUs. Komplexes Deep-Learning-Training beispielsweise erfordert hochleistungsfähige GPUs oder KI-Prozessoren, um nicht wochenlang auf das Ergebnis warten zu müssen. Anwender, die auf Sicherheit Wert legen – bei denen die Vertraulichkeit von Daten oder die Integrität des Programmcodes eine wichtige Rolle spielen – benötigen Prozessoren mit dedizierten Security-Features. Stehen wiederum Nachhaltigkeit und geringer Energieverbrauch im Vordergrund, ist eine energieeffiziente CPU mit möglichst geringem Stromverbrauch die richtige Wahl.
Für jeden spezifischen Workload eine darauf zugeschnittene CPU zu nutzen, ist allerdings teuer und wenig nachhaltig. Anstatt jedes Mal einen passenden Server zu kaufen, wenn eine neue Funktion benötigt wird, wäre es besser, wenn diese bereits in die CPU integriert ist. Das ließe sich so realisieren, dass eine Palette an Funktionen bereits an Bord des Prozessors ist - und nach Bedarf aktiviert oder freigeschaltet werden kann.
Intel setzt diese Idee jetzt mit seinen neuen, skalierbaren Xeon Prozessoren der vierten Generation um. Die Anfang des Jahres vorgestellten CPUs bieten integrierte Beschleuniger mit Funktionen, die bestimmten Workloads einen zusätzlichen Nutzen bringen. Sie steigern die Leistung ebenso wie Effizienz und Sicherheit und reduzieren den Bedarf an zusätzlicher Spezial-Hardware.
Unterstützt werden die heute gängigsten und anspruchsvollsten Workloads, und zwar sowohl in Cloud- als auch in lokalen Umgebungen. Aufgrund der Optimierungen profitieren besonders Applikationen aus den Bereichen KI, Cloud Computing, Advanced Analytics, High Performance Computing (HPC) und Netzwerkbetrieb von Intel neuer Plattform.
Mit Xeon Performance verbessern
Machine Learning ist das plakative Beispiel für den Nutzwert der integrierten Funktionen. Mit den Intel KI-Engines lässt sich die Leistung für Deep-Learning-Training und -Inferencing ohne zusätzliche Hardware beschleunigen. Der Intel Deep Learning DL-Boost steigert die Performance bei der Inferenz und dem Trainieren gängiger KI-Workloads. Gleichzeitig können mit der CPU ganz normale Anwendungen betrieben werden.
Der Software-Hersteller rinf.tech beispielsweise nutzt DL-Boost laut Intel für eine schnellere und genauere Bildanalyse. Diese ermöglicht dem Unternehmen eine bessere Echtzeit-Entscheidungsfindung bei Anwendungsfällen im Einzelhandel, in der Automobilindustrie und bei der Videoüberwachung. Die Inferenzleistung konnte um das bis zu 7,4-fache gesteigert werden.
Weitere KI-Beschleuniger sind der Intel AMX speziell für die Verarbeitung natürlicher Sprache sowie der Intel AVX-512 – letzterer wurde für High Performance Computing entwickelt, um die Leistung selbst für anspruchsvollste Rechen-Workloads noch einmal zu steigern.
Diverse Sicherheits-Engines gewährleisten die Vertraulichkeit von Daten und helfen, die Integrität von Programmcodes zu erhalten. Intel SGX beispielsweise unterstützt Unternehmen beim Schutz von sensiblen Daten, bei der Einhaltung von Datenschutzrichtlinien und der Generierung von sensiblem Code. Die britische Bausparkasse Nationwide Building Society beispielsweise setzte den SGX für die Entwicklung eines Systems ein, das die sicherere Verarbeitung von mehreren vertraulichen Datenbeständen innerhalb einer Enklave ermöglicht – unter Einhaltung der datenschutzrechtlichen Bestimmungen.
Weitere Beschleuniger gibt es für Analytics, Storage, Netzwerke und Cloud. Einen Überblick über alle Beschleuniger-Engines finden Sie hier. Welche Beschleuniger auf der CPU aktiviert sind, hängt vom jeweiligen Prozessormodell ab, beziehungsweise davon, welche freigeschaltet sind. Mit Intel on Demand können Anwender einzelne Fähigkeiten der Prozessoren auch nachträglich in Form eines Upgrades aktivieren.
Xeon-Server bei IONOS
Intel hat seine neuen Xeon-CPUs Anfang Januar 2023 vorgestellt. Der Webhoster IONOS als Partner und einer der größten Kunden des Prozessorherstellers bietet die Xeon-CPUs der 4. Generation ab sofort in seiner Bare-Metal-Umgebung auf seinen Dedicated Servern an.
Besonders bei den Root-Servern macht sich der volle Vorteil der neuen Xeon-CPUs mit den bis zu 60 Kernen bemerkbar, da die Maschinen nicht mit anderen Kunden geteilt werden. Damit steht dem Mieter die volle Server- und CPU-Leistung zur Verfügung – ohne Abstriche an der Performance machen zu müssen.
Zur Erinnerung: Dedicated Server gibt es bei IONOS als Root-Server ohne und als Managed Server mit Service. Beim Root-Server bekommt der Kunde den unkonfigurierten Rechner zur Verfügung gestellt, muss diesen also selbst konfigurieren und verwalten (siehe auch „Root-Server: Power-Rechner für Profis“). Beim Dedicated Managed Server erhält der Kunde zusätzlich gemanagte Services, die IONOS als Dienstleister übernimmt.
Im Übrigen plant IONOS, die vierte Xeon-Generation auch in Verbindung mit Intel GPU-Servern anzubieten, die speziell für rechenintensive Workloads, wie KI-Anwendungen oder Video-Streaming gedacht sind. Damit würde die neue Intel-CPU die Performance der ohnehin sehr leistungsfähigen GPU-Server noch einmal steigern.
Egal, für welchen Server sich der Kunde entscheidet: Alle Rechner – Managed Server ausgenommen – werden im Pay-as-you-Go-Modell angeboten, so dass diese jederzeit gebucht und gecancelt werden können, wenn das Computing für den Use Case beispielsweise nicht mehr benötigt wird.
Fazit
Egal, ob die Leistung gesteigert, Nachhaltigkeitsinitiativen unterstützt oder die sensibelsten Daten geschützt werden sollen – Intel bietet mit seinen neuen Xeon-CPUs eine Familie integrierter Beschleuniger, mit der sich eine Vielzahl von Anwendungsfällen ohne zusätzlich erforderliche Hardware umsetzen lässt. IONOS-Kunden können die Xeon-Prozessoren auf den dedizierten Servern mieten und für sich vollumfänglich nutzen.
Erfahren Sie hier mehr über das Intel Server Portfolio von IONOS.