Zum Hauptinhalt springen
Moderne IT-Infrastruktur

Moderne IT-Infrastruktur

Skalierbare Intel® Xeon® Prozessoren: Wie die vierte Generation KI und andere Anwendungen demokratisiert

Skalierbare Intel® Xeon® Prozessoren: Wie die vierte Generation KI und andere Anwendungen demokratisiert
logo-energyblue-3000px.png
Firma: Intel
Sprache: Deutsch
Größe: 1 Seite
Erscheinungsjahr: 2023
Besonderheit: registrierungsfrei
Aktuell,
relevant und
hier zuerst!

Durch integrierte Beschleunigungseinheiten ermöglicht es die vierte Generation der Intel Xeon Prozessoren, KI- und andere Workloads schneller, effizienter und sicherer zu bearbeiten. Ein Beispiel aus der Praxis zeigt, welche Verbesserungen dadurch möglich sind.

Unternehmen müssen heute eine Vielzahl unterschiedlichster Aufgaben und Anwendungen ausführen. Das Spektrum reicht von Big-Data-Analysen über Deep Learning und andere Methoden der künstlichen Intelligenz bis zu Industrie 4.0 und Internet of Things (IoT), 5G-Networking oder High-Performance Computing (HPC). Der Aufbau spezieller Plattformen für jeden einzelnen Einsatzzweck ist jedoch eine große Herausforderung – und für viele Firmen zu kosten- und ressourcenintensiv.

Mit der vierten Generation der skalierbaren Xeon Prozessoren adressiert Intel diese Herausforderung. Die neuen CPUs sind für eine Vielzahl von Einsatzzwecken geeignet, ohne dass Anwender Kompromisse bei Geschwindigkeit, Leistung und Benutzerfreundlichkeit machen müssten. Möglich wird das durch eine ganze Reihe neuer Beschleunigungsfunktionen (Accelerator Engines) und Erweiterungen (Extensions), die auf spezielle Workloads zugeschnitten sind. Die integrierten Beschleuniger und Extensions optimieren zudem den Energiebedarf und erleichtern es Kunden so, ihre Nachhaltigkeitsziele zu erreichen.

Zu den wichtigsten Beschleunigungsfunktionen und Erweiterungen in der aktuellen Xeon-Generation gehören die folgenden Module:

Advanced Matrix Extensions (AMX): Bereits 2017 integrierte Intel erste Beschleunigungsfunktionen für Machine Learning und andere Formen der künstlichen Intelligenz in Xeon Prozessoren. Mit der vierten Generation kommen neue Erweiterungen für Deep Learning und Inferenz-Workloads wie Natural Language Recognition, Recommendation Engines und Computer Vision hinzu.

Data Streaming Accelerator (DSA): Diese Erweiterung optimiert die Übertragung und Verarbeitung großer Datenmengen. Von dieser Beschleunigung profitieren vor allem Networking- und Speicheranwendungen sowie datenintensive Workloads wie effizientere Big-Data-Analysen.

In-Memory Analytics Accelerator (IAA): In-Memory-Datenbanken wie SAP HANA haben in den vergangenen Jahren stark an Bedeutung gewonnen. Der In-Memory Analytics Accelerator unterstützt die CPU bei In-Memory-Datenbankanalysen und anderen datenintensiven Workloads, beschleunigt den Durchsatz und verbessert so die Analyseleistung.

Trust Domain Extensions (TDX): Nachdem in der dritten Generation mit den Software Guard Extensions hochsicheres Confidential Computing ermöglicht wurde, erweitert Intel nun mit den Trust Domain Extensions (TDX) die Möglichkeiten zur Isolation von Virtuellen Maschinen. Mit ihnen lassen sich bestehende Applikationen nahtlos in eine Confidential-Computing-Umgebung migrieren, ohne dass der Code geändert werden müsste. Microsoft Azure, Alibaba Cloud, Google Cloud und IBM Cloud haben bereits angekündigt, TDX ihren Kunden noch vor der allgemeinen Verfügbarkeit der Prozessoren zur Verfügung zu stellen.

4th Gen in der Praxis: Wie die vierte Xeon-Generation KI-Anwendungen beschleunigt

Wie die Beschleunigungsfunktionen bei der Beantwortung komplexer Fragestellungen helfen können, zeigt ein Projekt des Intel-Partners Fujitsu. Gemeinsam mit dem österreichischen Autobahnbetreiber ASFINAG hat das Unternehmen auf seiner DX Innovation Platform im Rahmen der AI Test Drive-Initiative eine Lösung entwickelt, mit der sich Elektrofahrzeuge anhand des Nummernschildes identifizieren lassen. Ziel ist es, Anteil und Verteilung elektrisch betriebener PKW im österreichischen Straßenverkehr besser zu evaluieren, um so beispielsweise die Ladesäulenverteilung optimieren zu können. Dabei sollten die Fahrzeuge nicht individuell identifiziert, sondern nur generell den Kategorien Verbrenner oder E-Auto zugeordnet werden.

Diese Erkennung stößt jedoch auf einige Schwierigkeiten. So ist etwa die Kennzeichnung von Elektrofahrzeugen in Europa nicht einheitlich geregelt. In Deutschland können Besitzer beispielsweise optional ein Kennzeichen mit einem „E“ am Ende erhalten. In Österreich sind Elektroautos an grün gefärbten Zahlen und Buchstaben auf dem Nummernschild erkennbar. Das System muss daher alle in Europa verwendeten Merkmale kennen und analysieren können.

Erschwert wird diese Analyse durch schlechte Lichtverhältnisse etwa nachts, bei Regen oder Nebel. Vor allem die farbige Kennzeichnung von Elektrofahrzeugen auf dem Nummernschild, wie sie in Österreich üblich ist, macht automatisierten Erkennungssystemen unter solchen Bedingungen Probleme. Ungünstige Winkel, Reflexionen oder hohe Geschwindigkeit können aber auch die Erkennung von Buchstaben wie dem „E“ auf deutschen Nummernschildern schwierig machen. Schließlich stellt die schiere Zahl der Automobile eine Herausforderung dar. Bei hohem Verkehrsaufkommen ist das System mit der Echtzeitanalyse der Nummernschilder überfordert.

In einem ersten Schritt konnte eine Erkennungsrate von 2,3 e-Fahrzeugen pro Sekunde erreicht werden, wobei es genau genommen nicht um die Erkennung von Fahrzeugen an sich, sondern vielmehr die Extraktion eines Attributes, nämlich der grünen Farbe der Nummernschildbeschriftung geht. Grün bedeutet: e-Fahrzeug. 2,3 Erkennungen sind kein schlechter, aber auch kein überragender Wert. Im Rahmen der Optimierung mit Hilfe des Fujitsu AI Test Drive, wurde - durch den Einsatz des Computer Vision Toolkits OpenVino (Open Visual Inference & Neural Network Optimization) von Intel - die Trefferquote bereits auf 30 Bilder pro Sekunde erhöht. Mit der vierten Xeon-Generation ist eine weitere signifikante Verbesserung der Analysegeschwindigkeit möglich. Erste Testreihen haben Werte von über 5.000 Bilder/s ergeben, ein herausragender Wert welcher das avisierte Projektziel mehr als übererfüllt!

Fazit: Xeon 4th Gen demokratisiert nicht nur KI

Viele Unternehmen scheuen heute noch den Einstieg in die KI-Welt, weil sie ihn mit der Anschaffung kostspieliger Spezialsysteme mit einer großen Zahl von Grafikprozessoren verbinden. Die Beschleunigungsfunktionen in der vierten Xeon-Generation senken diese Hürde deutlich. Dank ihnen lassen sich KI-Workloads auf jedem Server schnell und effizient bearbeiten, wie das Praxisbeispiel von Fujitsu und ASFINAG zeigt. So können auch Anwender von künstlicher Intelligenz profitieren, die bisher aus Ressourcen- oder Kostengründen davor zurückschreckten.

Diese Demokratisierung beschränkt sich aber nicht nur auf künstliche Intelligenz. Auch andere Bereiche profitieren stark von den Accelerator Engines. So können Unternehmen mit den 4th Gen Prozessoren auch bei Big-Data-Analysen, Industrieanwendungen oder im High-Performance Computing zukünftig schneller, kostengünstiger und unkomplizierter zu besseren Ergebnissen kommen.

11078 Views / Downloads

Teilen

Skalierbare Intel® Xeon® Prozessoren: Wie die vierte Generation KI und andere Anwendungen demokratisiert

Inhaltstyp: Artikel
logo-energyblue-3000px.png