Die Entwicklung und der Einsatz von KI-Anwendungen erfordert leistungsfähige Computersysteme. Gute Ergebnisse lassen sich nur erzielen, wenn alle Schritte optimiert sind – vom Training der Algorithmen über das Inferencing bis zur Bewertung. Wie verschiedene CPU-Systeme in einer End-to-End-Machine-Learning-Pipeline abschneiden, zeigt das Video.
Die Entwicklung und der Einsatz künstlicher Intelligenz (KI) besteht aus mehreren Schritten: Zunächst wird das Modell anhand von Beispieldaten trainiert. Die Optimierung der Antworten erfolgt entweder selbständig (Unsupervised Learning) oder mit menschlicher Unterstützung (Supervised Learning).
Ist das System einsatzbereit, kann es mit nicht vorab klassifizierten Daten genutzt werden. Die Verwendung wird üblicherweise als Inferencing oder Inferenz bezeichnet. Die Ergebnisse müssen kontinuierlich überprüft und evaluiert werden, um das KI-System kontinuierlich verbessern zu können. Der gesamte Prozess wird als End-to-End-Machine-Learning-Pipeline bezeichnet.
Im vorliegenden Video erfahren Sie, wie verschiedene CPU-Systeme bei der Bearbeitung dieser Pipeline im Branchenbenchmark TPCx-AI abschneiden.
Sehen Sie,
- welche Schritte der TPCx-AI Benchmark umfasst
- wie die einzelnen Phasen der ML-Pipeline zusammenspielen
- welche Geschwindigkeitsvorteile Sie durch die Wahl einer geeigneten Plattform erzielen können