Zum Hauptinhalt springen
Zusammen das Data-Center weiterentwickeln

Zusammen das Data-Center weiterentwickeln

KI auf allen Ebenen: Wie sich künstliche Intelligenz in der Cloud, im Rechenzentrum und auf Endpunkten nutzen lässt

KI auf allen Ebenen: Wie sich künstliche Intelligenz in der Cloud, im Rechenzentrum und auf Endpunkten nutzen lässt
Advanced Micro Devices GmbH
Firma: Advanced Micro Devices GmbH
Sprache: Deutsch
Größe: 1 Seite
Erscheinungsjahr: 2024
Besonderheit: registrierungsfrei
Aktuell,
relevant und
hier zuerst!

KI-Technologien und -Services sind heute überall verfügbar. Wie sich Cloud-Services, lokale Server, Clients und Edge Devices für KI einsetzen lassen – und welche technischen Voraussetzungen dafür notwendig sind.

Rund zwei Drittel der deutschen Unternehmen halten künstliche Intelligenz (KI) für die wichtigste Zukunftstechnologie, 99 Prozent der deutschen Führungskräfte sehen in generativer KI eine Schlüsseltechnologie für den Vorstand, 73 Prozent der Verbraucher vertrauen Inhalten, die von KI-Anwendungen wie ChatGPT erstellt wurden. Das sind nur einige Zahlen aus aktuellen Studien und Umfragen zur Bewertung von KI.

Trotz dieser breiten Akzeptanz setzen allerdings erst wenige Unternehmen KI ein – wenn auch mit steigender Tendenz. Laut einer Umfrage des Digitalverbands Bitkom nutzten 2023 15 Prozent der befragten Unternehmen KI, im Vorjahr waren es noch neun Prozent. Dabei sind die technischen Voraussetzungen für den KI-Einsatz besser denn je. Künstliche Intelligenz wird in Form von Services aus der Cloud angeboten, moderne Serversysteme bieten genügend Leistung, um Machine Learning (ML), das Training und die Anwendung großer Sprachmodelle (Large Language Model, LLM) wie ChatGPT und andere KI-Aufgaben lokal im Rechenzentrum auszuführen. Sogar Laptops und Embedded Devices, wie sie beispielsweise für das autonome Fahren eingesetzt werden, lassen sich für künstliche Intelligenz nutzen.

KI-Services aus der Cloud – der schnelle Einstieg

Vorgefertigte Cloud-Services erleichtern den Einstieg in die KI-Nutzung erheblich. Der wohl bekannteste KI-Dienst, der aus der Cloud bereitgestellt wird, ist ChatGPT. Der Anbieter OpenAI hostet seine Server in der Microsoft-Cloud Azure. Azure-Kunden können zudem das zugrundeliegende Sprachmodell (Large Language Model, LLM) GPT-4 (Generative Pretrained Transformer) über den Azure OpenAI Service in eigenen Projekten nutzen. Insgesamt bietet Microsoft im Bereich KI und Machine Learning fast 30 verschiedene Services. Die Einsatzgebiete reichen von der Mustererkennung über die Bot-Erstellung bis hin zu Computer Vision und Spracherkennung.

Darüber hinaus bietet Microsoft in Azure speziell für KI-Aufgaben optimierte Virtuelle Maschinen (VM) an. Flaggschiff des Angebots ist die VM ND MI300x5 v5, die bis zu 1,5 TB an High Bandwidth Memory (HBM) zur Verfügung stellt. Möglich machen dies acht AMD Instinct MI300X GPUs, die über die herstellereigene Infinity Fabric 3.0 verbunden sind. Ein MI300X-Chip bietet 192 GB HBM3-Speicher bei einer Übertragungsgeschwindigkeit von bis zu 5,2 TB/s. Die VMs eignen sich vor allem für das Training sehr großer Modelle, bei denen riesigen Datenmengen verarbeitet werden müssen.

Ein Beispiel für die Anwendung von KI aus der Cloud gibt die Bausparkasse Schwäbisch Hall. Sie nutzt die Azure AI Services für ihre Data-Science-Plattform. Finanzierungsanfragen lassen sich nun automatisiert und deutlich schneller bearbeiten. Auch bei Marktanalysen und der Betrugserkennung leisten die AI Services wertvolle Hilfe.

KI im eigenen Rechenzentrum - für mehr Vertraulichkeit und Flexibilität

Nicht immer ist die Cloud die beste Plattform für KI-Projekte. Wenn beispielsweise sensible personenbezogene Daten oder Geschäftsgeheimnisse verarbeitet werden oder große Datenmengen mit geringer Latenz analysiert werden sollen, ist die Verarbeitung im lokalen Rechenzentrum oft die bessere Alternative.

Was die Verarbeitung großer KI-Modelle, die Energieeffizienz und das Preis-Leistungs-Verhältnis angeht, haben Server in den vergangenen Jahren große Fortschritte gemacht. So kann etwa der Dell-Server „XE9680“ aus der PowerEdge-Serie dank acht verbauter AMD Instinct MI300x-KI-Beschleuniger und High-Speed Ethernet Fabric auch anspruchsvollste Workloads verarbeiten. Das für LLM optimierte System AS-8125GS-TNMR2 von Supermicro eignet sich für Sprachmodelle mit bis zu einer Billion Parameter. Es ist mit acht MI300X-Akzeleratoren ausgestattet und erreicht eine theoretische P2P-E/A-Spitzenbandbreite von bis zu 896 GB/s. Als CPU kommen Sockel-Prozessoren der AMD EPYC 9004-Serie mit bis zu 256 Kernen zum Einsatz. In einem Rack sind über 1000 CPU-Kerne, 24 TB DDR5-Speicher, 6,144 TB HBM3-Speicher und 9728 Compute Units verfügbar.

Wie die Leistungsfähigkeit moderner KI-Beschleuniger in der Medikamentenforschung eingesetzt werden kann, zeigt das Lawrence Liverpool National Laboratory (LLNL). Das Institut nutzt mehr als 1.600 AMD Instinct GPUs, um Milliarden von molekularen Verbindungen und deren Interaktion untersuchen zu können. Der Zeitbedarf für die Entdeckung neuer potenzieller Therapeutika soll sich so von drei Jahren auf sechs Monate verkürzen.

Maschinelles Lernen auf dem Laptop – kein Wunschtraum

Bei der Entwicklung kleinerer Machine-Learning-Modelle, dem Feintuning von Basismodellen (Foundation Models) und für die Anwendung von KI beim sogenannten Inferencing (Schlussfolgern) können ohne Weiteres auch Desktop-PCs und Laptops zum Einsatz kommen. Sie bieten größtmögliche Flexibilität und Unabhängigkeit, was Entwickler sehr schätzen. Zudem bleiben sensible Trainings- und Anwendungsdaten lokal gespeichert. Das minimiert die Gefahr von Datenschutzverletzungen und ermöglicht es, auch dann an KI-Projekten zu arbeiten, wenn keine oder nur eine unzuverlässige Netzverbindung besteht, etwa im Zug oder auf Reisen.

Zu den Laptops, die sich am besten für KI-Aufgaben eignen, gehören Geräte mit AMD Ryzen Prozessoren ab der 7000er-Serie, etwa das Lenovo Thinkpad Z16 Gen 2. Sein Vorgänger wurde im vergangenen Jahr vom Laptop Mag auf Platz 1 der besten AMD Ryzen Laptops gewählt. Mit der KI-Engine AMD Ryzen AI bietet die Plattform einen dedizierten hardwarebasierten KI-Beschleuniger, der sowohl CPU als auch GPU von KI-Aufgaben entlastet und die Berechnung von KI-Workloads beschleunigt. Davon profitieren im Übrigen nicht nur Entwickler, auch KI-Assistenten wie Microsoft Copilot oder die automatische Kameranachführung in Microsoft Teams werden spürbar schneller und besser, was das Nutzererlebnis insgesamt verbessert.

Welche Leistung in aktuellen Laptops steckt, zeigt das Unternehmen Topaz Labs. Es bietet Lösungen, mit denen sich Fotos und Videos KI-basiert verbessern lassen. „Mit Ryzen AI lassen sich unsere KI-Modelle auf Laptops heute schneller berechnen, als noch vor vier Jahren mit einer Desktop-GPU“, sagt Suraj Raghuraman, Head oft AI Engine bei Topaz Labs in einem Video. „Nutzer unserer Software können KI-Workloads schnell und effektiv bearbeiten, ohne auf die Cloud angewiesen zu sein.“

KI am Edge – wie Embedded Devices intelligent werden

Intelligente Assistenten haben das Autofahren deutlich sicherer und komfortabler gemacht. Spur- und Abstandshalter warnen bei Gefahr oder greifen direkt ein, Informations- und Unterhaltungssysteme lassen sich per Sprachsteuerung bedienen und bieten vielfältige Vernetzungsmöglichkeiten. Selbst das autonome Fahren scheint in greifbare Nähe gerückt. So transportieren beispielsweise in San Francisco seit August 2023 fahrerlose Robotaxis Passagiere. Der Pilotversuch wird als Autonomes Fahren Level 4 (von 5) eingestuft, da er zeitlich und örtlich beschränkt ist.

Ermöglicht wird diese Leistung durch integrierte Computersysteme (Embedded Devices), bei denen alle wesentlichen Komponenten hochintegriert auf einem Chip verbaut sind (System-on-a-Chip, SoC) – ein Verfahren, das auch bei Smartphone-Prozessoren zur Anwendung kommt. Die AI Engines des SoC sind in der Lage, verschiedene Arten von KI-Modellen wie Klassifizierung und Feature Tracking zu verarbeiten. Moderne SoC-Systeme wie die Versal AI Edge XA-Serie von AMD sind für KI-Aufgaben wie Computer Vision oder Inferencing auf großen Datenmengen optimiert, können aber auch in Lidar (Light detection and ranging) und Radar-Sensoren für die Abstands- und Geschwindigkeitsmessung eingesetzt werden.

Der Automobilhersteller Subaru verwendet intelligente SoCs beispielsweise für sein bildgestütztes Fahrerassistenzsystem EyeSight. Der Assistent überwacht kontinuierlich die Verkehrssituation, unterstützt bei einer angepassten Fahrweise und warnt, wenn was Fahrzeug die Spur verlässt.

Fazit: Die Zukunft der künstlichen Intelligenz ist jetzt

Die Leistungsfähigkeit von KI-Systemen und deren Anwendungsmöglichkeiten entwickeln sich rasant. Unternehmen müssen jetzt einsteigen, um von den Vorteilen zu profitieren und nicht abgehängt zu werden. Aus technischer Sicht gibt es keinen Grund, länger zu warten. Schließlich lassen sich heute KI-Aufgaben wie das Training von ML-Algorithmen oder das Inferencing auf einer Vielzahl von Systemen bearbeiten – vom Cloud-Service über das Rechenzentrum bis hin zu Laptops und Embedded Devices.

KI auf allen Ebenen: Wie sich künstliche Intelligenz in der Cloud, im Rechenzentrum und auf Endpunkten nutzen lässt

Inhaltstyp: Artikel
Advanced Micro Devices GmbH